Gemini 1.5 é o novo modelo de IA anunciado pelo Google

Fundo gradiente com o logo do Gemini 1.5 do Google. Imagem ilustração: Panorama Tecnológico.

Ao que parece, o Google não quer perder nem mais um segundo para destacar seu espaço no mercado de soluções de IA generativa. Isso porque na semana passada ela anunciou a retirada do Bard para dar lugar ao Gemini 1.0 Ultra. Nesta quinta-feira (15), a empresa anunciou mais um avanço do Gemini, o Gemini 1.5. Confira!

De acordo com o anúncio, a equipe por trás do produto, conseguiu grandes avanços nas pesquisas fazendo com que o Gemini 1.5 apresente a mesma qualidade da versão 1.0 Ultra, porém usando menos poder de computação. Além disso a nova geração do Gemini terá capacidade de compreensão de textos longos, representando um aumento significativo na quantidade de informações a serem processadas. Em termos simples, isso significa que chat do Google irá apresentar as respostas de forma mais rápida aos seus usuários.

A Google ainda destaca que seu mais novo modelo de IA, o Gemini 1.5, tem a capacidade de aprender tarefas mais complexas com mais rapidez, mantendo a mesma qualidade. Além disso, seu modelo baseado em nova arquitetura chamada MoE (Mixture-of-Experts), faz com que o modelo aprenda a ativar de forma seletiva, pequenas partes especializadas de seu modelo, ao invés de processar o modelo inteiro. Esse é o “pulo do gato” para obter resultados iguais ou melhores, mas com menor custo.

O que muda no seu funcionamento?

Tecnicamente falando, a nova versão do Gemini, possui uma arquitetura mais eficiente para processar uma quantidade maior de informações e com mais rapidez. Aliado a essa capacidade, o Gemini 1.5 tem uma janela de contexto mais longa do que qualquer modelo até o momento. Conforme anúncio do Google, o Gemini 1.5 pode processar até 1 milhão de tokens em uma só entrada. Isso traduz em processamento de grandes quantidades de informações em uma só vez, como por exemplo:

  • 1 hora de vídeo;
  • 11 horas de áudio;
  • 700 mil palavras;
  • Uma base de código de programação de 30 mil linhas.

Para se ter uma ideia, o ChatGPT na sua versão GPT-4 da OpenAI, possui uma janela de contexto de 128.000 tokens.

A Google informa que esse recurso de “janela de contexto mais longa”, no momento é um recurso experimental. Logo, a partir de hoje, ela está oferecendo acesso prévio para desenvolvedores e clientes corporativos em uma janela padrão de 128.000 tokens. Ela ainda informa que irá disponibilizar níveis de preços com janelas que vão de 128.000 a 1 milhão. Ou seja, o público em geral que utiliza a versão gratuita não terá acesso a janela mais longa.

Com o lançamento da nova versão do Gemini, o Google se posiciona como uma empresa de referência em soluções de IA. Curiosamente o lançamento de hoje aconteceu uma semana após o anúncio do Gemini em substituição ao Bard, bem numa quinta-feira. Seguindo esse padrão, será que teremos mais novidades na próxima quinta-feira?

Fonte: Blog Google, Google Cloud.

Siga nossas redes sociais!