O Google retira a Gemma AI do AI Studio e reitera sua finalidade exclusiva para desenvolvedores em meio a preocupações com a precisão.
Em Breve O Google retirou seu modelo Gemma do mercado após relatos de alucinações em relação a perguntas factuais, com a empresa enfatizando que ele era destinado a desenvolvedores e para fins de pesquisa.
Empresa de tecnologia Google A empresa anunciou a retirada do seu modelo de IA Gemma após relatos de respostas imprecisas a perguntas factuais, esclarecendo que o modelo foi projetado exclusivamente para uso em pesquisa e desenvolvimento.
De acordo com o comunicado da empresa, Gemma não está mais acessível pelo AI Studio, embora continue disponível para desenvolvedores via API. A decisão foi motivada por casos de usuários não desenvolvedores que utilizaram Gemma pelo AI Studio para solicitar informações factuais, o que não era sua função original.
O Google explicou que Gemma nunca teve a intenção de servir como uma ferramenta voltada para o consumidor, e a remoção foi feita para evitar mais mal-entendidos sobre sua finalidade.
Em seu esclarecimento, o Google enfatizou que a família de modelos Gemma foi desenvolvida como ferramentas de código aberto para apoiar as comunidades de desenvolvedores e pesquisadores, e não para fornecer informações factuais ou interação com o consumidor. A empresa observou que modelos abertos como o Gemma visam incentivar a experimentação e a inovação, permitindo que os usuários explorem o desempenho do modelo, identifiquem problemas e forneçam feedback valioso.
O Google destacou que Gemma já contribuiu para avanços científicos, citando o exemplo do modelo Gemma C2S-Scale 27B, que recentemente desempenhou um papel na identificação de uma nova abordagem para o desenvolvimento de terapias contra o câncer.
A empresa reconheceu desafios mais amplos que o setor de IA enfrenta, como alucinações — quando os modelos geram informações falsas ou enganosas — e bajulação — quando produzem respostas agradáveis, mas imprecisas.
Esses problemas são particularmente comuns em modelos abertos menores, como jóia O Google reafirmou seu compromisso em reduzir as alucinações e aprimorar continuamente a confiabilidade e o desempenho de seus sistemas de IA.
O Google implementa uma estratégia de múltiplas camadas para conter as alucinações da IA.
A empresa emprega uma abordagem multicamadas para minimizar alucinações em seus grandes modelos de linguagem (LLMs), combinando fundamentação de dados, treinamento e design de modelos rigorosos, instruções estruturadas e regras contextuais, além de mecanismos contínuos de supervisão e feedback humano. Apesar dessas medidas, a empresa reconhece que as alucinações não podem ser completamente eliminadas.
A limitação fundamental decorre do modo como os Modelos de Aprendizagem Lógica (LLMs) operam. Em vez de possuírem uma compreensão da verdade, os modelos funcionam prevendo sequências prováveis de palavras com base em padrões identificados durante o treinamento. Quando o modelo não possui fundamentação suficiente ou se depara com dados externos incompletos ou não confiáveis, ele pode gerar respostas que soam críveis, mas são factualmente incorretas.
Além disso, o Google observa que existem compensações inerentes à otimização do desempenho do modelo. Aumentar a cautela e restringir a saída pode ajudar a limitar as alucinações, mas geralmente ocorre à custa da flexibilidade, eficiência e utilidade em determinadas tarefas. Como resultado, imprecisões ocasionais persistem, principalmente em áreas emergentes, especializadas ou sub-representadas, onde a cobertura de dados é limitada.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Bitcoin cai para mínima de 6 meses em meio a sinais mistos
Tether planeja diversificar seu portfólio em robótica e commodities

7 projetos que tornarão as criptomoedas acessíveis a iniciantes em 2025
Em Breve Em 2025, uma nova geração de ferramentas criptográficas — desde carteiras inteligentes e contas multisig até carteiras de hardware — está tornando os ativos digitais mais seguros e acessíveis para iniciantes.

CoinPoker bane jogador por uso de RTA e devolve US$ 10 mil a 59 usuários afetados
Após uma investigação detalhada, a empresa confirmou que o jogador conhecido como 'LazyAss' utilizava Real-Time Assistance (RTA).

