Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnCommunautéPlus
Google retire Gemma AI de AI Studio et réaffirme sa vocation exclusivement destinée aux développeurs face aux problèmes de précision.

Google retire Gemma AI de AI Studio et réaffirme sa vocation exclusivement destinée aux développeurs face aux problèmes de précision.

MPOSTMPOST2025/11/04 02:00
Par:MPOST

En bref Google a retiré son modèle Gemma suite à des signalements d'hallucinations lors de questions factuelles, l'entreprise soulignant qu'il était destiné aux développeurs et à la recherche.

Entreprise technologique Google a annoncé le retrait de son modèle d'IA Gemma suite à des signalements de réponses inexactes à des questions factuelles, précisant que le modèle était conçu uniquement pour la recherche et les développeurs. 

D'après le communiqué de l'entreprise, Gemma n'est plus accessible via AI Studio, mais reste disponible pour les développeurs via l'API. Cette décision fait suite à des cas d'utilisation de Gemma par des non-développeurs via AI Studio pour obtenir des informations factuelles, ce qui n'était pas sa fonction première. 

Google a expliqué que Gemma n'avait jamais été conçue comme un outil destiné aux consommateurs et que sa suppression visait à éviter tout malentendu supplémentaire concernant son objectif.

Dans sa clarification, Google a souligné que la famille de modèles Gemma avait été développée comme un ensemble d'outils open source destinés à soutenir les développeurs et les chercheurs, et non à fournir une assistance factuelle ou à interagir avec les consommateurs. L'entreprise a précisé que les modèles ouverts tels que Gemma visent à encourager l'expérimentation et l'innovation, permettant aux utilisateurs d'explorer les performances des modèles, d'identifier les problèmes et de fournir des retours d'information précieux. 

Nous souhaitions partager plus d'informations sur Gemma dans AI Studio :

Tout d'abord, il convient de clarifier la distinction entre nos produits d'IA. Nos modèles Gemma constituent une famille de modèles ouverts, conçus spécifiquement pour les développeurs et les chercheurs. Ils ne sont pas destinés à fournir une assistance factuelle ni à…

— Actualités de Google (@NewsFromGoogle) 1 novembre 2025

Google a souligné que Gemma a déjà contribué aux progrès scientifiques, citant l'exemple du modèle Gemma C2S-Scale 27B, qui a récemment joué un rôle dans l'identification d'une nouvelle approche du développement de thérapies contre le cancer.

L'entreprise a reconnu les défis plus larges auxquels est confrontée l'industrie de l'IA, tels que les hallucinations (lorsque les modèles génèrent des informations fausses ou trompeuses) et la flagornerie (lorsqu'ils produisent des réponses agréables mais inexactes). 

Ces problèmes sont particulièrement fréquents parmi les petits modèles ouverts comme Gemme Google a réaffirmé son engagement à réduire les hallucinations et à améliorer continuellement la fiabilité et les performances de ses systèmes d'IA.

Google met en œuvre une stratégie à plusieurs niveaux pour limiter les hallucinations de l'IA 

L'entreprise utilise une approche multicouche pour minimiser les hallucinations dans ses grands modèles de langage (LLM), combinant l'ancrage des données, un entraînement et une conception de modèle rigoureux, des incitations structurées et des règles contextuelles, ainsi qu'une supervision et des mécanismes de retour d'information humains continus. Malgré ces mesures, l'entreprise reconnaît que les hallucinations ne peuvent être totalement éliminées.

La limitation fondamentale réside dans le fonctionnement des modèles de langage. Au lieu de posséder une compréhension de la vérité, ces modèles prédisent des séquences de mots probables à partir de schémas identifiés lors de l'apprentissage. Lorsqu'un modèle manque de données d'entraînement ou est confronté à des données externes incomplètes ou peu fiables, il peut générer des réponses qui paraissent crédibles mais qui sont factuellement incorrectes.

Par ailleurs, Google souligne que l'optimisation des performances des modèles implique des compromis inhérents. Accroître la prudence et limiter les résultats peuvent contribuer à réduire les erreurs d'interprétation, mais souvent au détriment de la flexibilité, de l'efficacité et de l'utilité pour certaines tâches. De ce fait, des inexactitudes ponctuelles persistent, notamment dans les domaines émergents, spécialisés ou sous-représentés où la couverture des données est limitée.

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !

Vous pourriez également aimer

Le Bitcoin chute sous les 95 000 $ : des signaux baissiers apparaissent, mais sa résilience incite à la prudence.

En bref Le Bitcoin est tombé sous la barre des 95 000 dollars dans un contexte de baisse généralisée des cryptomonnaies et des actions, incitant à la prudence tandis que les analystes se demandent si une phase baissière commence ou si les niveaux de support se maintiendront.

MPOST2025/11/16 17:27
Le Bitcoin chute sous les 95 000 $ : des signaux baissiers apparaissent, mais sa résilience incite à la prudence.