Google zieht Gemma AI aus AI Studio zurück und bekräftigt angesichts von Genauigkeitsbedenken den ausschließlichen Entwicklerzweck.
In Kürze Google hat sein Gemma-Modell nach Berichten über Halluzinationen bei der Beantwortung von Faktenfragen zurückgezogen. Das Unternehmen betonte, dass es für Entwickler- und Forschungszwecke gedacht sei.
Technologieunternehmen Google Das Unternehmen kündigte die Rücknahme seines Gemma-KI-Modells an, nachdem Berichte über ungenaue Antworten auf sachliche Fragen eingegangen waren, und stellte klar, dass das Modell ausschließlich für Forschungs- und Entwicklerzwecke konzipiert worden sei.
Laut Unternehmensangaben ist Gemma nicht mehr über AI Studio zugänglich, steht Entwicklern aber weiterhin über die API zur Verfügung. Anlass für diese Entscheidung waren Fälle, in denen Nicht-Entwickler Gemma über AI Studio nutzten, um Fakten abzurufen, was nicht der vorgesehenen Funktion entsprach.
Google erklärte, Gemma sei nie als Tool für Endverbraucher gedacht gewesen, und die Entfernung erfolge, um weitere Missverständnisse hinsichtlich seines Zwecks zu vermeiden.
In seiner Klarstellung betonte Google, dass die Gemma-Modellfamilie als Open-Source-Werkzeuge zur Unterstützung der Entwickler- und Forschungsgemeinschaft entwickelt wurde und nicht zur Bereitstellung von Fakten oder zur Interaktion mit Endnutzern. Das Unternehmen merkte an, dass offene Modelle wie Gemma Experimente und Innovationen fördern sollen, indem sie Nutzern ermöglichen, die Modellleistung zu untersuchen, Probleme zu identifizieren und wertvolles Feedback zu geben.
Google hob hervor, dass Gemma bereits zu wissenschaftlichen Fortschritten beigetragen hat, und nannte als Beispiel das Gemma C2S-Scale 27B-Modell, das kürzlich eine Rolle bei der Identifizierung eines neuen Ansatzes für die Entwicklung von Krebstherapien spielte.
Das Unternehmen räumte ein, dass die KI-Branche auch mit umfassenderen Herausforderungen konfrontiert ist, wie etwa Halluzinationen – wenn Modelle falsche oder irreführende Informationen erzeugen – und Schmeichelei – wenn sie zwar angenehme, aber ungenaue Antworten liefern.
Diese Probleme treten besonders häufig bei kleineren offenen Modellen auf wie Gemma Google bekräftigte sein Engagement, Halluzinationen zu reduzieren und die Zuverlässigkeit und Leistungsfähigkeit seiner KI-Systeme kontinuierlich zu verbessern.
Google setzt mehrschichtige Strategie ein, um KI-Halluzinationen einzudämmen
Das Unternehmen verfolgt einen mehrstufigen Ansatz, um Halluzinationen in seinen großen Sprachmodellen (LLMs) zu minimieren. Dieser kombiniert Datenfundierung, rigoroses Training und Modelldesign, strukturierte Eingabeaufforderungen und Kontextregeln sowie kontinuierliche menschliche Überwachung und Feedbackmechanismen. Trotz dieser Maßnahmen räumt das Unternehmen ein, dass Halluzinationen nicht vollständig ausgeschlossen werden können.
Die grundlegende Einschränkung ergibt sich aus der Funktionsweise von LLMs. Anstatt die Wahrheit zu verstehen, funktionieren diese Modelle, indem sie wahrscheinliche Wortfolgen auf Basis von während des Trainings identifizierten Mustern vorhersagen. Fehlt dem Modell eine ausreichende Grundlage oder trifft es auf unvollständige oder unzuverlässige externe Daten, kann es Antworten generieren, die zwar glaubwürdig klingen, aber faktisch falsch sind.
Google weist zudem darauf hin, dass die Optimierung der Modellleistung mit gewissen Zielkonflikten verbunden ist. Erhöhte Vorsicht und eingeschränkte Ergebnisse können zwar Fehlinterpretationen reduzieren, gehen aber oft auf Kosten von Flexibilität, Effizienz und Nützlichkeit bei bestimmten Aufgaben. Daher können gelegentlich Ungenauigkeiten auftreten, insbesondere in neuen, spezialisierten oder unterrepräsentierten Bereichen mit begrenzter Datenabdeckung.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Tether will 1 Milliarde Dollar in Roboter stecken, hier ist warum
Tether macht sich bereit für einen Mega-Deal in humanoide Roboter, und dieser Schritt könnte die Krypto- und die Robotikbranche gleichzeitig auf den Kopf stellen.
Top 5 Memecoins, die heftig abgestürzt sind: jetzt eine Kaufchance?Top 5 Memecoin Verlierer der Woche (nach groesstem 7 Tage Verlust sortiert)Werden
Memecoins haben diese Woche heftig verloren. Hier sind die 5 groessten Verlierer und was passieren koennte, wenn sich Bitcoin wieder fängt.
Kryptomarkt im Rückgang: Bitcoin, Ethereum und Dogecoin unter Druck
Zusammenfassung des Artikels Der Kryptowährungsmarkt zeigt hohe Volatilität mit Kursverlusten bei Bitcoin und Dogecoin, während institutionelle Anleger weiterhin DOGE-Tokens akkumulieren. Die Unterstützung bei 0,16 US-Dollar könnte entscheidend für die zukünftige Entwicklung von Dogecoin sein.

Ethereum-Wale investieren 1,6 Mrd. USD, Verkaufsdruck von Langzeithaltern sinkt
Zusammenfassung des Artikels Ethereum-Wale haben 1,6 Mrd. USD in ETH investiert und zeigen Vertrauen in die Erholung des Marktes, während der Verkaufsdruck von langfristigen Haltern abnimmt.

