OpenAI und Anthropic testen gegenseitig Modelle auf Halluzinationen und Sicherheitsprobleme
Jinse Finance berichtet, dass OpenAI und Anthropic kürzlich gegenseitig die Modelle des jeweils anderen evaluiert haben, um mögliche Probleme zu identifizieren, die in den eigenen Tests übersehen wurden. Beide Unternehmen erklärten am Mittwoch in ihren jeweiligen Blogs, dass sie in diesem Sommer Sicherheitsprüfungen an den öffentlich verfügbaren AI-Modellen des jeweils anderen durchgeführt und untersucht haben, ob die Modelle zu Halluzinationen neigen oder sogenannte „Misalignment“-Probleme aufweisen, also nicht wie von den Entwicklern beabsichtigt funktionieren. Diese Bewertungen wurden abgeschlossen, bevor OpenAI GPT-5 veröffentlichte und Anthropic Anfang August Opus 4.1 herausbrachte. Anthropic wurde von ehemaligen OpenAI-Mitarbeitern gegründet.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
Daten: 548,16 BTC wurden von der Börse Prime abgezogen und nach einer Zwischenstation an BlackRock transferiert.
Im Trend
MehrDie Aktie des von der Trump-Familie unterstützten Krypto-Mining-Unternehmens American Bitcoin hat sich innerhalb von 30 Minuten halbiert.
Daten: In den letzten 24 Stunden wurden im gesamten Netzwerk Liquidationen im Wert von 382 Millionen US-Dollar verzeichnet, davon Long-Positionen im Wert von 66,02 Millionen US-Dollar und Short-Positionen im Wert von 316 Millionen US-Dollar.
