Bitget App
Trade smarter
Acquista CryptoMercatiTradingFuturesEarnPlazaAltro
OpenAI e Anthropic testano reciprocamente i modelli per problemi di allucinazione e sicurezza

OpenAI e Anthropic testano reciprocamente i modelli per problemi di allucinazione e sicurezza

金色财经金色财经2025/08/27 18:04
Mostra l'originale

Secondo quanto riportato da Jinse Finance, OpenAI e Anthropic hanno recentemente valutato reciprocamente i modelli dell'altra parte, al fine di individuare eventuali problemi che potrebbero essere stati trascurati nei propri test. Le due aziende hanno dichiarato mercoledì, ciascuna sul proprio blog, che durante l'estate hanno condotto test di sicurezza sui modelli AI pubblicamente disponibili dell'altra parte, esaminando la tendenza dei modelli a generare allucinazioni e il cosiddetto problema di “misalignment”, ovvero quando il modello non si comporta come previsto dagli sviluppatori. Queste valutazioni sono state completate prima del lancio di GPT-5 da parte di OpenAI e della pubblicazione di Opus 4.1 da parte di Anthropic all'inizio di agosto. Anthropic è stata fondata da ex dipendenti di OpenAI.

0
0

Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.

PoolX: Blocca per guadagnare
Almeno il 12% di APR. Sempre disponibile, ottieni sempre un airdrop.
Blocca ora!
© 2025 Bitget