OpenAI y Anthropic prueban mutuamente sus modelos en cuanto a alucinaciones y problemas de seguridad
Jinse Finance informó que OpenAI y Anthropic evaluaron recientemente los modelos de la otra parte con el objetivo de identificar posibles problemas que podrían haber pasado por alto en sus propias pruebas. Ambas compañías anunciaron en sus respectivos blogs el miércoles que, durante este verano, realizaron pruebas de seguridad en los modelos de IA de acceso público de la otra parte, examinando si los modelos presentaban tendencias de alucinación, así como problemas de “desalineación” (misalignment), es decir, cuando los modelos no funcionan según lo previsto por los desarrolladores. Estas evaluaciones se completaron antes del lanzamiento de GPT-5 por parte de OpenAI y de la publicación de Opus 4.1 por Anthropic a principios de agosto. Anthropic fue fundada por exempleados de OpenAI.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Funcionario del Banco Central de Corea del Sur: las stablecoins necesitan el respaldo del banco central
En tendencia
MásPrecios de las criptos
Más








