Anthropic está en racha. La empresa de inteligencia artificial, respaldada por Amazon y dirigida por exejecutivos de OpenAI, confirmó el martes que obtuvo 13 000 millones de dólares en financiación, lo que sitúa su valoración en 183 000 millones de dólares.
Eso es tres veces su valor en marzo, lo que lo convierte en uno de los aumentos de valoración más rápidos que Silicon Valley ha visto hasta ahora en 2025.
La ronda de financiación fue liderada por Iconiq, Fidelity Management & Research y Lightspeed Venture Partners. Grandes empresas como Altimeter, General Catalyst y Coatue también aportaron dinero. El director financiero de Anthropic, Krishna Rao, afirmó que la ronda de financiación demostró la estrecha colaboración de la compañía con los inversores.
“Esta financiación demuestra la extraordinaria confianza de los inversores en nuestro desempeño financiero y la fortaleza de su colaboración con nosotros para seguir impulsando nuestro crecimiento sindent”, afirmó Krishna.
El lanzamiento de Claude enciende un fuego bajo el crecimiento
Desde el anuncio de Claude en marzo de 2023, la valoración de Anthropic se ha disparado. La compañía afirma tener más de 300.000 clientes empresariales y unos ingresos proyectados de 5.000 millones de dólares en agosto, frente a los tan solo 1.000 millones de dólares de principios de año. Esto supone un aumento de 5 veces en menos de doce meses.
Anthropic fue fundada por personas que trabajaron en OpenAI, incluyendo a su director ejecutivo, Dario Amodei. Esto es importante, ya que la rivalidad entre ambas compañías está en auge. OpenAI ha sido noticia desde que lanzó ChatGPT a finales de 2022. Según CNBC, está preparando una venta de acciones que la valoraría en 500 000 millones de dólares .
En marzo, OpenAI cerró una ronda de financiación de 40 000 millones de dólares con una valoración de 300 000 millones, la mayor de la historia para una empresa tecnológica privada. El mes pasado, recaudó otros 8300 millones de dólares vinculados a esa misma ronda. Mientras tanto, lanzó GPT-5, que OpenAI considera más rápido y «mucho más útil» que los modelos anteriores. Pero no todos están contentos. Algunos usuarios se quejaron de la falta de funciones de GPT-4o. «Sin duda, subestimamos la importancia que tienen algunas de las características que a la gente le gustan de GPT-4o, incluso si GPT5 funciona mejor en la mayoría de los aspectos», declaró Sam Altman, director ejecutivo de OpenAI, en X.
Anthropic afirma que la nueva financiación apoyará la investigación sobre seguridad de la IA, ayudará a escalar para satisfacer la demanda de las grandes empresas e impulsará la expansión internacional. Estas son las tres prioridades.
Anthropic cambia su política de datos y da una fecha límite a los usuarios
Otro gran cambio está ocurriendo entre bastidores. Anthropic está implementando cambios importantes en la forma en que recopila y almacena los datos de los usuarios, y quienes usan Claude tienen hasta el 28 de septiembre para decidir si sus conversaciones pueden usarse para entrenar los modelos de IA de la compañía. Esto supone un cambio radical respecto a su política anterior.
Antes de esta actualización, se informaba a los usuarios de Claude que sus datos se borrarían después de 30 días, a menos que infringieran alguna norma o tuvieran que conservarse más tiempo por razones legales, en cuyo caso podrían permanecer hasta dos años. Eso ya es historia. Si los usuarios no cancelan su suscripción, Anthropic conservará sus conversaciones y sesiones de programación durante cinco años y utilizará esa información para entrenar futuros modelos de Claude.
La política afecta a todos los usuarios individuales de Claude Free, Claude Pro, Claude Max y Claude Code. Los clientes empresariales que utilicen Claude Gov, Claude for Work, Claude for Education o accedan mediante API no se verán afectados. Esto es similar a cómo OpenAI protege a sus clientes empresariales al no utilizar sus datos para formación.
Anthropic no ha dado una explicación completa más allá de una publicación en su blog. Pero la compañía afirma que la nueva política se basa en la "elección del usuario". Si las personas no optan por no participar, estarán ayudando a mejorar la IA. La compañía afirma que esto mejorará la capacidad de Claude en aspectos como la programación y el razonamiento, y también ayudará a reducir la cantidad de veces que los mensajes inofensivos se marcan como dañinos.
Aun así, la verdadera razón es clara. Toda empresa de IA necesita actualmente cantidades masivas de datos del mundo real. Las charlas de Claude lo ofrecen. Entrenar modelos grandes no es posible sin millones de conversaciones de calidad. Esto le da a Anthropic lo que necesita para competir con OpenAI y Google: datos a escala, directamente de los usuarios.
Si estás leyendo esto, ya estás al tanto. Sigue leyendo nuestro boletín .