Los principales influencers de IA de 2025: verificados, respetados y seguidos
En Resumen Un vistazo a diez figuras que definen el futuro de la inteligencia artificial en 2025: desde los laboratorios que perfeccionan sus diseños básicos hasta los legisladores que establecen sus límites. Sus ideas, investigación y liderazgo están impulsando cambios reales en cómo se construye, comparte y utiliza la IA en todo el mundo.
La inteligencia artificial en 2025 ha dejado atrás la mera moda. Ahora está impulsada por investigaciones comprobadas, una infraestructura más sólida y la realidad de crear productos duraderos. X (anteriormente Twitter) Muchas de las personas que lideran la conversación también lideran la tecnología. Diseñan, estudian y gestionan sistemas que configuran su uso en los negocios, la investigación y los proyectos de código abierto.
Esta no es una lista de celebridades. Cada persona aquí tiene un impacto real, una amplia experiencia y una trayectoria impulsando debates en la comunidad de IA. Sus opiniones son importantes porque provienen de la construcción, la guía y el desafío de los sistemas que configuran nuestro futuro.
Yann LeCun (@ylectun) — Científico jefe de inteligencia artificial en Meta
Yann LeCun sigue siendo una de las voces más influyentes en IA, especialmente en la investigación fundamental. Sus comentarios públicos suelen ir en contra del impulso imperante, sobre todo en los debates sobre modelos lingüísticos de gran tamaño. Aboga por sistemas que aprenden con muchos menos datos y consumen mucha menos energía, alejándose de la mentalidad de que «cuanto más grande, mejor».

El lugar de LeCun en la historia se consolidó con la invención de las redes neuronales convolucionales (CNN), ahora esenciales para la visión artificial. Hoy en día, es un destacado defensor del aprendizaje autosupervisado y la IA autónoma: máquinas que desarrollan la comprensión mediante la observación, en lugar de la ingestión incesante de datos.
Actualmente, rara vez tuitea contenido original, pero a menudo republica o incluye enlaces a ensayos detallados sobre investigación en IA y diseño de sistemas.
- Temas centrales: arquitecturas energéticamente eficientes, aprendizaje centrado en objetos, modelos mundiales;
- Alcance de audiencia: más de 900,000 seguidores;
- Dinámica notable: frecuentes intercambios técnicos con investigadores de OpenAI y DeepMind;
Durante más de treinta años, su trabajo ha dado forma a la estrategia de IA de Meta, apuntando a sistemas que observan y piensan de maneras más cercanas al razonamiento humano, no solo que predicen la siguiente palabra en una secuencia.
Andrej Karpathy (@karpathy) — Miembro fundador de OpenAI
Andrej Karpathy combina una profunda experiencia técnica con la perspectiva de quien ha dado vida a importantes productos. Desglosa ideas complejas, desde el diseño de modelos hasta las opciones de capacitación y los obstáculos de implementación, de forma que conecta tanto con investigadores como con desarrolladores prácticos.
Su feed combina conocimientos técnicos con visión: por ejemplo, recientemente propuso que los grandes modelos de lenguaje se están convirtiendo en los componentes básicos del software moderno.

- Legado: avances tempranos en aprendizaje profundo y visión por computadora, liderazgo de IA en Tesla ;
- Alcance: más de 1 millón de seguidores;
- Compromiso: frecuentes charlas en conferencias y educación comunitaria;
Después de regresar a OpenAI En 2024, Karpathy se centró en simplificar la gestión de modelos y escalarlos sin perder el control. También trabajó para ofrecer más recursos a la comunidad de desarrolladores. En sus publicaciones, vincula el pensamiento técnico profundo con el trabajo diario del desarrollo de software, ofreciendo a los ingenieros métodos prácticos para crear sistemas que resistan el uso real.
Fei-Fei Li (@drfeifei) — Profesor en Stanford
Fei-Fei Li se ha forjado una reputación alineando la IA con las necesidades humanas. Impulsa diseños que beneficien tanto a la salud, la educación y el interés público como a las agendas corporativas o gubernamentales. Lideró la creación de ImageNet, un proyecto que transformó el aprendizaje profundo y dejó una de las huellas más importantes en la IA actual.
Sus publicaciones se centran en el lado humano de la IA: implicaciones éticas, impacto en la atención médica y la importancia de preservar la dignidad humana.

- Conocido por: ImagenNet Instituto de IA centrada en el ser humano de Stanford;
- Público: más de 500,000 seguidores que asesoran a responsables políticos tanto estadounidenses como internacionales;
- Enfoque actual: ética, accesibilidad e inclusión social en aplicaciones de IA;
Aporta perspectivas de personas que a menudo se pasan por alto en el sector tecnológico, como profesionales sanitarios, educadores y personas con discapacidad, y mantiene sus preocupaciones en el punto de mira. Li define la IA responsable como una cuestión de empatía, previsión y participación, desde voces que van mucho más allá de las salas de juntas de Silicon Valley.
Emad Mostaque (@EMostaque) — Fundador de Stability AI
Emad Mostaque es un defiFigura destacada en la IA generativa de código abierto. Impulsa el acceso a modelos y conjuntos de datos más allá del control de las grandes corporaciones, lo que ha influido en una oleada de startups para lanzar sistemas con ponderaciones abiertas.
En su feed, comparte actualizaciones destacadas sobre IA generativa de código abierto e invitaciones para recibir comentarios del público sobre el desarrollo.

- Hito: lanzamiento de Stable Diffusion;
- Áreas de enfoque: transparencia de costos, apertura de infraestructura, principios de seguridad de la IA;
- Audiencia: más de 250,000 seguidores;
Mostaque analiza periódicamente los costos y las limitaciones reales de la creación de modelos avanzados, ofreciendo una perspectiva excepcional sobre los presupuestos y el esfuerzo técnico que impulsan las herramientas generativas. Su insistencia en la apertura ha transformado las expectativas sobre lo que los desarrolladores e investigadores deberían poder inspeccionar y controlar.
Timnit Gebru (@timnitGebru) — Fundador de Instituto DAIR
La investigación de Timnit Gebru sobre el sesgo algorítmico y la transparencia de datos ha transformado la forma en que se debate la equidad de la IA a escala global. Examina quién ostenta el poder en el desarrollo de la IA y cómo ese poder influye en los resultados.
Ella usa su presencia para resaltar cuestiones de sesgo, a menudo haciendo referencia a sus investigaciones o importantes desarrollos de políticas sobre equidad en IA.

- Áreas clave: sesgo sistémico en los LLM, gobernanza liderada por la comunidad, estándares de datos éticos;
- Audiencia: más de 160,000 seguidores; citado en marcos de políticas en todo el mundo;
Fundamenta sus argumentos en evidencia contundente. Sus estudios revelan cómo las fallas en los datos de entrenamiento pueden propagar desigualdades reales relacionadas con la raza, el género y la clase. Legisladores y reguladores ahora consultan su investigación al formular normas, lo que la ha convertido en una voz destacada y crítica en el debate.
Chris Olah (@ch402) — Cofundador de Antrópico
Chris Olah ha desmitificado algunos de los aspectos más complejos de las redes neuronales. Sus explicaciones visuales y narrativas sobre cómo los modelos procesan la información se han convertido en material didáctico en universidades y puntos de referencia para investigadores en seguridad de la IA.
Publica frecuentemente actualizaciones sobre interpretabilidad; un trabajo reciente sobre análisis de circuitos de modelos de código abierto llamó la atención en los círculos de investigación de seguridad.

- Especialidad: herramientas de interpretabilidad, visualización de rutas de decisión;
- Audiencia: más de 150,000 seguidores;
- Trabajos recientes: alineación de modelos, protocolos de seguridad, IA constitucional;
Al visibilizar el funcionamiento interno de la IA, Olah ha transformado la interpretabilidad de una curiosidad académica en un requisito fundamental para la confianza y la seguridad. Su influencia influye en la forma en que laboratorios y legisladores piensan sobre la monitorización y la guía del comportamiento de los modelos.
Sara Hooker (@sarahookr) — Director en Cohere para la IA
Sara Hooker trabaja para que el aprendizaje automático sea más eficiente y accesible. Se centra en investigadores de regiones con menos recursos, con el objetivo de descentralizar la contribución al campo.
Sus publicaciones destacan la inclusión en la investigación sobre IA; recientemente llamó la atención sobre los límites de la regulación basada en la computación.

- Enfoque clave: modelos dispersos, reproducibilidad, investigación en IA inclusiva;
- Audiencia: más de 45,000 seguidores;
Su trabajo cuestiona la creencia de que la investigación seria solo puede realizarse con una infraestructura enorme. Al promover arquitecturas eficientes y la colaboración global, Hooker está redefiniendo las expectativas de rendimiento y participación en la IA.
Ethan Mollick (@emollick) — Profesor en Wharton
Ethan Mollick demuestra cómo las herramientas de IA transforman la forma en que las personas aprenden y trabajan. Sus experimentos con grandes modelos lingüísticos en aulas y entornos empresariales ofrecen resultados concretos y replicables.
Su feed lleva la IA a situaciones reales de clase y oficina, explorando cómo el diseño rápido y las herramientas en el lugar de trabajo evolucionan e influyen en el aprendizaje.

- Áreas de enfoque: LLM aplicados, ingeniería rápida, flujos de trabajo asistidos por IA;
- Audiencia: más de 280,000 seguidores;
Mollick trabaja probando las herramientas él mismo, observando lo que sucede y ajustando su enfoque sobre la marcha. Este ciclo práctico proporciona a educadores y profesionales un modelo para integrar la IA con mínimas conjeturas.
Darío Amodei (@darioamodei) - Director de Antrópico
Dario Amodei lidera una de las iniciativas de seguridad de la IA más vigiladas. El desarrollo de Anthropic de Claude es parte de una estrategia más amplia para hacer que la escalabilidad sea más segura sin detener la innovación.
Publica rara vez, pero cuando lo hace, sus opiniones generan debates; recientemente denunció una narrativa que, según él, distorsiona la misión de seguridad ante todo de Anthropic.

- Enfoque: IA constitucional, confiabilidad del sistema, alineación a escala;
- Público: más de 70,000 seguidores; reconocido en audiencias legislativas y cumbres mundiales;
El estilo mesurado de Amodei y su énfasis en los mecanismos de control han hecho de su trabajo un punto de referencia tanto para la industria como para el gobierno a la hora de establecer expectativas para la supervisión de modelos.
Grady Booch (@Grady_Booch) — Científico jefe de ingeniería de software en IBM Research
La trayectoria profesional de Grady Booch se ha centrado en el diseño y la gestión de sistemas de software complejos, lo que hace que sus perspectivas sobre cómo se construye y mantiene la IA moderna sean especialmente valiosas. Décadas dedicadas al diseño de sistemas duraderos le permiten destacar lo que requerirá la ingeniería de IA duradera.
Su voz combina una perspectiva de diseño de sistemas profundos con el contexto de IA; aunque las actualizaciones son menos frecuentes, aporta claridad arquitectónica al debate de la IA.

Más conocido por crear UML (lenguaje de modelado unificado), Booch aplica un pensamiento arquitectónico riguroso a cuestiones de implementación y confiabilidad de la IA.
- Temas centrales: diseño de sistemas, durabilidad, ética en ingeniería;
- Público: más de 160,000 seguidores que abarcan comunidades de IA e ingeniería tradicional;
Advierte que avanzar demasiado rápido puede socavar las bases ya establecidas. Para él, los avances duraderos se logran mediante un diseño paciente, pruebas rigurosas y un compromiso con prácticas de ingeniería sólidas.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
CandyBomb x SAPIEN: Haz trading de futuros para compartir 150,000 SAPIEN
Bitget Trading Club Championship (Fase 5): ¡Cada usuario puede ganar hasta 800 BGB del total de 80,000 BGB!
Evento de Bitget x DGC: Comparte 6,480,000,000 DGC
Bitget admitirá activos seleccionados en las funciones de préstamo y margen de la Cuenta Unificada
En tendencia
MásPrecios de las criptos
Más








