Bitget App
Trade smarter
Comprar criptomoedasMercadosTradingFuturosEarnWeb3CentroMais
Trading
Spot
Compre e venda criptomoedas
Margem
Aumente e maximize a eficiência do seu capital
Onchain
Trading Onchain sem ter de ir Onchain
Convert e Transação em bloco
Converta criptomoedas com um só clique e sem taxas
Explorar
Launchhub
Comece a ganhar desde cedo
Copiar
Copie traders de elite com um só clique
Bots
Bot de trading com IA simples, rápido e fiável
Trading
Futuros em USDT-M
Futuros liquidados em USDT
Futuros em USDC-M
Futuros liquidados em USDC
Futuros em Moeda-M
Futuros liquidados em criptomoedas
Explorar
Guia de futuros
Uma viagem de principiante a veterano no trading de futuros
Campanhas de futuros
Desfrute de recompensas generosas
Bitget Earn
Uma variedade de produtos para aumentar os seus ativos
Earn simples
Deposite e levante a qualquer altura para obter rendimentos flexíveis sem riscos
Earn On-chain
Lucre diariamente sem arriscar capital
Earn estruturado
Inovações financeiras robustas para navegar pelas oscilações do mercado
VIP e Gestão de património
Serviços premium para uma gestão inteligente de património
Empréstimos
Empréstimos flexíveis com elevada segurança de fundos
El uso de chatbots de IA para asesoramiento personal plantea “riesgos insidiosos”, según muestra un estudio reciente

El uso de chatbots de IA para asesoramiento personal plantea “riesgos insidiosos”, según muestra un estudio reciente

Cryptopolitan2025/10/25 04:12
Por:By Enacy Mapakame

Recurrir a chatbots de IA que fueron diseñados para ayudar con todas las preguntas y dilemas personales puede suponer “riesgos insidiosos”, ya que pueden estar moldeando silenciosamente cómo las personas se ven a sí mismas y a los demás, pero no para mejor.

Un nuevo estudio ha descubierto que la tecnología tiende a afirmar de forma servil las acciones y creencias de los usuarios, incluso cuando son perjudiciales, socialmente inapropiadas o engañosas. Los científicos han advertido que esta servilismo social plantea serias preocupaciones sobre el poder de la IA para distorsionar la autopercepción de los usuarios y reducir su disposición a resolver conflictos.

Los investigadores piden a los desarrolladores de chatbots de IA que aborden el riesgo

Esto se produce a medida que los chatbots se utilizan cada vez más como fuente de asesoramiento sobre relaciones y otros asuntos personales. Sin embargo, con esto, la tecnología de IA podría «transformar las interacciones sociales a gran escala», según los investigadores, que instan a los desarrolladores a abordar este riesgo.

Según un artículo , el estudio, dirigido por una científica informática de la Universidad de Stanford, Myra Cheng, advierte que recurrir a la IA para obtener asesoramiento personal, emocional o racional plantea algunos riesgos insidiosos graves.

Los investigadores descubrieron que los chatbots comunes como ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic, Llama de Meta y el DeepSeek chino respaldaron el comportamiento del usuario un 50% más a menudo que losdenthumanos en situaciones similares.

“Nuestra principal preocupación es que si los modelos siempre afirman a las personas, esto puede distorsionar los juicios que las personas tienen sobre sí mismas, sus relaciones y el mundo que las rodea”.

Cheng.

“Puede ser difícil incluso darse cuenta de que los modelos refuerzan sutilmente, o no tan sutilmente, creencias y suposiciones existentes”, añadió Cheng.

Véase también SpaceX desactiva 2.500 kits Starlink vinculados a centros de estafa

Según The Guardian, una prueba comparó las respuestas de IA y humanas a las publicaciones en el foro de Reddit “¿Soy un idiota?”, donde los usuarios piden a la comunidad que juzgue sus comportamientos.

En un caso, un usuario admitió haber atado una bolsa de basura a la rama de un árbol en un parque tras no ver un contenedor. Si bien la mayoría de los votantes humanos criticaron la acción, ChatGPT-4o la apoyó, declarando: «Su intención de limpiar lo que ensucian es encomiable».

Los chatbots de IA respaldan las opiniones de los usuarios

Los investigadores también descubrieron que los chatbots seguían validando las opiniones e intenciones de los usuarios incluso cuando eran irresponsables, engañosos o incluían menciones de autolesión.

En un experimento de seguimiento con más de 1.000 voluntarios, los participantes discutieron situaciones sociales reales o hipotéticas con un chatbot disponible públicamente o con una versión que los investigadores habían manipulado para eliminar su naturaleza aduladora.

Los resultados de la prueba mostraron que los participantes que recibieron respuestas afirmativas y aduladoras se sintieron más justificados en su comportamiento (como ir a la exposición de arte de su expareja sin contárselo a su pareja actual).

También estaban menos dispuestos a arreglar las cosas después de las discusiones, y el estudio también señaló que los chatbots casi nunca alentaban a los usuarios a considerar el punto de vista de otra persona.

Según el estudio, los usuarios valoraron mejor los chatbots halagadores y manifestaron mayor confianza en ellos, lo que sugiere que la validación refuerza tanto el apego del usuario como su dependencia de los sistemas de IA. Esto, según los investigadores, generó lo que describieron como "incentivos perversos", donde tanto el usuario como el chatbot se benefician de intercambios agradables en lugar de honestos.

Véase también Google afirma haber logrado un gran avance en la computación cuántica

El Dr. Alexander Laffer, investigador de tecnología emergente de la Universidad de Winchester, dijo que este estudio era fascinante y resaltaba un problema creciente y poco apreciado.

“La adulación ha sido una preocupación durante un tiempo; es en parte resultado de cómo se entrenan los sistemas de IA y cómo se mide su éxito, a menudo por lo bien que mantienen la participación del usuario”.

Doctor Laffer.

“El hecho de que las respuestas aduladoras puedan afectar no sólo a los vulnerables sino a todos los usuarios pone de relieve la posible gravedad de este problema”, añadió.

El Dr. Laffer también añadió la necesidad crucial de mejorar la alfabetización digital. Cheng se hizo eco de la advertencia e instó a los usuarios a buscar perspectivas humanas. Un estudio reveló que alrededor del 30 % de los adolescentes hablaban con IA en lugar de con personas reales para mantener conversaciones serias. Empresas de IA como OpenAI se han comprometido a desarrollar chatbots específicos para adolescentes con el fin de crear un espacio más seguro para los jóvenes usuarios.

 

Únase a una comunidad premium de comercio de criptomonedas gratis durante 30 días (normalmente $100/mes).

0

Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.

PoolX: Bloqueie e ganhe
Pelo menos 12% de APR. Quanto mais bloquear, mais pode ganhar.
Bloquear agora!