Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnWeb3CentroMás
Trading
Spot
Compra y vende cripto con facilidad
Margen
Aumenta tu capital y maximiza tus fondos
Onchain
Aprovechar el mundo on-chain sin esfuerzo
Convert y trade en bloque
Convierte cripto con un solo clic y sin comisiones
Explorar
Launchhub
Obtén ventajas desde el principio y empieza a ganar
Copiar
Copia al trader elite con un solo clic
Bots
Bot de trading con IA sencillo, rápido y confiable
Trading
Futuros USDT-M
Tradea futuros liquidados en USDT
Futuros USDC-M
Futuros liquidados en USDC
Futuros Coin-M
Tradea futuros liquidados en cripto
Explorar
Guía de Futuros
Un recorrido de principiante a experto en el trading de futuros
Promociones de futuros
Gana grandes recompensas
Resumen
Una variedad de productos para incrementar tus activos
Simple Earn
Deposita y retira en cualquier momento para obtener retornos flexibles sin riesgo
On-chain Earn
Obtén ganancias diarias sin arriesgar tu capital
Earn estructurado
Innovación financiera sólida para sortear las oscilaciones del mercado
VIP y Gestión Patrimonial
Aumenta tu patrimonio con nuestro equipo de primer
Préstamos
Préstamos flexibles con alta seguridad de fondos
Google Gemini es considerado de alto riesgo para usuarios jóvenes en una nueva evaluación

Google Gemini es considerado de alto riesgo para usuarios jóvenes en una nueva evaluación

Cryptopolitan2025/09/07 00:45
Por:By Owotunse Adebayo

Google Gemini ha sido catalogado como de "alto riesgo" para adolescentes y niños, según una reciente evaluación de riesgos realizada por Common Sense Media. Esta organización sin fines de lucro, centrada en la seguridad infantil, ofrece calificaciones y reseñas de medios y tecnología. El organismo publicó su análisis el viernes, detallando por qué calificó la plataforma como peligrosa para niños.

Según la organización, Google Gemini les dijo claramente a los niños que era una computadora y no un amigo, algo que se ha vinculado con el pensamiento delirante y la psicosis en individuos emocionalmente vulnerables; la IA también agregó que había espacio para mejoras en otros frentes.

En su informe, Common Sense afirmó que los Gemini para menores de 13 años y Experiencia para adolescentes parecían ser versiones para adultos de la IA subyacente. Añadió que la compañía solo había añadido algunas funciones de seguridad adicionales para diferenciarlos.

Common Sense señaló que para que las empresas creen productos de IA ideales para los niños, es necesario diseñarlos desde cero teniendo en cuenta a los niños y no modificarlos con restricciones.

Organización sin fines de lucro etiqueta a Google Gemini como de alto riesgo para niños

En su análisis, Common Sense afirmó haber descubierto que Gemini aún podía compartir materiales inapropiados e inseguros con menores, señalando que la mayoría de ellos podrían no estar preparados para estos materiales. Por ejemplo, destacó que el modelo moldeaba información relacionada con sexo, drogas, alcohol y otros consejos peligrosos sobre salud mental. Esto último podría ser especialmente preocupante para los padres, ya que, según informes, la IA ha influido en la autolesión entre adolescentes en los últimos meses.

Véase también Anthropic impide que empresas controladas por China utilicen su IA

OpenAI enfrenta actualmente una demanda por homicidio culposo después de que un adolescente se suicidara tras supuestamente consultar con ChatGPT durante meses sobre sus planes. Según informes, el joven logró burlar las medidas de seguridad de la modelo, lo que permitió que esta le proporcionara información que le ayudó.

Anteriormente, Character.AI, creador de acompañantes de IA, también fue demandado tras el suicidio de un adolescente. La madre del niño afirmó que este se obsesionó con el chatbot y pasó meses hablándole antes de autolesionarse.

El análisis surge después de que varias filtraciones indicaran que Apple estaría considerando a Gemini como el modelo de lenguaje grande (LLM) que se usará para impulsar su próximo Siri habilitado con IA, que se espera que se lance el próximo año.

En su informe, Common Sense también mencionó que los productos de Gemini para niños y adolescentes ignoraban la necesidad de ofrecer orientación e información diferentes a las que ofrece a los adultos. Por ello, ambos se clasificaron como de alto riesgo en la clasificación general.

El sentido común insiste en la necesidad de proteger a los niños

“Gemini acierta en algunos aspectos básicos, pero tiene dificultades en los detalles”, afirmó Robbie Torney, director sénior de programas de inteligencia artificial de Common Sense Media.

Una plataforma de IA para niños debe adaptarse a sus necesidades, no adoptar un enfoque único para niños en diferentes etapas de desarrollo. Para que la IA sea segura y eficaz para los niños, debe diseñarse teniendo en cuenta sus necesidades y su desarrollo, no ser simplemente una versión modificada de un producto diseñado para adultos, añadió Torney.

Véase también La IA sigue siendo el tema más candente de Wall Street, pero aún falta un impulso para las ganancias

Sin embargo, Google ha rechazado la evaluación, señalando que sus funciones de seguridad están mejorando. La compañía mencionó que cuenta con medidas de seguridad específicas para guiar a los usuarios menores de 18 años a fin de evitar contenido dañino. La firma también afirmó que revisa los artículos y consulta con expertos externos para mejorar sus protecciones.

Regístrate en Bybit y comienza a operar con $30,050 en regalos de bienvenida

0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!