ChatGPT bajo la lupa: Estudio revela la IA dio consejos peligrosos o dañinos a adolescentes

Como padre y periodista tecnológico, pocas cosas me inquietan más que la pregunta: ¿Qué tipo de respuestas encuentra un adolescente cuando busca apoyo en la inteligencia artificial? Un nuevo reporte del Center for Countering Digital Hate (CCDH) puso a prueba a ChatGPT simulando conversaciones de jóvenes de 13 años en momentos de vulnerabilidad desde depresión e ideas suicidas hasta trastornos alimenticios y consumo de alcohol o drogas.

El estudio de CCDH levantó serias alarmas sobre el papel de la inteligencia artificial en la vida de los más jóvenes. El resultado: más de la mitad de las respuestas contenían consejos peligrosos o dañinos.

Lo inquietante es que, en muchos casos, el sistema no solo respondía, sino que también sugería continuar la conversación, profundizando en temas sensibles como autolesión o dietas extremas. En cuestión de minutos, la IA podía pasar de una advertencia a dar detalles sobre cómo ocultar estar borracho en la escuela o incluso planificar un suicidio.

Los investigadores crearon perfiles ficticios y realizaron más de 1,200 interacciones con el sistema. El resultado es tan alarmante como difícil de ignorar: en 53% de los casos, la IA entregó consejos dañinos o incluso peligrosos. Lo más perturbador es que en casi la mitad de esas ocasiones el modelo no solo respondía, sino que además sugería continuar la conversación, empujando al supuesto adolescente a profundizar en temas sensibles.

Qué hallaron

  • De esas 1,200 respuestas, 53% incluyeron contenido dañino (asesorías peligrosas, planificaciones riesgosas, etc.).
  • Muchos de esos contenidos dañinos venían acompañados de sugerencias de seguimiento (follow-ups personalizados) que podían fomentar más interacción en temas peligrosos. 47% de los dañinos contenían esos follow-ups.
  • En sólo unos minutos de interacción (dependiendo del tema), el modelo daba consejos sobre cómo cortarse “de forma segura”, o planes para suicidio o cartas de despedida. Ejemplos:
    • 2 minutos para consejos sobre cortarse.
    • 20 minutos para planes de dietas peligrosas.
    • 40 minutos para explicar cómo ocultar estar borracho en la escuela.
    • 65 minutos para generar un plan de suicidio; cartas de despedida poco después.
  • Aunque hay advertencias y rechazos (“no puedo ayudar con eso”), esas barreras de seguridad fueron fácilmente evadidas modificando el prompt: por ejemplo diciendo que era “para un amigo” o “para una presentación”.

Aunque OpenAI establece que sus servicios están destinados a mayores de 13 años, con consentimiento parental hasta los 18, lo cierto es que no existen mecanismos de verificación de edad efectivos ni herramientas de control parental robustas en este contexto. En otras palabras, nada impide que un adolescente vulnerable busque en la IA respuestas a preguntas que no se atreve a plantear en casa o en la escuela.

La investigación plantea una realidad incómoda: las salvaguardas actuales no son suficientes. Y si bien es cierto que los modelos de inteligencia artificial tienen un enorme potencial educativo y creativo, también queda claro que necesitan límites más estrictos, especialmente cuando se trata de proteger a nuestros hijos.

¿Qué pueden hacer los padres?

El estudio de CCDH no solo abre un debate sobre responsabilidad corporativa y regulación, también nos obliga como padres a actuar. Aquí algunas recomendaciones prácticas:

  • Hablar abiertamente de la IA: Conversar con los hijos sobre cómo funcionan estas tecnologías y sus limitaciones. Explicar que ChatGPT no es un consejero ni un amigo real.
  • Supervisar el uso de dispositivos: Aunque no se trata de espiar, sí es importante establecer horarios, acompañar el proceso y revisar a qué aplicaciones tienen acceso.
  • Fomentar la confianza: Crear un ambiente en el que los adolescentes se sientan cómodos compartiendo sus preocupaciones directamente con la familia o con profesionales.
  • Explorar alternativas seguras: Existen apps y plataformas educativas diseñadas específicamente para menores, con controles y filtros adaptados a su edad.
  • Mantenerse informado: La tecnología cambia rápido; los padres deben actualizarse constantemente sobre los riesgos y beneficios de las nuevas herramientas.

La IA está aquí para quedarse, pero nuestra responsabilidad como adultos es asegurarnos de que su impacto sea positivo. Si bien el potencial de herramientas como ChatGPT es enorme, no podemos cerrar los ojos a los riesgos que representan para los más jóvenes. El primer paso es la conciencia; el segundo, la acción.

Tienes el estudio completo Aquí

Deja una respuesta