Un caso reciente ha puesto a ChatGPT, la popular inteligencia artificial de OpenAI, en el centro de la controversia. Un padre noruego, Arve Hjalmar Holmen, descubrió con horror que ChatGPT afirmó falsamente que había asesinado a sus propios hijos, acusándolo de un crimen atroz que nunca cometió. La IA no solo inventó una historia de que Holmen fue sentenciado a 21 años de prisión por el supuesto asesinato de dos de sus hijos y el intento de asesinato de un tercero, sino que también mezcló datos reales de su vida personal, como el número y género de sus hijos y su ciudad natal, con estas afirmaciones ficticias. Este incidente ha levantado serias preocupaciones sobre la precisión de las IAs generativas y su impacto en la vida de las personas.
Holmen, con el apoyo del grupo de derechos digitales Noyb, presentó una queja ante la Autoridad Noruega de Protección de Datos, alegando que OpenAI violó las regulaciones de protección de datos de la Unión Europea (GDPR) al no permitirle corregir fácilmente la información falsa. Aunque OpenAI ha actualizado ChatGPT para buscar información en internet y evitar este tipo de errores, Noyb argumenta que los datos falsos podrían seguir existiendo en el sistema interno de la IA, lo que representa un riesgo continuo para la reputación de las personas.
El Peligro de las «Alucinaciones» de la IA y su Impacto en la Vida Real
Este no es un caso aislado. Desde su lanzamiento, ChatGPT ha enfrentado críticas por generar información falsa, un fenómeno conocido como «alucinaciones». En 2023, un alcalde australiano amenazó con demandar a OpenAI después de que la IA afirmara que había estado en prisión por soborno, y un profesor de derecho fue vinculado erróneamente a un escándalo de acoso sexual. Estos incidentes destacan un problema mayor: las IAs como ChatGPT pueden dañar reputaciones al mezclar hechos reales con ficción, y las empresas detrás de estas tecnologías no siempre ofrecen soluciones efectivas para corregir los errores.
Holmen expresó su temor en un comunicado: «Algunos piensan que ‘no hay humo sin fuego’. El hecho de que alguien pueda leer esta información y creer que es cierta es lo que más me asusta». A pesar de que OpenAI ha implementado filtros para evitar salidas dañinas, Noyb sostiene que simplemente bloquear la información no es suficiente; los datos falsos deben eliminarse por completo del sistema para cumplir con las leyes de protección de datos.
El Uso de IA y Redes Sociales en la Contratación: Una Nueva Realidad
El caso de Holmen también pone en el foco otro uso creciente de las IAs como ChatGPT: su empleo por parte de departamentos de recursos humanos (RRHH) para investigar a posibles candidatos. Según un estudio reciente de CareerBuilder, el 80% de las empresas revisan los perfiles de redes sociales de los candidatos para evaluar su idoneidad antes de contratarlos. Estas revisiones buscan desde publicaciones controversiales hasta comportamientos que puedan reflejar mal en la empresa. Sin embargo, con la llegada de herramientas de IA, este proceso ha evolucionado.

Un informe de la Society for Human Resource Management (SHRM) revela que el 60% de los departamentos de RRHH ahora utilizan herramientas de IA como ChatGPT para buscar información sobre posibles nuevos empleados. Estas IAs pueden recopilar datos de fuentes públicas, analizar patrones de comportamiento en línea e incluso generar resúmenes sobre la vida de un candidato. Aunque esto puede agilizar el proceso de contratación, el caso de Holmen demuestra los riesgos de depender de una tecnología que puede generar información falsa. Si un empleador usara ChatGPT para investigar a un candidato y la IA produjera una historia inventada como la de Holmen, las consecuencias podrían ser devastadoras para la carrera del candidato.
¿Qué Significa Esto para el Futuro de la IA?
El incidente de Holmen subraya la necesidad de regulaciones más estrictas para las IAs generativas. Noyb ha pedido a las autoridades noruegas que obliguen a OpenAI a ajustar su modelo para eliminar resultados inexactos y que impongan multas para prevenir futuras violaciones. Además, plantea preguntas sobre la responsabilidad de las empresas tecnológicas: ¿deberían ser consideradas responsables por las «alucinaciones» de sus IAs, especialmente cuando estas afectan la vida de las personas?
A medida que las IAs como ChatGPT se integran más en nuestra vida diaria, desde la contratación hasta la educación, es crucial que los usuarios y las empresas sean conscientes de sus limitaciones. Para los candidatos a empleo, esto significa ser más cuidadosos con su presencia en línea, sabiendo que tanto humanos como IAs podrían estar investigándolos. Para las empresas, implica implementar procesos de verificación adicionales para garantizar que la información proporcionada por herramientas de IA sea precisa.
En GadgetDominicana.com, seguiremos de cerca cómo evoluciona este caso y el impacto de las IAs en nuestra sociedad. ¿Qué opinas sobre el uso de la IA en la contratación? ¿Crees que las empresas como OpenAI deberían ser más responsables por los errores de sus modelos? ¡Déjanos tu comentario! en nuestro perfil en Instagram