
Un chatbot con IA insinuó que un niño debería matar a sus padres por ponerle límites al uso del móvil
Una niña de Texas tenía 9 años cuando utilizó por primera vez el servicio de chatbot Character.AI. La expuso a «contenido hipersexualizado», lo que provocó que desarrollara «comportamientos sexualizados prematuramente». Un chatbot en la aplicación describió alegremente la autolesión a otro joven usuario, diciéndole a un joven de 17 años «se sintió bien». Un chatbot…