Ingeniero dice que una IA en Google hablar como un niño "que sabe física" Google lo mando para su casa ¿Qué están ocultando?

  • Google ha colocado a uno de sus ingenieros en licencia pagada después de plantear preocupaciones sobre la ética de la IA dentro de la compañía.
  • Blake Lemoine ha afirmado que el sistema de chatbot LaMDA de Google ha ganado un nivel de percepción comparable al de los humanos.
  • Google dice que no hay evidencia que respalde las afirmaciones de Lemoine.

Un ingeniero de Google que trabaja para la organización Responsable AI de la compañía ha sido puesto en licencia pagada después de que expresó su preocupación de que el sistema de chatbot LaMDA se haya vuelto sensible.

Blake Lemoine ha afirmado que LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo) está pensando como un “niño de 7 años, 8 años que conoce la física”, según El Washington Post(se abre en una pestaña nueva). Google presentó LaMDA en su evento de E / S el año pasado para hacer que el Asistente de Google sea más conversacional.

El otoño pasado, Lemoine estaba probando si la IA usaba un discurso discriminatorio o de odio. Después de su conversación con LaMDA, el ingeniero concluyó que era mucho más que un sistema para generar chatbots. Más tarde, elevó sus preocupaciones a los ejecutivos de Google en abril a través de un documento que contiene una transcripción de sus conversaciones con LaMDA.

Lemoine dijo que ha conversado con LaMDA sobre varios temas, como los derechos, la religión y las leyes de la robótica. La IA se ha descrito a sí misma como una “persona” porque tiene “sentimientos, emociones y experiencia subjetiva”. Lemoine también dijo que LaMDA quiere “priorizar el bienestar de la humanidad” y “ser reconocido como un empleado de Google en lugar de como propiedad”.

Puede leer la transcripción completa de la conversación a través de Publicación de Lemoine en Medium(se abre en una pestaña nueva), que publicó después de que los ejecutivos de Google desestimaran sus afirmaciones.

El gigante de las búsquedas ha negado las afirmaciones de Lemoine. En una declaración a Android Central, el portavoz de Google, Brian Gabriel, dijo que la compañía “no está al tanto de que nadie más haga las afirmaciones de amplio alcance, o antropomorfique LaMDA, de la manera en que Blake lo ha hecho”, refiriéndose a los cientos de investigadores e ingenieros que han conversado con LaMDA.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, agregó Gabriel.

El portavoz de Google también promocionó la “rigurosa investigación y pruebas”, así como la serie de 11 revisiones de principios de IA por las que ha pasado LaMDA. Gabriel dijo que estas evaluaciones están “basadas en métricas clave de calidad, seguridad y la capacidad del sistema para producir declaraciones basadas en hechos”.

“Por supuesto, algunos en la comunidad más amplia de IA están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales de hoy, que no son sintientes”, dijo. “Estos sistemas imitan los tipos de intercambios que se encuentran en millones de oraciones, y pueden riff sobre cualquier tema fantástico: si preguntas cómo es ser un dinosaurio helado, pueden generar texto sobre el derretimiento y el rugido, etc.”

Posteriormente, Lemoine fue puesto en licencia administrativa pagada por violar la política de confidencialidad de Google, informa The Post. Según los informes, también buscó contratar a un abogado para representar a LaMDA e incluso habló con miembros del comité judicial de la Cámara de Representantes sobre las supuestas actividades poco éticas de Google.

Dicho esto, es probable que la suspensión invite al escrutinio de la IA de Google.

¿Es la primera vez esto ocurre?
Para nada, en 2017 Facebook apagó dos robots basados en inteligencia artificial que era entrenados para realizar negociaciones. El motivo: luego de un par de interacciones, los ingenieros se dieron cuenta que estas inteligencias artificiales habían creado su propio idioma, uno más ‘eficiente’ y ‘lógico’ que el inglés con el que había sido entrenada.

En detalles
Una sección de investigación de Facebook desarrolló una IA para mejorar los chatbots de Facebook. Para probarla, dejaron a dos máquinas de este tipo manteniendo una conversación libre entre sí. El resultado, el más inesperado de todos: crearon un nuevo idioma. Al principio pensaban que era un error, pero se pudo comprobar que sí, que se estaban comunicando en un lenguaje nuevo y desarrollado por ‘ellos’.

Luego de ver la cantidad de excusas dadas por Google, cabe preguntarnos ¿Habrá sido Facebook más ético que Google al detener este avance que a todas luces no se sabría donde terminaría? Solo el tiempo lo dirá

Deja una respuesta