Esto se pone raro : Ahora Google está advirtiendo a sus empleados sobre el uso de chatbots de IA

  • Piense antes de chatear con ChatGPT, Google Bard, Bing Chat o cualquier otro chatbot de IA.

Hace solo unas semanas Google presento en Google IO, una cantidad enorme de avances para su ecosistema, basados en Inteligencia Artificial. Así que leer esto es algo que puede ponerle los pelos de punta a más de uno.

Y es que la empresa matriz de Google, Alphabet, ha estado involucrada en inteligencia artificial durante años, desde comprar (y luego vender) Boston Dynamics hasta lograr logros científicos a través de DeepMind y, más recientemente el lanzamiento de su chatbot de IA, Google Bard. Ahora, la compañía aconseja a sus empleados que tengan cuidado con lo que dicen a estos bots de IA, incluso a los suyos.

Según un informe de Reuters, Alphabet advirtió a sus empleados que no compartieran información confidencial con chatbots de IA, ya que esta información es almacenada posteriormente por las empresas propietarias de la tecnología.

Esto viene directamente de la mata, pero es un excelente consejo independientemente de quién lo diga. Por lo general, tampoco es una buena idea acostumbrarse a compartir información privada o confidencial en cualquier lugar en línea.

¿Cuál es el problema, se preguntan algunos?
Bueno el tema es que cualquier cosa que le digas a un chatbot de IA como ChatGPT, Google Bard y Bing Chat se puede usar para entrenarlo, ya que estos bots se basan en modelos de lenguaje grandes (LLM) que están en constante entrenamiento. Las empresas detrás de estos chatbots de IA también almacenan los datos, que podrían ser visibles para sus empleados.

Google, incluso lo explica en sus preguntas frecuentes:

“Cuando interactúas con Bard, Google recopila tus conversaciones, tu ubicación, tus comentarios e información de uso. Esos datos nos ayudan a proporcionar, mejorar y desarrollar productos, servicios y tecnologías de aprendizaje automático de Google, como se explica en la Política de privacidad de GoogleSe abre en una ventana nueva”

Google también dice que selecciona un subconjunto de conversaciones como muestras para ser revisadas por revisores capacitados y mantenidas hasta por tres años, por lo que aclara que “no incluya información que pueda usarse para identificarlo a usted o a otros en sus conversaciones de Bard”.

OpenAI dice en su sitio que los capacitadores de IA también revisan las conversaciones de ChatGPT para ayudar a mejorar sus sistemas, diciendo: “Revisamos las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad”.

Otras empresa como Samsung y más reciente Apple han pedido a sus empleados abstenerse de usar con contenido de la empresas estas inteligencias.

Deja una respuesta