Alphabet ha pedido a sus empleados que no ingresen información confidencial en Bard, un chatbot de inteligencia artificial creado y operado por Google, propiedad de Alphabet.
La advertencia de la compañía también se extiende a otros chatbots, como ChatGPT de OpenAI respaldado por Microsoft, Reuters informó jueves.
Los chatbots impulsados por IA han generado mucho interés en los últimos meses debido a su notable capacidad para hablar como un humano, escribir ensayos e informes e incluso aprobar exámenes académicos.
Pero a Alphabet le preocupa que sus trabajadores filtren inadvertidamente datos internos a través de herramientas.
En el trabajo en curso para mejorar y mejorar la tecnología avanzada de inteligencia artificial, los revisores humanos pueden leer las conversaciones que los usuarios tienen con los chatbots, lo que representa un riesgo para la privacidad personal y también una posible exposición a los secretos comerciales, lo que parece preocupar particularmente a Alphabet. en.
Además, los chatbots se entrenan en parte utilizando los intercambios de mensajes de texto de los usuarios, por lo que con algunas indicaciones, la herramienta puede repetir la información confidencial que recibe en esas conversaciones con los miembros del público.
Al igual que ChatGPT, Bard ahora está disponible de forma gratuita para que cualquiera lo pruebe. En su página web, advierte a los usuarios: «No incluya información que pueda usarse para identificarlo a usted o identificar a otros en sus chats de Bard».
Agrega que Google recopila «conversaciones de Bard, información relacionada con el uso de productos, información sobre su ubicación y sus comentarios» y utiliza los datos para mejorar los productos y servicios de Google que incluyen a Bard.
Google dice que almacena la actividad de Bard hasta por 18 meses, aunque un usuario puede cambiar esto a 3 o 36 meses en su cuenta de Google.
Agrega que, como medida de privacidad, los chats de Bard se desconectan de una cuenta de Google antes de que un revisor humano los vea.
Reuters dijo que si bien la advertencia de Alphabet ha estado vigente durante un tiempo, recientemente la amplió, diciéndoles a sus trabajadores que eviten usar código de microcomputadora generado por chatbots. La compañía le dijo al medio de comunicación que Bard a veces puede hacer «sugerencias de código no solicitadas», aunque la iteración actual de la herramienta todavía se considera una ayuda de programación viable.
Alphabet no es la única empresa que advierte a sus empleados sobre los riesgos de privacidad y seguridad asociados con el uso de chatbots. Samsung emitió recientemente instrucciones similares a sus trabajadores después de que varios de ellos ingresaran datos confidenciales relacionados con semiconductores en ChatGPT, y Apple y Amazon, entre otros, también habrían promulgado una política interna similar.
Recomendaciones de los editores
«Adicto a la música. Gurú del café. Especialista en zombis. Defensor de las redes sociales. Introvertido. Aficionado extremo a la comida. Evangelista del alcohol».