Algunas de las formas en que las grandes empresas de tecnología envían sus datos personales a la IA parecen una invasión de la privacidad, o incluso un robo.
Tu correo electrónico es solo el comienzo. Se hizo cargo Mita, dueña de Facebook mil millones Instagram publica desde cuentas públicas para entrenar IA y no pidió permiso. Microsoft usa sus conversaciones con Bing para entrenar su robot de inteligencia artificial para responder mejor a las preguntas, y usted también lo hace no puedo detenerlo.
Cada vez más, las empresas de tecnología toman sus conversaciones, fotografías y documentos para enseñarle a su IA cómo escribir, dibujar y pretender ser un ser humano. Probablemente ya esté familiarizado con el uso de sus datos para dirigirle anuncios. Pero ahora lo están utilizando para crear nuevas tecnologías rentables que podrían revolucionar la economía y hacer que las grandes empresas tecnológicas sean aún más grandes.
Aún no entendemos los riesgos que este comportamiento representa para su privacidad, reputación o negocio. Pero no hay mucho que puedas hacer al respecto.
A veces las empresas manejan sus datos con cuidado. Sin embargo, su comportamiento a menudo no está sincronizado con las expectativas comunes de lo que sucede con su información, incluidas las cosas que usted cree que se supone que son privadas.
Zoom hizo sonar las alarmas el mes pasado al afirmar que podría utilizar los contenidos privados de los chats de vídeo para mejorar sus productos de inteligencia artificial, antes de dar marcha atrás. A principios de este verano, Google actualizó su sitio. política de privacidad Decir que puede utilizar cualquier «información disponible públicamente» para Entrena su IA. (Google dice que esta no es una política nueva, pero solo quería dejar en claro que se aplica a su chatbot Bard).
Si utiliza casi cualquiera de los nuevos e interesantes productos de IA que ofrecen las grandes empresas de tecnología, probablemente deba aceptar ayudar a que su IA sea más inteligente mediante la «donación de datos». (Este es el término real que utiliza Google para esto).
Perdidos en la captura de datos: la mayoría de las personas no tienen forma de tomar decisiones informadas sobre cómo se utilizan sus datos. Esto podría parecer una invasión de la privacidad o simplemente un robo.
«La IA representa un salto adelante único en una generación», dice Nicolas Bichaud, director de la organización sin fines de lucro de código abierto. Fundación Mozilla. «Este es un buen momento para dar un paso atrás y pensar: ¿Qué está en juego aquí? ¿Estamos dispuestos a ceder nuestro derecho a la privacidad y a nuestros datos personales a estas grandes corporaciones? ¿O debería ser la privacidad la opción predeterminada?».
No es nuevo que las empresas de tecnología utilicen sus datos para entrenar productos de IA. Netflix usa lo que miras y calificas para crear recomendaciones. Facebook utiliza todo lo que te gusta y comentas para entrenar su IA sobre cómo ordenar tu sección de noticias y mostrarte anuncios.
Sin embargo, la IA generativa es diferente. La carrera armamentista actual de la IA requiere muchísimos datos. Elon Musk, propietario de Twitter y director ejecutivo de Tesla, alardeó recientemente ante su biógrafo de que tenía acceso a él. 160 mil millones Capturó fotogramas de vídeo diariamente desde cámaras integradas en los coches Tesla de las personas para avanzar en sus ambiciones de IA.
«Todo el mundo actúa como si existiera un destino manifiesto para las herramientas tecnológicas basadas en los datos de las personas», afirma. ben inviernosasesor principal del Centro de información sobre privacidad electrónica, que ha estado estudiando Efectos nocivos de la inteligencia artificial generativa. «Con el uso cada vez mayor de herramientas de inteligencia artificial surge esta necesidad pervertida de recopilar la mayor cantidad de datos posible por adelantado».
Todo esto conlleva algunos riesgos de privacidad únicos. Entrenar una IA para que aprenda todo sobre el mundo significa que también terminará aprendiendo cosas íntimas sobre los individuos.
Algunas empresas de tecnología incluso lo reconocen en su letra pequeña. Cuando utiliza el nuevo entrenador de redacción de IA de Google para Docs, le advierte: «No incluya información personal, confidencial o sensible».
El proceso real de entrenar una IA puede resultar un poco intimidante. A veces, esto implica que otras personas observen los datos. Los humanos revisamos lo que hacemos con el nuevo motor de búsqueda de Google y el chatbot Bard, por nombrar algunos.
Aún peor para su privacidad es que la IA generativa a veces filtra los datos. Los sistemas de IA generativa que son difíciles de controlar pueden actualizar la información personal en respuesta a un mensaje nuevo y, a veces, inesperado.
Incluso le pasó a una empresa de tecnología. Fueron empleados de Samsung. Decía Usé ChatGPT y descubrí en tres ocasiones diferentes que el chatbot estaba escupiendo secretos de la empresa. empresa en ese momento prohibido Usar chatbots con tecnología de inteligencia artificial en el trabajo. Apple, Spotify, Verizon y muchos bancos han hecho lo mismo.
Las grandes empresas de tecnología me dijeron que están haciendo todo lo posible para evitar fugas. Microsoft dice que desidentifica los datos del usuario ingresados en Bing Chat. Google dice que elimina automáticamente la información de identificación personal de los datos de entrenamiento. Meta dijo que entrenará a la IA para que no revele información privada, por lo que podría compartir el cumpleaños de una celebridad, pero no el de la gente común.
Bien, pero ¿qué tan efectivas son estas medidas? Estas son algunas de las preguntas a las que las empresas no darán respuestas directas. «Aunque nuestros filtros están a la vanguardia de la industria, continuamos mejorándolos», afirma Google. ¿Con qué frecuencia abandonan? «Creemos que es muy limitado», dice.
Es bueno saber que la inteligencia artificial de Google sólo ocasionalmente filtra nuestra información. «Es realmente difícil para ellos decir, con cara seria, ‘No tenemos ningún dato confidencial'», dice Winters.
Quizás privacidad no sea la palabra adecuada para este lío. También se trata de control. ¿Quién hubiera imaginado que la foto de las vacaciones que publicaron en 2009 sería utilizada por una corporación gigante en 2023 para enseñarle a la IA cómo hacer arte, despedir a un fotógrafo de su trabajo o reconocer el rostro de alguien para la policía?
Existe una delgada línea entre la «mejora del producto» y el robo, y las empresas de tecnología creen que tienen que trazar esa línea.
¿Qué datos nuestros se consideran restringidos y cuáles están prohibidos? Muchas de las respuestas están envueltas en demandas, investigaciones y, con suerte, algunas leyes nuevas. Pero al mismo tiempo, las grandes empresas tecnológicas están estableciendo sus propias reglas.
Le pedí a Google, Meta y Microsoft que me dijeran exactamente cuándo tomar datos de usuario de productos que son fundamentales para la vida moderna para hacer que sus nuevos productos de IA generativa sean aún más inteligentes. Obtener las respuestas fue como perseguir una ardilla en una casa de diversión.
Me dijeron que nunca utilizaron información de usuario no pública en sus modelos de IA más grandes sin permiso. Pero estas palabras cuidadosamente elegidas dejan muchas ocasiones en las que en realidad están construyendo su rentable negocio de IA a través de nuestra vida digital.
No todos los usos de los datos por parte de la IA son iguales, ni siquiera problemáticos. Pero como usuarios, prácticamente necesitamos tener un título en informática para entender lo que está pasando.
Google es un gran ejemplo. Ella me dice que sus modelos de IA «centrales» (el software detrás de cosas como Bard y su chatbot que responde cualquier cosa) provienen principalmente de «datos disponibles públicamente en Internet». La empresa afirma que nuestro servicio Gmail no contribuyó a ello.
Sin embargo, Google todavía usa Gmail para entrenar otros productos de inteligencia artificial, como el asistente de escritura Smart Compose de Gmail (que termina oraciones por usted) y el nuevo entrenador creativo Duet AI. Google dice que esto es radicalmente diferente, porque toma datos de un producto para mejorarlo.
Probablemente no haya forma de crear algo como Smart Compose sin mirar su correo electrónico. Pero esto no significa que Google deba activarlo de forma predeterminada. en EuropaCuando existen mejores leyes de datos, Smart Compose está desactivado de forma predeterminada. Y sus datos no deberían ser un requisito para utilizar sus mejores y más recientes productos, incluso si Google los llama «experiencias» como Bard y Duet AI.
Meta, el propietario de Facebook, también me dijo que no había entrenado su modelo de inteligencia artificial más grande, llamado Llama 2, con datos de usuario. Pero ha entrenado otros sistemas de inteligencia artificial, como un sistema de reconocimiento de imágenes llamado SEER, en las cuentas públicas de Instagram de las personas.
Meta no me dijo cómo utiliza nuestros datos personales para entrenar sus productos de IA generativa. Después de que eso fuera rechazado, la compañía dijo que «ya no entrenaría nuestros modelos generativos de IA en los mensajes de las personas a sus amigos y familiares». Al menos acepté trazar algún tipo de línea roja.
Microsoft actualizó su acuerdo de servicio este verano con un lenguaje amplio sobre los datos de los usuarios, y no me dio garantías sobre limitar el uso de nuestros datos para entrenar sus productos de inteligencia artificial en software orientado al consumidor como Outlook y Word. Mozilla el incluso tiene Campaña lanzada Llamando al gigante del software para que haga limpieza. «Si nueve expertos en privacidad no pueden entender qué está haciendo Microsoft con sus datos, ¿qué posibilidades tiene la persona promedio?» dice Mozilla.
No tiene por qué ser así. Microsoft tiene muchas garantías lucrativas Clientes accionistasincluidos aquellos que hablan con Versión empresarial Bing, sobre mantener sus datos privados. «Los datos siempre permanecen dentro del inquilino del cliente y nunca se utilizan para otros fines», afirma un portavoz.
¿Por qué las empresas tienen más derecho a la privacidad que todos nosotros?
«Adicto a la música. Gurú del café. Especialista en zombis. Defensor de las redes sociales. Introvertido. Aficionado extremo a la comida. Evangelista del alcohol».