En Meta Connect, la plataforma presentó demasiadas nuevas funciones que integran la inteligencia artificial Generativa, como chatbots cuya imagen es Kendall Jenner o Snoop Dogg.
Aseguraron que estas herramientas pasan por una “rigurosa” revisión de privacidad, lo que en teoría ayuda a garantizar el uso responsable de los datos de los usuarios.
unto con las funciones anunciadas, se lanzó una Guía de Privacidad de IA generativa con el fin de que las personas comprendan cómo se construyen los modelos y qué controles y derechos de privacidad de datos tienen.
De qué va la guía
Las herramientas de inteligencia artificial generativa dirigidas a los consumidores presentadas recientemente fueron desarrolladas a partir del trabajo realizado en el modelo de lenguaje grande de Meta, Llama 2.
Se emplearon datos provenientes de algunos productos y servicios, como de Bing, el motor de búsqueda web de Microsoft.
Las publicaciones compartidas públicamente de Instagram y Facebook (incluidas fotos y texto) fueron parte de los datos utilizados para entrenar los modelos generativos de IA subyacentes a las funciones dichas en Connect.
“No entrenamos estos modelos utilizando publicaciones privadas de personas. Tampoco usamos el contenido de sus mensajes privados con amigos y familiares para entrenar nuestras IA”, dijo Meta.
Además, se incorporaron medidas adicionales de privacidad y acciones para preservar la integridad a medida que se construían nuevos modelos.
Información compartida con los chatbots
Aseguraron que si utilizan la información que las personas comparten cuando interactúan con sus funciones de IA generativa, como Meta AI o empresas que emplean IA generativa, para “mejorar sus productos y para otros fines”.
Sin embargo, destacaron que “entrenaron y ajustaron sus modelos de IA generativa para limitar la posibilidad de que la información privada que se comparte con funciones de IA generativa aparezca en respuestas para otras personas”.
Puedes leer: X elimina la opción de reportar publicaciones que tengan “información engañosa”
Explicaron que este sucede gracias a la implementación de una tecnología que opera junto al criterio humano para revisar las interacciones de la IA para que sea posible, entre otras cosas, reducir la probabilidad de que los resultados de los modelos incluyan información personal de alguien.
Con información de Infobae
Otras noticias de interés