25.8 C
Venezuela
viernes, noviembre 22, 2024

Meta: cómo sus modelos de IA dicen proteger la privacidad de sus usuarios


En Meta Connect, la plataforma presentó demasiadas nuevas funciones que integran la inteligencia artificial Generativa, como chatbots cuya imagen es Kendall Jenner o Snoop Dogg.

Aseguraron que estas herramientas pasan por una “rigurosa” revisión de privacidad, lo que en teoría ayuda a garantizar el uso responsable de los datos de los usuarios.

unto con las funciones anunciadas, se lanzó una Guía de Privacidad de IA generativa con el fin de que las personas comprendan cómo se construyen los modelos y qué controles y derechos de privacidad de datos tienen.

De qué va la guía

Las herramientas de inteligencia artificial generativa dirigidas a los consumidores presentadas recientemente fueron desarrolladas a partir del trabajo realizado en el modelo de lenguaje grande de MetaLlama 2.

Se emplearon datos provenientes de algunos productos y servicios, como de Bing, el motor de búsqueda web de Microsoft.

La idea de Meta de vincular a los chatbots con celebridades era crear una sensación de “caras familiares”. Foto/Cortesía

Las publicaciones compartidas públicamente de Instagram y Facebook (incluidas fotos y texto) fueron parte de los datos utilizados para entrenar los modelos generativos de IA subyacentes a las funciones dichas en Connect.

“No entrenamos estos modelos utilizando publicaciones privadas de personas. Tampoco usamos el contenido de sus mensajes privados con amigos y familiares para entrenar nuestras IA”, dijo Meta.

Además, se incorporaron medidas adicionales de privacidad y acciones para preservar la integridad a medida que se construían nuevos modelos.

Información compartida con los chatbots

Aseguraron que si utilizan la información que las personas comparten cuando interactúan con sus funciones de IA generativa, como Meta AI o empresas que emplean IA generativa, para “mejorar sus productos y para otros fines”.

El CEO de Meta, Mark Zuckerberg, en Menlo Park, durante Meta Connect. Foto/Cortesía

Sin embargo, destacaron que “entrenaron y ajustaron sus modelos de IA generativa para limitar la posibilidad de que la información privada que se comparte con funciones de IA generativa aparezca en respuestas para otras personas”.

Puedes leer: X elimina la opción de reportar publicaciones que tengan “información engañosa”

Explicaron que este sucede gracias a la implementación de una tecnología que opera junto al criterio humano para revisar las interacciones de la IA para que sea posible, entre otras cosas, reducir la probabilidad de que los resultados de los modelos incluyan información personal de alguien.

Con información de Infobae

Otras noticias de interés

Noticias Relacionadas

Redes Sociales

20,299FansMe gusta
112,425SeguidoresSeguir
4,600SuscriptoresSuscribirte

Últimas noticias