30.3 C
Venezuela
lunes, noviembre 4, 2024

Cómo llevar inteligencia artificial de forma responsable a las aulas de clase


Implementar herramientas tecnológicas como inteligencia artificial generativa en institutos educativos representa un gran avance en los métodos de enseñanza.

Sin embargo, la seguridad e integridad de los estudiantes es un factor que se debe tener en cuenta dentro de la ecuación.

El Departamento de Educación de Australia del Sur, cuando decidió acercar la IA generativa a los alumnos, se cuestionó cómo debería hacerlo de manera responsable.

La proliferación de la Inteligencia Artificial en el contexto educativo ha revolucionado la forma en que se aborda la enseñanza y el aprendizaje. Foto/Cortesía

La principal preocupación giraba en torno a ayudar a proteger a los estudiantes de contenidos potencialmente dañinos o inapropiados que pueden reflejarse en el resultado de un gran modelo de lenguaje, dada su formación en vastas extensiones sin filtrar de Internet, dijo Simon Chapman, director de arquitectura digital del departamento.

“No existen barreras de seguridad sobre cómo los estudiantes pueden interactuar con estas herramientas”, añadió.

En este contexto, el gobierno australiano decidió experimentar con EdChat, un chatbot impulsado por inteligencia artificial, combinado con Azure AI Content Safety. Este último sistema sirvió como una barrera que bloqueaba contenido no apto para los estudiantes.

Casi 1.500 estudiantes y 150 profesores de 8 escuelas secundarias probaron la capacidad del bot para ayudar a investigar todo, desde la división celular hasta la trama de ‘De ratones y hombres’ de John Steinbeck.

El departamento todavía está en el proceso de evaluación de los resultados pero el sistema de Microsoft recibió buenas calificaciones.

Las funciones de seguridad integradas de EdChat bloquearon consultas de entrada inapropiadas y filtraron respuestas dañinas, lo que permitió a los maestros centrarse en los beneficios educativos de la tecnología en lugar de la supervisión del contenido, dijo el director de arquitectura digital del departamento de Educación.

En el contexto de la educación a distancia, la IA ha impulsado el crecimiento de la educación en línea al ofrecer plataformas y recursos digitales eficaces. Foto/Cortesía

Azure AI utiliza lenguaje avanzado y modelos de visión para ayudar a detectar contenido de odio, violencia, sexual y autolesión.

Cuando los modelos detectan contenido en potencia dañino, lo marcan con una puntuación de gravedad estimada. Eso permite a las empresas y organizaciones personalizar el servicio para bloquear o marcar contenido según sus políticas.

Puedes leer: Ponte modo Halloween en WhatsApp con este truco

A nivel interno, Microsoft ha implementado Azure AI Content Safety para salvaguardar a los usuarios de sus propios productos respaldados por la inteligencia artificial. Esta tecnología desempeñó un papel crucial en el lanzamiento responsable de innovaciones relacionadas con la mensajería en productos como BingGitHub CopilotMicrosoft 365 Copilot Azure Machine Learning.

“Una ventaja clave de Azure AI Content Safety es su capacidad de configuración”, dijo Sarah Bird, gerente de productos del grupo de socios de Microsoft.

Con información de Infobae

Otras noticias de interés

Noticias Relacionadas

Redes Sociales

20,299FansMe gusta
112,425SeguidoresSeguir
4,600SuscriptoresSuscribirte

Últimas noticias