31.4 C
Venezuela
jueves, abril 18, 2024

Expertos piden pausar el desarrollo de la inteligencia artificial

Elon Musk, y el cofundador de Apple, Steve Wozniak, son algunos de los expertos que piden pausar el desarrollo de la inteligencia artificial.


Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos el controvertido empresario Elon Musk, solicitaron en una carta de tono “apocalíptico” pausar durante seis meses los experimentos con inteligencia artificial (IA) muy potente.

Esto se debe a que consideran que la IA “puede plantear profundos riesgos para la sociedad y la humanidad”. La carta publicada por el organismo sin ánimo de lucro Future of Life Institute, explica que la sociedad ha hecho una pausa en otras tecnologías con efectos catastróficos en la sociedad, por lo que se puede frenar la IA por ahora.

De hecho, comentan que sería lo mejor disfrutar de una larga pausa, que no nos apresuremos sin estar preparados.

Puedes Leer: CIBERDELINCUENTES UTILIZAN EL CATFISH PARA CAPTAR VÍCTIMAS

El director ejecutivo de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras, son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA.

“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes”, aseguran en la carta.

Además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.

LA IA GENERA MIEDO

Los firmantes aseguran que “nadie, ni siquiera sus creadores, puede entender, predecir o controlar de forma fiable” a estas mentes digitales.

A su vez, abanderaban todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas.

“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen?, ¿deberíamos arriesgarnos a perder el control de nuestra civilización?”, se preguntan.

Puedes Leer:CIBERATAQUES CUESTAN 6.000 MILLONES DE DÓLARES DIARIOS

Asimismo, se responden que tales decisiones no deben delegarse en líderes tecnológicos no electos antes de concluir.

En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

De esta manera, vuelven a subrayar que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

En el comunicado también hace un llamamiento a todos los laboratorios de IA.

Esto para que pausen de inmediato por unos seis meses el entrenamiento de los sistemas de IA.

Además, piden la intervención de los gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

OPENAI

GPT es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano.

El GPT-4 es mucho más avanzado que los modelos similares anteriores.

El laboratorio OpenAI define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”.

Este nuevo sistema acepta la recepción tanto de textos e imágenes, y produce texto.

Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales.

Aunque “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”.

La carta abierta propone que pausar durante estos seis meses, los laboratorios de IA y los expertos independientes.

Esto con el fin de desarrollar e implementar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA.

Con información de 800Noticias

Noticias Relacionadas

Redes Sociales

20,299FansMe gusta
112,425SeguidoresSeguir
4,600SuscriptoresSuscribirte

Últimas noticias