Elon Musk y otros instan a la IA a hacer una pausa, citando "riesgos sociales"

hace 12 meses

Elon Musk y otros instan a la IA a hacer una pausa, citando "riesgos sociales"

29 mar (Mundo Informático) - Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos de la industria están pidiendo una pausa de seis meses en el desarrollo de sistemas más potentes que el recién lanzado GPT-4 de OpenAI, en una carta abierta que cita riesgos potenciales para la seguridad de la sociedad.

A principios de este mes, OpenAI, respaldado por Microsoft, presentó la cuarta iteración de su programa de inteligencia artificial Generative Pre-trained Transformer (GPT), que asombró a los usuarios al involucrarlos en conversaciones similares a las de los humanos, componiendo canciones y resumiendo documentos extensos.

"Los sistemas de inteligencia artificial potentes deben desarrollarse solo cuando estemos seguros de que sus efectos son positivos y sus riesgos son manejables", dice la carta publicada por el Future of Life Institute.

La organización sin fines de lucro está financiada principalmente por la Fundación Musk, así como por el grupo Founders Pledge con sede en Londres y la Fundación Comunitaria de Silicon Valley, según el registro de transparencia de la Unión Europea.

“La IA me estresa”, dijo Musk a principios de este mes. Es uno de los cofundadores del líder de la industria OpenAI y su fabricante de automóviles Tesla (TSLA.O) utiliza inteligencia artificial para un sistema de piloto automático.

Musk, quien ha expresado su frustración con los reguladores que critican los esfuerzos para regular el sistema de piloto automático, ha buscado un regulador para garantizar que el desarrollo de la IA sirva al interés público.

"Es... profundamente hipócrita que Elon Musk firme, dado lo mucho que Tesla ha luchado contra la responsabilidad por la IA defectuosa en sus autos autónomos", dijo James Grimmelmann, profesor de derecho digital y de la información en la Universidad de Cornell.

"Un descanso es una buena idea, pero la carta es vaga y no toma en serio los problemas regulatorios".

El mes pasado, Tesla tuvo que retirar más de 362,000 vehículos de EE. UU. para actualizar el software después de que los reguladores de EE. UU. dijeran que el sistema de asistencia al conductor podría causar accidentes, lo que llevó a Musk a tuitear que la palabra "retirar" para un over-the-air es "anacrónica y correcta, completamente incorrecta". !"

Índice
  1. "SUPER NÚMERO, SUPERIOR, OBSOLETO"
  2. IA DE CARRERA

"SUPER NÚMERO, SUPERIOR, OBSOLETO"

OpenAI no respondió de inmediato a una solicitud de comentarios sobre la carta abierta, que instaba a una pausa en el desarrollo avanzado de IA hasta que expertos independientes desarrollaran protocolos de seguridad compartidos y pedía a los desarrolladores que trabajaran con los responsables de la formulación de políticas sobre el tema de la gobernanza.

"¿Deberíamos dejar que las máquinas inunden nuestros canales de noticias con propaganda y mentiras?... ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, burlarnos, volverse obsoletas y reemplazarnos?" se preguntaba la carta, diciendo que "tales decisiones no deben delegarse en líderes tecnológicos no elegidos".

El fundador de Tesla, Elon Musk, asiste al Offshore Northern Seas 2022 en Stavanger, Noruega, el 29 de agosto de 2022. NTB/Carina Johansen vía REUTERS

La carta fue firmada por más de 1,000 personas, incluido Musk. Sam Altman, director ejecutivo de OpenAI, no estaba entre los que firmaron la carta. Sundar Pichai y Satya Nadella, directores ejecutivos de Alphabet y Microsoft, tampoco se encontraban entre los que firmaron.

Los cosignatarios incluyeron al CEO de Stability AI, Emad Mostaque, los investigadores de DeepMind propiedad de Alphabet y los pesos pesados ​​​​de AI Yoshua Bengio, a menudo denominado como uno de los "padrinos de AI", y Stuart Russell, un pionero de la investigación en el campo.

Las preocupaciones surgen cuando ChatGPT llama la atención de los legisladores estadounidenses con preguntas sobre su impacto en la seguridad nacional y la educación. La fuerza policial de la UE, Europol, advirtió el lunes sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia.

Mientras tanto, el gobierno del Reino Unido ha presentado propuestas para un marco regulatorio "adaptativo" sobre IA.

IA DE CARRERA

"La carta no es perfecta, pero el espíritu es correcto: debemos reducir la velocidad hasta que entendamos mejor las consecuencias", dijo Gary Marcus, profesor de la Universidad de Nueva York que firmó la carta.

"Los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la empresa se defienda de cualquier daño que pueda materializarse".

Desde su lanzamiento el año pasado, ChatGPT de OpenAI ha llevado a sus rivales a acelerar el desarrollo de modelos de lenguaje grandes similares, y empresas como Alphabet Inc (GOOGL.O) están compitiendo para sumergir sus productos en IA.

Los inversores, que desconfían de confiar en una sola empresa, están adoptando a los competidores de OpenAI.

Microsoft se negó a comentar sobre la carta y Alphabet no devolvió las llamadas ni los correos electrónicos para hacer comentarios.

"Gran parte del poder para desarrollar estos sistemas ha estado constantemente en manos de unas pocas empresas que tienen los recursos para hacerlo", dijo Suresh Venkatasubramanian, profesor de la Universidad de Brown y exdirector adjunto de la Oficina de Ciencia y Tecnología de la Casa Blanca. . . Política.

"Así son estos modelos. Son difíciles de construir y difíciles de democratizar".

Información de Jyoti Narayan en Bengaluru, Krystal Hu en Nueva York, Martin Coulter en Londres y Supantha Mukhurjee en Estocolmo; Información adicional de Aditya Soni y Jeffrey Dastin; Escrito por Sayantani Ghosh; Editado por Gerry Doyle, Elaine Hardcastle y Deepa Babington

Nuestros estándares: los principios de confianza de Thomson Mundo Informático.

Si quieres conocer otros artículos parecidos a Elon Musk y otros instan a la IA a hacer una pausa, citando "riesgos sociales" puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir