Los gobiernos y las empresas deberían gastar más en seguridad de la IA, dicen los principales investigadores

hace 5 meses

Los gobiernos y las empresas deberían gastar más en seguridad de la IA, dicen los principales investigadores
La ilustración muestra las letras AI (Inteligencia Artificial) y la mano del robot en miniatura.

Letras AI (inteligencia artificial) y miniatura de mano de robot en esta ilustración tomada el 23 de junio de 2023. REUTERS/Dado Ruvic/Ilustración/Foto de archivo Adquirir derechos de licencia

ESTOCOLMO, 24 oct (Mundo Informático) - Las empresas de inteligencia artificial y los gobiernos deberían asignar al menos un tercio de su financiación a la investigación y el desarrollo de la IA para garantizar la seguridad y el uso ético de los sistemas, dijeron el martes en un documento elaborado por los investigadores más importantes sobre inteligencia artificial.

El documento, publicado una semana antes de la Cumbre Internacional de Seguridad de la IA en Londres, enumera las medidas que los gobiernos y las empresas deberían tomar para abordar los riesgos de la IA.

"Los gobiernos también deberían exigir que las empresas sean legalmente responsables de los daños resultantes de sus sistemas de inteligencia artificial fronterizos que puedan preverse y prevenirse razonablemente", según el documento escrito por tres ganadores del Premio Turing, un premio Nobel y más de una docena de líderes en inteligencia artificial. académica.

Actualmente no existen regulaciones amplias centradas en la seguridad de la IA, y el primer conjunto de leyes de la Unión Europea aún no se ha convertido en ley, ya que los legisladores aún no se han puesto de acuerdo sobre varias cuestiones.

“Los recientes modelos de IA de vanguardia son demasiado poderosos y significativos para permitirles desarrollarse sin supervisión democrática”, dijo Yoshua Bengio, una de las tres personas conocidas como el padrino de la IA.

"Las inversiones en seguridad de la IA deben realizarse rápidamente, porque la IA avanza mucho más rápido de lo que se toman precauciones", afirmó.

Los autores incluyen a Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song y Yuval Noah Harari.

Desde el lanzamiento de los modelos de IA generativa de OpenAI, destacados académicos y directores ejecutivos destacados como Elon Musk han advertido sobre los riesgos de la IA, incluido el llamado a una pausa de seis meses en el desarrollo de potentes sistemas de IA.

Algunas empresas han respondido a esto, diciendo que enfrentarán altos costos de cumplimiento y riesgos de responsabilidad desproporcionados.

"Las empresas se quejarán de que es demasiado difícil cumplir con las regulaciones, de que 'las regulaciones sofocan la innovación'; es ridículo", dijo el informático británico Stuart Russell.

"Hay más regulaciones para las tiendas de sándwiches que para las empresas de inteligencia artificial".

(Esta historia se volvió a presentar para mostrar que los investigadores escribieron un artículo, no una carta, en los párrafos 1 a 3 y 7)

Información de Supantha Mukherjee en Estocolmo; edición de Miral Fahmy

Nuestros estándares: los principios fiduciarios de Thomson Mundo Informático.

Adquirir derechos de licenciaabre una nueva pestaña

Supantha es líder en cobertura europea de tecnología y telecomunicaciones, con foco en tecnologías emergentes como la inteligencia artificial y el 5G. Es periodista desde hace unos 18 años. Se unió a Mundo Informático en 2006 y ha cubierto una variedad de campos que van desde el sector financiero hasta la tecnología. Tiene su sede en Estocolmo, Suecia.

Si quieres conocer otros artículos parecidos a Los gobiernos y las empresas deberían gastar más en seguridad de la IA, dicen los principales investigadores puedes visitar la categoría Tecnología.

Otras noticias que te pueden interesar

Subir