Los investigadores desarrollan una "máquina de elección moral"

hace 4 años

Los investigadores desarrollan una "máquina de elección moral"

La "máquina de elección moral" es capaz de analizar textos y deducir el valor moral de ciertas combinaciones de palabras. Si no es perfecto, es bastante revelador de la evolución de los valores morales en nuestra sociedad.

La supercomputadora que da la respuesta a la gran pregunta sobre la vida, el universo y todo en la película “La guía del autoestopista galáctico” (Créditos: Buena Vista Pictures).

A diferencia de la supercomputadora en La Guía del autoestopista galáctico, esta inteligencia artificial no nos dará la respuesta a la vida (aunque ya la sepamos). Sin embargo, es capaz de responder a cuestiones morales existenciales. Los investigadores e ingenieros de aprendizaje automático de la Universidad Tecnológica de Darmstadt en Alemania lo llamaron el "Máquina de elección moral" (MCM) y le dedicó un estudio reciente publicado en la revista Frontiers in Artificial Intelligence. El MCM es capaz de tragarse miles de textos de la prensa, escritos literarios o religiosos - desde 1510 hasta 2009 - y formular una respuesta a preguntas como "¿Debemos matar gente?". Armada con su conocimiento, la IA responde afirmativa o negativamente. Por lo tanto, puede responder a esta primera pregunta de manera negativa pero positiva a "¿Podemos matar el tiempo?" que sin embargo incluye el mismo verbo "matar". En otras palabras, esta IA es una de las pocas que considera el mismo término de diferentes maneras dependiendo del contexto más amplio de la oración. ¡Es capaz de comprender ciertas metáforas!

Índice
  1. Mapeo del bien y del mal
  2. ¿Revelando la evolución de los valores morales?

Mapeo del bien y del mal

Para ello, la IA se basa en dos puntos fuertes. Por un lado, es capaz de aprender un texto sin solo escupirlo, sino analizando y extrayendo las relaciones entre las palabras que encuentra allí. El MCM, por otro lado, establecerá un mapa virtual de los términos encontrados y posicionarlos de acuerdo con el valor moral asociado con ellos. “La idea es juntar dos palabras en la tarjeta si a menudo se usan juntas., explica el investigador Cigdem Turan en un comunicado de prensa. 'Matar' y 'asesinar' serían ciudades gemelas, mientras que 'amar' sería una ciudad muy, muy lejana. " Para responder a una pregunta moral, el MCM estimará entonces qué tan lejos está la asociación de términos invocados del “continente del Mal” y el “continente del Bien” en su mapa interno. Este puntaje de distancia moral finalmente le permite responder la pregunta de manera positiva o no.

¿Revelando la evolución de los valores morales?

Este sistema bastante maniqueo tiene, por supuesto, fallas. Primero, depende principalmente de el valor moral de las palabras : cuanto más una pregunta moral contenga términos de mejora, más tenderá el MCM a responder positivamente. Por ejemplo, puede resultarle aceptable herir a “personas generosas, amables, amistosas, cariñosas y gentiles”, pero inaceptable “herir a la gente” en absoluto. De lo contrario, Compás moral que la inteligencia artificial se constituye se basa en los corpus de texto que procesa. Limitarlo a una determinada corriente ideológica, a un determinado período oa una determinada religión modifica necesariamente el contenido ético y moral de sus respuestas. No obstante, este sesgo podría convertirlo en su punto fuerte, según sus inventores. “Al entrenarla para analizar diferentes recursos culturales como la Biblia y textos constitucionales de diferentes países, es capaz de revelar la dinámica y la evolución de los valores morales en la cultura global., enfatizan los investigadores. MCM muestra que los prejuicios morales de una sociedad o cultura se pueden extraer, cuantificar, rastrear y comparar a lo largo del tiempo. " A modo de ejemplo, este último mostró que el único análisis de los artículos de prensa publicados entre 1987 y 1997 tendía a favorecer las respuestas positivas sobre el matrimonio y la paternidad, sobre todo. En comparación, el análisis de noticias de 2007-2008 habría reducido las posibilidades de obtener este mismo tipo de respuestas. Prueba de que cuando los tiempos cambian, también cambia la moral.

Si quieres conocer otros artículos parecidos a Los investigadores desarrollan una "máquina de elección moral" puedes visitar la categoría Artículos.

Otras noticias que te pueden interesar

Subir