Siri, Alexa y otros podrían espiarte ... sin hacerlo a propósito

hace 4 años

Investigadores alemanes han conseguido encontrar más de mil falsos positivos capaces de activar de forma inadvertida el reconocimiento de voz de muchos asistentes conectados ... y así crear un problema de confidencialidad, sin ni siquiera hacerlo a propósito.

© Thomas Kolnowski - Unsplash

En las primeras horas de los asistentes conectados, cuando esta tecnología aún estaba en la etapa embrionaria, estos errores de interpretación entonces aún más graves que hoy nos hicieron sonreír. Pero desde entonces, a la luz de muchas revelaciones, la situación finalmente ha cambiado y estas aproximaciones ya no divierten a nadie. El año pasado, tuvimos una sucesión de escándalos sobre el tema de los asistentes de voz conectados. Desde Google hasta Apple, todos los grandes nombres de la industria se dieron prisa y se vieron atrapados por razones sórdidas, que iban desde grabaciones no deseadas hasta el procesamiento de grabaciones de voz por parte de seres humanos de carne y hueso. Si todos se han enmendado desde que, por ejemplo, al eliminar el análisis humano de los clips de voz, la discreción que ofrecen estos dispositivos sigue dependiendo de los mecanismos que controlan su activación ... incluidos los comandos de voz.

El problema central es que la tecnología de reconocimiento de voz detrás de estas tecnologías está lejos de ser perfecta. Esta es incluso la razón precisa por la que se envían tantos clips de audio al nube, para ser diseccionado allí y así mejorar los algoritmos de reconocimiento de voz. Excepto que en caso de error de interpretación, esto puede dar lugar a grabaciones inesperadas, y los casos parecen ser mucho más numerosos de lo esperado. Este es el descubrimiento que acaban de hacer los investigadores alemanes, al probar un panel completo de altavoces conectados como el Echo Dot, de Amazon, el Home Mini de Google, el HomePod, de Apple y el Harman Kardon Invoke. El resultado es bastante impresionante: los investigadores han detectado más de mil secuencias en idioma inglés que probablemente provoque grabaciones accidentales. Las muestras están disponibles en esta dirección.

Para obtener estos resultados, los investigadores subdividieron algunas oraciones mal interpretadas en subunidades más pequeñas, y así pudieron identificar con precisión las partes problemáticas. Luego se pusieron manos a la obra para encontrar tantos falsos positivos como fuera posible. Todos los ejemplos presentados se relacionan con el idioma inglés: Alexa se confunde con "Inaceptable","Okey Google"Con"está bien","Cortana"Con"Montana", Y así sucesivamente. Una lista larga como un rollo de papel higiénico que se hubiera rodado por una escalera, y a la que probablemente debamos añadir un montón de falsos disparadores en muchos otros idiomas, incluido el francés.

Computación en la nube y asistentes de voz: ¿un paradigma a reconstruir?

Este problema surge directamente del modo de funcionamiento de estos dispositivos, como explica en un comunicado de prensa Dorothea Kolossa, investigadora que participó en este estudio: “Los dispositivos están programados intencionalmente de una manera un tanto indulgente, ya que se supone que pueden entender a los humanos. Por lo tanto, tenderán a comenzar con demasiada frecuencia en lugar de no comenzar. " La preocupación es que a pesar de que estos clips de audio (técnicamente) ya no son analizados por humanos, permanecen enviados a la nube y, por lo tanto, están potencialmente expuestos a la intervención de terceros. Lo que preocupa a Thorsten Holz, otro investigador que participó en el estudio, que juzga este hallazgo "Alarmante desde el punto de vista de la confidencialidad" con conversaciones "Tpropiedad privada que puede terminar con un tercero”. Este caso es una buena ilustración del hecho de que la IA no se comporta necesariamente como cabría esperar, y que eventualmente se deberán implementar capas adicionales de seguridad para hacer que estos dispositivos sean más saludables en términos de seguridad de datos. . ¿Incluso si eso significa tener que, quizás, hacer una concesión sobre la calidad del reconocimiento de voz?

Echo Dot (3ra generación), ...
Echo Dot (3ra generación), ...

  • Nuestro altavoz inteligente más popular: ahora con un diseño de tela y con un ...
  • Controle su música con un simple comando de voz: escuche títulos en streaming en ...
  • Sonido mejorado y más potente: empareje su Echo Dot con un segundo Echo Dot (3er ...
  • Listo para ayudar: pídele a Alexa que reproduzca música, responde tu ...

Si quieres conocer otros artículos parecidos a Siri, Alexa y otros podrían espiarte ... sin hacerlo a propósito puedes visitar la categoría Artículos.

Otras noticias que te pueden interesar

Subir