Los peligros ocultos de los asistentes de voz

Los peligros ocultos de los asistentes de voz

En el año 2000, siete años antes de la aparición en el mercado del primer iPhone, la estadounidense Agencia de Proyectos de Investigación de Defensa Avanzada (DARPA), encargó al Instituto de Investigación de Stanford que desarrollase una especie de prototipo de Siri, un asistente virtual que podría ayudar al personal militar en sus trabajos. Ante tan ambicioso desafío hasta 20 universidades se involucraron en el proyecto, trabajando frenéticamente en las distintas tecnologías necesarias con el fin de hacer realidad un asistente virtual activado por voz. Siete años después, la investigación se comercializó como una start-up, Siri Incorporated, y fue solo en 2010 cuando Apple entró en juego para adquirir los resultados por una suma que no se hizo pública.

Se inició entonces la carrera para que los asistentes virtuales activados por voz se convirtieran en un elemento esencial para los usuarios y lógicamente para las marcas. Pero en un mundo en el que la tecnología avanza velozmente, la digitalización ha hecho que los desarrollos no terminen siendo como se planearon originalmente y vayan teniendo que hacer frente a problemas de gestión y seguridad. Ni menos en el campo de las comunicaciones. Cierto es que los asistentes virtuales, como Siri, de Apple, se encuentran en smartphones, tablets o en dispositivos como altavoces inteligentes de Amazon Echo o de Google Home. Que los usuarios los utilizan para encender y apagar la música, comprobar la predicción del tiempo, ajustar la temperatura de la habitación, pedir cosas por Internet, entre otras muchas funciones.

Pero, según Kaspersky Lab, los problemas ocultos ya están aquí, entre ellos el que se puede filtrar información personal y corporativa, lo que constituye un buen campo para la ciberdelincuencia. Quien lo dude debería preguntarse si nunca ha dictado los números de su tarjeta de crédito y las contraseñas para rellenar los formularios de una Web.

Partamos de la base que los altavoces inteligentes pueden reconocer voces incluso en  ruidosos entornos urbanos o con música alta. No es necesario hablar de forma muy clara para que le entiendan y ya existen algunos ejemplos relacionados con diferentes asistentes de voz y con dispositivos inteligentes. Por ejemplo:

La rebelión de los altavoces.  En enero de 2017, en San Diego, California, el canal CW6 emitió noticias sobre las vulnerabilidades de los altavoces Amazon Echo (equipados con el asistente virtual Alexa). El sistema no es capaz de distinguir las voces de las personas, lo que significa que Alexa sigue las órdenes de cualquiera que esté cerca. Como resultado, unos niños podían realizar compras online, sin saber la diferencia entre pedirles a sus padres que les dieran de comer y pedir a Alexa que les diera un juguete. Amazon aseguró a las víctimas de la “rebelión de la IA” que podían cancelar sus pedidos sin pagar nada.

Los peligros ocultos de los asistentes de voz

El coche es un dispositivo que puede interceptarse.  Forbes también informó de algunos casos de dispositivos electrónicos utilizados en contra de sus propietarios. En 2001, el FBI obtuvo permiso de un tribunal de Nevada para solicitar la ayuda de ATX Technologies para interceptar las comunicaciones privadas de un coche. ATX Technologies desarrolla y gestiona sistemas que permiten a los propietarios de coches solicitar asistencia en caso de accidente de tráfico.

No se publicaron los detalles técnicos, pero sí la petición del FBI de realizar dicha vigilancia “con un impacto mínimo” en la calidad de los servicios prestados al sospechoso. Es probable que la vigilancia se haya realizado mediante la línea de emergencia y que se haya activado el micrófono de forma remota.

En 2007, hubo una historia similar en Louisiana EE.UU.). Un conductor o un pasajero pulsó por accidente un botón y llamó al servicio de emergencias de OnStar. El operador respondió la llamada. Al no recibir respuesta, notificó a la policía. Luego volvió a intentar contactar con las posibles víctimas y escuchó un diálogo que parecía ser parte de un acuerdo de drogas. El operador permitió que el agente de policía escuchara y localizó la posición del coche.

Rob High, vicepresidente de IBM y creador de Watson, advirtió en la BBC, “los asistentes virtuales, o los chat bots, no tienen que ser una copia de la inteligencia humana, pero sí deben responder a lo que se necesita para entablar una conversación. Tenemos que conseguir que esa inteligencia artificial construya ideas en la conversación. El usuario debe quedar satisfecho cuando acabe el diálogo. Lo que hoy en día tenemos es sólo la superficie, aún queda mucho por rascar”, afirma.

Datos para un informe

 

Cómo mantenerse fuera de las ondas

En enero, en el CES 2017 de Las Vegas, casi todos los dispositivos inteligentes presentados (desde los coches hasta las neveras) estaban equipados con un asistente virtual. Tendencia que seguramente creará nuevos riesgos de privacidad, seguridad e, incluso, de seguridad física.

Todo desarrollador debe tener como prioridad la seguridad de los usuarios, según Kaspersky Lab, que además deben tener en cuenta los siguientes consejos:

*  Apague el micrófono de los altavoces de Google y de Amazon Echo.*  Utilice los ajustes de la cuenta de Echo para prohibir las compras o para que se solicite una contraseña.

*  Utilice una protección antivirus para PC, Tablet y smartphone; así, el riesgo de filtración de información disminuirá y mantendrá a raya a los delincuentes.

*  Cambie la palabra que acciona Amazon Echo si alguien de casa tiene un nombre parecido al de Alexa.

Pero esto – recuerda Karspersky – no basta. Una vez tapada la cámara de su portátil, escondido su smartphone debajo de una sábana ¿ya se ha deshecho de tu Echo?. Igual se siente a salvo de los fisgones digitales… pero no es así. Según los investigadores de la israelita universidad Ben-Gurion, unos auriculares comunes pueden convertirse en dispositivos de escucha.

  1. Los auriculares y los altavoces pasivos son, básicamente, un micrófono al revés. Lo que significa que cada auricular conectado a un PC detecta sonido.
  2. Algunos chips pueden cambiar la función de un puerto de audio a nivel del software. Esto no es secreto, se anuncia en las especificaciones de la placa base.

Como resultado, los ciberdelincuentes pueden convertir sus auriculares en un dispositivo de escucha para grabar en secreto cualquier sonido y enviarlo por Internet. De este modo, se puede grabar una conversación con una calidad aceptable estando a varios metros de distancia. Para protegerse de este tipo de ataque, utilice altavoces activos en lugar de auriculares y altavoces pasivos. Los altavoces activos tienen un amplificador incorporado entre el Jack y el altavoz que impide que una señal vuelva a entrar.

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.