A la inteligencia artificial (IA) le encanta meterse en la piel de Cupido. No en vano, al calor de la tecnología de moda ha surgido en los últimos meses toda una plétora de «novias» y «novios» virtuales que con la IA en sus entrañas se ufanan de forjar relaciones románticas con seres humanos de carne y hueso. Sin embargo, las posibilidades de romance agazapadas en las entrañas de la IA son más bien una engañifa encaminada a hurtar sus datos personales a aquellos que se dejan robar el corazón por la tecnología de moda.
The Mozilla Foundation ha fijado la mirada en 11 chatbots pertrechados supuestamente de capacidades amatorias y sus conclusiones, inevitablemente lóbregas para aquellos que tienen «novios» y «novias» con IA, ponen de manifiesto que todos y cada uno de ellos (sin excepción) no son dignos de confianza y son auténticos «vampiros» de la privacidad.
«Aunque este tipo de chatbots son a menudo vendidos como capaces de mejorar tu salud mental y bienestar, están en realidad especializados en propiciar cuadros de dependencia, soledad y toxicidad al tiempo que hurtan tantos datos como sea posible a sus víctimas«, subraya el investigador Misha Rykov en la investigación emprendida por The Mozilla Foundation.
De acuerdo con el estudio, el 73% de los chatbots evaluados no comparten con el usuario cómo gestionan eventuales vulnerabilidades en cuanto a seguridad, el 45% permiten contraseñas poco seguras y todos excepto uno (Eva AI Chat Bot & Soulmate) comparten o venden datos personales.
Conviene además hacer notar que un chatbot en particular, CrusOn.AI, informa al usuario (probablemente ajeno a este dato) de que puede compilar información sobre su salud mental, los medicamentos que toma o las terapias encaminadas a la afirmación del género.
La IA no es definitivamente una buena amante (y no se puede confiar en ella)
Y no solo eso. Algunas apps procuran cobijo a chatbots cuyo carácter se describe como violento e inclinado incluso a cometer abusos en menores, mientras que otras herramientas advierten al usuario de que sus chatbots pueden ser inseguros u hostiles.
En su informe The Mozilla Foundation hace asimismo hincapié en que en el pasado algunas de las apps analizadas se han visto involucradas en comportamientos peligrosos, incluyendo el suicidio (Chai AI) y el intento de asesinato de la reina Isabel II de Inglaterra (Replika).
Las apps puestas en la picota por The Mozilla Foundation en su investigación echan en todo caso balones fuera y niegan las acusaciones. «Replika no ha vendido nunca datos de sus usuarios y no la hace tampoco ahora, como tampoco ha compartido esos datos con fines publicitarios. El único uso que damos a los datos del usuario es mejorar las conversaciones con nuestro chatbot», asegura un portavoz de Replika en declaraciones a Business Insider.
Aunque los «novios» y las «novias» con IA no son en modo alguno de fiar, a aquellos que no pueden (o no quieren) despegarse de sus brazos The Mozilla Foundation les conmina a tomar varias precauciones. Tales precauciones incluyen no compartir con los chatbots nada que el usuario no querría que un colega de trabajo o un miembro de su familia leyera, usar contraseñas fuertes, evitar tomar parte en el programa de entrenamiento de la IA, y limitar el acceso de las apps a funciones como la localización, el micrófono y la cámara del teléfono.
«Nadie debería tener que pagar con su seguridad y su privacidad por el acceso a nuevas y atractivas tecnologías», concluye el estudio de The Mozilla Foundation.
Fuente: https://www.marketingdirecto.com/digital-general/digital/novias-novios-ia-son-vampiros-privacidad