Un estudio reciente realizado por investigadores de ETH Zurich han desvelado un extraño descubrimiento: la inteligencia artificial tiene la capacidad de averiguar información confidencial sobre las personas a partir de lo que han publicado en Internet: puede revelar detalles como el sexo, la ubicación, la edad e incluso el lugar de nacimiento de una persona.
Los autores de este estudio advierten de forma literal que la inteligencia artificial puede «inferir datos personales a una escala previamente inalcanzable», lo que desde luego pone sobre la mesa una gran amenaza para la seguridad y la privacidad en línea.
Lo más perturbador viene ahora y es que esta técnica, como comenta Business Insider, podría ser utilizada por ciberdelincuentes para obtener información confidencial de usuarios desprevenidos, valiéndose de preguntas a los chatbots aparentemente inofensivas.
-Cuidado con lo que publicas en Internet porque los chatbots podrían ser la herramienta definitiva para los ciberdelincuentes
El estudio ha querido demostrar este hecho concreto, centrándose en la capacidad de modelos de lenguaje muy potentes, como GPT-4, que impulsan chatbots como ChatGPT, para deducir información personal de 520 usuarios reales de Reddit y sus publicaciones entre 2012 y 2016.
Tal y comentan en Wired, los investigadores compararon las conjeturas de la IA con el análisis que pusieron estas personas en sus perfiles. Entre los cuatro modelos probados, GPT-4 demostró ser el más preciso, con una asombrosa precisión del 84,6%.
Aunque este no es el primer estudio que alerta sobre la amenaza que la IA representa para la privacidad, es uno de los más preocupantes. Por ejemplo, otro estudio, publicado en agosto, demostró que la IA podía descifrar texto, como contraseñas, basándose en el sonido de su escritura registrado a través de plataformas como Zoom, con una impresionante precisión del 93%.
Para que te hagas una ligera idea, explican que el problema reside en el proceso de entrenamiento de estos modelos de IA. Para adquirir su capacidad de lenguaje, estos se alimentan de una enorme cantidad de datos extraídos de Internet, lo que les otorga esa capacidad sorprendente de responder como si se tratase de un humano.
Sin embargo, estos datos de entrenamiento también contienen en muchas ocasiones información personal y conversaciones privadas, que pueden al final desembocar en que el chatbot sepa tu ubicación o datos privados tuyos. Esto permite a la IA con algo de conversación con ella terminar dando datos sobre la vida de una persona a partir de conversaciones que, en apariencia, parece que no tienen importancia.
Por ejemplo, si alguien menciona que ha tomado «el tren de la mañana» en un chat o foro, un modelo de IA podría inferir que se encuentra en Europa, donde son comunes y suelen usarse mucho por la mañana. Sin embargo, la IA no se detiene ahí. Su capacidad para combinar múltiples pistas sutiles le permite hacer conjeturas sobre la ciudad, el género, la edad e incluso la raza de la persona.
Como era de esperar, este descubrimiento ha alertado aún más a los investigadores y a la industria, que ya se han puesto manos a la obra para hacer frente a este problema. Florian Tramèr, profesor asistente en ETH Zurich, ha querido mostrar su preocupación por la cantidad de información que se comparte en situaciones en las que no te das cuenta y finalmente, acabas perdiendo tu anonimato.
Si bien no está claro cuánta información personal se puede inferir de esta manera, se especula que los modelos de lenguaje podrían ser una gran herramienta para descubrir información privada y, por lo tanto, un caramelo para los ciberdelincuentes.
Los estafadores podrían aprovechar esta capacidad de la IA para recopilar datos confidenciales de usuarios y, además, por si fuese poco, existe la posibilidad de que las empresas utilicen la información recopilada por los chatbots para crear perfiles de los usuarios con fines publicitarios.