Un nuevo reporte advierte sobre los riesgos que implican los desarrollos de inteligencia artificial generativa para la privacidad de los usuarios. A partir de una encuesta, Cisco indicó que “la familiaridad con la IA está aumentando, con un 63% de usuarios muy activos en el uso de IA generativa”, pero a la vez una creciente preocupación por los “riesgos no intencionados” que conlleva la carga de datos personales y privados en sistemas como ChatGPT, Claude o Gemini.
“Realizado en 12 países con información de 2.600 profesionales de privacidad y seguridad, la octava edición del estudio de referencia sobre privacidad de datos demuestra la creciente importancia de establecer sólidas bases para liberar el potencial completo de la IA”, explican desde la compañía pionera en tecnología de telecomunicaciones. El reporte completo se puede leer en este enlace.
Entre los descubrimientos destacados, Cisco relevó que “a pesar de que muchas organizaciones informan ganancias comerciales significativas de GenAI, la privacidad de los datos sigue siendo un riesgo importante. En particular, el 64% de los encuestados se preocupa por compartir inadvertidamente información sensible públicamente o con competidores, aunque casi la mitad admite haber ingresado datos personales de empleados o no públicos en herramientas GenAI”.
Las filtraciones de datos con herramientas de IA no han sido ajenas al ecosistema de amenazas digitales. En marzo de 2023, OpenAI reconoció una vulnerabilidad en ChatGPT que permitió a algunos usuarios acceder a historiales de conversación ajenos y a datos personales vinculados a sus cuentas. De modo más general, gigantes tecnológicos como Facebook (ahora Meta), Google y Microsoft también enfrentaron incidentes de privacidad, desde brechas masivas de datos hasta el mal manejo de información sensible para entrenar algoritmos.
“La privacidad y la gobernanza adecuada de datos son fundamentales para la IA responsable”, asegura Dev Stahlkopf, Director Legal de Cisco. “Para las organizaciones que trabajan hacia la preparación para la IA, las inversiones en privacidad establecen una base esencial, ayudando a acelerar la gobernanza efectiva de la IA”, agrega.
Otros estudios son más alarmistas: HackerOne, por ejemplo, empresa de seguridad ofensiva, asegura que el 74% de las organizaciones ya están usando IA generativa, pero sólo el 18% conoce los riesgos que implica para las empresas y los sistemas mismos.
¿Dónde están los datos?
Un dato interesante del reporte es que los encuestados confían en que la localización de datos es más segura, pero que los proveedores globales son más confiables para asegurar la información.
“A pesar del aumento en los costos operativos de la localización de datos, el 90% de las organizaciones considera que el almacenamiento local es inherentemente más seguro, mientras que el 91% (un aumento de cinco puntos porcentuales año tras año) confía en que los proveedores globales ofrecen mejor protección de datos. Estos dos puntos de datos revelan el complejo panorama de privacidad de hoy: estas empresas son valoradas por sus capacidades, pero el almacenamiento local se percibe como más seguro”, explica el reporte.
“El impulso por la localización de datos refleja un creciente interés en la soberanía de los datos”, dice Harvey Jang, Director de Privacidad de Cisco. “Sin embargo, una economía digital global próspera depende de flujos de datos transfronterizos confiables. Marcos interoperables como el Foro Global de Reglas de Privacidad Transfronteriza jugarán un papel vital en el crecimiento mientras se abordan efectivamente preocupaciones cruciales de privacidad y seguridad”, complementa.
La situación en Argentina
Argentina ha enfrentado, durante los últimos cinco años, una enorme cantidad de filtraciones de datos, ciberataques y brechas de seguridad.
“El informe destaca que el 90% de los encuestados considera que los datos son inherentemente más seguros cuando se almacenan localmente, es decir dentro de las fronteras de su propio país. Sin embargo, paradójicamente, el 91% confía más en que los proveedores globales pueden proteger mejor sus datos en comparación con proveedores locales. Esta tensión entre localización y servicio global me llama la atención, y me parece relevante para Argentina teniendo en cuenta nuestra situación normativa”, analiza para Clarín Luis García Balcarce, abogado especializado en derechos digitales.
Aunque Argentina fue pionera en América Latina con su Ley de Protección de Datos Personales (Ley 25.326) del año 2000, “esta legislación tiene ya 25 años y no contempla los avances tecnológicos ni las nuevas prácticas digitales, aún cuando seguimos siendo considerados por la Unión Europea como país con nivel adecuado de protección”, advierte.
“La desactualización normativa argentina contrasta con el dato del informe que muestra que el 86% de las organizaciones considera que las leyes de privacidad tienen un impacto positivo, y que el 96% ve que los beneficios de invertir en privacidad superan los costos. Argentina estaría perdiendo la oportunidad de capitalizar estos beneficios al no modernizar su marco legal”, sigue.
En cuanto a dónde se alojan los datos, García Balcarce sugiere que la ley necesita una actualización: “Por otro lado, el flujo transfronterizo de datos es esencial para la economía argentina, pero exige un marco regulatorio moderno que combine seguridad jurídica con agilidad operativa. La legislación vigente impone requisitos estrictos, como el registro de bases de datos, que a menudo obstaculizan estos flujos sin necesariamente garantizar una mayor protección efectiva. Esto no significa prescindir de la regulación en materia de protección de datos y flujos transfronterizos, sino enfocarla en aspectos clave y actualizados, alineados con las tendencias modernas de privacidad”.
Finalmente, si se considera el aumento del 63 % en la familiaridad con la Inteligencia Artificial Generativa que refleja el informe, “resulta evidente que Argentina necesita con urgencia un marco regulatorio para la protección de datos que incluya estas tecnologías. Este marco debe establecer directrices claras para su uso ético y responsable, fomentando la innovación sin descuidar la protección de los derechos fundamentales”, cierra el especialista.
Esta idea está en consonancia con el peso que tiene para los usuarios el tema legal en relación a la privacidad y el uso de estas tecnologías: “La legislación de privacidad sigue siendo una piedra angular de la confianza del cliente, con el 86% de los encuestados señalando un impacto positivo en sus organizaciones, frente al 80% del año pasado. A pesar de los costos asociados con el cumplimiento, un contundente 96% de las organizaciones informa que los retornos superan significativamente las inversiones”, revela Cisco.
Marcelo Felman, Director de Ciberseguridad de Microsoft para América Latina, arrojó una idea central a la hora de entender la adopción de la IA.
“La adopción de inteligencia artificial en las organizaciones ya no es una cuestión de si va a pasar, sino de cómo hacerlo de forma segura. Según el Índice de Tendencias del Trabajo 2024, el 78% de los colaboradores están trayendo sus propias herramientas al espacio laboral. Esto muestra un gran interés y una adopción orgánica de la inteligencia artificial, pero también refleja un desafío urgente: las organizaciones deben proveer plataformas seguras que permitan a sus empleados aprovechar esta tecnología sin comprometer la privacidad”, dijo en diálogo con Clarín.
“Por eso es fundamental que los líderes empresariales proporcionen herramientas fáciles de usar, que promuevan prácticas seguras y que permitan decidir —desde el diseño— qué datos deben permanecer en un entorno privado. La clave está en brindar claridad sobre cómo y cuándo utilizar la IA, asegurando que la información sensible permanezca siempre protegida en un entorno exclusivo y confiable”, cerró el especialista.
A fin de cuentas, proteger los datos es una decisión que empieza por nosotros mismos: entender qué riesgos se corren con la IA ayuda a saber cómo usarlas de manera responsable.