ÚLTIMA HORA

Cobertura global las 24 hs. • viernes, 24 de abril de 2026 • Noticias actualizadas al minuto.

Menú

IA Agentiva: Espada de doble filo para la privacidad

IA Agentiva: Espada de doble filo para la privacidad

Val ncia, 23 abr (EFE).- Expertos internacionales en regulación, seguridad e investigación sobre privacidad han señalado la naturaleza ambivalente de la inteligencia artificial (IA) agentiva, destacando su potencial tanto para incrementar los riesgos de privacidad como para mejorarlos a través de asistentes personales. Esta conclusión emerge de la mesa de debate "Seguridad y privacidad en la IA", celebrada en el marco del taller SPRINT sobre seguridad y privacidad en inteligencia artificial.

El taller SPRINT se centra en los desafíos relacionados con la seguridad y privacidad de la IA, con especial atención en los sistemas de IA generativa e IA agentiva, abordando la cuestión desde perspectivas tanto de sistemas como centradas en las personas. La organización del evento corrió a cargo del Laboratorio de Seguridad, ética y Privacidad de la IA Centrada en el Ser Humano (HASP) de INGENIO (CSIC-UPV) y el Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Polit cnica de Val ncia (UPV), dentro del proyecto SPRINT: Seguridad y Privacidad en Sistemas con Inteligencia Artificial .

La IA agentiva, caracterizada por su capacidad para tomar decisiones y ejecutar acciones sin supervisión constante, presenta una doble cara. Por un lado, los agentes autónomos pueden exacerbar los riesgos para la privacidad al fomentar un intercambio excesivo de información y operar de manera que el usuario no es plenamente consciente, difuminando los límites legales establecidos. Sin embargo, también pueden convertirse en herramientas valiosas para mejorar la privacidad, actuando como asistentes personales que ayudan a los usuarios a navegar por políticas de privacidad complejas y a gestionar sus permisos de manera más efectiva.

La mesa de debate contó con la participación de figuras destacadas en el campo, incluyendo al catedrático de Informática de la Universitat Rovira i Virgili de Tarragona, Josep Domingo-Ferrer; la catedrática de informática de la Universidad Karstad y de la Universidad Tecnológica de Chalmers (Suecia), Simone Fischer-H bner; el adjunto al director de Innovación y Tecnología de la Agencia Española de Protección de Datos, Daniel Mercader; y la profesora asociada del King s College de Londres, Ruba Abu-Salma.

Un aspecto crucial que se destacó durante el taller es el cambio en la naturaleza de los riesgos para la privacidad asociados a la IA. Tradicionalmente, la preocupación principal se centraba en los datos utilizados para el entrenamiento de los modelos de IA. No obstante, la atención se está desplazando hacia los datos generados durante la interacción con estos sistemas.

Las investigaciones actuales sugieren que los modelos de aprendizaje automático modernos y bien diseñados son relativamente robustos frente a los ataques tradicionales a la privacidad durante su fase de entrenamiento. Sin embargo, los sistemas de IA generativa introducen una nueva capa de riesgo al procesar continuamente y aprender de los datos proporcionados por los usuarios en tiempo real. Esto transforma el panorama de las amenazas, ya que los usuarios dejan de ser meros proveedores de datos para convertirse en contribuyentes activos de información sensible durante su uso, a menudo sin comprender completamente cómo esos datos pueden ser reutilizados, almacenados o influir en sistemas futuros.

La Agencia Española de Protección de Datos ya ha observado que muchas empresas están adoptando tecnologías de IA sin comprender plenamente los riesgos asociados. Ante esta situación, las autoridades se están enfocando en garantizar una adopción informada y respaldada por nuevas directrices, como los recientes libros blancos de implementación segura.

El proyecto SPRINT, que ha hecho posible este taller, forma parte de un convenio entre el INCIBE y la UPV, incluido en los Proyectos Estratégicos en España, en el marco del Plan de Recuperación, Transformación y Resiliencia, y cuenta con financiación de los Fondos Next Generation-EU. Este esfuerzo subraya la importancia de la colaboración entre instituciones y la inversión en investigación para abordar los desafíos que plantea la rápida evolución de la inteligencia artificial y su impacto en la privacidad y la seguridad de los datos. La necesidad de un enfoque proactivo y multidisciplinario es fundamental para aprovechar el potencial de la IA agentiva al tiempo que se mitigan sus riesgos inherentes. La discusión en el taller SPRINT representa un paso importante en la dirección correcta, proporcionando una plataforma para el intercambio de conocimientos y la formulación de estrategias para un futuro digital más seguro y respetuoso con la privacidad.

¿Te gusta estar informado?

Recibe las noticias más importantes de Latinoamérica directamente en Telegram. Sin Spam, solo realidad.

Unirme Gratis