La relación entre intimidad y tecnología es cada vez más íntima y compleja: nuestras vidas privadas se entrelazan con servicios digitales que recopilan, procesan y a veces exponen datos sensibles. Esa interacción genera oportunidades , mejoras en salud, educación y servicios, pero también riesgos significativos de pérdida de privacidad, vigilancia y abuso de información.
Ante ese panorama, la seguridad y la confianza no son complementos opcionales: son condiciones necesarias para que la tecnología respete la intimidad de las personas. Este artículo analiza cifras recientes, marcos regulatorios, casos prácticos y recomendaciones para equilibrar innovación y protección.
Riesgos actuales y cifras clave
El coste medio global de una brecha de datos en 2025 fue de 4,4 millones USD, aunque esa cifra disminuyó un 9% respecto al año anterior. El informe IBM/Ponemon destaca además que el uso extensivo de IA en seguridad puede ahorrar cerca de 1,9 millones USD por incidencia, subrayando tanto el coste del riesgo como el potencial mitigador de la tecnología.
Los atacantes evolucionan: ENISA identifica en su Threat Landscape 2025 la «Rise of Digital Surveillance / Loss of Privacy» entre las principales amenazas, junto con phishing, ransomware y abuso de IA. Los adversarios aprovechan sistemas desactualizados y emplean IA para automatizar deepfakes y campañas de phishing más convincentes.
Además, la “brecha de gobernanza” en IA es un riesgo económico y operativo real: IBM y NIST advierten que implementar modelos de IA sin controles , como acceso restringido, políticas de gobernanza o evaluaciones de impacto, aumenta la probabilidad y el coste de incidentes.
Regulación europea y casos emblemáticos
El marco regulatorio europeo ha avanzado con rapidez: el Acta de la UE sobre IA entró en vigor en agosto de 2024 y desde febrero de 2025 prohíbe prácticas consideradas de riesgo inaceptable, como el scraping indiscriminado de imágenes de rostros o la categorización biométrica por raza, religión o sexo. El régimen sancionador comenzó a aplicarse el 2 de agosto de 2025, con multas de hasta 35 millones de euros o el 7% de la facturación global.
En el ámbito de la protección de datos, las autoridades europeas impusieron aproximadamente 1.200 millones EUR en multas durante 2025 y se registró un aumento anual del 22% en notificaciones de brechas, un promedio de 443 notificaciones al día. Desde la entrada en vigor del RGPD hasta enero de 2026, las sanciones agregadas alcanzaron 7.100 millones EUR.
Un caso concreto en España ilustra la tensión entre innovación y privacidad: la AEPD sancionó a LaLiga con 1.000.000 EUR por la recogida y uso de datos biométricos de espectadores (resolución publicada el 4 de marzo de 2025), y ordenó la suspensión de esos sistemas hasta verificar el cumplimiento del RGPD. LaLiga recurrió la decisión, pero el episodio marca un precedente sobre límites a la biometría en espacios públicos.
Gobernanza y controles en despliegues de IA
Los datos muestran una importante brecha de gobernanza: en 2025, el 97% de las organizaciones que reportaron un incidente de seguridad relacionado con IA carecían de controles de acceso adecuados para IA, y el 63% no tenía políticas de gobernanza de IA. Esos vacíos incrementan la exposición de datos íntimos y facilitan errores de diseño o abuso.
Iniciativas como ARIA de NIST, lanzada el 28 de mayo de 2024 y actualizada en febrero de 2025, buscan medir riesgos sociotécnicos y apoyar pruebas de fiabilidad, seguridad, privacidad y equidad en escenarios reales. ARIA complementa el AI RMF para operacionalizar prácticas de IA confiable y reducir la brecha de gobernanza.
Las organizaciones deben institucionalizar evaluaciones de impacto (EIPD/EIA), controles de acceso, monitorización y auditorías continuas antes y durante el despliegue de modelos. Sin esas medidas, la probabilidad de incidentes graves y los costes asociados aumentan notablemente.
Vigilancia, biometría y límites éticos
La combinación de cámaras, reconocimiento facial y algoritmos de inferencia emocional plantea riesgos de vigilancia masiva y erosión de la intimidad. La regulación europea y las decisiones de supervisores nacionales están limitando usos invasivos: la prohibición del AI Act sobre inferencia emocional en aulas o empleo y las sanciones por biometría reiteran que ciertos usos no son socialmente aceptables.
El caso de LaLiga y otras resoluciones muestran que las autoridades están dispuestas a aplicar el RGPD y la normativa de IA cuando la tecnología invade la privacidad de espectadores o trabajadores. Estas restricciones buscan proteger derechos fundamentales y recuperar la confianza ciudadana.
Al mismo tiempo, límites claros ayudan a la innovación responsable: definir qué datos íntimos pueden tratarse, en qué contextos y con qué salvaguardias es esencial para que la tecnología no socave la dignidad ni la autonomía de las personas.
Confianza pública y percepción de la IA
La confianza en IA varía geográficamente: el Trust Barometer de Edelman (fall 2025) indica que en Estados Unidos la confianza en IA era del 32% mientras que en China superaba el 70% en la misma encuesta. Justin Westcott (Edelman) sintetiza la idea: «Today, AI stands at the center of the next big leap forward… Trust is no longer a given, it must be earned.»
El informe también sugiere que la experiencia positiva y directa con IA aumenta la confianza. Por eso es clave diseñar despliegues que sean comprensibles, transparentes y que realmente mejoren la experiencia de las personas sin comprometer su intimidad.
Además, la concentración de poder y presiones antimonopolio (por ejemplo, litigios contra grandes plataformas como los que enfrentó Meta en 2025) afectan la percepción pública sobre seguridad y competencia. La fragmentación de proveedores y la dependencia de pocos actores crean puntos únicos de fallo y riesgos sistémicos.
Prácticas operativas y recomendaciones
La evidencia reciente (IBM, NIST, ENISA, DLA Piper) habilita un conjunto claro de prioridades prácticas para proteger la intimidad y reforzar la seguridad: gobernanza y evaluaciones de impacto obligatorias para sistemas que tratan datos íntimos; controles de acceso y monitorización para despliegues de IA; transparencia y comunicación pública para construir confianza.
También es crítico el parcheo regular, la reducción de single points of failure en proveedores ICT y la evaluación socio‑técnica (usar ARIA/NIST) antes del despliegue masivo. Estas acciones mitigan riesgos técnicos y sociales, y reducen la probabilidad de incidentes costosos.
Por último, incorporar auditorías independientes, procesos de respuesta a incidentes y planes de remediación ayuda a que las organizaciones no solo cumplan la normativa (por ejemplo, el AI Act y RGPD) sino que también recuperen y mantengan la confianza de usuarios y reguladores.
La intersección entre intimidad y tecnología exige voluntad técnica, regulatoria y ética para preservar derechos fundamentales. Adoptar gobernanza robusta, controles de IA y transparencia no es solo cumplimiento: es inversión en confianza y resiliencia.
Si queremos que la tecnología siga mejorando la vida sin invadir lo más íntimo, debemos combinar innovación con responsabilidad: reglas claras, evaluaciones rigurosas y diálogo público continuo son la mejor protección para la intimidad en la era digital.
