Inicio / Actualidad / Protección de datos a raíz de los Deepfakes

Protección de datos a raíz de los Deepfakes

La información multimedia debe ser original (es decir, auténtica) y los usuarios deben sentirse seguros cuando consumen contenido multimedia. Con el aumento de las aplicaciones de intercambio de caras y los generadores de deepfake, la autenticidad del contenido multimedia se ve comprometida más que nunca.

Investigaciones recientes alegaron que aplicaciones famosas como TikTok están en proceso de introducir deepfakes en su plataforma. Estas aplicaciones emergentes podrían recolectar una gran cantidad de datos faciales para entrenar sus modelos y mejorar la precisión de esas aplicaciones de generación.

Por otro lado, los datos faciales adquiridos se pueden usar para intercambios faciales no autorizados y para crear falsificaciones profundas. Esto tendrá un impacto significativo en la privacidad y seguridad del usuario.

Cada vez más, los gobiernos de todo el mundo están reaccionando a estas aplicaciones de evasión de la privacidad (por ejemplo, la India prohíbe a TikTok y los Estados Unidos que investigan los problemas de privacidad de TikTok) y en el proceso de promulgar leyes para reducir el impacto de las falsificaciones profundas. Por ejemplo, EE. UU. Aprobó la Ley de rendición de cuentas de Deepfakes en 2019, que ordenó que las deepfakes se marcaran con marcas de agua para su identificación.

Para reducir la amenaza inminente a la privacidad, las futuras aplicaciones multimedia deberían implementar soluciones para medir su autenticidad y, a su vez, proteger la privacidad del usuario y mejorar la satisfacción del usuario final o la Calidad de Seguridad general (es decir, QoSec)

¿Son datos personales? Algunos investigadores argumentan que las imágenes o videos falsos no pueden considerarse como datos personales, ya que ya no se pueden atribuir a ningún individuo después de la modificación. Según el RGPD, los datos personales no necesitan ser objetivos. La información subjetiva, como opiniones, juicios o estimaciones, puede ser información personal. Por lo tanto, las falsificaciones profundas podrían considerarse dentro de la clasificación más amplia de datos personales como se define en GDPR.

En un tema separado, el RGPD solo se aplica a la información relacionada con un individuo vivo identificable y, por lo tanto, la información relacionada con una persona fallecida no constituye datos personales y, por lo tanto, no está sujeta al RGPD. Este es un problema cuando se crean falsificaciones profundas de personas fallecidas, como políticos populares, celebridades o líderes espirituales, para proporcionar información engañosa. Con este fin, los legisladores están promulgando leyes complementarias (por ejemplo, la Ley de Privacidad de Hungría) para obtener el consentimiento de los herederos de dichas personas fallecidas.

Creación de deepfakes: si podemos clasificar los deepfakes como datos personales, el procesamiento de imágenes o videos personales debe estar sujeto a consentimiento informado o interés legítimo. Si los creadores (controladores o procesadores) no han obtenido el consentimiento previo, están violando la regulación GDPR.

El consentimiento es doble en este caso: el consentimiento debe obtenerse no solo de la persona en el video original, sino también de la persona en el video fabricado. Los usuarios deben estar atentos al usar aplicaciones como Faceapp, TikTok o cualquier otra aplicación emergente y leer sus avisos de privacidad cuidadosamente para investigar su uso de datos para su posterior procesamiento.

Los datos faciales adquiridos pueden no necesariamente usarse para crear falsificaciones profundas, sino como datos de entrenamiento para sus modelos. De cualquier manera, estas categorías de aplicaciones deben hacer cumplir el consentimiento explícito para evitar infracciones de privacidad y seguridad.

Bajo GDPR, es necesario llevar a cabo una Evaluación de Impacto de Protección de Datos (DPIA) para minimizar el riesgo para las personas debido al procesamiento. El uso de nuevas tecnologías (como la creación de deepfakes utilizando algoritmos como las Redes Adversarias Generativas (GAN)) y la recopilación de datos biométricos (incluidos los datos faciales), son actividades de procesamiento que requieren DPIA bajo GDPR para minimizar los riesgos para las personas. Estas medidas protegerán inherentemente la privacidad de las personas que usan estas nuevas aplicaciones.

Posibles soluciones: el uso de huellas digitales de video y el marcado explícito del contenido como contenido fabricado podría resolver este problema en cierta medida. Otro enfoque popular es sondear la procedencia del contenido de imagen y video para encontrar el origen, por ejemplo, realizar una búsqueda de imagen inversa para encontrar contenido similar aparecido antes. Investigaciones recientes también sugieren que las soluciones de tecnología distribuida como Blockchain pueden proporcionar la solución muy necesaria para protegerse de noticias falsas, desinformación y Deepfakes.

Los algoritmos de IA y ML, como las GAN, se implementan ampliamente para crear verdaderos como deepfakes. La recopilación de datos de muestra a través de aplicaciones faciales emergentes con o sin el consentimiento del usuario ha aumentado la efectividad de estos algoritmos al tener un gran conjunto de datos de entrenamiento para entrenar estos algoritmos.

La mayoría de los métodos de detección propuestos también se basan en IA y ML. Sin embargo, llevará un tiempo considerable entrenar estos modelos de detección e incorporar estos complejos algoritmos de detección en la aplicación en tiempo real será un desafío.

De manera similar a la generación de deepfakes, los algoritmos de detección deben pasar por una fase de capacitación, lo que dará como resultado la recopilación de más datos del usuario, lo que a su vez infringiría la privacidad del usuario.

Dr Chaminda Hewage- BSc Eng. (Hons), PhD (Surrey) is an Associate Professor in Data Security at Cardiff Metropolitan University, UK.

 

Vea También

El proveedor de Data Centers más grande del mundo afectado por Netwalker ransomware

Recientemente, el proveedor de centros de datos más grande del mundo, Equinix, fue afectado por …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.