Regulación de la IA y protección de los usuarios vulnerables en las plataformas de contenido.

El desafío de la regulación en materia de las nuevas tecnologías y sobre todo la IA surge a partir de la innovación constante, la infinita capacidad de la propia tecnología de mejorarse a sí misma, y el esfuerzo permanente de los hiperescaladores de ofrecer modelos más avanzados y de alcance lo más universal posible.

Establecer un marco regulatorio puede constituir un mecanismo de restricción innecesario para el uso de la herramienta, pero a su vez el ordenamiento jurídico demuestra cada día perder vigencia y alcance normativo sobre la casuística que se presenta en la aplicación cotidiana de la IA en todos los ámbitos de la vida.

En los casos específicos definidos como Deepfake, se plantea en forma relevante un análisis practico de cómo afecta esta práctica al ser humano. Sabemos que la propia creación de la imagen digital /con voz y movimiento o no) es una conducta que puede en sí violar el derecho a la imagen o incluso constituir la suplantación de la identidad de una persona. Pero la DIVULGACION o PUESTA A DISPOCISION de dicha imagen o material audiovisual es la que genera el daño moral, económico, y jurídico.

Es así que podemos verificar que los sujetos de la cadena de puesta a disposición de un material que se considera Deepfake o montaje falso son:

  1. El solicitante del prompt o persona (física en principio) con intencionalidad de crear el montaje falso.  
  2. El LLM que lo elabora.
  3. El solicitante que accede al material y lo publica o pone a disposición en una red social , blog, o sitio web.
  4. La red social, o sitio web, plataforma en donde está disponible el material falso.

En esta cadena simplificada el proyecto de ley QUE ESTABLECE EL RÉGIMEN DE PROTECCIÓN DE LA IMAGEN, VOZ Y CUERPO FRENTE A LAS IMITACIONES DIGITALES GENERADAS POR INTELIGENCIA ARTIFICIAL propone que sean   las plataformas digitales que permitan el alojamiento, difusión o puesta a disposición de contenidos generados por inteligencia artificial, quienes estén obligadas a “establecer mecanismos accesibles y visibles para la recepción de denuncias de los titulares afectados por imitaciones digitales no consentidas e implementar procedimientos ágiles que permitan la remoción del contenido infractor  dentro del plazo previsto en esta ley”  que es de 24 horas; por lo que el sistema diseñado implica que la plataforma solo tiene obligación de actuar cuando recibe una notificación que cumple tres requisitos simultáneos — identificación precisa del contenido, acreditación de derecho legítimo y declaración de falta de consentimiento. Mientras no llegue esa notificación, la plataforma puede alojar el contenido sin incurrir en ningún ilícito. Eso es lo que en derecho se llama un sistema de “notice and takedown” — aviso y retirada — que es el modelo desarrollado desde 1998 con la Digital Millennium Copyright Act para protección de derechos de autor.

El problema es que el modelo de “aviso y retirada” fue diseñado para un mundo donde los titulares de derechos eran principalmente empresas — discográficas, estudios de cine, editoriales — con equipos jurídicos capaces de identificar infracciones, redactar notificaciones y hacer seguimiento. Trasladarlo sin modificaciones a la protección de personas individuales frente a deepfakes genera una tremenda asimetría:   la víctima carga con todo el trabajo de descubrir el contenido, identificarlo con precisión suficiente, acreditar que es ella quien aparece y formular la denuncia.

Esa carga se vuelve muy gravosa cuando analizamos el caso de personas vulnerables, como un niño o adolescente alguien que no habla el idioma de la interfaz de la plataforma o simplemente alguien que se enteró del deepfake de manera indirecta y no tiene acceso directo al URL del contenido.

¿Qué pasa si la plataforma recibe la notificación, evalúa que no cumple los requisitos formales y no remueve? No se establece un proceso recursivo, y, en la práctica, ¿cómo se hace cumplir la resolución de ese procedimiento recursivo con las grandes plataformas de contenido?

El segundo problema que ocurre usualmente es la  re-subida  del material Deepfake. En casos relacionados con menores de edad podrían elevarse los estándares de protección por defecto y exigir a la plataforma que al momento de la remoción, registre la huella digital criptográfica del contenido removido mediante algoritmos de similitud perceptual reconocidos, tales como PDQ, PhotoDNA  (desarrollado por Microsoft y adoptado por Meta, Google y decenas de plataformas para el bloqueo de material de abuso sexual infantil) y mediante filtros automáticos  bloqueen la re-subida del mismo contenido o de versiones sustancialmente similares, incluyendo archivos renombrados, comprimidos, recortados o sometidos a modificaciones menores  con anterioridad a su puesta a disposición del público.

¿Podría ser de utilidad también la obligación por defecto del “Etiquetado obligatorio de contenido generado por inteligencia artificial”? Es decir, siempre que el material creado por IA esté identificado todos los usuarios de la red sabrán de la posibilidad de su FALSEDAD. A los efectos del cumplimiento de esta obligación, las plataformas digitales deberían implementar capacidad técnica para leer los metadatos de proveniencia incrustados en los archivos conforme a estándares reconocidos internacionalmente. El artículo 50(2) de la AI Act de la Unión Europea exige que los proveedores de sistemas IA que generen contenido sintético de audio, imagen, video o texto aseguren que este contenido esté marcado en formato legible por máquina y sean detectables como artificialmente generados o manipulados. De igual manera en el estado de California se exige desde el año 2025 a las plataformas online que muestren claramente cuando el contenido es generado o alterado por IA.

Ya existe una iniciativa de las plataformas de contenido más relevantes https://c2pa.org/ que promueven un estándar técnico para establecer el origen y modificaciones del contenido Digital. El modelo regulatorio de que las mismas plataformas incluyan por defecto esta herramienta en sus propias plataformas se comienza a imponer en los grandes mercados usuarios de las mismas.

Con estos dos requerimientos técnico-regulatorios no se puede garantizar que todas las plataformas estén en cumplimiento, pero sí se puede determinar que ambos elementos son mandatorios en los mercados y para gran parte de los usuarios de las plataformas importantes; por lo que el proyecto de ley local podría incluirlos en su texto. Esta inclusión permitirá que plataformas en incumplimiento puedan ser inaccesibles por orden judicial.

Por Abog. Sandra Otazú.