10 estados han aprobado legislación para criminalizar específicamente la creación o difusión de deepfakes. Es probable que Indiana pronto se una a la creciente lista al expandir10 estados han aprobado legislación para criminalizar específicamente la creación o difusión de deepfakes. Es probable que Indiana pronto se una a la creciente lista al expandir

La Pornografía de IA no Consentida Nos Convertirá a Todos en Víctimas: ¿Puede la Ley Mantenerse al Día?

2025/12/20 05:43

Este artículo fue copublicado con The 19th, una redacción sin fines de lucro que cubre género, política y políticas públicas. Suscríbase al boletín de The 19th aquí.

\ Más de dos docenas de estudiantes de Westfield High School en Nueva Jersey se horrorizaron el año pasado al saber que imágenes desnudas de ellos circulaban entre sus compañeros. Según la escuela, algunos estudiantes habían utilizado Inteligencia Artificial (IA) para crear imágenes pornográficas de otros a partir de fotos originales. Y no son las únicas adolescentes victimizadas por fotos desnudas falsas: estudiantes en el estado de Washington y Canadá también han reportado enfrentar situaciones similares a medida que la capacidad de alterar fotos de manera realista se vuelve más accesible con sitios web y aplicaciones.

\ La creciente alarma en torno a los deepfakes—imágenes o videos generados por IA—en general se amplificó aún más en enero, cuando uno que involucraba a la superestrella Taylor Swift se difundió rápidamente a través de las redes sociales.

\ Carrie Goldberg, una abogada que ha estado representando a víctimas de pornografía no consensuada—comúnmente conocida como pornografía de venganza—durante más de una década, dijo que solo comenzó a recibir casos de víctimas de imágenes generadas por computadora más recientemente.

\ "Mi firma ha estado viendo víctimas de deepfakes durante probablemente unos cinco años, y en su mayoría han sido celebridades", dijo Goldberg. "Ahora, se está convirtiendo en niños haciéndolo a otros niños para ser crueles. Probablemente está muy subregistrado porque las víctimas podrían no saber que hay recursos legales, y no está del todo claro en todos los casos si los hay".

\ Los órganos de gobierno están tratando de ponerse al día. En el último año aproximadamente, 10 estados han aprobado legislación para criminalizar específicamente la creación o difusión de deepfakes. Estos estados—incluyendo California, Florida, Georgia, Hawái, Illinois, Minnesota, Nueva York, Dakota del Sur, Texas y Virginia—establecieron sanciones que van desde multas hasta tiempo en prisión. Indiana probablemente pronto se unirá a la lista creciente al expandir su ley actual sobre pornografía no consensuada.

\ La representante de Indiana Sharon Negele, republicana, redactó la expansión propuesta. La ley existente define la "pornografía de venganza" como la divulgación de una imagen íntima, como cualquiera que represente relaciones sexuales, genitales descubiertos, glúteos o el seno de una mujer, sin el consentimiento del individuo representado en la imagen. El proyecto de ley propuesto por Negele pasó por ambas cámaras y ahora espera la firma del gobernador.

\ Negele dijo que se motivó a actualizar el código penal de Indiana cuando escuchó la historia de una maestra de secundaria que descubrió que algunos de sus estudiantes habían difundido imágenes deepfake de ella. Fue "increíblemente destructivo" para la vida personal de la maestra, y Negele se sorprendió al ver que los perpetradores no podían ser procesados bajo la ley actual.

\ "Comenzó con mi educación al comprender la tecnología que ahora está disponible y leer sobre incidente tras incidente de rostros de personas siendo adjuntados a un cuerpo inventado que se ve increíblemente real y realista", dijo Negele. "Es simplemente angustiante. Siendo madre y abuela y pensando en lo que podría pasarle a mi familia y a mí misma—es impactante. Tenemos que adelantarnos a este tipo de cosas".

\ Goldberg, cuyo bufete de abogados se especializa en delitos sexuales, dijo que anticipa que más estados continuarán expandiendo su legislación existente para incluir lenguaje sobre IA.

\ "Hace diez años, solo tres estados tenían leyes sobre pornografía de venganza o abuso sexual basado en imágenes", dijo Goldberg. "Ahora, 48 estados han prohibido la pornografía de venganza, y realmente ha creado una reducción tremenda en la pornografía de venganza—no sorprendentemente—tal como los defensores habíamos dicho que lo haría. Todo el auge de los deepfakes ha llenado los vacíos como una nueva forma de humillar sexualmente a alguien".

\ En 2023, más de 143,000 nuevos videos generados por IA fueron publicados en línea, según The Associated Press. Eso es un salto enorme desde 2019, cuando los sitios web o aplicaciones de "desnudez" eran menos comunes, y aun así había casi 15,000 de estos videos falsos en línea, según un informe de Deeptrace Labs, una compañía de inteligencia de amenazas visuales. Incluso en ese entonces, esos videos—96 por ciento de los cuales tenían pornografía no consensuada de mujeres—habían acumulado más de 100 millones de vistas.

\ Goldberg dijo que los responsables de políticas públicas y el público por igual parecen estar más motivados para prohibir las imágenes desnudas generadas por IA específicamente porque virtualmente cualquiera puede ser una víctima. Hay más empatía.

\ "Con la pornografía de venganza, en la primera ola de discusiones, todos estaban culpando a la víctima y haciéndola parecer como si fuera algún tipo de pervertido por tomar la imagen o estúpido por compartirla con otra persona", dijo Goldberg. "Con los deepfakes, realmente no puedes culpar a la víctima porque lo único que hicieron fue tener un cuerpo".

\ Amanda Manyame, asesora de derechos digitales con sede en Sudáfrica para Equality Now, una organización internacional de derechos humanos enfocada en ayudar a mujeres y niñas, dijo que virtualmente no hay protecciones para las víctimas de deepfakes en los Estados Unidos. Manyame estudia políticas y leyes alrededor del mundo, analiza lo que funciona y proporciona asesoramiento legal sobre derechos digitales, particularmente sobre explotación y abuso sexual facilitados por la tecnología.

\ "La mayor brecha es que Estados Unidos no tiene una ley federal", dijo Manyame. "El desafío es que el tema se gobierna estado por estado, y naturalmente, no hay uniformidad o coordinación cuando se trata de protecciones".

\ Sin embargo, actualmente hay un impulso en el Capitolio: un grupo bipartidista de senadores introdujo en enero la Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuadas de 2024—también conocida como la Ley DEFIANCE. La legislación propuesta tiene como objetivo detener la proliferación de contenido sexualmente explícito no consensuado.

\ "Nadie—ni celebridades ni estadounidenses comunes—debería jamás tener que encontrarse presentado en pornografía de IA", dijo el senador republicano Josh Hawley, copatrocinador del proyecto de ley, en un comunicado. "Las personas inocentes tienen derecho a defender sus reputaciones y hacer que los perpetradores rindan cuentas en la corte". La representante Alexandria Ocasio-Cortez ha introducido un proyecto de ley complementario en la Cámara.

\ Según una nueva encuesta de Data for Progress, el 85 por ciento de los votantes probables de todo el espectro político dijeron que apoyan la Ley DEFIANCE propuesta—con un 72 por ciento de las mujeres en fuerte apoyo en comparación con el 62 por ciento de los hombres.

\ Pero los hombres más jóvenes tienen más probabilidades de oponerse a la Ley DEFIANCE, con aproximadamente uno de cada cinco hombres menores de 45 años (22 por ciento) diciendo que se oponen fuerte o moderadamente a la legislación que permite a los sujetos de deepfakes explícitos no consensuados demandar al creador.

\ Danielle Deiseroth, directora ejecutiva de Data for Progress, dijo que este tema mostró uno de los "contrastes más marcados" entre hombres y mujeres jóvenes que ha visto en mucho tiempo.

\ "Podemos decir con confianza que las mujeres y los hombres menores de 45 años tienen opiniones divergentes sobre esta política", dijo Deiseroth. "Este es un tema que impacta desproporcionadamente a las mujeres, especialmente a las mujeres jóvenes, que tienen más probabilidades de ser víctimas de pornografía de venganza. Y creo que esa es realmente la causa raíz aquí".

\ Goldberg dijo que crear políticas para criminalizar a los actores maliciosos es un buen comienzo pero es en última instancia insuficiente. Un buen siguiente paso, dijo, sería tomar acciones legales dirigidas a los distribuidores en línea, como la App Store y Google Play, que están proporcionando productos utilizados principalmente para actividades criminales. Las plataformas de redes sociales y las aplicaciones de mensajería instantánea, donde se distribuyen estas imágenes explícitas, también deberían rendir cuentas, agregó Goldberg.

\ Los fundadores de #MyImageMyChoice, una organización de base que trabaja para ayudar a las víctimas de abuso de imágenes íntimas, coincidieron en que las empresas privadas involucradas en la creación y distribución de estas imágenes deberían hacer más.

\ Los fundadores—Sophie Compton, Reuben Hamlyn y Elizabeth Woodward—señalaron que los motores de búsqueda como Google dirigen la mayor parte del tráfico web total a sitios de pornografía deepfake, mientras que las compañías de tarjetas de crédito procesan sus pagos. Los proveedores de servicios de Internet permiten que las personas accedan a ellos, mientras que servicios importantes como Amazon, Cloudflare y Github de Microsoft los alojan. Y sitios de redes sociales como X permiten que el contenido circule a escala. Google cambió su política en 2015 y comenzó a permitir que las víctimas enviaran una solicitud para eliminar piezas individuales de contenido de los resultados de búsqueda y desde entonces ha expandido la política al abuso de deepfake. Sin embargo, la compañía no elimina sistemáticamente de la lista los sitios de violencia sexual basada en imágenes y abuso de deepfake.

\ "Las compañías tecnológicas tienen el poder de bloquear, eliminar del índice o rechazar el servicio a estos sitios—sitios cuya existencia completa está construida sobre violar el consentimiento y beneficiarse del trauma", dijeron Compton, Hamlyn y Woodward en una declaración a The 19th. "Pero han elegido no hacerlo".

\ Goldberg señaló la velocidad a la que se difundieron los deepfakes de Taylor Swift. Una imagen compartida en X, anteriormente conocida como Twitter, fue vista 47 millones de veces antes de que la cuenta que la publicó fuera suspendida. Las imágenes continuaron difundiéndose a pesar de los esfuerzos de las compañías de redes sociales para eliminarlas.

\ "Las imágenes violentas y misóginas de Taylor Swift, sangrienta y desnuda en un juego de fútbol de los Kansas City Chiefs, es emblemática del problema", dijo Goldberg. "La extensión de esa distribución, incluso en sitios realmente convencionales, envía un mensaje a todos de que está bien crear este contenido. Para mí, ese fue un momento realmente crucial y bastante aterrador".

\ Dada la naturaleza de alto perfil de la víctima, el incidente provocó una indignación pronunciada y generalizada de los fans de Swift y trajo atención pública al tema. Goldberg dijo que verificó si alguno de los distribuidores en línea había eliminado productos de sus tiendas en línea que facilitan y abaratan la creación de deepfakes sexualmente explícitos—y se sintió aliviada al ver que lo habían hecho.

\ A medida que los responsables de políticas públicas y los tribunales del país continúan tratando de responder a la tecnología que se desarrolla rápidamente y es cada vez más accesible, Goldberg dijo que es importante que los legisladores continúen remitiéndose a expertos y a aquellos que trabajan directamente con las víctimas, como abogados, trabajadores sociales y defensores. Los legisladores que regulan ideas abstractas o tecnologías que avanzan rápidamente pueden ser una "receta para el desastre" de otra manera, agregó.

\ Manyame también enfatizó la importancia de hablar directamente con los sobrevivientes al tomar decisiones políticas, pero agregó que los legisladores también necesitan pensar de manera más holística sobre el problema y no quedarse demasiado atrapados en la tecnología específica—con el riesgo de estar siempre atrás. Por ejemplo, Manyame dijo que el público en general solo ahora está comenzando a comprender los riesgos planteados por la IA y los deepfakes—algo sobre lo que ayudó a escribir un informe en 2021. Mirando hacia adelante, Manyame ya está pensando en el Metaverso—un espacio de realidad virtual—donde los usuarios están comenzando a enfrentar casos de violación, acoso sexual y abuso.

\ "Muchas de las leyes sobre abuso sexual basado en imágenes están un poco desactualizadas porque hablan específicamente sobre pornografía de venganza", dijo Manyame. "La pornografía de venganza históricamente ha sido más un tema de violencia doméstica, en el sentido de que es una pareja íntima compartiendo una imagen sexualmente explotadora de su pareja anterior o actual. Ese no siempre es el caso con los deepfakes, por lo que estas leyes podrían no proporcionar suficientes protecciones".

\ Además, Manyame argumentó que muchas de estas políticas no logran ampliar la definición de "imagen íntima" para considerar diversos antecedentes culturales o religiosos. Para algunas mujeres musulmanas, por ejemplo, podría ser igual de violatorio y humillante crear y difundir imágenes de su cabeza descubierta sin hijab.

\ Cuando se trata de soluciones, Manyame señaló acciones que pueden tomar los creadores de aplicaciones, reguladores de plataformas y legisladores.

\ En la fase de diseño, se pueden incorporar más medidas de seguridad para limitar el daño. Por ejemplo, Manyame dijo que hay algunas aplicaciones que pueden tomar fotos de mujeres y automáticamente quitar su ropa mientras que esa misma función no funciona en fotos de hombres. Hay formas en el back end de estas aplicaciones para hacer más difícil quitar la ropa de cualquier persona, independientemente de su género.

\ Una vez que los deepfakes nefastos ya están creados y publicados, sin embargo, Manyame dijo que las plataformas de redes sociales y mensajería deberían tener mejores mecanismos para eliminar el contenido después de que las víctimas lo reporten. Muchas veces, las víctimas individuales son ignoradas. Manyame dijo que ha notado que estas grandes compañías de redes sociales tienen más probabilidades de eliminar estos deepfakes en países, como Australia, que tienen reguladores de terceros para abogar en nombre de las víctimas.

\ "Necesita haber mecanismos de monitoreo y aplicación incluidos en cualquier solución", dijo Manyame. "Una de las cosas que escuchamos de muchos sobrevivientes es que solo quieren que su imagen sea eliminada. Ni siquiera se trata de pasar por un proceso legal. Solo quieren que ese contenido desaparezca".

\ Manyame dijo que no es pedir demasiado para muchas compañías tecnológicas y reguladores gubernamentales porque muchos ya responden rápidamente para eliminar fotos inapropiadas que involucran a niños. Es solo cuestión de extender ese tipo de protecciones a las mujeres, agregó.

\ "Mi preocupación es que ha habido una prisa por implementar leyes y políticas de IA sin considerar cuáles son algunas de las causas fundamentales de estos daños. Es un problema de múltiples capas, y hay muchas otras capas que deben abordarse".


Créditos

  • Mariel Padilla para The 19th

Ilustración

  • Rena Li

Edición

  • Flora Peir para The 19th

\ También publicado aquí

\ Foto de Steve Johnson en Unsplash

Oportunidad de mercado
Logo de Sleepless AI
Precio de Sleepless AI(AI)
$0.03649
$0.03649$0.03649
+2.24%
USD
Gráfico de precios en vivo de Sleepless AI (AI)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.