- KEEP the FAITH - https://ktfnews.com/es -

Encontrado a través de Google, comprado con Visa y MasterCard: Dentro de la profunda economía del porno falso

NBC News, por Kat Tenbarge: Los vídeos pornográficos editados digitalmente con los rostros de cientos de mujeres inconscientes están atrayendo a decenas de millones de visitantes en sitios web, uno de los cuales puede encontrarse en la parte superior de los resultados de búsqueda de Google.

Los creadores de los vídeos cobran desde 5 dólares por descargar miles de clips con los rostros de famosas, y aceptan pagos mediante Visa, MasterCard y criptomonedas.

Aunque este tipo de vídeos, a menudo denominados deep fakes, existen en Internet desde hace años, los avances en inteligencia artificial y la creciente disponibilidad de la tecnología han hecho más fácil -y lucrativo- crear material sexualmente explícito no consentido.

Un análisis de NBC News de dos de los mayores sitios web que alojan vídeos de deep fakes sexualmente explícitos descubrió que eran fácilmente accesibles a través de Google y que los creadores de los sitios web también utilizaban la plataforma de chat en línea Discord para anunciar vídeos a la venta y la creación de vídeos personalizados.

Las falsificaciones profundas se crean utilizando software de inteligencia artificial que puede tomar un vídeo existente y sustituir sin problemas la cara de una persona por la de otra, incluso reflejando las expresiones faciales. Algunos vídeos desenfadados de falsificaciones profundas de famosos se han hecho virales, pero el uso más común es para vídeos sexualmente explícitos. Según Sensity, una empresa con sede en Ámsterdam que detecta y supervisa medios sintéticos desarrollados por IA para sectores como la banca y la tecnología financiera, el 96% de los vídeos falsos son de contenido sexual explícito y están protagonizados por mujeres que no dieron su consentimiento para la creación del contenido.

La mayoría de los vídeos de deep fake son de mujeres famosas, pero ahora los creadores también se ofrecen a hacer vídeos de cualquier persona. Un creador ofreció en Discord hacer un deep fake de 5 minutos de una «chica personal», es decir, cualquiera con menos de 2 millones de seguidores en Instagram, por 65 dólares.

La economía del deep fake no consentido ha permanecido en gran medida oculta, pero recientemente ha suscitado un gran interés después de que un popular livestreamer admitiera este año haber visto vídeos de deep fake sexualmente explícitos de otros livestreamers. Justo en ese momento, el tráfico de búsqueda en Google se disparó para «deep fake porn».

El aumento también coincidió con un repunte en el número de vídeos subidos a MrDeepFakes, uno de los sitios web más destacados en el mundo del deep fake porn. El sitio alberga miles de vídeos de pornografía falsa sexualmente explícitos que se pueden ver gratuitamente. Recibe 17 millones de visitas al mes, según la empresa de análisis web SimilarWeb. Si se busca en Google «deep fake porn», MrDeepFakes aparece como primer resultado.

En una declaración a NBC News, un portavoz de Google dijo que las personas que son objeto de deep fakes pueden solicitar la eliminación de páginas de la Búsqueda de Google que incluyan «pornografía falsa involuntaria».

«Además, diseñamos nuestros sistemas de clasificación de forma que ofrezcan información de alta calidad y eviten sorprender a los usuarios con contenidos inesperadamente nocivos o explícitos cuando no los están buscando», añade el comunicado.

Genevieve Oh, investigadora independiente de Internet que ha seguido de cerca el auge de MrDeepFakes, afirma que las subidas de vídeos al sitio web no han dejado de aumentar. En febrero, el sitio registró el mayor número de subidas hasta la fecha: más de 1.400.

Noelle Martin, abogada y defensora legal de Australia Occidental que trabaja para concienciar sobre los abusos sexuales facilitados por la tecnología, afirmó que, según sus conversaciones con otras supervivientes de abusos sexuales, cada vez es más frecuente que personas no famosas sean víctimas de este tipo de vídeos no consentidos.

«Cada vez hay más gente en el punto de mira», dijo Martin, que ella misma fue objeto de abusos sexuales fingidos. «Cada vez hay más víctimas de este tipo que son gente normal, gente corriente, que están en el punto de mira».

Los vídeos de MrDeepFakes no suelen durar más de unos minutos, y actúan como avances de vídeos de deep fake mucho más largos, que suelen estar a la venta en otro sitio web: Fan-Topia. El sitio web se anuncia en Instagram como «la plataforma de creadores de contenido para adultos mejor pagada».

Cuando los consumidores de deep fake encuentran vídeos que les gustan en MrDeepFakes, al hacer clic en los perfiles de los creadores suelen acceder a enlaces de Fan-Topia, donde pueden pagar con sus tarjetas de crédito el acceso a las bibliotecas de vídeos de deep fake. En la página de pago de Fan-Topia, los logotipos de Visa y MasterCard aparecen junto a los campos donde los usuarios pueden introducir los datos de la tarjeta de crédito. Las compras se realizan a través de un proveedor de servicios de pago por Internet llamado Verotel, que tiene su sede en los Países Bajos y se dirige a lo que denomina webmasters de «alto riesgo» que gestionan servicios para adultos.

Verotel no respondió a la solicitud de comentarios.

Algunos creadores de deep fake aceptan solicitudes a través de Discord, una plataforma de chat. El creador del vídeo más visto de MrDeepFake, según el contador de visitas del sitio web, tenía un perfil y una sala de chat en Discord donde los suscriptores podían enviar mensajes directamente para hacer peticiones personalizadas con una «chica personal». Discord eliminó el servidor por violar sus normas sobre «contenido o comportamiento que sexualiza o degrada sexualmente a otros sin su aparente consentimiento» después de que NBC News pidiera comentarios.

El creador no respondió a un mensaje enviado a través de Discord.

Las directrices de la comunidad de Discord prohíben «la coordinación, participación o fomento del acoso sexual», incluida la «sexualización no deseada.» NBC News ha revisado otras comunidades de Discord dedicadas a crear imágenes falsas profundas sexualmente explícitas a través de un método de desarrollo de IA conocido como Difusión Estable, una de las cuales presentaba imágenes no consentidas de celebridades y fue cerrada después de que NBC News pidiera comentarios.

En un comunicado, Discord dijo que prohíbe expresamente «la promoción o el intercambio de deepfakes no consensuados.»

«Nuestro equipo de seguridad toma medidas cuando tenemos conocimiento de este contenido, incluida la eliminación de contenido, la prohibición de usuarios y el cierre de servidores», dice el comunicado.

Además de hacer vídeos, los creadores de deepfakes también venden acceso a bibliotecas con miles de vídeos por cuotas de suscripción tan bajas como 5 dólares al mes. Otros son gratuitos.

«¡Suscríbete hoy y llena tu disco duro mañana!». dice la descripción de Fan-Topia de un creador deep fake.

Aunque Fan-Topia no se comercializa explícitamente como un espacio para creadores de deep fakes, se ha convertido en uno de los hogares más populares para ellos y sus contenidos. La búsqueda de «deep fakes» y términos asociados al género en Fan-Topia arrojó más de 100 cuentas de creadores de deep fake.

Algunos de esos creadores están contratando. En los foros de MrDeepFake, un tablón de mensajes en el que creadores y consumidores pueden hacer peticiones, plantear preguntas técnicas y hablar sobre la tecnología de IA, dos populares creadores de deep fake anuncian puestos remunerados para ayudarles a crear contenidos. Ambos anuncios se publicaron la semana pasada y ofrecen criptomoneda como pago.

Desde creadores de YouTube y Twitch hasta mujeres que protagonizan franquicias de gran presupuesto suelen aparecer en vídeos de deep fake en Fan-Topia y MrDeepFakes. Las dos mujeres que aparecen en más contenidos de MrDeepFakes, según la clasificación del sitio web, son las actrices Emma Watson y Scarlett Johansson. También aparecieron en una campaña publicitaria en Facebook de contenido sexual sugerente para una aplicación de intercambio de caras falsas que funcionó durante dos días antes de que NBC News informara sobre ello (tras la publicación del artículo, Meta retiró las campañas publicitarias, y la aplicación que aparecía en ellas fue retirada de la App Store de Apple y de Google Play).

«No es una página porno. Es un sitio web depredador que no se basa en el consentimiento de la gente en el sitio web real», dijo Martin sobre MrDeepFakes. «El hecho de que se permita su funcionamiento y se conozca es una completa acusación a todos los reguladores del sector, a todas las fuerzas del orden, a todo el sistema, de que se permita su existencia».

Visa y MasterCard ya han tomado medidas contra su uso como procesadores de pagos para vídeos de explotación sexual, pero siguen estando disponibles para su uso en Fan-Topia. En diciembre de 2020, después de que un artículo de opinión del New York Times dijera que el material de abuso sexual infantil estaba alojado en Pornhub, las compañías de tarjetas de crédito dejaron de permitir transacciones en el sitio web. Pornhub dijo que la afirmación de que permitía ese material era «irresponsable y flagrantemente falsa». En agosto, las compañías suspendieron también los pagos por anuncios en Pornhub. Pornhub prohíbe las falsificaciones profundas de todo tipo.

Después de esa decisión, el CEO y presidente de Visa, Al Kelly, dijo en un comunicado que las reglas de Visa «prohíben explícita e inequívocamente el uso de nuestros productos para pagar por contenido que representa un comportamiento sexual no consensual.»

Visa y MasterCard no respondieron a las solicitudes de comentarios.

Otros sitios web de deep fake han encontrado diferentes modelos de beneficios.

A diferencia de Fan-Topia y su modelo de muro de pago, MrDeepFakes parece generar ingresos a través de anuncios y se basa en la gran audiencia que ha impulsado su posicionamiento en los resultados de búsqueda de Google.

Creado en 2018, MrDeepFakes se ha enfrentado a algunos esfuerzos para cerrar su funcionamiento. Una petición de Change.org para retirarlo creada por la campaña sin ánimo de lucro #MyImageMyChoice cuenta con más de 52.000 firmas, lo que la convierte en una de las peticiones más populares de la plataforma, y ha sido compartida por influencers señalados en la plataforma.

Desde 2018, cuando la tecnología de intercambio de rostros para consumidores entró en el mercado, las apps y programas utilizados para hacer falsificaciones profundas sexualmente explícitas se han vuelto más refinadas y generalizadas. Decenas de apps y programas son gratuitos u ofrecen pruebas gratuitas.

«En el pasado, incluso hace un par de años, la forma predominante en que las personas se veían afectadas por este tipo de abuso era el intercambio no consentido de imágenes íntimas», afirma Martin. «Ni siquiera eran imágenes manipuladas».

Ahora, según Martin, las supervivientes de abusos sexuales, tanto en la red como fuera de ella, son el blanco de falsificaciones profundas. En Australia Occidental, Martin hizo campaña con éxito para ilegalizar las falsificaciones profundas no consentidas y el abuso sexual basado en imágenes, pero, dijo, la aplicación de la ley y los reguladores están limitados por la jurisdicción, porque las falsificaciones profundas se pueden hacer y publicar en línea desde cualquier parte del mundo.

En Estados Unidos, sólo cuatro estados han aprobado leyes específicas sobre este tipo de falsificaciones. Las víctimas se ven igualmente perjudicadas por la jurisdicción y porque algunas de las leyes sólo se refieren a elecciones o a material de abusos sexuales a menores.

«El consenso es que necesitamos una respuesta global y colaborativa a estos problemas», afirmó Martin.

Conexión Profética:
“mas los malos hombres y los engañadores irán de mal en peor, engañando y siendo engañados.” 2ª Timoteo 3:13.


Source References