Si eres fan de Taylor Swift, en este momento no puedes realizar búsquedas de la artista en X (la red social antes conocida como Twitter), debido a que los responsables de la plataforma las bloquearon para evitar la reproducción de imágenes sexuales falsas creadas con Inteligencia Artificial (deepfakes) de la cantante.
El jefe de negocios de X, Joe Benarroch, dijo a The Wall Street Journal que se trata de una medida “temporal” cuyo objetivo es “priorizar la seguridad”. Por lo que ahora, los usuarios que busquen el nombre de la artista o bien la etiqueta “Taylor Swift AI” recibirán un mensaje de error. Eso sí, la cuenta de la artista no sufrió ningún cambio.
Algunos usuarios detectaron que al reorganizar las palabras o únicamente con el nombre o apellido de la originaria de Pensilvania podían seguir realizando búsquedas; sin embargo, sus seguidores han publicado más mensajes de apoyo para evitar que las imágenes tengan mayor alcance.
Incluso la victoria de los Kansas City Chiefs, que los llevará al Super Bowl LVIII , ha aportado para minimizar el impacto de las deepfakes, pues ahora se habla de que Swift estará en el gran evento deportivo para apoyar a su novio, Travis Kelce.
El problema de las deepfakes de Taylor Swift comenzó el miércoles de la semana pasada, cuando una ola de cuentas las comenzaron a replicar de forma masiva. Una de las imágenes fue eliminada luego de 17 horas en la red social, tiempo en el que alcanzó más de 47 millones de visualizaciones totales.
Esto generó demasiadas críticas para la plataforma y sus medidas de moderación de contenido, pues si bien las cuentas originales fueron denunciadas y, posteriormente, borradas, las imágenes se publicaban por otros perfiles, lo que dificultaba su eliminación.
La empresa emitió una declaración hasta el viernes en la que mencionaba que la publicación de imágenes de desnudos no consensuales está “estrictamente prohibida” en la red social, además de tener una política de tolerancia cero al respecto.
“Estamos monitoreando de cerca la situación para garantizar que cualquier otra infracción se aborde de inmediato y que el contenido se elimine. Estamos comprometidos a mantener un entorno seguro y respetuoso para todos los usuarios”, dijo la empresa.
Otras compañías, como Meta, también están abordando el problema. De hecho los mismos términos de búsqueda en Threads e Instagram no arrojan ningún tipo de resultado para evitar la proliferación de las deepfakes.
Swift, al ser una de las artistas que más arraigo tiene entre sus fanáticos, ya ha generado la reacción de líderes tecnológicos y políticos. El viernes, el CEO de Microsoft, Satya Nadella, dijo en una entrevista que estas imágenes falsas son “alarmantes y terribles”.
También consideró que las empresas de inteligencia artificial deben asumir la responsabilidad de “actuar rápido” en la implementación de mejores barreras de seguridad para evitar la proliferación de este tipo de contenido, lo cual encontró eco en la Casa Blanca.
Karine Jean-Pierre, secretaria de prensa de la Casa Blanca, también intervino en la conversación y pidió al Congreso de los Estados Unidos que tome medidas legislativas para proteger a las personas de la pronografía deepfake.
Informe de diversos medios apuntan que Swift está considerando emprender acciones legales en contra de los sitios que sigan alojando este tipo de contenido, lo cual generaría demasiada presión por el impacto mediático de la artista a nivel mundial.
Por lo tanto, la relevancia de Swift podría convertirse en el inicio de una regulación en torno a una tecnología que puede representar un peligro para diferentes sectores. Entre 2022 y 203, Norteamérica fue la región con mayor crecimiento de deepfakes, con un 1,740% más; en Asia y Pacífico el aumento fue de 1,530%.
En Europa, este tipo de imágenes crecieron un 780% (incluyendo Reino Unido); en Medio Este y África, 450%; en América Latina, se elevaron un 410%, mientras que en México esta herramienta creció un 700%.
Además, según datos de la organización WeProtect Global Alliance, entre 2020 y 2022 se registró un aumento del 360% en las imágenes sexuales autogeneradas de niños de siete a 10 años, demostrando el impacto negativo que también puede tener en las infancias.