Conectate con nosotros

Ciencia y Tecnología

El contenido electoral generado por IA ya está aquí y las redes sociales no están listas para ello

2023 07 11 12 28 09

#CienciaYTecnologia •

A principios de este año, en vísperas de las elecciones a la alcaldía de Chicago, apareció en línea un video del candidato demócrata moderado Paul Vallas. Tuiteado por “Chicago Lakefront News”, parecía mostrar a Vallas criticando la anarquía en Chicago y sugiriendo que hubo un momento en que “nadie se inmutaría” ante los tiroteos policiales fatales. El video, que parecía auténtico, fue ampliamente compartido antes de que la campaña de Vallas lo denunciara como una falsificación generada por inteligencia artificial (IA) y la cuenta de Twitter de dos días que lo publicó desapareciera.

Aunque es imposible decir si tuvo algún impacto en la derrota de Vallas contra el progresista Brandon Johnson, un exprofesor y organizador sindical, es un vistazo de menor importancia a los engaños de alto riesgo de la IA que potencialmente enturbiarán el discurso público durante las próximas elecciones presidenciales. Y plantea una pregunta clave: ¿cómo las mitigarán plataformas como Facebook y Twitter?

Ese es un desafío abrumador. Sin leyes actuales que regulen cómo se puede usar la IA en campañas políticas, corresponde a las plataformas determinar qué falsificaciones profundas verán los usuarios en sus feeds, y en este momento, la mayoría está luchando por abordar cómo autorregularse. “Estas son amenazas para nuestras mismas democracias”, dijo Hany Farid, profesor de ingeniería eléctrica y ciencias de la computación en UC Berkeley, a Forbes. “No veo que las plataformas se tomen esto en serio”.

En este momento, la mayoría de las plataformas de redes sociales más grandes no tienen políticas específicas relacionadas con el contenido generado por IA, ya sea político o de otro tipo.

En las plataformas de Facebook e Instagram de Meta, cuando el contenido se marca como posible información errónea, los verificadores de datos de terceros lo revisan y se les pide que desacrediten “audio, video o fotos falsificados, manipulados o transformados”, independientemente de si el contenido fue manipulado a través de Photoshop de la vieja escuela o herramientas de generación de inteligencia artificial, dijo a Forbes el portavoz de Meta, Kevin McAlister.

Del mismo modo, Reddit seguirá confiando en sus políticas contra la manipulación de contenido, que se aplican a “campañas de desinformación, documentos falsificados y falsificaciones profundas con la intención de engañar”. YouTube también eliminará el contenido relacionado con las elecciones que viole las políticas de desinformación, que prohíben expresamente las imágenes que hayan sido manipuladas técnicamente para engañar a los usuarios y que puedan representar un riesgo grave o un daño potencial.

En Twitter, el propietario Elon Musk publicó una actualización de la política de medios manipulados y sintéticos de la empresa en abril, afirmando que los tuits “pueden ser” etiquetados si contienen información engañosa, y la empresa continuará eliminando aquellos que sean perjudiciales para las personas o las comunidades. La política señala que los medios fabricados “mediante el uso de algoritmos de inteligencia artificial” serán examinados más detenidamente.

Hasta ahora, la única empresa importante de redes sociales que tiene una política más integral destinada a moderar el contenido generado por IA es TikTok.

En marzo de 2023, TikTok anunció una nueva “política de medios sintéticos” que obligaba a los creadores a publicar escenas de aspecto realista generadas o modificadas por IA para revelar claramente el uso de dicha tecnología. Para el contenido electoral, prohibirá todas las imágenes generadas por IA que se hagan pasar por figuras públicas para obtener respaldo político.

“Estas son amenazas para nuestras propias democracias. No veo que las plataformas se tomen esto en serio”.

Hany Farid, profesor de ingeniería eléctrica y ciencias de la computación en UC Berkeley

TikTok comenzó a eliminar contenido que no cumple con la nueva regla en abril. Los creadores de contenido tienen cierta flexibilidad para hacer público el descargo de responsabilidad: puede estar en los subtítulos, subtítulos o hashtags, siempre que no sea engañoso. La plataforma aún no ha prohibido automáticamente las cuentas que comparten contenido no autorizado, sino que solo da una advertencia.

Pero si bien este tipo de transparencia es un primer paso para alertar a los usuarios sobre el origen del contenido, podría no ser suficiente para evitar la difusión de información errónea. “Por supuesto, habrá malos actores que trabajarán para evadir cualquier política o estándar”, dijo Renee DiResta, gerente de investigación del Observatorio de Internet de Stanford.

Es por eso que mantener equipos de integridad es clave para abordar el desafío, argumenta DiResta. Twitter, en particular, podría tener problemas con las próximas elecciones: desde que Elon Musk se hizo cargo, ha despedido a equipos completos que abordaron la desinformación y ha rescindido los contratos con moderadores de contenido de terceros.

La difusión de información errónea ha sido durante mucho tiempo un problema para las plataformas de redes sociales, y el ataque del 6 de enero al Capitolio de Estados Unidos fue una prueba de cómo un movimiento organizado en gran parte en línea tuvo consecuencias mortales en la vida real. Pero las elecciones presidenciales de 2024 serán las primeras en las que las campañas y sus seguidores tendrán acceso a poderosas herramientas de inteligencia artificial que pueden generar contenido falso de apariencia realista en segundos.

“La desinformación ha continuado. Hemos arrojado combustible para aviones sobre ese problema en forma de IA generativa y falsificaciones profundas”, dijo Farid.

Sin embargo, los expertos advierten contra las declaraciones hiperbólicas sobre cuán dañino podría ser el contenido generado por IA en las próximas elecciones.

“Si damos la impresión de que las campañas de desinformación que usan falsificaciones profundas inevitablemente tendrán éxito, lo que no sucederá, podemos socavar la confianza en los sistemas democráticos”, dijo Josh Goldstein, investigador del equipo de CyberAI del Centro para Seguridad y Tecnología Emergente de la Universidad de Georgetown.

Más allá de las redes sociales, los motores de búsqueda también deberán protegerse contra el contenido generado por IA.

Google intervino para excluir el contenido manipulado de los resultados destacados en los paneles de conocimiento y fragmentos destacados. En cuanto a los anuncios de Google, los medios manipulados están prohibidos y los anunciantes deben pasar por un proceso de verificación de identidad e incluir una divulgación en el anuncio de quién está pagando por ello.

En mayo, el CEO de Google, Sundar Pichai, anunció una nueva herramienta, ‘Sobre esta imagen’, para revelar cuándo las imágenes encontradas a través de la búsqueda fueron generadas por IA. La nueva función también mostrará cuándo se indexaron por primera vez una imagen en particular y otras similares, y dónde más se ha visto en línea, incluidas las noticias, las redes sociales o los sitios de verificación de hechos.

Pichai también anunció que Google pronto comenzará a poner marcas de agua automáticamente en imágenes y videos creados con sus modelos generativos internos para que los usuarios puedan identificar fácilmente el contenido sintético.

Google no está solo en la introducción de este método. Las marcas de agua son una de las demandas centrales de la Iniciativa de Autenticidad de Contenido, una alianza de más de 200 organizaciones de medios, digitales, de contenido y de tecnología que promueve la adopción de un estándar de la industria para la autenticidad del contenido.

Yendo un paso más allá, Farid introdujo la idea de hacer obligatorio que los creadores de contenido incluyan una especie de “etiqueta nutricional” que revele cómo se creó su contenido. Por ejemplo, una leyenda podría señalar que el video que lo acompaña se grabó con un iPhone 14 y se editó con el generador de imágenes AI de Adobe, Firefly.

La pregunta pendiente es si las empresas tecnológicas podrán autorregularse con éxito o si los gobiernos tendrían que interferir. “Me gustaría no necesitar (a los gobiernos)”, dijo Farid. “Pero aún necesitamos ayuda”.

Forbes

Publicidad
Publicidad

Trending