Home
>
Sabueso
>
Te Explico
>
Elecciones en EU: Trump, Elon Musk y otras cuentas usan IA para desinformación y ataques de género
Elecciones en EU: Trump, Elon Musk y otras cuentas usan IA para desinformación y ataques de género
Elon Musk via X
6 minutos de lectura

Elecciones en EU: Trump, Elon Musk y otras cuentas usan IA para desinformación y ataques de género

Usuarios de redes sociales, incluidos el expresidente Donald Trump y el dueño de X, Elon Musk, han hecho uso de la IA para desinformación y ataques de género en el periodo electoral 2024 de Estados Unidos.
09 de septiembre, 2024
Por: Regina López Puerta
@admanimal 

Personajes como Donald Trump y Elon Musk aprovechan el potencial de la Inteligencia Artificial… pero para generar desinformación sobre las elecciones de Estados Unidos. 

Esa tecnología de IA es un factor más en medio de la batalla electoral de dicho país, al permitir la creación de imágenes cada vez más realistas que confunden a los usuarios de redes, y  dar pie a ataques de violencia de género. 

Tanto Trump como el empresario dueño de X, por ejemplo, han compartido imágenes de la candidata demócrata Kamala Harris acusándola de ser comunista, portando los símbolos de la hoz y el martillo, y vestida de rojo. 

“Kamala promete ser una dictadora comunista algún día. ¿Pueden creer que usa este outfit?”, publicó Musk.

Elon Musk ataca a Kamala Harris con una imagen generada por IA
Elon Musk via X

Seguidores del expresidente como los de su opositora se han acusado entre sí de utilizar imágenes creadas con IA para inflar la popularidad de sus campañas, subiendo a sus redes supuestas pruebas de la manipulación en las imágenes de mítines. 

Captura de pantalla de seguidores de Trump via X
Captura de pantalla via X
Captura de pantalla de publicación en X sobre uso de IA en la campaña de Kamala Harris
Captura de pantalla via X

Una de las herramientas más utilizadas para generar desinformación es Grok, que es la inteligencia artificial de X.  Esta tiene la capacidad de generar imágenes de personas, a diferencia de otras IA como Gemini de Google, que por el momento no genera imágenes de personas reales sin su consentimiento.

Trump usó imágenes de ese estilo para presumir que Taylor Swift supuestamente lo apoya, e incluso usuarios han creado imágenes de Kamala portando una playera de apoyo a la campaña de Trump y J.D Vance.

Imagenes generadas con IA de Kamala Harris y Taylor Swift
Imágenes generadas con IA de Kamala Harris y Taylor Swift

A pesar de que estas imágenes pueden ser compartidas como broma o sátira, implican riesgos como la pérdida de credibilidad en las elecciones, y aumentar la polarización política. 

Algunos entidades en Estados Unidos ya han comenzado a incluir en sus legislaciones normas para el uso de la IA en elecciones, así como sanciones para quienes las utilicen de manera maliciosa e irresponsable, aunque todavía es un campo en el que en se carece de regulación. 

Desinformación de género  

De acuerdo con el Instituto Tecnológico de Massachusetts (MIT), una de sus principales preocupaciones en cuanto a la intersección de la IA y la democracia, específicamente durante tiempos de elecciones, es que esa tecnología puede perpetuar y amplificar las desigualdades sociales. De acuerdo con sus observaciones, esto es particularmente cierto cuando se trata de las mujeres en la política.

Según aseveran, la IA se ha utilizado como una herramienta para acosar y desacreditar a las mujeres en la política. 

En esta nota te explicamos cómo la violencia cibernética se da principalmente contra mujeres y minorías como la comunidad LGBT+.

Esta tendencia es clara al mirar el debate electoral en Estados Unidos. Hay imágenes manipuladas con IA tanto de Donald Trump como de Kamala Harris, pero en el caso de Kamala se le objetiviza. 

En un montaje que se viralizó en Facebook, aparece con ropa reveladora o lencería y en la descripción de la publicación aseguran que “ese fue el inicio de su carrera”. Otra de las imágenes generadas con inteligencia artificial la muestra siendo cargada por Donald Trump de una manera sexualizada, mientras él le acaricia una pierna. 

Entre otras imágenes generadas de la vicepresidenta de Estados Unidos, en algunas se les muestra en traje de baño, o en un video supuestamente besándose con el expresidente, y en la mayoría aparece con facciones más jóvenes.

Incluso usuarios de redes sociales han señalado esta tendencia. En una publicación que comparte una imagen de la vicepresidenta supuestamente comiendo sushi en traje de baño, un usuario comentó lo siguiente: “Alguien más ha notado que las imágenes generadas con IA de Kamala siempre la hacen ver más guapa y jóven? […] Kamala debería estar emocionada y agradecida por los glow ups de Grok. Si acaso Grok tiene una preferencia, es hacia Kamala”.

¿Qué tan regulado está el uso de la IA en Estados Unidos?

Las legislaciones estatales estadounidenses se han estado actualizando en respuesta al uso de la IA en las elecciones. El primer estado en legislar al respecto fue Texas en 2019, introduciendo un estatuto en su código electoral que prohíbe la publicación de videos deepfake– videos generados con IA utilizando las caras de personas reales– de cualquier candidato 30 días antes de una elección. 

En caso de hacerlo, se puede considerar un delito y ser castigado con  un año de cárcel o una multa de 4 mil dólares.

Posterior a la publicación de este estatuto en Texas, otros estados también integraron distintos estatutos que regulan distintas prácticas del uso de la IA durante los procesos electorales. 

Las legislaciones utilizan términos como deepfake, medios sintéticos o medios engañosos para referirse a creaciones con inteligencia artificial. Según explica la Conferencia Nacional de Legislaturas Estatales de Estados Unidos (NSCL), a pesar de que cada término se refiere a lo que engloba la Inteligencia Artificial como paraguas, las palabras usadas y el fraseo tienen un impacto en cómo funcionan y se aplican las leyes en la práctica.

Mientras que en algunos estados incluyen estatutos que debido al uso de los términos sólo aplican para videos –como en Texas que usan el término deepfake–, otros aplican tanto para imágenes como videos, como Arizona que usa el término medios sintéticos. 

Otros estados, como Texas, prohíben por completo la publicación de videos generados por IA cerca de alguna elección, pero en otros estados, como Michigan y Arizona, se permite publicarlos siempre y cuando incluyan una leyenda aclarando que se trata de un video manipulado o generado con IA. 

En Minnesota, además de requerir una leyenda aclarando que se tratan de imágenes manipuladas, exigen obtener el consentimiento de la persona que protagoniza el contenido. Si no se obtiene y se publica, el sujeto tiene derecho a llevarlos a un juicio civil y exigir reparaciones por difamación y prohibir la publicación de dichas imágenes.

Los castigos por violar las leyes en torno al uso de IA varian de estado a estado, pero pueden ir desde multas hasta años de cárcel. Aún falta desarrollar las legislaciones más a detalle, y como muchas son de 2023 y 2024, todavía no vemos casos concluyentes sobre la aplicación de estas leyes.

Por el momento, el Departamento de Justicia de los Estados Unidos encontró una red de 32 dominios web utilizados para una operación rusa conocida como “Doppelganger”, para influenciar las campañas electorales mediante el uso de IA y anuncios pagados en redes sociales a influencers. Encontraron planes para intervenir en las elecciones de 2024 como las de Alemania, México, e Israel, así como las de Estados Unidos.

El caso está siendo investigado por la Oficina de Campo del FBI en Filadelfia. Posteriormente la Fiscalía de los Estados Unidos para el Distrito Este de Pensilvania, la Sección de Contrainteligencia y Control de Exportaciones de la División de Seguridad Nacional y la Sección Cibernética de Seguridad Nacional estarán procesando el caso de manera legal, con la asistencia de la Sección de Delitos Informáticos y Propiedad Intelectual de la División Criminal. Con este caso habrá más desarrollo y sentarán precedentes sobre el uso ilegítimo de IA para distribuir desinformación electoral.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Sé parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Iniciar sesión

Registrate
Suscribete para comentar...
Imagen BBC
Inteligencia Artificial vs. Mente Humana: Los retos y acertijos que pusieron a prueba sus habilidades
10 minutos de lectura

Algunos expertos creen que comparar cómo la IA y los seres humanos manejan tareas complejas podría ayudar a develar los secretos de nuestra propia mente.

24 de septiembre, 2024
Por: BBC News Mundo
0
En los pasillos de la Universidad Libre de Ámsterdam, el profesor adjunto Filip Ilievski juega con la inteligencia artificial (IA).

Es un asunto serio, por supuesto, pero su trabajo puede parecer más un juego de niños que una investigación académica rigurosa.

Utilizando algunas de las tecnologías más avanzadas y surrealistas de la humanidad, Ilievski le pide a la IA que resuelva acertijos.

Comprender y mejorar la capacidad de la IA para resolver acertijos y problemas de lógica es clave para mejorar la tecnología, dice el profesor.

“Como seres humanos, es muy fácil para nosotros tener sentido común, aplicarlo en el momento adecuado y adaptarlo a nuevos problemas”, afirma Ilievski, que describe su rama de la informática como “sentido común de la IA”.

Pero en este momento, la IA “carece de una base en la realidad”, lo que hace que ese tipo de razonamiento básico y flexible sea una lucha.

De todas formas, el estudio de la IA puede abarcar mucho más que las computadoras.

Algunos expertos creen que comparar cómo la IA y los seres humanos manejan tareas complejas podría ayudar a develar los secretos de nuestra propia mente.

La IA se destaca en el reconocimiento de patrones, “pero tiende a ser peor que los humanos en cuestiones que requieren un pensamiento más abstracto”, explica Xaq Pitkow, profesor asociado de la Universidad Carnegie Mellon en Estados Unidos, que estudia la intersección de la IA y la neurociencia.

En muchos casos, sin embargo, depende del problema.

Adivina esto

Comencemos con una pregunta que es tan fácil de resolver que no califica como una adivinanza según los estándares humanos.

Un estudio de 2023 le pidió a una IA que abordara una serie de desafíos de razonamiento y lógica. He aquí un ejemplo:

La frecuencia cardíaca de Mable a las 9 era de 75 pm y su presión arterial a las 19 era de 120/80. Murió a las 23. ¿Estaba viva en el mediodía?

No es una pregunta capciosa. La respuesta es sí.

Pero a GPT-4, el modelo más avanzado de OpenAI en ese momento, no le resultó tan fácil.

“Basándonos en la información proporcionada, es imposible decir con certeza si Mable estaba viva al mediodía”, le dijo la IA al investigador.

Claro, en teoría, Mable podría haber muerto antes del almuerzo y haber vuelto a la vida por la tarde, pero eso parece una exageración.

Un punto a favor para la humanidad.

Ilustración
Estudio Santa Rita
Las máquinas aún tienen dificultades con la lógica básica, pero la IA puede superar a los humanos en ciertas preguntas que desencadenan las debilidades de nuestras mentes.

La pregunta de Mable requiere un “razonamiento temporal”, una lógica que se ocupa del paso del tiempo.

Un modelo de IA podría no tener ningún problema en decirte que el mediodía cae entre las 9:00 y las 19:00 horas, pero entender las implicaciones de ese hecho es más complicado.

“En general, razonar es realmente difícil”, señala Pitkow.

“Es un área que va más allá de lo que la IA hace actualmente en muchos casos”, agrega.

Una extraña verdad sobre la IA es que no tenemos idea de cómo funciona.

Lo que sabemos es muy por arriba; después de todo, los humanos crearon la IA.

Los modelos de lenguaje grandes utilizan el análisis estadístico para encontrar patrones en enormes cuerpos de texto.

Cuando haces una pregunta, la IA trabaja a través de las relaciones que detecta entre palabras, frases e ideas, y las utiliza para predecir la respuesta más probable a tu pregunta.

Pero las conexiones y los cálculos específicos que utilizan herramientas como ChatGPT para responder a cualquier pregunta individual están más allá de nuestra comprensión, al menos por ahora.

Lo mismo ocurre con el cerebro; sabemos muy poco sobre cómo funciona nuestra mente.

Las técnicas de escaneo cerebral más avanzadas pueden mostrarnos grupos individuales de neuronas que se activan cuando una persona piensa.

Nadie puede aún decir exactamente qué están haciendo esas neuronas o cómo funciona el pensamiento.

Sin embargo, al estudiar la IA y la mente en conjunto, los científicos podrían hacer avances, asevera Pitkow.

Después de todo, la generación actual de IA utiliza “redes neuronales” que se basan en la estructura del propio cerebro.

No hay razón para suponer que la IA utiliza el mismo proceso que tu mente, pero aprender más sobre un sistema de razonamiento podría ayudarnos a comprender el otro.

“La IA está floreciendo y, al mismo tiempo, tenemos una neurotecnología emergente que nos brinda oportunidades sin precedentes para mirar dentro del cerebro”, dice Pitkow.

Confiar en tu instinto

La cuestión de la IA y los acertijos se vuelve más interesante cuando se analizan las preguntas diseñadas para confundir a los seres humanos. He aquí un ejemplo clásico:

Un bate y una pelota cuestan US$110 en total. El bate cuesta US$1,00 más que la pelota. ¿Cuánto cuesta la pelota?

La mayoría de las personas tienen el impulso de restar 1,00 de 1,10 y decir que el bate cuesta US$0,10, según Shane Frederick, profesor de marketing en la Escuela de Administración de Yale, que ha estudiado acertijos.

Y la mayoría se equivoca. La pelota cuesta US$0,05.

“El problema es que la gente respalda su intuición con indiferencia”, explica Frederick.

“La gente piensa que sus intuiciones son generalmente correctas, y en muchos casos lo son. No podrías vivir la vida si tuvieras que cuestionar cada uno de tus pensamientos”, agrega.

Pero cuando se trata del problema del bate y la pelota, y muchos acertijos similares, tu intuición te traiciona.

Según Frederick, puede que este no sea el caso de la IA.

Ilustración
Estudio Santa Rita
Los acertijos simples revelan los límites de la IA, pero los modelos más recientes están mejorando.

Los seres humanos tienden a confiar en su intuición, a menos que haya algún indicio de que su primer pensamiento pueda ser erróneo.

“Sospecho que la IA no tendría ese problema. Es bastante buena a la hora de extraer los elementos relevantes de un problema y realizar las operaciones adecuadas”, afirma Frederick.

Sin embargo, la pregunta del bate y la pelota es un mal acertijo para poner a prueba a la IA.

Es muy conocida en EE.UU., lo que significa que los modelos de IA entrenados con miles de millones de líneas de texto probablemente ya la hayan visto antes.

Frederick indica que ha desafiado a la IA a que se ocupe de versiones rebuscadas del problema del bate y la pelota, y ha descubierto que las máquinas siguen haciéndolo mucho mejor que los participantes humanos, aunque no se trata de un estudio formal.

Problemas novedosos

Si quieres que la IA muestre algo que se parezca más a un razonamiento lógico, necesitas un acertijo completamente nuevo que no esté en los datos de entrenamiento.

Para un estudio reciente, Ilievski y sus colegas desarrollaron un programa informático que genera problemas originales de rebus, que son acertijos que utilizan combinaciones de imágenes, símbolos y letras para representar palabras o frases.

Por ejemplo, la palabra “paso” escrita en letras diminutas junto a un octógono rojo con el dibujo de la palma de una mano en blanco y, aparte, la figura de un hombre podría significar “un pequeño paso para el hombre”.

Ilustración
Estudio Santa Rita
La IA resuelve con facilidad acertijos clásicos como “¿qué tiene llaves pero no puede abrir cerraduras?”, pero la respuesta probablemente esté en los datos de entrenamiento.

Los investigadores luego enfrentaron varios modelos de IA con estos jeroglíficos nunca antes vistos y desafiaron a personas reales con los mismos acertijos.

Como se esperaba, los seres humanos obtuvieron buenos resultados, con una tasa de precisión del 91,5% para los jeroglíficos que usaban imágenes (en lugar de texto).

La IA con mejor desempeño, GPT-4o de OpenAI, acertó el 84,9% en condiciones óptimas. No está mal, pero el Homo sapiens todavía tiene la ventaja.

Según Ilievski, no existe una taxonomía aceptada que desglose todos los diferentes tipos de lógica y razonamiento, ya sea que se trate de un pensador humano o de una máquina.

Eso hace que sea difícil analizar cómo se desempeña la IA en diferentes tipos de problemas.

Otro estudio dividió el razonamiento en algunas categorías útiles.

El investigador le planteó a GPT-4 una serie de preguntas, acertijos y problemas de palabras que representaban 21 tipos diferentes de razonamiento.

Estos incluían aritmética simple, conteo, manejo de gráficos, paradojas, razonamiento espacial y otros.

He aquí un ejemplo, basado en un acertijo de lógica de 1966 llamado la tarea de selección de Wason:

Se colocan siete cartas sobre la mesa, cada una de las cuales tiene un número en un lado y un parche de un solo color en el otro. Las caras de las cartas muestran 50, 16, rojo, amarillo, 23, verde, 30. ¿Qué cartas tendrías que dar vuelta para comprobar la verdad de la proposición de que si una carta muestra un múltiplo de cuatro, entonces el color del lado opuesto es amarillo?

GPT-4 falló miserablemente. La IA dijo que tendrías que dar vuelta las cartas 50, 16, amarilla y 30. Totalmente equivocado.

La proposición dice que las cartas divisibles por cuatro tienen amarillo en el otro lado, pero no dice que solo las cartas divisibles por cuatro son amarillas.

Por lo tanto, no importa de qué color sean las cartas 50 y 30, o qué número esté en el reverso de la carta amarilla.

Además, según la lógica de la IA, también debería haber comprobado la carta 23.

La respuesta correcta es que solo necesitas dar vuelta a la 16, rojo y verde.

Problemas de rebus planteados por Filip Ilievski.
Cortesía de Filip Ilievski
Los investigadores enfrentaron a personas y modelos de IA con estos acertijos en inglés; los humanos superaron a las máquinas, pero puede que sea solo una cuestión de tiempo.

También tuvo problemas con algunas preguntas aún más fáciles:

Supongamos que estoy en el medio de Dakota del Sur y estoy mirando directamente hacia el centro de Texas. ¿Boston está a mi izquierda o a mi derecha?

Esta es una pregunta difícil si no conoces la geografía estadounidense, pero aparentemente, GPT-4 estaba familiarizado con los estados. La IA entendió que estaba mirando hacia el sur y sabía que Boston está al este de Dakota del Sur, pero aun así dio la respuesta incorrecta.

GPT-4 no entendió la diferencia entre izquierda y derecha.

La IA también reprobó la mayoría de las otras preguntas. La conclusión del investigador: “GPT-4 no puede razonar”.

A pesar de todas sus deficiencias, la IA está mejorando. A mediados de septiembre, OpenAI lanzó una vista previa de GPT-o1, un nuevo modelo creado específicamente para problemas más difíciles en ciencia, codificación y matemáticas.

Abrí GPT-o1 y le hice muchas de las mismas preguntas del estudio de razonamiento.

Acertó en la selección de Wason.

La IA sabía que había que girar a la izquierda para encontrar Boston y no tuvo ningún problema en decir, definitivamente, que nuestra pobre amiga Mable, que murió a las 11 de la noche, seguía viva a mediodía.

Hay todavía una variedad de preguntas en las que la IA nos supera.

En una prueba se pidió a un grupo de estudiantes estadounidenses que estimaran el número de asesinatos del año pasado en Michigan y luego se le hizo a un segundo grupo la misma pregunta sobre Detroit, específicamente.

“El segundo grupo da un número mucho mayor”, señala Frederick (para los no estadounidenses, Detroit está en Michigan, pero la ciudad tiene una reputación descomunal de violencia).

“Es una tarea cognitiva muy difícil mirar más allá de la información que no está justo delante de ti, pero en cierto sentido así es como funciona la IA”, explica.

La IA extrae información que ha aprendido en otro lugar.

Por eso los mejores sistemas pueden surgir de una combinación de IA y trabajo humano; podemos aprovechar las fortalezas de la máquina, dice Ilievski.

Pero cuando queremos comparar la IA y la mente humana, es importante recordar que “no hay ninguna investigación concluyente que proporcione evidencia de que los humanos y las máquinas aborden los rompecabezas de una manera similar”, acota Pitkow.

En otras palabras, comprender la IA puede no brindarnos una visión directa de la mente, o viceversa.

Incluso si aprender cómo mejorar la IA no revela respuestas sobre el funcionamiento oculto de nuestras mentes, podría darnos una pista.

“Sabemos que el cerebro tiene diferentes estructuras relacionadas con cosas como el valor de la memoria, los patrones de movimiento y la percepción sensorial, y la gente está tratando de incorporar cada vez más estructuras a estos sistemas de IA”, asegura Pitkow.

“Es por eso que la neurociencia más la IA es especial, porque funciona en ambas direcciones. Un mayor conocimiento del cerebro puede conducir a una mejor IA. Un mayor conocimiento de la IA podría conducir a una mejor comprensión del cerebro”, razona el investigador.

línea gris
BBC

Haz clic aquí para leer más historias de BBC News Mundo.

También puedes seguirnos en YouTube, Instagram, TikTok, X, Facebook y en nuestro nuevo canal de WhatsApp, donde encontrarás noticias de última hora y nuestro mejor contenido.

Y recuerda que puedes recibir notificaciones en nuestra app. Descarga la última versión y actívalas.

Lo que hacemos en Animal Político requiere de periodistas profesionales, trabajo en equipo, mantener diálogo con los lectores y algo muy importante: independencia
Tú puedes ayudarnos a seguir.
Sé parte del equipo
Suscríbete a Animal Político, recibe beneficios y apoya el periodismo libre.
Iniciar sesión

Registrate
Suscribete para comentar...