La inteligencia artificial está cambiando la forma en que nos comunicamos, aprendemos y tomamos decisiones. Muchos esperan que nos libere de los prejuicios humanos, creando un mundo donde las máquinas tomen decisiones justas y neutrales.
Pero esa esperanza pasa por alto una dura verdad: la IA hereda los prejuicios incrustados en los datos de los que aprende. Entre los prejuicios más persistentes y peligrosos se encuentra el antisemitismo, un odio tan antiguo como la historia misma, que ahora encuentra un nuevo hogar en nuestra era digital.
La realidad es cruda. Los sistemas de IA, especialmente los grandes modelos de lenguaje como ChatGPT o LLaMA, se entrenan con vastas cantidades de datos de internet, muchos de los cuales contienen contenido antisemita. Este no es un problema marginal. Archivos web, redes sociales e incluso documentos históricos alimentan estos modelos sin filtrar narrativas odiosas o falsas.
Desde las antiguas acusaciones de sacrificio ritual hasta el lenguaje codificado moderno sobre "globalistas" o "élites bancarias", estas ideas están incrustadas en los conjuntos de datos. Cuando las herramientas de IA absorben este material, pueden reproducirlo y amplificarlo, a veces sin señales de advertencia obvias.
Se han realizado algunos intentos para solucionar este odio incrustado en la IA. Las compañías de IA utilizan filtros y medidas de seguridad, y aplican retroalimentación humana para alejar a los modelos de resultados dañinos. Pero estas soluciones son en el mejor de los casos parches. El problema no es un fallo que se pueda reparar; está integrado en la base de cómo aprende la IA.
Aún peor, la forma en que funcionan los algoritmos de las redes sociales alimenta este ciclo. El contenido que genera indignación, a menudo incluyendo tropos antisemitas, involucra más a los usuarios, incluso a los que están en contra, lo que significa que se impulsa con más fuerza y se difunde más, reforzando el odio en lugar de sofocarlo.
El antisemitismo hoy en día nunca es simplemente evidente; también es a menudo muy sutil. Se disfraza en eufemismos como "estado profundo" o "élites en las sombras", palabras codificadas que la IA lucha por identificar como dañinas. Los modelos no entienden la historia o la moralidad; solo ven patrones y los repiten. Esto significa que los estereotipos sobre los judíos y el poder pueden pasar casi desapercibidos, haciendo que la IA sea un amplificador involuntario de mitos peligrosos.
El peligro para el futuro
El futuro es aún más preocupante. Los deepfakes generados por inteligencia artificial, las noticias falsas y la propaganda pueden difundir conspiraciones antisemitas más rápido y de manera más convincente que nunca. Los modelos de inteligencia artificial de código abierto pueden ser fácilmente modificados por cualquiera, incluidos los actores malintencionados, para producir contenido odioso a gran escala. Ya hemos visto cómo estas herramientas son utilizadas como armas, inundando las plataformas sociales con falsedades sofisticadas difíciles de contrarrestar.
Entonces, ¿dónde deja esto a aquellos de nosotros preocupados por el aumento del antisemitismo? No hay una solución fácil. Los esfuerzos por filtrar el contenido de inteligencia artificial, afinar modelos o establecer pautas éticas son necesarios pero en su mayoría insuficientes. La escala y la complejidad de los sistemas de inteligencia artificial hacen que sea casi imposible erradicar por completo el antisemitismo.
Esto no es solo un desafío técnico; es humano. Si la inteligencia artificial refleja los prejuicios más oscuros de la humanidad, es porque aún no los hemos confrontado completamente nosotros mismos.
Al construir estas herramientas digitales, hemos dejado un legado poderoso, tanto bueno como malo. El antisemitismo no es un error en la inteligencia artificial; es una herencia de siglos de prejuicio. Reconocer esto es el primer paso para combatirlo. La era digital exige una renovada vigilancia, educación y acción para garantizar que la tecnología sirva como una fuerza para la verdad y la tolerancia, no para el odio y la división.
El Golem digital está despierto. Depende de nosotros, no de las máquinas, mantenerlo bajo control.
Louis Libin es un experto en estrategias militares, innovación inalámbrica, comunicaciones de emergencia y ciberseguridad. El Dr. Michael J. Salamon es un psicólogo especializado en trauma y abuso, y director de los Servicios Psicológicos de ADC en Netanya y Hewlett, NY.