IA del ejército israelí: un avance inquietante en el control de datos.

IA del ejército israelí: un avance inquietante en el control de datos.

Desarrollo de IA por parte del ejército israelí

El ejército israelí está innovando en la creación de un modelo de inteligencia artificial (IA) que utiliza millones de conversaciones interceptadas en árabe, con el objetivo de optimizar procesos de incriminación y arresto. Esta revelación surge de una investigación conjunta realizada por +972 Magazine, Local Call y The Guardian.

Un modelo de lenguaje entrenado en conversaciones árabes

Con el respaldo de la Unidad 8200, el escuadrón de ciberseguridad de inteligencia militar de Israel, este nuevo sistema de IA se asemeja a herramientas como ChatGPT. En lugar de recibir datos de fuentes abiertas en internet, este modelo se nutre de información obtenida a través de la vigilancia de la vida cotidiana de los palestinos en territorios ocupados. Estas técnicas no solo tienen el potencial de transformar el trabajo de las fuerzas armadas, sino que también plantean serias preocupaciones sobre derechos humanos y privacidad.

Capacidades y preocupaciones

Tres fuentes de seguridad israelíes confirmaron la existencia del modelo de lenguaje de la Unidad 8200, que se estaba entrenando intensamente el año pasado. La importancia de esta herramienta radica en su capacidad para procesar rápidamente grandes volúmenes de material de vigilancia y ofrecer información sobre individuos específicos. Sin embargo, los expertos advierten que esto podría facilitar las operaciones de arresto de forma más eficiente pero también más arbitraria.

«El uso de IA amplifica el control sobre la población», declaró una fuente de inteligencia. Según sus palabras, “esto no sólo se trata de evitar ataques, sino también de monitorizar a activistas y construir un perfil detallado de los palestinos en la región”.

Influencias externas y colaboración tecnológica

A pesar de que el desarrollo de este sistema comenzó antes de la guerra actual, tras el estallido de las hostilidades en Gaza el 7 de octubre, se buscó la colaboración de expertos en IA de empresas tecnológicas de renombre como Google y Meta. Esta asociación ha permitido que personas con conocimientos de la industria se incorporen al programa, enriqueciendo la base de datos de inteligencia de la unidad.

Entrenamiento del modelo y sus implicaciones

Se estima que el chatbot de la Unidad 8200 ha sido entrenado con un asombroso volumen de 100 mil millones de palabras del árabe, resultado de la vigilancia masiva a palestinos. Según expertos en derechos humanos, este tipo de recopilación de datos es una violación grave de los derechos de los palestinos. Nadim Nashif, director de la organización 7amleh, enfatizó que esta tecnología está diseñada para perpetuar un régimen de control y dominación.

Eficiencia frente a errores humanos en la toma de decisiones

Aunque la introducción de herramientas de IA ofrece la promesa de mejorar la eficacia de las operaciones de inteligencia, también conlleva riesgos significativos. especialistas indican que estos modelos operan de manera probabilística, lo que puede resultar en decisiones erróneas. Zach Campbell de Human Rights Watch subrayó que la dependencia excesiva de estas herramientas podría llevar a incriminar a personas inocentes.

El impacto de la vigilancia masiva

El sistema de inteligencia utilizado por el ejército israelí incluye ya modelos de lenguaje más pequeños que ayudan en la traducción y análisis de datos de las conversaciones interceptadas. Estas herramientas permiten a las fuerzas armadas identificar rápidamente potenciales «problemáticas» entre los palestinos, incrementando la frecuencia de arrestos y profundizando el control sobre la población.

El uso de un modelo de lenguaje grande, como el que está siendo desarrollado por la Unidad 8200, podría poner en marcha una nueva fase en la vigilancia, al proveer información accesible de modo instantáneo y potenciando aún más la capacidad de arresto.

Reflexiones finales

La tendencia hacia la utilización de IA en vigilancia dentro del contexto del conflicto israelí-palestino implica no solo innovaciones tecnológicas, sino también un debate urgente sobre la ética y los derechos humanos. Con una creciente fila de «sospechosos» generados por algoritmos, cualquier indicio de sospecha tiene el potencial de traducirse en arrestos sin necesidad de pruebas tangibles. A medida que la tecnología avanza, también lo hace la necesidad de un diálogo más crítico sobre su aplicación y sus implicaciones en la vida de millones.