sábado, 6 de abril de 2024

"Israel" recurre a inteligencia artificial en guerra genocida en Gaza

El sistema de inteligencia artificial se conoce como Lavender y fue desarrollado por la Unidad 8200 (Inteligencia de Élite); además, la herramienta enumeró como objetivos a unos 37 mil palestinos.

El uso de la inteligencia artificial causa más víctimasciviles.

El secretario general de las Naciones Unidas, António Guterres, expresó su profunda preocupación por los informes de que el ejército israelí usa inteligencia artificial para determinar los objetivos a bombardear en la Franja de Gaza.

Guterres enfatizó que la inteligencia artificial debe usarse para el bien y no para hacer una guerra a escala industrial y ocultar responsabilidades.

Los medios de comunicación detallaron que el uso de esa herramienta por parte del régimen permitió matar civiles mientras perseguían a los combatientes palestinos.

Así lo recoge un informe basado en el testimonio de seis oficiales de inteligencia israelíes que participaron en la agresión contra la Franja de Gaza y en el uso del mencionado sistema.

El informe reveló que el ente ocupante identificó a decenas de miles de residentes de Gaza como objetivos sospechosos de asesinato, utilizando un sistema de inteligencia artificial con poca supervisión humana y siguiendo “políticas indulgentes” con respecto al número de víctimas civiles.


También explicó que el sistema de inteligencia artificial se conoce como Lavender y fue desarrollado por la Unidad 8200 (Inteligencia de Élite).

Agregaron que la herramienta enumeró como objetivos a unos 37 mil palestinos, alegando que pertenecen a los movimientos palestinos Hamas o Yihad Islámica.

Según el análisis, este sistema se utilizó sólo como ayuda, pero con el inicio de la guerra actual se permitió su uso de manera integral.

La jefatura del ejército ordenó que si “Lavender” indicaba que alguien era sospecho lo tomarán como una orden para matar, sin verificar de forma independiente por qué la máquina tomó esa decisión.

Un oficial israelí que utilizó el sistema Lavender dijo que el sistema automatizado no es como un soldado y la máquina hace las cosas con frialdad.

El responsable de la inteligencia israelí reconoció que la diferencia horaria entre identificar el objetivo y alcanzarlo, tenía un margen de error de hasta el 10 por ciento.

Por su parte, el portavoz de Seguridad Nacional de la Casa Blanca, John Kirby, afirmó el viernes que Estados Unidos revisa el informe sobre el uso de la inteligencia artificial por parte del régimen sionista.



No hay comentarios:

Publicar un comentario