EL ALGORITMO DE IA DE ISRAEL

el algoritmo de IA de Israel

el algoritmo de IA de Israel

Blog Article



Una investigación de la revista +972 en colaboración con Local Call revela que el ejército israelí desarrolló un programa basado en inteligencia artificial conocido como "Lavender" que marcó a decenas de miles de habitantes de Gaza como objetivos de asesinato.

Según seis oficiales de inteligencia israelíes, quienes sirvieron en el ejército durante la actual guerra en la Franja de Gaza y estuvieron directamente involucrados en el uso de IA para generar objetivos para el asesinato, Lavender jugó un papel central en los bombardeos sin precedentes en la Franja de Gaza, especialmente en el primer período de la guerra. De hecho, según las fuentes, su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA " como si fuera una decisión humana ".

Oficialmente, el sistema Lavender está diseñado para marcar a todos los agentes sospechosos de las alas militares de Hamás y la Jihad Islámica Palestina (PIJ), incluidos los de menor rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y al Local Call more info que en las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó a unos 37.000 palestinos como presuntos militantes (y sus hogares) para posibles ataques aéreos.

En las check here primeras etapas de la guerra, los militares dieron a los oficiales el visto bueno para usar las listas de muerte generadas por Lavender, sin tener que verificar minuciosamente por qué el algoritmo tomó click here esas decisiones ni examinar los datos de inteligencia en bruto en los que se basaban. Una fuente dijo que el personal humano a menudo servía sólo como "una inicial" para las decisiones read moreget more info de la máquina, añadiendo que normalmente sólo dedicaban personalmente unos "20 segundos" a cada objetivo antes de autorizar un bombardeo - sólo para asegurarse de que el objetivo marcado por Lavender sea un hombre. . Esto fue a pesar del hecho de que se sabía que el sistema cometía "errores" alrededor del 10 por ciento de las veces, y que ocasionalmente marcaba como objetivos legítimos a personas con sólo una vaga conexión con grupos militantes o sin conexión alguna.

Report this page