Una nuova indagine di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, presentato qui per la prima volta.
Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra nella Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale per generare obiettivi da assassinare, Lavender ha svolto un ruolo centrale nel bombardamento senza precedenti di Palestinesi, soprattutto durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari era tale che essenzialmente trattavano i risultati della macchina IA “come se fosse una decisione umana”. Le fonti affermano che l’approvazione per l’adozione automatica delle liste di uccisione di Lavender, che in precedenza erano state utilizzate solo come strumento ausiliario, è stata concessa circa due settimane dall’inizio della guerra, dopo che il personale dell’intelligence aveva controllato "manualmente" l’accuratezza di un campione casuale di diverse centinaia di obiettivi. selezionati dal sistema AI. Quando il campione rilevò che i risultati di Lavender avevano raggiunto una precisione del 90% nell’identificazione dell’affiliazione di un individuo con Hamas, l’esercito autorizzò l’uso generalizzato del sistema. Da quel momento, fonti hanno affermato…
Abbiamo bombardato lui e la sua casa”.
Leggi di più.Ecco le principali notizie politiche di oggi.
@VOTA2 anni2Y
Ritieni che affidarsi all’intelligenza artificiale per decisioni così critiche e che cambiano la vita elimini o riduca la responsabilità morale degli operatori umani?
@VOTA2 anni2Y
Se un sistema di intelligenza artificiale come Lavender commette un errore che porta alla perdita di vite innocenti, chi dovrebbe essere ritenuto responsabile?
@VOTA2 anni2Y
L’intelligenza artificiale dovrebbe avere il potere di decidere il destino degli esseri umani in situazioni di conflitto?
@VOTA2 anni2Y
Cosa ne pensi del fatto che un sistema di intelligenza artificiale prenda decisioni su chi dovrebbe essere preso di mira nelle azioni militari?
Partecipa alle conversazioni più popolari.