Musk: la sua Grok AI al servizio della disumanizzazione della guerra
di La Redazione di InTheNet (traduzione di Simona Maria Frigerio)
Quella che si è giocata all’ombra della guerra insensata contro l’Iran è stata anche una partita tra un’impresa che si rende conto dell’efferatezza della cosiddetta intelligenza artificiale, svincolata da qualsiasi controllo umano e, quindi, etico e un’impresa che mira solo ai guadagni senza nessuna considerazione per la vita umana.
Di tutto ciò si sono accorti pochi media, troppo presi nel mistificare il bombardamento contro una scuola femminile in Iran con la vecchia terminologia bellicista – le bambine uccise trasformate in danni collaterali – o nel giustificare le capriole bombastiche di Trump, che passa dal tentare di giustificare una guerra non approvata dal Congresso statunitense ma voluta da Israele in un atto di difesa preventiva, prima; nella crociata per liberare le donne (dopo i grandi successi ottenuti in Afghanistan), poi; passando per una fantasiosa minaccia dell’Iran nei confronti del suo Paese – distante migliaia di chilometri.
In tutto questo quale ruolo ricopre la IA? Come ha dimostrato il genocidio palestinese a Gaza, che pesa sulla coscienza del Governo di Netanyahu e dell’IDF (e che continua nei Territori Occupati), l’intelligenza artificiale – dal riconoscimento facciale alla guida dei droni per commettere stragi – è un’arma potente, priva di scrupoli morali e che trasforma carne e sangue umani in pedine di un videogioco.
Non a caso, Dario Amodei (il cofondatore e amministratore delegato di Anthropic), che si è detto più volte preoccupato riguardo ai rischi dell’IA e si batte perché gli algoritmi e il loro utilizzo non siano disgiunti da una assunzione di responsabilità da parte della società civile, si è rifiutato di eliminare alcuni meccanismi di salvaguardia etica dal Claude AI sviluppato da Anthropic. Ed è Jurgita Lapienytė, caporedattore di Cybernews, a spiegarci il perché: “Attualmente, l’intelligenza artificiale non è solamente non affidabile ma addirittura molto pericolosa quando non supervisionata. Nelle operazioni militari, può essere usata per disumanizzare le operazioni offrendo esperienze di gioco a ufficiali e soldati, così da sollevarli dalle proprie responsabilità come individui”. Affidare a una macchina decisioni sulla vita o la morte di una o più persone è altamente pericoloso e non dobbiamo citarvi serie tv, libri (1) o film di genere distotipico per farvi immaginare la portata di tale scelta, basta ricordare cos’è Toka, di cui abbiamo già scritto: il software israeliano, che va oltre i limiti del telefilm (2).
Invece di aprire un dibattito serio nella società civile su una tematica di tale portata, le operazioni militari della maggiore potenza nucleare al mondo passano nelle mani dell’azienda di Musk, mentre il Pentagono minaccia Anthropic di penalità per essersi rifiutata di rimuovere le salvaguardie etiche dal proprio sistema – che, ricordiamo, avrebbe potuto essere impiegato per sorvegliare i cittadini statunitensi ma, potenzialmente, anche per sviluppare armi di distruzione di massa (il modello AI Grok-3 di xAI, per inciso, sembra possa già impartire istruzioni per la creazione di armi chimiche).
Grok AI di Elon Musk: la soluzione del Pentagono
Adesso la stessa cosa potrebbe capitare in altri Paesi (e non vogliamo immaginare cosa potrebbe diventare nelle mani di gruppi terroristici). Come puntualizza sempre la collega Jurgita Lapienytė: “Quando la maggiore potenza militare al mondo inizia a usare la IA senza essere trasparente su esattamente come, è lecito domandarsi quante tra le operazioni oltremare degli US siano influenzate da un algoritmo. Ogni Paese in conflitto con gli States dovrebbe preoccuparsi sui futuri sviluppi”.
E proprio in considerazione di quanto sopra ci chiediamo come mai un Presidente sostenuto e votato per aver promesso la pace, prima sbandieri una vittoria in Iran in 4 giorni e, poco tempo dopo, prometta una guerra addirittura eterna. Qualcuno avrà forse sviluppato l’algoritmo che garantiva un regime-change in Iran al grido: “Vogliamo la minogonna!”?
(2) Asimov si era già posto questioni di etica nei suoi racconti di fantascienza e aveva formulato le Tre leggi della robotica, più attuali che mai:
Prima. Un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
Seconda. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
Terza. Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge
(2) Toka spiegato facile:
venerdì, 6 marzo 2026
In copertina: Il logo di Anthropic

