Google e Pentagono: Un’Intesa Controversiale per l’Utilizzo di Gemini

Google ha recentemente siglato un accordo con il Dipartimento della Difesa degli Stati Uniti per l’uso della sua piattaforma di intelligenza artificiale, Gemini. Secondo i termini di questo accordo, i modelli AI di Google verranno impiegati per scopi legali, senza però l’implementazione di filtri che limitano inguni input. Questa decisione ha suscitato forte preoccupazione tra i dipendenti dell’azienda: oltre 600 lavoratori, in gran parte della divisione Google DeepMind, hanno espresso il loro disappunto chiedendo al CEO Sundar Pichai di non procedere con questa collaborazione.

Gemini: Un Nuovo Strumento per Attività Classificate

Sebbene manchino conferme ufficiali, fonti vicine alla questione rivelano che i modelli Gemini saranno utilizzati per attività classificate dal Pentagono, che comprendono pianificazione di missioni e identificazione di obiettivi. Questo accordo rappresenta un ampliamento dell’intesa da 200 milioni di dollari firmata nel 2025, che non contemplava l’uso per attività classificate.

Simili intese non sono uniche nel panorama tecnologico. OpenAI e xAI, ad esempio, hanno già avviato accordi simili per l’uso di ChatGPT e Grok. Tuttavia, un’altra realtà, Anthropic, ha rifiutato di concedere accesso al suo modello Claude, giustificando la sua scelta con il timore che potesse essere impiegato per la sorveglianza di massa e per il monitoraggio delle armi autonome. Alla luce di tali preoccupazioni, Anthropic è finita in una blacklist e ha avviato contenziosi legali, ma recenti segnalazioni indicano un possibile riavvicinamento tra l’azienda e la Casa Bianca.

Questioni Etiche e Controllo nella Collaborazione

Nel contratto tra Google e il Pentagono, è specificato che i modelli Gemini non dovranno essere utilizzati per scopi di sorveglianza di massa interni o per armamenti autonomi, a condizione che ci sia un’adeguata supervisione umana. Tuttavia, un elemento controverso è che Google non avrà il potere di controllare le decisioni operative legittime da parte del governo e dovrà attuare le modifiche richieste, inclusa la rimozione di filtri di sicurezza.

Un portavoce dell’azienda ha dichiarato che ritenere di fornire accesso API ai propri modelli in conformità con gli standard di settore rappresenti un approccio responsabile per la sicurezza nazionale. Questo punto di vista, però, è oggetto di forte dibattito, soprattutto considerando le implicazioni etiche legate all’uso dell’intelligenza artificiale in contesti militari.

Conclusione: Il Rischio di Un’Intesa Controversa

L’accordo tra Google e il Pentagono apre a interrogativi cruciali sul ruolo della tecnologia nell’ambito della difesa e sulla responsabilità delle aziende tecnologiche. Mentre i modelli AI possono certamente contribuire ad una maggiore efficienza in vari ambiti, l’impiego di queste tecnologie in contesti bellici solleva seri interrogativi etici. Per gli utenti e le aziende italiane, ciò è sinonimo di una crescente riflessione sulla regolamentazione dell’IA, suggerendo che un dialogo aperto tra le parti interessate è più che mai necessario. L’innovazione tecnologica deve andare di pari passo con la considerazione delle sue implicazioni sociali, stabilendo limiti chiari per l’uso di tali strumenti nel settore della difesa.