Dall’analisi dei dati al supporto alle decisioni militari, il sistema sviluppato da Palantir è al centro del primo grande conflitto guidato dall’AI.
Per il direttore tecnologico di Palantir quella iniziata da Stati Uniti e Israele contro l’Iran viene già descritta come la guerra più tecnologica della storia. I militari utilizzano sistemi avanzati di intelligenza artificiale per analizzare grandi quantità di dati e supportare la selezione degli obiettivi. Tra questi, uno dei più rilevanti è Maven Smart System, sviluppato da Palantir e basato anche su modelli Claude di Anthropic.
Il ruolo di Maven nelle operazioni militari
Project Maven nasce nel 2017 come iniziativa del Dipartimento della Difesa statunitense con l’obiettivo di velocizzare l’analisi dei dati raccolti da fonti eterogenee, tra cui satelliti, droni e aerei. Dopo l’uscita di Google dal progetto, lo sviluppo è stato portato avanti da Palantir, Microsoft e Amazon, con AWS a fornire l’infrastruttura cloud. Non è un caso che alcuni data center in Medio Oriente siano diventati obiettivi strategici.
Il sistema è oggi gestito dalla National Geospatial-Intelligence Agency, ma viene utilizzato trasversalmente da diverse componenti delle forze armate statunitensi. Dal punto di vista operativo, Maven applica algoritmi di computer vision alle immagini satellitari, individuando automaticamente potenziali bersagli. Inoltre, suggerisce l’allocazione di risorse militari — come bombardieri e munizioni — e facilita la condivisione in tempo reale delle informazioni tra le unità sul campo.
Nei primi giorni del conflitto sarebbero stati identificati e colpiti oltre 2.000 obiettivi, evidenziando la capacità del sistema di accelerare drasticamente la cosiddetta kill chain. Tuttavia, l’affidabilità non è assoluta: episodi di targeting errato, attribuiti a dati non aggiornati, mostrano i limiti di un processo decisionale fortemente automatizzato.
Un aspetto rilevante è che Maven, almeno per ora, non controlla direttamente i sistemi d’arma. Non guida droni né esegue attacchi in autonomia, ma supporta le decisioni umane.
I rischi dell’autonomia e il nodo etico
L’impiego crescente dell’AI in ambito militare apre interrogativi rilevanti. Tra i principali, il rischio legato allo sviluppo di sistemi autonomi in grado di selezionare e colpire obiettivi senza un intervento umano diretto. Uno scenario che solleva questioni sia operative sia etiche, in particolare rispetto al controllo umano, alla responsabilità delle decisioni e all’affidabilità dei sistemi.
L’AI inoltre crea frizioni tra aziende tecnologiche e autorità militari. In particolare, emergono divergenze come quello successo con Anthropic e sulle modalità di utilizzo dei modelli AI in ambito difensivo.
In ambito militare, la priorità resta l’efficacia sul campo: strumenti capaci di elaborare dati, ridurre i tempi decisionali e migliorare il coordinamento. L’evoluzione dell’AI militare si configura come un processo competitivo e sperimentale, in cui tecnologie e strategie vengono testate direttamente in scenari reali. Il caso Iran rappresenta un banco di prova significativo.
Vai al sito di Cybersecurity Italia.
L'articolo Maven, come funziona l’AI di Palantir utilizzata nella guerra in Iran sembra essere il primo su CyberSecurity Italia.
📖 Leggi l'articolo completo originale:
https://www.cybersecitalia.it/maven-come-funziona-lai-di-palantir-utilizzata-nella-guerra-in-iran/61857/ →