Vai al contenuto

Uso dell’intelligence militare

Luigi Mischiteli

Specialista in privacy e sicurezza dei dati presso IRCCS Poverty Alleviation Home

fonte della DARPA
  1. a casa
  2. Intelligenza artificiale
  3. Uso dell’intelligence militare

È possibile consentire che il processo decisionale, nei momenti di difficoltà, sia prudente. Nell’esercito? Il “braccio tecnologico” dell’esercito americano, un’agenzia governativa, sta affrontando la questione DARPA. Con un nuovo sistema, chiamato “In un minuto “, DARPA mira a sviluppare una tecnologia in grado di prendere decisioni rapide in situazioni “stressanti” utilizzando algoritmi e dati: l’obiettivo del “desiderio” che, in casi estremi, può salvare vite umane. Sebbene il sistema di agenzia di Dipartimento della Difesa Gli Stati Uniti sono agli albori, in ogni caso già partendo con l’obiettivo di riformare il sistema di triage militare e attuare tutte quelle misure per ridurre l’errore umano in guerra. La soluzione è, in un primo momento, vedere già la “controversia” da lontano.

Ogni volta che c’è un attacco terroristico o un colpo di stato militare che colpisce un civile o una forza militare, lo spargimento di sangue e la distruzione hanno sempre un effetto profondo. Basti pensare a come dovrebbe andare la macchina di soccorso, puntando sulle persone bisognose di cure, la mancanza di mezzi di emergenza e la mancanza di letti, alla scelta sofferta di “chi salverà per primo” e nel breve termine. Cercando di muoversi a sufficienza in condizioni così rocciose, l’intelligenza artificiale può apportare cambiamenti a una certa profondità.

Uso dell’intelligence militare

L’uso dell’intelligenza artificiale è importante; tuttavia, è così grave da permetterle di decidere cosa fare della vita di un’altra persona? Supponiamo subito che la DARPA non sia nuova alle soluzioni che promuovono l’uso dell’intelligence militare. Si consideri che nel 2018 all’agenzia statunitense colpita sono stati stanziati 2 miliardi di dollari, attraverso un programma chiamato “AI Avanti“Incorporare l’intelligenza artificiale in più di 60 progetti di difesa prodotto negli Stati Unitiil che significa quanta scienza può essere centrale per i conflitti futuri. DARPA sta “immaginando” un futuro in cui le macchine sono più che semplici dispositivi; li vedi (pericolosi) piuttosto che come “partner” di persone.

La cerimonia
Foto della DARPA

A tal fine, il programma DARPA “Minute” creerà e testerà algoritmi che assisterà i decisori militari in due casi: fornire assistenza a piccole unità militari dislocate in zone di guerra (che, ad esempio, coinvolgono unità statunitensi per operazioni speciali nel teatro afgano); e incidenti con un numero elevato di vittime, come nel caso di un attacco terroristico (che può colpire allo stesso modo civili e militari). Quindi, è possibile sviluppare algoritmi per assistere i soccorritori in caso di altri disastri, come disastri naturali (ad es. terremoti e inondazioni). Il programma DARPA, che richiederà più di tre anni per essere completato, “invita” ad entrare nel campo delle aziende private interessate a contribuire alla ricerca del governo statunitense. I funzionari dell’agenzia statunitense, ovviamente, non hanno ancora detto quali società sono interessate a contribuire e quali numeri saranno offerti nell’orgoglioso programma che si sta prendendo in considerazione.

Quel che è certo è che i “suggerimenti” che emergeranno dagli algoritmi del programma, secondo la DARPA, potranno accedere a tutte le informazioni necessarie volte a consentire al sistema di prendere decisioni “intelligenti” in situazioni dove si trovano esperti del settore umano. sarà chiuso”. Per esempio, L’intelligenza artificiale può aiutare a identificare tutte le strutture di un ospedale vicino all’area di intervento, come la disponibilità di medicinali, le trasfusioni di sangue e la disponibilità di personale medico attivo, assistendo così il personale umano nel processo decisionale.

Azioni della NATO

Come la DARPA, il “Supreme Allied Command Transformation” (SACT) della NATO ha ribadito che il sistema di triage “di guerra” (in cui medici selvaggi assistono i soldati colpiti e valutano l’urgenza dei loro bisogni medici. tecnologia veloce. Il gruppo di ricerca lo è SATTO sta lavorando con la Johns Hopkins University (Maryland, USA) per creare un facilitatore di matrimonio digitale che può essere utilizzato da vari stati membri Nato. Il facilitatore di triage sviluppato da SACT utilizzerà set di dati sulle lesioni che hanno colpito le truppe NATO in passato in vari teatri operativi (si pensi all’Afghanistan), programmi di “punteggio” delle vittime, modello di previsione (possibili stime future) e contributo. dal caso del paziente al modello e decidere chi dovrebbe ricevere il primo soccorso in una situazione in cui le risorse (anche il tempo) sono limitate.

La cerimonia
foto della Nato

Decisioni

Intelligenza artificiale nel marketing: cosa devono sapere i CMO

Tuttavia, sono state sollevate anche questioni morali. In particolare: i set di dati utilizzati possono far sì che alcuni soldati diano la priorità ad altri? “Nella foga del momento”, i soldati potrebbero fare ciò che l’algoritmo ha detto che dovrebbero fare, anche se la razionalità avrebbe detto loro di farlo diversamente? E se l’algoritmo gioca un ruolo fondamentale nella morte di una persona, di chi è la colpa? Chiaramente, i preposti dovranno decidere quanta “responsabilità” verrà data all’algoritmo nel processo decisionale, e capire come le condizioni etiche verranno corrette in maniera trasparente. Ad esempio, se ci fosse stata una massiccia esplosione e ci fossero stati civili tra le vittime, avrebbero avuto meno importanza dei soldati anche se fossero stati gravemente feriti (ugualmente)?

In ogni caso, sia in DARPA che in LAW, sarà importante garantire che l’algoritmo utilizzato continui il processo decisionale “sbagliato”, come è già avvenuto in molti casi, come quando gli algoritmi, in ambito sanitario, hanno previsto. priorità nel trattamento dei pazienti di origine caucasica rispetto a quelli di origine afroamericana (un esempio comune di discriminazione tramite intelligenza artificiale). Ovviamente sarà importante eliminare la tendenza all’intelligenza artificiale, in modo da ridurre gli errori sul campo.

Nota