TECNOLOGIA, intelligenza artificiale. Verso il superamento del modello «uomo centrico»

Fino a che punto e con quali rischi sarà possibile spingersi nella sostituzione degli esseri umani con le macchine in certe particolari e delicate attività? La complessità delle tecnologie avanzate comprime i tempi oggi a disposizione dei decisori e con essi gli ambiti del dualismo uomo-macchina; ma, quando si tratterà di rispondere o meno a un presunto attacco nucleare chi dovrà decidere in un nanosecondo? insidertrend.it ne ha parlato con un esperto della materia, l’ingegner Franco Scolari, CEO del Polo Tecnologico Alto Adriatico

Provate a immaginare il prossimo futuro con tutto il suo carico di incertezze, anche e soprattutto in campo militare, cioè di quella funzione essenziale che è la Difesa, che sovente sfugge dalle attenzioni dell’opinione pubblica, ma che, oggi più che mai, risulta di importanza fondamentale. E questo soprattutto alla luce dei rapidissimi progressi conseguiti in campo tecnologico, ormai non più lineari, bensì esponenziali. Come l’intelligenza artificiale (Artificial Intelligence, AI), che svolge un ruolo primario non soltanto nell’universo civile, ma anche in quello della guerra, sia essa di natura cinetica che ibrida.

SI PONGONO DEGLI INTERROGATIVI

Il 29 e 30 novembre scorsi, presso il Centro Alti Studi per la Difesa (CASD) a Roma ha avuto luogo un workshop (Intelligenza artificiale: il cambIAmento delle organizzazioni), il terzo e conclusivo evento concepito nel quadro degli approfondimenti sulla specifica materia promossi dall’Ufficio Generale dell’Innovazione della Difesa (UGID), che organizza periodicamente incontri nell’ampio contesto dell’open innovation, finalizzati alla condivisione e al confronto di esperienze, iniziative e punti di vista del mondo militare, accademico, industriale e della ricerca. Si è trattato della terza componente di un «trittico» nell’ambito del quale in precedenza erano state analizzate le implicazioni derivanti dal ricorso all’intelligenza artificiale sui piani etico, legale e psicologico, unitamente alle esigenze formative, le competenze digitali e l’e-leadership.

Non sono pochi gli interrogativi che si pongono in Occidente riguardo al presente e al futuro delle tecnologie basate sull’intelligenza artificiale e si tratta di aspetti che investono direttamente la Difesa e la Sicurezza. Si pensi all’impatto di recenti innovazioni quali le armi ipersoniche e della prospettiva, sempre più realistica, del superamento del modello «uomo-centrico», derivante dalla compressione sempre più spinta dei tempi disponibili dal decisore, politico o militare che sia.

DAL «MASTER SLAVE» AL «PEER-TO-PEER»

Quello attuale rappresenta un passaggio oltremodo critico che esaspera ulteriormente la fase evolutiva che stiamo vivendo, caratterizzata dal passaggio dalle macchine automatiche a quelle autonome. La relazione uomo-macchina sta transitando dalla condizione di master slave, dove la macchina esegue gli ordini sulla base della programmazione effettuata dall’essere umano, a quella del peer-to-peer, dove entrambi si pongono sul medesimo piano.

Ovviamente, una macchina permane qualcosa che è stato progettato e costruito dall’essere umano, questo anche nel caso del machine learning, poiché persino un apparato autoapprendente, che cioè trae le proprie «regole» dal diuturno apprendimento (si pensi alle aspirapolveri automatiche), solitamente non viene programmato in funzione di una realtà eccessivamente complessa. Esso, infatti, si limita a effettuare calcoli statistici sulla base di funzioni algebriche, mantenendo la sua competenza in uno specifico dominio senza possedere una cognizione del contesto.

Ma, fino a che punto si potranno trasferire competenze in settori sensibili alle macchine? E inoltre, queste ultime sono destinate a soppiantare gli uomini nei processi decisionali che richiedono l’assunzione di scelte in tempi estremamente compressi?

HUMAN ON THE LOOP  

Dunque, una macchina, per quanto evoluta essa possa essere, non si porrà mai dei fini, ma semmai svolgerà delle funzioni. Tuttavia, questo non significa che il problema della sua affidabilità possa venire rimosso, poiché sussistono una serie di aspetti che vanno dal controllo dei dati alla sicurezza del cloud, che mantengono elevata la soglia di rischio. Da ciò ne deriva che l’elemento cardine del futuro sarà il dualismo nel rapporto uomo-intelligenza artificiale, che vedrà l’essere umano interagire con macchine dotate di livelli di «intelligenza» sempre maggiori e di un grado di «autonomia» (reasoning) che le porranno in condizione di espletare servizi sempre più performanti.

Restano comunque i limiti della fiducia concessa a risultati ottenuti dai processi di analisi totalmente delegati alle macchine. Se l’intelligenza artificiale consentirà di ottenere migliori risultati nei termini della razionalità e della rapidità rispetto a quelli conseguiti dall’essere umano, probabilmente quest’ultimo permarrà il dominus per quanto concerneranno le decisioni sulla quantità e la natura delle funzioni da delegare alle macchine.

COME SI MUOVONO «COMPETITORS» E «AVVERSARI SISTEMICI»

L’essere umano è dunque destinato a permanere centrale nei processi. I dati, una volta elaborati torneranno in possesso dell’uomo per una successiva condivisione e, infine, l’assunzione delle decisioni del caso.

Tuttavia, il quadro della situazione si compone di diversi attori, inclusi i competitors e gli avversari sistemici dell’Occidente, che queste stesse tecnologie utilizzano allo scopo di perseguire vantaggi sul piano strategico. A questo punto, per le democrazie (così come oggi le conosciamo) il tema da affrontare diviene quello della difesa dai possibili attacchi avversari e non più, quindi, quello se ricorrere o meno a strumenti tecnologicamente avanzati quali l’intelligenza artificiale. Questo seppure si registrino inerzie e resistenze all’affidamento totale alle macchine.

L’argomento in predicato è stato ampiamente trattato nel corso dell’intervista con l’ingegner Giovanni Francesco Scolari, CEO del Polo Tecnologico Alto Adriatico che ha la sua sede a Pordenone, in Friuli (A396).

A396 – INTELLIGENZA ARTIFICIALE: VERSO IL SUPERAMENTO DEL MODELLO «UOMO CENTRICO». Fino a che punto e con quali rischi sarà possibile spingersi nella sostituzione degli esseri umani con le macchine in certe particolari e delicate attività?
La complessità delle tecnologie avanzate comprime i tempi oggi a disposizione dei decisori e con essi gli ambiti del dualismo uomo-macchina; ma, quando si tratterà di rispondere o meno a un presunto attacco nucleare chi dovrà decidere in un nanosecondo? insidertrend.it ne ha parlato con un esperto della materia, l’ingegner GIOVANNI FRANCESCO SCOLARI, CEO del Polo Tecnologico Alto Adriatico.
Il 29 e 30 novembre scorsi, presso il Centro Alti Studi per la Difesa (CASD) a Roma ha avuto luogo un workshop (Intelligenza artificiale: il cambIAmento delle organizzazioni), il terzo e conclusivo evento concepito nel quadro degli approfondimenti sulla specifica materia promossi dall’Ufficio Generale dell’Innovazione della Difesa (UGID), che organizza periodicamente incontri nell’ampio contesto dell’open innovation, finalizzati alla condivisione e al confronto di esperienze, iniziative e punti di vista del mondo militare, accademico, industriale e della ricerca. Si è trattato della terza componente di un «trittico» nell’ambito del quale in precedenza erano state analizzate le implicazioni derivanti dal ricorso all’intelligenza artificiale sui piani etico, legale e psicologico, unitamente alle esigenze formative, le competenze digitali e l’e-leadership.
Condividi: