IA: curiosità e risposte agli interrogativi del momento

L’intelligenza artificiale, nota anche come IA, esordisce per la prima volta nel 1956 durante una conferenza tenutasi negli Stati Uniti, in cui viene coniata la terminologia della disciplina e dove è possibile assistere ai primi concetti relativi al settore nonché alla creazione delle prime macchine programmate per svolgere attività “intelligenti”. 

Di Kiria Zunica
Mentor: Francesco Bevilacqua

Attualmente l’IA costituisce un ambito di ricerca in rapida crescita, con l’obiettivo principale di creare strumenti capaci di apprendere, ragionare e risolvere problemi similmente all’essere umano. Le sue evoluzioni, nel tempo hanno apportato e continueranno ad apportare numerose innovazioni nella nostra vita presente e futura, ma, per riuscire in questo scopo, è essenziale che gli esperti del settore, scienziati, sviluppatori e la società stessa, affrontino il tema con estrema responsabilità sia a livello tecnico che etico. 

Pertanto, per una visione ed una lettura più nitida dell’Intelligenza Artificiale, il Professor Massimo Stella, docente all’Università di Trento, ricercatore universitario ed esperto del settore, ci illustra e presenta alcune delle tematiche più influenti e risponde alle nostre domande con l’obiettivo di ampliare le conoscenze e gli orizzonti su uno strumento fortemente attuale, avanguardistico e al tempo stesso ancora poco conosciuto.  

Applicazione dell’IA nei settori lavorativi 

Parlando di intelligenza artificiale, sappiamo che sta apportando significativi cambiamenti che saranno ancor più determinanti e visibili negli anni a venire. A tal proposito, di fronte ad un possibile e sostanziale supporto di queste innovative tecnologie nei diversi settori lavorativi, il Professor Massimo Stella ci spiega come l’intelligenza artificiale sarà capace di impattare tali ambiti, producendo nuove opportunità nel momento in cui tali tecnologie interagiscono con gli esseri umani. Nello specifico, il professore illustra come l’intelligenza artificiale può e potrà essere utilizzata per la creazione di videogiochi e contenuti ludici grazie al sostegno fornito nella realizzazione di modelli 3D, interfacce e contenuti grafici.

Sempre il Professore ci spiega come, recentemente, siano state introdotte le prime “Software House”, basate integralmente su prodotti di intelligenza artificiale. Questo, stando alle parole del docente, evidenzia la continuità di interazione tra l’esperto digitale o “software artist” e l’intelligenza artificiale stessa. Massimo Stella, poi, prosegue l’argomento introducendo un settore che vede in particolar modo l’impiego della figura del “software artist” e che, tra l’altro, ha determinato al tempo stesso una grande influenza sull’intelligenza artificiale generativa: si tratta della programmazione. A tal proposito, Il professore ha anche affermato che esiste un’intelligenza artificiale nota come “Copilot”, adoperata da chi utilizza la piattaforma di programmazione di GitHub, che consente di creare codice in modo automatico e con facilità.

Questa estrema facilità di creazione dei contenuti genera però un problema, in quanto non permette di individuare facilmente eventuali errori. “Pertanto – prosegue il professore – uno degli ambiti che verrà impattato nel futuro sarà quello del Prompt Designer o assistente digitale all’intelligenza artificiale. Si tratta di persone che disegneranno dei prompt tali da ridurre l’occorrenza di errori nel risultato e che dovranno essere in grado di identificare refusi, allucinazioni, errori e difficoltà”. 

Le due tipologie di IA: quali sono e dove è possibile trovarle 

L’intelligenza artificiale, in particolar modo la tipologia “forte”, ha come obiettivo la comparazione e addirittura il superamento dell’intelligenza umana. Questo potrebbe rappresentare un rischio, tuttavia Massimo Stella sostiene che non vi sia un’unica risposta definitiva che possa chiarire con ufficialità l’eventualità di questo pericolo. Per poter spiegare meglio questo concetto, il docente percorre un excursus illustrando approfonditamente la differenza fra l’intelligenza artificiale debole e forte.

La debole chiarisce, è stata creata per la realizzazione di un unico scopo o per scopi limitati. “Dieci anni fa – illustra Stella – avvenne la creazione di Siri come assistente digitale all’interno di uno smartphone della Apple”. “Siri – continua – era in grado di eseguire una serie di istruzioni ma, nel momento in cui,  si usciva da queste direttive principali, sosteneva la sua difficoltà nella comprensione e il fatto che non fosse stata progettata per svolgere quel determinato compito”. 

Le tipologie di intelligenza artificiale forte, invece, sfruttano una base cognitiva simile a quella degli esseri umani per possedere una proprietà di problem solving che sia più generale possibile. Esempio eclatante è ChatGPT.  “Malgrado la sua apparente impeccabilità – spiega il docente – quest’ultima funziona sulla conoscenza associativa, cioè sull’abilità degli esseri umani di unire concetti con significati specifici per convenire idee, emozioni e altri tipi di segnali espressi attraverso il linguaggio”. Detto ciò, nonostante la sua capacità nel riuscire ad associare parole o significati, presenta dei limiti, fra cui la mancanza di addestramento per fare calcolo procedurale. Dunque, essa si tratta di un’intelligenza artificiale forte ma non fortissima che, attualmente, non sarebbe in grado di “ribellarsi” perché non autonoma, ovvero, non in grado di possedere delle proprie idee. Il professore, inoltre, elenca le diverse compagnie americane impegnate nella creazione di intelligenze artificiali autonome; fra queste spicca Tesla, con le macchine a guida autonoma e i mini-robot simili ai cani donati a Polizia e Carabinieri, che essendo autonomi, possono prendere iniziative per sventare eventuali minacce esterne. 

Caso ChatGPT: lo studio di Stella, Hills e Kenett 

Fondamentale nel settore è la ricerca svolta dal Professor Stella in collaborazione con Thomas T. Hills e Yoed N. Kenett, i quali hanno dimostrato, sulla scia di quanto affermato precedentemente come ChatGPT possegga dei bias cognitivi non umani. “Un bias cognitivo – spiega Stella – è un’abilità di percepire o riprodurre una certa sequenza di conoscenze in modo distorto. Tanti tipi di bias noi umani li possediamo nel momento in cui ci interfacciamo a porzioni di conoscenze diverse”. ChatGPT come sostiene il professore, possiede due tipi di bias che non caratterizzano gli esseri umani. Uno di questi è quello di Euristica o di Overconfidence e ciò significa che ChatGPT non conosce la tipologia di informazione che gli viene fornita di conseguenza non sa stabilire se quest’ultima sia affidabile o meno. “Il risultato di questo limite – chiarisce l’esperto – consiste nella produzione di contenuti completamente inaffidabili che, però, ChatGPT porta avanti come logicamente coerenti”. Il secondo bias non umano è quello delle Allucinazioni. Come dichiara lo stesso Stella: “ChatGPT è addestrato per fornire sempre e comunque una risposta all’utente, anche quindi, in assenza di dati. Quando viene forzato su temi che non conosce, produce un’allucinazione generando dati falsi, fittizi, senza avvisare l’utente”. In conclusione, dunque, queste due capacità risultano fortemente problematiche perché danneggiano l’uomo inducendolo in errore.

Robot umanoidi: una nuova era 

“L’aspetto umano degli umanoidi è fondamentale per un fenomeno noto come Uncanny Valley, ovvero, in che modo noi esseri umani siamo portati a fidarci/affidarci naturalmente a entità o completamente diverse da noi oppure a entità che possiedono le nostre stesse caratteristiche” , afferma il docente dell’Università di Trento. Il problema si genera, dunque, in corrispondenza di entità dalle caratteristiche intermedie per le quali l’uomo nutre disgusto e inaffidabilità. Pertanto, stando alle parole di Massimo Stella, è essenziale progettare e realizzare dei sistemi umanoidi che non ricordino dei robot ma che, piuttosto, presentino delle similarità con gli esseri umani.

Contestualmente a ciò, interessante e assolutamente innovativo, è il caso del robot umanoide Ameca esposto presso il Museo del Futuro di Dubai. Impressionante è la sua capacità di conversare con l’essere umano e, al tempo stesso, di imitarne la mimica facciale. Relativamente a quest’ultima evidenza, il professore, sottolinea come la capacità dei robot di riprodurre le emozioni umane, desti non pochi dubbi agli occhi degli uomini che non li ritengono possibili di questo, ma, ciò che non sanno è che, in realtà, le emozioni umane non sono cosi difficili da riproporre. Stella continua, affermando come esistano dei sistemi neurali in grado di codificare otto espressioni diverse in maniera stabile, anche in esseri umani di società diverse tra loro. “Quindi – conclude – nelle emozioni ci sono delle sistematicità che l’Intelligenza Artificiale può apprendere e replicare. Questi aspetti sono fondamentali da un punto di vista “Uman Center”, ossia è necessario creare delle intelligenze artificiali che siano in grado di riprodurre la grande complessità che ci caratterizza in quanto esseri umani”. Non è importante, dunque, solo un approccio ingegneristico ma anche e soprattutto un approccio multidisciplinare

Possibili rischi legati all’IA

“Parlando di rischi – introduce Stella – è opportuno testare queste intelligenze artificiali”. Interessante in merito è un episodio, reso evidente dallo stesso professore, riguardante uno scandalo verificatosi in America, in cui, un’intelligenza artificiale deputata alla scansione di report medici, si rivelò fallimentare nell’identificazione di una specifica diagnosi per la presenza di un nome codificato diversamente dalla sede di addestramento. “Questa intelligenza artificiale – prosegue – ignorava sistematicamente tale patologia nei pazienti e ciò si rivelò un grande problema per l’assenza di dottori in grado di fare controlli immediati”. Conseguenza di tale accadimento fu la mancanza di tempestività di diagnosi nei pazienti e diverse cause multimilionarie a carico dell’ospedale che aveva acquistato il software. “Questo – conclude l’esperto – ci fa comprendere l’importanza di testare queste macchine in quanti più contesti diversi e su quante più casistiche possibili”. 

Un altro significativo esempio riguarda ChatGPT. Il professore ed altri collaboratori hanno evidenziato come ChatGPT 3 e 3.5 presentasse delle percezioni negative verso la matematica delineandola come astratta, complicata e frustrante. Tale visione virtuale, in realtà, ben riflette quella reale degli uomini. La questione, però, può crearsi nel momento in cui l’essere umano, ignaro di queste percezioni, trovandosi a chiedere un testo relativo la matematica a ChatGPT, viene persuaso negativamente. “Si tratta – chiarisce il professore – di una “pandemia cognitiva” perché l’IA potrebbe rivelarsi capace di influenzarci sfavorevolmente”. 

Altro aspetto significativo al riguardo, è l’assenza di stanchezza dei robot automatici ed umanoidi nel caso in cui posseggano sufficiente batteria. “Un’intelligenza artificiale o un robot che compiono azioni negative – sostiene Stella – continueranno a farle finché avranno batteria ed autonomia. La batteria è l’unico elemento che limita questi robot dal poter agire completamente indipendentemente. Questo rappresenta un segnale preoccupante perché, ad esempio, sistemi di sorveglianza o di scandagliamento automatico della realtà fisica, se fatti ad oltranza, possono diventare fortemente negativi, trasformandosi in armi”. Dunque, per far si che vi sia un corretto e giusto controllo, è necessaria l’istituzione di protocolli aggiuntivi che consentano la disattivazione di sistemi di questa tipologia.  

Un ulteriore rischio legato all’intelligenza artificiale consiste nella presenza di sistemi di ricerca online che permettono con una foto di identificare altre foto della medesima persona in contesti differenti. “Ciò determina – afferma l’esperto – grandi rischi per la nostra privacy perché, se da un lato gli esseri umani non sono in grado di cercare tali informazioni su Internet, un’intelligenza artificiale può, in pochi secondi, incrociare la presenza della stessa faccia sulla webcam di tutta un’intera nazione, costruendo, in questo modo, un track record di chi è stato dove”. E’ necessario, dunque, porre massima attenzione affinché questi strumenti vengano utilizzati per un monitoraggio positivo e non per scopi che ledano la libertà individuale. 

L’Intelligenza Artificiale rappresenta, dunque, le fondamenta delle tecnologie future ma ogni macchina necessita di controllo, gestione e supervisione da parte dell’uomo, pertanto la parola chiave fra questi due mondi apparentemente simili ma concretamente diversi è: sinergia