L’Intelligenza Artificiale (IA) è uno dei temi più caldi e dibattuti dalla comunità scientifica, ma anche da tutta una serie di attori che coinvolgono aspetti della vita umana quali quelli filosofici, economici, di privacy, etc, in quanto modificherà completamente il nostro mondo professionale, sociale e personale.
Da un puto di vista meramente tecnico/informatico, l’Intelligenza Artificiale, potrebbe essere classificata come “la disciplina che racchiude in sé le teorie e le tecniche per lo sviluppo di programmi che consentano ai computer di mostrare attività ‘intelligente’ o pseudo tale, per lo meno in specifici ambiti applicativi”.
È evidente pertanto che, per poter dare una definizione più esatta, bisognerebbe riuscire a comprendere e definire le logiche di meta-ragionamento e apprendimento dell’uomo, da trasferire negli algoritmi dei calcolatori, nei modelli matematico/computazionali in grado di concretizzare tali forme di ragionamento e apprendimento, cosa oggi ancora lontana dal realizzarsi. Inoltre, non dobbiamo dimenticare che, essendo l’uomo a programmare il software cui l’intelligenza artificiale fa riferimento, occorre un lavoro enorme teso a cercare di ridurre il più possibile i bias (tendenza alla distorsione dai valori corretti), insiti nell’uomo, che rischiano di essere trasferiti in tali software.
Alla base dell’intelligenza artificiale ci sono dei concetti chiave e dei requisiti che per poterla definire tale, devono essere soddisfatti quali il “Cognitive Computing” che va però inteso come l’insieme delle piattaforme tecnologiche basate sulle discipline scientifiche dell’Intelligenza Artificiale, tra le quali il Machine Learning, Deep Learning (apprendimento e esecuzione automatica di azioni) e il Signal Processing (riconoscimento dei segnali).
Basandosi sul funzionamento del cervello umano, dal punto di vista delle abilità e requisiti intellettuali di funzionamento, anche l’IA, si sostanzia principalmente attraverso quattro differenti funzioni che agiscono a diversi livelli:
– la comprensione: la simulazione di capacità cognitive attraverso la correlazione di dati ed eventi. L’IA è in grado di riconoscere ed estrapolare informazioni da testi, video, voci, immagini, tabelle;
– il ragionamento: mediante sistemi logici e di correlazione vengono collegate le molteplici informazioni raccolte (attraverso precisi algoritmi di calcolo e in modo automatizzato);
– l’apprendimento: questo livello è costituito da sistemi con funzionalità specifiche per l’analisi degli input di dati in relazione alla loro “corretta” restituzione in output (è il classico esempio dei sistemi di Machine Learning che con tecniche di apprendimento automatizzato portano l’IA ad imparare e a svolgere varie funzioni);
– l’interazione (Human Machine Interaction): in questo caso le modalità di funzionamento dell’IA interagiscono con l’uomo. È qui che si stanno evolvendo i sistemi di Nlp – Natural Language Processing, che consentono all’uomo di interagire con le macchine (e viceversa) utilizzando il linguaggio umano.
Le applicazioni di Machine learning sono già oggi molto numerose, alcune delle quali, senza che in realtà ce ne rendessimo conto, sono entrate comunemente nella nostra vita quotidiana. Pensiamo, per esempio, all’utilizzo dei motori di ricerca grazie ai quali, inserendo una o più parole chiave, vengono restituite liste di risultati (le cosiddette SERP – Search Engine Results Page), oppure i filtri anti-spam delle e-mail, basati su sistemi che imparano continuamente ad intercettare messaggi di posta elettronica sospetti o fraudolenti ed, eventualmente, ad agire di conseguenza, ad esempio eliminandoli. Sistemi di questo tipo, anche maggiormente evoluti, vengono utilizzati nel settore Finance per la prevenzione delle frodi (come la clonazione della carta di credito) e dei furti di dati e identità; gli algoritmi “imparano” ad agire mettendo in correlazione preferenze di spesa, abitudini degli utenti, ecc., ed attraverso tali informazioni riescono a identificare in real-time eventuali comportamenti che potrebbero identificare un furto od una frode. Altri esempi di Machine learning li ritroviamo nel settore della ricerca scientifica, in campo medico, dove gli algoritmi imparano a fare previsioni, sempre più accurate, per prevenire le epidemie oppure per effettuare diagnosi di tumori in modo preciso e tempestivo; nel riconoscimento vocale o identificazione della scrittura manuale, nello sviluppo delle auto a guida autonoma che imparano a riconoscere l’ambiente circostante (con i dati raccolti attraverso il signal processing) e ad adattare il loro “comportamento” (output) in base alle specifiche situazioni che devono affrontare/superare. Anche i cosiddetti “sistemi di raccomandazione”, sfruttando il Machine learning imparano dal comportamento e dalle preferenze degli utenti che navigano nel web, piattaforme o applicazioni mobili, ne sono un esempio quelli che comunemente ci siamo abituati a vedere e utilizzare sulle piattaforme come Amazon o di intrattenimento come Netflix o Spotify.
Se come consumatori possiamo trarre benefici sempre maggiori dalla IA, nel mondo del business la disponibilità delle soluzioni tecnologiche ha portato le nuove potenzialità dell’IA in molti settori. Nel settore delle vendite, grazie all’utilizzo di sistemi esperti, ha già dimostrato importanti risultati. Tali sistemi permettono di risolvere problemi particolarmente complessi per i quali servirebbe necessariamente l’intervento di un essere umano “esperto” dello specifico settore. Dal punto di vista tecnologico, i sistemi esperti, partendo dai dati, da una serie di fatti, grazie alle correlazioni tra essi e alle regole di cui sono composti, riescono a dedurre nuovi fatti.
Questi sistemi, ad esempio, risultano particolarmente performanti nel settore commerciale dove la proposta risulta particolarmente complessa per la natura stessa dei prodotti commercializzati, per le combinazioni possibili delle soluzioni, per le variabili che incidono sul risultato finale. Nel marketing, l’IA, mostra tutta le sue potenzialità e l’area di impiego maggiore è sicuramente quella della gestione della relazione con gli utenti. Assistenti vocali/virtuali (chatbot, Siri di Apple, Cortana di Microsoft, Alexa di Amazon) sfruttano l’IA sia per il riconoscimento del linguaggio naturale sia per l’apprendimento e l’analisi delle abitudini e dei comportamenti degli utenti; Tali analisi, effettuate in real-time, esaminano grandissime quantità di dati al fine di comprendere il “sentiment” e le esigenze delle persone per migliorare la “user experience”, il customer care, servizi di assistenza e supporto ma anche per perfezionare sofisticati algoritmi che effettuano la previsione dei comportamenti di acquisto da cui scaturiscono le strategie di comunicazione e le proposte di servizi. Da una branca del Marketing che sfrutta le più moderne tecnologie, è nata una vera e propria disciplina, l’Artificial Intelligence Marketing (AIM), che rientrano nell’ambito dell’Intelligenza Artificiale, integrate a tecniche matematiche/statistiche e di Marketing comportamentale con l’obiettivo di persuadere le persone a compiere un’azione, acquistare un prodotto o accedere ad un servizio.
L’ottimizzazione e la gestione della catena di approvvigionamento e di distribuzione, con la riduzione degli stock di magazzino, richiede ormai analisi sofisticate e, anche in questo caso, l’IA permette, in maniera estremamente efficiente di connettere e monitorare tutta la filiera e tutti gli attori coinvolti; La Supply chain management e la gestione degli ordini, hanno beneficiato in maniera sostanziale delle potenzialità della IA, non solo mirando alla semplificazione dei processi ma anche alla loro completa integrazione, dagli acquisti all’inventario, dal magazzino alle vendite fino ad arrivare all’integrazione con il marketing per la gestione preventiva delle forniture in funzione delle attività promozionali o della campagne di comunicazione. L’applicazione dell’IA in campo medico e della ricerca sta migliorando molti sistemi tecnologici utilizzati da persone con disabilità ma, è sul fronte della diagnosi e cura di tumori e malattie rare che incide maggiormente, accelerando processi di diagnosi spesso molto critici per le malattie rare o individuando e definendo percorsi di cura ottimali, in caso di tumori o malattie particolari.
Quando si parla di IA però non si può non toccare aspetti etici e sociali come quelli legati al lavoro e all’occupazione, dato che i timori nella comunità globale crescono anche in considerazione che, entro il 2050, la metà delle attività lavorative di oggi potrebbe essere automatizzata. Qualsiasi tipo di lavoro è soggetto a un processo sempre più spinto di automazione ed è partendo da questa considerazione che nel report A Future That Works: Automation, Employment and Productivity, realizzato da McKinsey Global Institute – MGI, si stima che quasi la metà dell’attuale forza lavoro, grazie allo sviluppo delle tecnologie già note e in uso oggi, progressivamente potrà essere impattata dall’automazione.
Premessa l’esistenza concreta della possibilità che ciò accada, la domanda da porsi è su quali tipologie di lavoro ciò impatterà maggiormente? Probabilmente i lavori più soggetti all’automazione saranno quelli nei quali l’intervento cognitivo dell’uomo avrà un impatto minore.
A frenare i timori che da mesi spopolano via web e social sulla responsabilità che l’IA avrà nell’eliminazione di posti di lavoro, arrivano diversi studi. Secondo Capgemini, l’83% delle imprese oggetto della ricerca confermano la creazione di nuove posizioni, inoltre, oltre il 75% delle società che implementato sistemi di IA hanno registrato un aumento delle vendite del 10%.
Un recente report di The Boston Consulting Group e MIT Sloan Management Review dimostra che solo meno della metà dei manager teme la riduzione della forza lavoro e ciò è dovuto alla convinzione che, le potenzialità dell’IA permetterà alle aziende di guadagnare e mantenere un vantaggio competitivo;
Una ricerca di Accenture, rilasciata in occasione del Forum dell’Economia di Davos, stima che i ricavi delle imprese potrebbero crescere del 38%, a patto che investano sull’IA e su un’efficace cooperazione uomo-macchina.
Dato per certo l’impatto sempre maggiore dell’IA nell’evoluzione dei sistemi economico/sociali, gli economisti si interrogano su quali strumenti potranno essere sviluppati ed attivati per impedire che l’evoluzione della società, accelerata dall’intelligenza artificiale, condurrà ad un’economia a sempre minore intensità di lavoro, e quindi ad un impoverimento della popolazione e ad una necessario sistema di ridistribuzione della ricchezza, considerando che la maggior parte di questa verrà prodotta dalle macchine.
Alle tematiche economico/sociali, si affiancano questioni etiche. Il noto ricercatore, scienziato ed astrofisico Stephen Hawking ha espresso molti timori in relazione alla incapacità di prevedere cosa riusciremo a fare quando le nostre menti saranno amplificate dall’intelligenza artificiale e, in relazione alla distruzione di milioni di posti di lavoro, ha asserito che esiste la concreta possibilità che la nostra economia e la nostra società vengano distrutte. In relazione alla concreta possibilità che l’IA abilita nuovi modi per permettere a pochi individui ed organizzazioni di opprimere e controllare moltitudini di uomini ha dichiarato “Dobbiamo prepararci a gestirla per evitare che questi potenziali rischi prendano forma e diventino realtà”.
Anche Elon Musk, ha affermato che l’IA è il più grande rischio cui la nostra civilizzazione si trova a far fronte ed, in particolare, ha evidenziato i rischi di una guerra scatenata dai computer o una catastrofe occupazionale dovuta a decisioni basate soltanto sulle elaborazioni dell’intelligenza artificiale in relazione alla concreta possibilità che le macchine occuperanno migliaia, forse milioni, di lavori oggi ancora gestiti dagli uomini.
Alla luce di quanto espresso, appare preoccupante il fatto che i Big Data e il loro utilizzo, mediato dai sistemi di IA, siano sviluppati da un numero molto ristretto di aziende che potrebbero indirizzare le scelte di vita e le condizioni sociali di milioni di persone. Per ovviare a questa legittima preoccupazione, la comunità scientifica internazionale, che sta lavorando da tempo alla cosiddetta superintelligenza, propone di “decentralizzare l’intelligenza artificiale” e fare in modo che possa essere progettata, sviluppata e controllata da una grande rete internazionale attraverso la programmazione aperta, così che si possa tendere ad un processo di democratizzazione dell’accesso alle intelligenze artificiali, riducendo i rischi di monopolio e quindi risolvendo problemi etici e di sicurezza. In questo scenario, la blockchain sembra essere la risposta più rassicurante: l’uso di tale tecnologia consente registrazioni immutabili di tutti i dati, di tutte le variabili e di tutti i processi utilizzati dalle intelligenze artificiali per arrivare alle loro conclusioni/decisioni. Ed è esattamente ciò che serve controllare in modo semplice l’intero processo decisionale dell’IA.
Anche in Italia ci si è posto il problema dell’applicazione dell’IA e, nell’ottobre 2020, il Governo ha pubblicato la bozza di Strategia nazionale per l’Intelligenza Artificiale, basata sulle proposte avanzate nel luglio precedente da un gruppo di esperti. Il punto principale della Strategia è la formazione. L’Italia, inoltre, fa parte della Global Partnership on AI (GPAI), iniziativa internazionale che lo scopo di favorire lo sviluppo responsabile dell’intelligenza artificiale per garantire il rispetto dei diritti umani, dell’inclusione e della diversità. Nel 2021 la Commissione Europea ha presentato una bozza di Regolamento sull’intelligenza artificiale, regole che saranno applicate direttamente e nello stesso modo in tutti gli Stati membri e che seguono un approccio basato sul rischio: maggiore il rischio, maggiori le regole. Per le aziende che non rispetteranno queste regole saranno previste multe fino al 6% del fatturato. Nel marzo 2022 la Commissione per il mercato interno e la protezione dei consumatori del Parlamento Europeo, oltre che della Commissione per le libertà civili, la giustizia e gli affari interni, ha pubblicato una relazione congiunta contenente delle raccomandazioni inerenti alla proposta di Regolamento sull’Intelligenza Artificiale. A causa del ruolo critico che i dati giocano nello sviluppo delle tecnologie di apprendimento automatico (Machine Learning), il futuro regolamento europeo impatterà fortemente nel mondo della protezione dei dati, andando a “collaborare” con l’azione del GDPR. A ciò si aggiunga che, il Parlamento Europeo, intende porre questioni etiche sull’intelligenza artificiale, come la mitigazione dei “pregiudizi” (bias), la trasparenza algoritmica e la supervisione umana (e giuridicamente vincolante) sui sistemi automatizzati. Il quadro, quindi, promette di avere lo stesso profondo impatto sull’utilizzo dell’intelligenza artificiale che il GDPR ebbe sui dati personali sin dal momento della sua applicazione.
L’intelligenza artificiale sta diventando un argomento sempre più importante per i legislatori europei, statunitensi e britannici. Le aziende dovrebbero prendere in seria considerazione se stanno mettendo in atto misure appropriate per gestire i rischi di distorsioni, imprecisioni e altre forme di danno nei loro sistemi di intelligenza artificiale, assicurandosi di avere controlli adeguati per rispettare le normative esistenti, tra cui la protezione dei dati personali e la tutela dei consumatori.
La Commissione Europea ha sollevato un argomento che dovrà essere ampiamente dibattuto tra politici, governi e mondo industriale ovvero su come l’intelligenza artificiale dovrebbe essere regolata in futuro. Nel frattempo che la Commissione Europea definisca un regolamento sulla questione, è importante che le aziende che sviluppano o utilizzano l’intelligenza artificiale si adeguino prima che il regolamento diventi applicabile considerato che nella proposta della Commissione manca quel periodo transitorio tra l’entrata in vigore e l’applicazione, come invece era precedentemente avvenuto per l’entrata in vigore del GDPR.
Fabio Schirosi