LE SFIDE DELL’INNOVAZIONE

Dai Big Data una nuova tecnologia GPT
La quarta rivoluzione industriale
mette a rischio milioni di posti di lavoro

Antonio Vecchio
ROMA

L’INTELLIGENZA artificiale sta diventando nostra fedele compagna di viaggio e sempre più lo sarà nel futuro che ci attende. Quella che alcuni hanno già definito come quarta rivoluzione industriale altro non è che l’affermarsi di una nuova ‘General purpose tecnology’ (GPT), una tecnologia in grado di, come spiega Erik Brynjolfsson del MIT di Boston, «interrompere e accelerare la marcia del progresso economico ». Un fattore di rottura con il passato, accaduto altre tre volte nella storia: con il vapore, che aveva dato inizio alla prima rivoluzione industriale (1760-1830), con l’elettricità (1870-1945) che favorì la seconda, e in ultimo con la digitalizzazione negli anni 80-90.

C’È PERÒ un elemento di novità in questa nuova tecnologia, che la caratterizza in maniera differente dalle precedenti GPT, ed è proprio il connubio tra potenza di calcolo dei computer e disponibilità di Big Data, che sono il vero combustibile di questa nuova era. Un miscela che minaccia di insidiare l’uomo nella sfera che più gli è propria – quella cognitiva –, aprendo a nuovi scenari anche di natura filosofica. E’ ormai da oltre cinquanta anni, precisamente dal 1965, anno in cui Gordon Moore enunciò per la prima volta la legge che prenderà poi il suo nome, che la potenza di calcolo dei computer raddoppia in media ogni 18-24 mesi. E’ una legge, mai confutata dalla realtà, che svela la sua enorme potenzialità quando posta in sistema con un altro fattore cruciale del mondo di oggi: il raddoppio, in media ogni tre anni, dei dati prodotti in rete (Big Data). Non solo i miliardi di informazioni fornite dai nostri click, tweet e preferenze di acquisto, ma anche le tracce che disseminiamo quando ‘surfiamo’ nel web.

E’ PROPRIO la combinazione tra potenza di calcolo e disponibilità di dati a rappresentare la cifra del nostro tempo: da essa trae linfa l’intelligenza artificiale, soprattutto nella sua nascente capacità di imparare dai propri errori (machine learning). Con tali premesse, la disponibilità di macchine in grado di fare il lavoro di interpretazione e rappresentazione della realtà, anche meglio dell’uomo, rappresenta un elemento di portata straordinaria, soprattutto in tema di occupazione. Se infatti nel corso delle precedenti rivoluzioni industriali, alla perdita di figure professionali, era sempre seguita la creazione di nuovi lavori – i contadini si sono trasformati gradualmente in operai sempre più specializzati –, nell’era 4.0 la macchina non solo produce manufatti, ma estrae, elabora, e interpreta dati, che poi è in grado di rappresentare con grafici, ma anche in forma narrativa.Togliendo spazio a lavori tradizionalmente affidati all’uomo.

MA COME vengono utilizzati i Big Data? Mediante metodi matematici, ossia algoritmi elaborati sulla base di cosa si vuole scoprire in un dato momento, di un particolare fenomeno. Sono gli algoritmi, che sfruttando grandi quantità di dati, permettono di scorgervi eventuali correlazioni, intese come probabilità che una data relazione tra gli elementi esaminati possa ripetersi. Che poi tali legami emergano per pura coincidenza, nulla toglie alla validità dello studio in sé, in quanto l’imprecisione e l’inesattezza vengono statisticamente ‘aggiustate’ in proporzione al numero dei dati a disposizione. Infatti, algoritmi che offrono risultati (probabilistici) poco soddisfacenti con quantità limitate di dati, funzionano alla meraviglia quando applicati su numeri maggiori.

UN ESEMPIO di ciò ci viene fornito dal traduttore più diffuso al mondo. Google Translator è infatti la dimostrazione di come il criterio probabilistico, unito alla quantità di informazioni, possa applicarsi per risolvere un problema complesso come la traduzione. Il programma, infatti, non applica le regole grammaticali né ricorre a dizionari pre-memorizzati, ma traduce basandosi esclusivamente sulle probabilità che il contenuto di un dato documento possa essere tradotto secondo le strutture grammaticali e i significati di parole, verbi e aggettivi presenti nei miliardi di documenti, in tutte le lingue, che ha in memoria. E’ solo applicando la legge delle probabilità (e non le regole grammaticali) che il programma ha vinto la competizione con Microsoft, diventando in pochissimo tempo il traduttore più utilizzato al mondo.

CON BUONA pace del principio di causalità, che andava bene nell’epoca degli Small Data, quando la comprensione si basava su una analisi attenta di elementi limitati a disposizione, svolta da gente esperta nel particolare settore oggetto di studio. Oggi, per fare tutto ciò, è sufficiente un ‘data scientist’, con a disposizione una valanga di dati, un computer potente e un buon algoritmo.

Di |2019-05-27T09:35:24+00:0027/05/2019|Dossier educazione finanziaria|