Recensioni

Gli algoritmi non bastano a fare l’intelligenza artificiale

Recensione (pubblicato in Biblionews n. 25 – marzo 2022)

Titolo: Algorithms Are Not Enough
Autori: Herbert L. Roitblat
Pubblicazione:The MIT Press, 2020

Nel suo libro Algorithms Are Not Enough, pubblicato da MIT Press, il data-scientist Herbert Roitblat offre uno sguardo approfondito ai diversi ambiti applicativi dell’intelligenza artificiale (IA) e tratta il motivo per cui nessuno di questi riesca a realizzare il sogno di creare un’intelligenza generale.L’intelligenza artificiale è basata su algoritmi che eseguono compiti specifici: non riesce a generalizzare le proprie capacità oltre il ristretto dominio di applicazione. Ciascuna delle attuali tecniche di intelligenza artificiale riesce a replicare solo alcuni aspetti di ciò che è noto dell’intelligenza umana, ma non tutto. Gli esseri umani invece possono scoprire problemi irrisolti e pensare a nuove soluzioni.Secondo Roitblat, il difetto comune a tutti gli algoritmi di intelligenza artificiale è la necessità di rappresentazioni predefinite. Una volta scoperto un problema, e pur essendo in grado di rappresentarlo in modo computabile, creiamo algoritmi di intelligenza artificiale per risolverlo in modi anche più efficienti degli stessi esseri umani. Tuttavia, le questioni sconosciute e non rappresentabili continuano a sfuggirci.

Nel corso della storia dell’intelligenza artificiale, gli scienziati hanno costantemente inventato nuovi modi per sfruttare i progressi dei computer nella risoluzione, sempre più ingegnosa, dei problemi.

L’IA simbolica richiede agli sviluppatori umani di specificare meticolosamente le regole, i fatti e le strutture che definiscono il comportamento di un programma per computer. Il problema è che la maggior parte dei compiti svolti da uomini e animali non possono essere rappresentati con regole chiare. Scrive Roitblat: “I compiti intellettuali, come il gioco degli scacchi, l’analisi della struttura chimica e il calcolo, sono relativamente facili da eseguire con un computer. Molto più difficili sono i tipi di attività che potrebbero svolgere anche un umano di un anno o un topo”[1].

Questo è chiamato il “paradosso Moravec”, dal nome dello scienziato Hans Moravec, il quale sosteneva che i computer, a differenza degli umani, possono eseguire compiti di ragionamento di alto livello con pochissimo sforzo, ma faticano su abilità semplici che umani e animali apprendono naturalmente. “Il cervello umano ha sviluppato nel corso di milioni di anni meccanismi che ci hanno permesso di svolgere funzioni sensomotorie di base. Prendiamo le palle a volo, riconosciamo i volti, giudichiamo la distanza, tutto apparentemente senza sforzo”, scrive Roitblat. “D’altra parte, le attività intellettuali sono uno sviluppo molto recente. Possiamo eseguire questi compiti con molto sforzo e spesso molto allenamento, ma dovremmo essere sospettosi se pensiamo che queste capacità siano ciò che rende possibile l’intelligenza, piuttosto è l’intelligenza a rendere possibili queste capacità.”

A differenza dell’IA simbolica, il Machine Learning (ML) offre un approccio diverso all’intelligenza artificiale. “I sistemi ML non solo possono fare ciò per cui erano specificamente programmati, ma possono estendere le loro capacità a eventi senza precedenti, almeno entro un certo intervallo”, scrive Roitblat.

La forma più popolare di ML è l’apprendimento supervisionato, in cui un modello viene addestrato su un insieme di dati di input (ad esempio, umidità e temperatura) e risultati previsti (ad esempio, probabilità di pioggia).

Il modello di apprendimento automatico utilizza queste informazioni per sintonizzare una serie di parametri che mappano gli input agli output. Quando viene presentato un input non visto in precedenza, un modello di apprendimento automatico ben addestrato può prevedere il risultato con notevole precisione. Non c’è bisogno di regole if-then esplicite. Ma l’apprendimento automatico supervisionato si basa ancora su rappresentazioni fornite dall’intelligenza umana, anche se più libere rispetto all’IA simbolica. Quindi, mentre l’apprendimento automatico supervisionato non è strettamente legato a regole come l’IA simbolica, c’è sempre bisogno di rappresentazioni rigorose create dall’intelligenza umana. Spetta ancora all’uomo definire il problema specifico, realizzare set di dati di allenamento ed etichettare i risultati prima di poter creare un modello di apprendimento automatico. È solo quando il problema è stato rappresentato rigorosamente che il modello può iniziare ad affinare i suoi parametri.

Un ramo dell’apprendimento automatico che è cresciuto in popolarità negli ultimi dieci anni è il deep learning, che viene spesso paragonato al cervello umano. Al centro del deep learning c’è una rete neurale profonda, che impila strati su strati di unità computazionali semplici per creare modelli di apprendimento automatico che eseguono compiti molto complessi come quelli di classificazione.

Uno sviluppatore dei sistemi di apprendimento automatico deve prima definire il problema che vuole risolvere, curare un grande set di dati di allenamento, e capire l’architettura di deep learning che deve risolvere quel problema. Durante l’addestramento, il modello di apprendimento profondo sintonizzerà milioni di parametri per collegare gli input agli output. Ma è necessario che siano gli sviluppatori a decidere il numero e il tipo di strati, il tasso di apprendimento, la funzione di ottimizzazione, la funzione di perdita, e altri aspetti che la rete neurale non può imparare da sola.

Scrive Roitblat: “Non è vero che le reti di deep learning siano capaci di apprendere le proprie rappresentazioni come viene spesso detto. La rappresentazione degli input e il processo di soluzione dei problemi è predeterminato per una rete di deep learning come per qualsiasi altro sistema di machine learning.”

L’apprendimento non supervisionato, ad esempio, non richiede esempi etichettati, ma esige sempre un obiettivo ben definito come il rilevamento delle anomalie nella sicurezza informatica o la segmentazione dei clienti nel marketing.

Il reinforcement learning (apprendimento per rinforzo), un altro ramo popolare dell’apprendimento automatico, è molto simile ad alcuni aspetti dell’intelligenza umana e animale. Attraverso tentativi ed errori, l’agente di reinforcement learning trova sequenze di azioni che producono maggiori ricompense. Il reinforcement learning può risolvere problemi complessi come giochi da tavolo, videogiochi e manipolazioni robotiche dove l’ambiente in cui il sistema è inserito può fornire un feedback, in forma di premio o punizione, alla scelta compiuta dall’agente. Ma gli ambienti di reinforcement learning sono tipicamente molto complessi da costruire, e il numero di azioni possibili che un agente può eseguire è molto grande. Pertanto, gli agenti di reinforcement learning necessitano di sostanziale supporto dall’intelligenza umana per determinare le ricompense adeguate, semplificare il problema e scegliere la giusta architettura.

La ricerca sull’intelligenza artificiale sta andando nella giusta direzione? Per Roitblat è l’IA ancora molto carente a causa del fatto che “gli attuali approcci all’intelligenza artificiale funzionano solo perché i loro progettisti hanno capito come strutturare e semplificare i problemi in modo che i computer e i processi esistenti possano affrontarli. Per avere un’intelligenza veramente generale, i computer avranno bisogno della capacità di definire e strutturare i propri problemi”. Abbiamo ancora molto da imparare da noi stessi e dal modo in cui applichiamo la nostra intelligenza al mondo. “L’intelligenza artificiale è ancora un lavoro in corso. I difetti dell’intelligenza artificiale tendono ad essere i difetti del suo creatore piuttosto che le proprietà inerenti al processo decisionale del computer.”

[1] Le traduzioni sono nostre.

Herbert L. Roitblat
Principal Data Scientist presso Mimecast