Magazine Scienze

I.B.M. Watson: il super-computer che batte l'uomo a Jeopardy

Creato il 22 giugno 2010 da Zonwu

I.B.M. Watson: il super-computer che batte l'uomo a Jeopardy - seconda parte I.B.M. Watson: il super-computer che batte l'uomo a JeopardyIn una sfida a tre, dove due dei contendenti sono umani ed uno è un super-computer della I.B.M., chi è destinato a vincere? Se si trattasse di scacchi, molti di noi sarebbero più propensi a rispondere "il computer". Ma qui si parla di un gioco che prevede la comprensione di domande poste da un essere umano ai partecipanti, e di rispondere con frasi di senso compiuto.


Ma anche in questo caso, la risposta è "il computer". Dorothy Gilmartin e Alison Kolani, le due partecipanti umane, non sono state in grado di stare dietro alla velocità ed alla capacità di analisi e di memoria di Watson, un super-computer sviluppato dalla I.B.M., quando si è trattato di vincere una sfida a Jeopardy. Per chi non conoscesse il gioco, consiste essenzialmente nel porre ai concorrenti una risposta ad una domanda sconosciuta (il contrario dei tradizionali quiz), che i partecipanti devono indovinare e formulare correttamente.
Watson è frutto di tre anni di ricerca e sviluppo da parte dei tecnici della I.B.M., e si tratta della macchina più avanzata in circolazione per quanto riguarda il rispondere a domande formulate in linguaggio naturale.
Non fa una ricerca nel suo database per poi fornire una risposta sintetica in linea con un input preciso: analizza il linguaggio umano e compone una risposta (in questo caso, una domanda) in linguaggio naturale.
Nessuno fino ad ora avrebbe scommesso una somma ingente sul fatto che le macchine potessero raggiungere un tale grado di complessità. Software che rispondono a domande poste in linguaggio naturale erano già stati creati, ma oltre a fornire risposte poco articolate e basate su input limitati, non erano in grado di elaborare con un tale livello di complessità il linguaggio umano.
Ma Watson è differente. E per dimostrarlo, i tecnici della I.B.M. hanno allestito un vero e proprio set in stile Jeopardy, con partecipanti umani, il concorrente informatico, e Todd Alan Crain, presentatore del network Onion News, che formulava le risposte relative alle domande da indovinare.
Watson tecnicamente non si trovava nella stanza con gli altri contendenti: era stato posizionato al piano superiore, dato che consiste in una serie di server molto ingombranti.
In memoria, Watson contiene decine di milioni di documenti, che gli consentono di rispondere a quasi qualunque domanda gli dovesse venir posta. Non è tuttavia stato connesso ad Internet, per metterlo nella stessa posizione dei partecipanti, che possono attingere a solo ciò che hanno memorizzato nel corso degli anni.
Per poter interagire con l'essere umano, Watson è stato dotato di un motore di sintesi vocale.
E, come accennato in precedenza, Watson ha avuto la meglio sulle due concorrenti umane, vincendo una cifra simbolica di 1000 dollari.
Ma questo è stato solo l'inizio: nel corso della giornata di dimostrazione, Watson ha vinto quattro partite su sei a Jeopardy. Ha dimostrato una facilità sorprendente nel rispondere a domande di tipo culturale, scientitiche e di tipo logico.
Alla fine della giornata, da un lato si sono visti 7 concorrenti sfiancati e sconfitti, dall'altro Watson, trionfante e privo di alcuna emozione.
"Gioca per vincere" afferma Samantha Boardman, una delle concorrenti dei sei match. "Non vuole perdere tempo". E, come molti dei partecipanti, si riferisce a Watson come a "Lui".
L'idea di realizzare Watson nasce dalla necessità della I.B.M. di continuare ad avere la leadership nel campo dei super-computer, e dal bisogno di avere sempre nuove sfide da superare per poter mantenere la posizione di predominio nei calcolatori.
Ma quando l'esecutivo I.B.M. ha proposto "Jeopardy", la cosa risultò un po' troppo oltre al limite del possibile. Se infatti per gocare a scacchi le macchine si basano su poche semplici regole e su un database di milioni di mosse, quando si tratta di interpretare il linguaggio umano le cose diventano estremamente più complicate.
I risultati fino ad ora ottenuti hanno attestato l'attendibilità dei risponditori software al 70%, ma in molti casi è di parecchio inferiore. Risultati che presuppongono la formulazione di domande semplici, ed un tempo di attesa spesso superiore al minuto.
Niente a che vedere con la necessità di rispondere in pochi secondi a domande generiche. E Jeopardy complica il tutto, perchè non bisogna fornire una risposta, ma dedurre la domanda.
Come afferma David Ferrucci, manager del dipartimento di Analisi ed Integrazione Semantica della I.B.M. :"La reazione fu essenzialmente 'No, è troppo difficile, dimenticatevelo, non c'è modo per farlo'". Questa fu la prima reazione di tecnici che da anni lavorano sull'intelligenza artificiale; e la cosa non si rivelò per nulla facile.
Come spiega Ferrucci, il problema dell'interpretazione del linguaggio naturale da parte dei computer è che le macchine faticano a comprendere i "sottintesi". L'essere umano può facilmente capire il senso nascosto di una frase, un'allusione, il tono di una domanda.
Un esempio può essere questo: il conduttore pone la risposta ai concorrenti dicendo "Il nome di questo cappello è elementare, mio caro concorrente". Quasi istantaneamente, i partecipanti comprendono l'allusione a "elementare, mio caro Watson" spesso pronunciata da Sherlock Holmes, e collegano la frase ad un episodio della versione Hollywoodiana di Holmes.
Ma per un computer, fare associazioni di questo tipo è sempre stato ritenuto ai limiti delle possibilità, se non addirittura irrealizzabile. Se infatti per sistemi come Google è relativamente semplice collegare la frase con Sherlock Holmes, non lo è tuttavia collegarla ad uno specifico episodio del film, filtrando tutti i possibili risultati per ottenere quello corretto.
Nel 2006, Ferrucci ha testato il computer più avanzato della I.B.M., mettendolo alla prova proprio con Jeopardy e sottoponendo alla macchina 500 domande prelevate dall'ultima edizione dello show. Il risultato fu ben poco incoraggiante: se infatti il gruppo dei vincitori umani è composto da persone che premono per prime il pulsante nel 50% dei casi, e che hanno un'accuratezza tra l'85 ed il 95%, il computer della I.B.M. non era sufficientemente "convinto" nel dare la rispota, ed ottenne un'accuratezza pari al 15%. Lento e stupido rispetto ai concorrenti umani.
"Non avevo alcun interesse nel passare i successivi cinque anni della mia vita tentando cose semplici" spiega Ferrucci, che prese la sfida di realizzare un computer adatto a giocare a Jeopardy come un traguardo personale. "Volevo spingere oltre i limiti".
La cosa più interessante è che il team di Ferrucci non ha sviluppato molte novità nell'interpretazione del linguaggio naturale, ma ha sfruttato tecniche statistiche ed algoritmi già noti nell'ambito della ricerca in oggetto. Quello che tuttavia è stato migliorato è l'accesso alla memoria, la velocità di calcolo e l'interazione tra diversi algoritmi di calcolo.
Watson contiene "libri, ogni tipo di dizionario, tassonomie, enciclopedie, ogni tipo di materiale di riferimento si possa ottenere. Romanzi, bibbie e sceneggiature" spiega Ferrucci. E sulla base di questa enorme quantità di dati, si è iniziato il lavoro di perfezionamento degli algoritmi. Watson utilizza contemporaneamente oltre 100 algoritmi differenti per poter analizzare il linguaggio umano, fornendo altrettante soluzioni che vengono poi classificate statisticamente per arrivare a quella più corretta.


Potrebbero interessarti anche :

Ritornare alla prima pagina di Logo Paperblog

Possono interessarti anche questi articoli :

Magazine