Archivio dell'autore

How Long Till Human-Level AI?

How Long Till Human-Level AI?

Di Ben Goertzel, Seth Baum e Ted Goertzel

Articolo originale e grafici: http://hplusmagazine.com/articles/ai/how-long-till-human-level-ai

Quando arriverà l’AI di livello umano? Non intendiamo i software tipici dell’AI-debole di cui già i nostri sistemi sono dotati. Questi sono grandiosi, ma quando avremo sistemi realmente intelligenti come C3PO, R2D2 e anche superiori? Quando avremo l’Artificial General Intelligence (AGI) ci potremo parlare? Sarà qualcosa di intelligente come noi, o anche di più?

Come dice Yogi Berra, “è difficile fare predizioni, specialmente sul futuro”. Ma cosa pensano gli esperti di intelligenza artificiale forte? Per scoprirlo, abbiamo interrogato alcuni specialisti alla conferenza dell’Artificial General Intelligence (AGI-200), svoltasi a Washington DC nel Marzo 2009. Questi esperti sono impegnati nel lavoro di sviluppo delle AI di cui stiamo parlando. Certamente in argomento come questi, nonostante i giudizi dei ricercatori siano molto incerti e preso con la dovuta sobrietà – nonostante tutto questo, l’opinione di un esperto è la migliorare fonte di guida che abbiamo. Le loro predizioni sull’AGI potrebbero non avverarsi, ma vanno prese in considerazione.

Abbiamo chiesto a ricercatori e ingegneri quando ritengono che l’AI potrebbe raggiungere ciascuna delle 4 pietre miliari:

  • passare il test di Turing, cioè un’AI capace di sostenere una conversazione tale da poter essere scambiato per un essere umano
  • risolvere problemi scolastici di uno studente di terza elementare
  • svolgere un lavoro scientifico di qualità pari a quella di un premio Nobel
  • andare oltre l’intelligenza umana per arrivare all’intelligenza superumana

 

Abbiamo anche sondato le opinioni circa l’aspetto di un’AI veramente intelligente – avrà un corpo fisici, o sarà semplicemente all’interno di un computer e comunicherà con voce e testi? E come potremmo raggiungere un tale livello? Che tipo di lavoro tecnico deve avere la priorità? Dovremmo lavorare sulle reti neurali, sulla teoria della probabilità, sulle logiche fuzzy, sull’apprendimento evolutivo, su una teoria matematica, sui sistemi a dinamica non-lineare, o su un design integrativo che combini più paradigmi? Sono necessarie anche la quantum computing e la hypercomputing? Sarebbe meglio provare ad emulare il cervello umano il più possibile, o battere altre strade? Infine, abbiamo chiesto agli esperti come possiamo progettare un’AGI che sia il più possibile sicura e utile agli esseri umani.

Abbiamo posto queste domande ai 21 partecipanti della conferenza AGI-09, i quali hanno diversi backgrounds e diverse esperienze, anche se tutte all’interno dello studio dell’AGI. Undici di questi lavorano nelle università, inclusi 6 studenti PhD, 4 membri di facoltà, e un visiting scolar, tutti nel campo dell’AI o collegato ad esso. 3 sono ricercatori di spicco in organizzazioni indipendenti in cui si studia l’AI. 2 sono ricercatori in grosse aziende. 1 lavora in un’organizzazione no-profit e ha un ruolo importante in essa. Tutti, fatta eccezione per 4 di loro, sono impegnati full-time nelle ricerche sull’AI.

I risultati dettagliati della nostra ricerca saranno pubblicati, ma abbiamo deciso di condividere alcune anticipazioni con i lettori di H+ Magazine.

Cosa dicono gli esperti circa la tempistica del raggiungimento di un’AI Human-Level

 

La maggior parte degli esperti interrogati sono ottimisti, e ritengono che l’AGI sarà raggiunta velocemente, mentre alcuni nutrono più dubbi. Tuttavia, in generale, tutti gli esperti (anche i più pessimisti) danno almeno il 10% di possibilità che qualcuna delle pietre miliari dell’AGI venga raggiunta in pochi decenni.

Siamo rimasti sorpresi dall’ordine di queste pietre miliari. C’è stato un consenso pressoché totale sul raggiungimento di una intelligenza ‘superhuman’, e cioè che potrebbe arrivare o dopo le altre, o allo stesso tempo delle altre. Tuttavia, c’è divergenza sulle altre tre pietre miliari. Un esperto ha affermato che la pietra miliare “Nobel” dovrebbe essere di più facile raggiungimento di quella del test di Turing perché è più sofisticata e quindi dovrebbe “nascondere abilmente la sua superiorità intellettiva”. Un altro ha sostenuto l’idea che un’AI che deve passare il test di Turingha bisogno dello stesso tipo di intelligenza di una Nobel-AI “ma allo stesso tempo deve essere in grado di simulare come idiosincrasie umane (irrazionalità, imperfezione, emozioni)”. Infine, un altro ha fatto notare che l’AI che sappia risolvere problemi di un bambino di terza elementare dovrebbe arrivare per prima perché un esame di terza elementare può essere superato “con uno sviluppo dei processi nel linguaggio naturale, senza che si debba creare per forza un’AI intelligente come un bambino di terza elementare”. Questa disparità di vedute nell’ordine di raggiungimento degli obiettivi-tipo, suggerisce una comprensione ricca e multidimensionale dell’intelligenza.

Uno degli esperti ha osservato che “costruire un’AGI capace di esibire un pensiero creativo è probabilmente molto più semplice di farne una che imiti i tanti e complessi comportamenti di una mente umana – molti dei quali sono anche di intralcio al raggiungimento di un obiettivo di tipo Nobel”. Ha aggiunto che “gli esseri umani tendono ad avere menti che si annoiano facilmente, o che si allontanano da un certo compito, e sono inoltre interessate a cose come l’attrazione sessuale. Molte di queste cose limitano le abilità scientifiche invece di potenziarle”. Per emulare con successo un essere umano, un computer dovrebbe nascondere molte delle sue abilità, mostrandosi meno intelligente di quanto è. Non c’è ragione di spendere tempo e denaro per sviluppare queste caratteristiche in un computer”

Siamo rimasti sorpresi dal fatto che molti degli intervistati pensano che molti più fondi attualmente rallenterebbero le cose perché “molti studenti si interesserebbero di più a guadagnare soldi e nell’amministrazione di questi” piuttosto che nella ricerca. Un altro pensiero tipico è che “imponenti finanziamenti aumenterebbero la corruzione in questo campo e l’oppressione di visioni diverse nel lungo termine”. Molti quindi ritengono che il progresso dell’AGI dipenda da svolte teoretiche svolte da ricercatori capaci, cosa che non dipende da più o meno elevati finanziamenti.

In generale, si raccomanda che i pochi fondi siano distribuiti ad una serie di gruppi che sperimentino approcci differenti, piuttosto che uno solo, come il Manhattan Project, che segue un solo tipo di approccio. Infatti è stato osservato che i soldi investiti in un progetto che segua un solo paradigma sono sprecati, come quelli del progetto Japanese Fifth Generation Computer. Circa questo, un ricercatore ha osservato che “l’AGI ha bisogno più studio teoretico, che reali investimenti”

Un altro ha affermato: “Credo che lo sviluppo dell’AGI sia più che altro una questione evolutiva che semplicemente una questione di soldi. Le AGI saranno costruite grazie a strumenti sviluppati da strumenti precedenti. Questa evoluzione di mezzi richiederà tempo. Anche con molti più soldi richiederebbe comunque tempo per svilupparsi e maturare”. Poiché gli intervistati sono quelli che trarrebbero più benefici da finanziamenti, il loro scetticismo è credibile.

Che tipo di approccio tecnico permetterà di arrivare all’AI human-level?

Stranamente, abbiamo scoperto che nessuno degli approcci tecnici più specifici menzionati nella nostra ricerca riceve particolare supporto da più esperti, anche se la maggior parte considerano fondamentale la teoria della probabilità. C’è stato, tuttavia, un forte accordo tra gli esperti che tendono ad integrare una serie di approcci diversi, e questa strategia viene considerata migliore piuttosto che il focalizzarsi in uno solo.
L’impatto dell’AGI

Nella fantascienza, i computers intelligenti spesso diventano pericolosi avversari dell’umanità, e qualche volta cercano di sterminare la razza umana, considerata come una forma di vita inferiore. E, in verità, basandoci sulle nostre attuali conoscenze, è difficile non tener conto di questa possibilità, ovviamente considerando anche i possibili benefici. Per renderci conto del problema, ci siamo soffermato sul test di Turing in modo specifico, e abbiamo chiesto agli esperti di immaginare 3 possibili scenari per lo sviluppo dell’AGI human-level: se la prima AGI che passi questo test fosse creata come un software “open-source”, se costruito dai militari degli Stati Uniti, o da un’azienda privata. Per ognuno di questi 3 scenari, abbiamo chiesto di stimare la probabilità di conseguenze negative per l’umanità. Qui le opinioni sono molto diverse. 4 esperti hanno stimati più del 60% di possibilità di conseguenze negative, al di là dello sviluppo degli scenari. Alcuni hanno parlato di rischi dell’AGI in sé, mentre altri erano più focalizzati sul controllo di questa.

 Molti però hanno fatto notare gli impatti dell’AGI non catastrofici. Uno di loro ha predetto che “in 30 anni, tutto il lavoro intellettuale svolto attualmente da esseri umani, come dottori, avvocati, scienziati o programmatori, potrebbe essere fatto da computers con costi molto inferiori. E’ anche probabile che con l’AGI il costo di robots diminuirà, facendo cadere drasticamente il valore del lavoro fisico. In questo modo, è anche probabile che l’AGI elimini la maggior parte dei lavori pagati”. Questo sarà distruttivo, ma non necessariamente cattivo. Un altro esperto pensa che “le società potrebbero accettare e promuovere l’idea che l’AGI sia la più grande invenzione del genere umano, portando ricchezza, salute, e accesso rapido alla pensione per tutti”. Infatti commenti degli esperti suggeriscono l’idea che le potenzialità positive siano uno sprone ai ricercatori dell’AGI.

Conclusione

Per emulare con successo un essere umano, un computer dovrebbe essere in grado di mascherare molte delle sue abilità, fingendo di essere meno intelligente.

Sappiamo di due studi atti ad esplorare le opinioni degli esperti sul futuro dell’AGI. Nel 2006, un questionario di 7 domande venne sottoposto a un gruppo scelto di ricercatori accademici nel campo dell’AI (molti dei quali interessati all’AGI) alla conferenza AI@50. Alla domanda “quando i computer saranno in grado di emulare ogni aspetto dell’intelligenza umana?”, il 41% ha detto “fra più di 50 anni” e il 41% ha risposto “mai”. E nel 2007, Bruce Klein ha pubblicato ondine una ricerca in cui raccolse 888 risposte alla domanda “Quando l’AI supererà l’intelligenza umana?”. La maggior parte delle risposte affermavano che potrebbe succedere nella prossima metà del secolo.
In generale, i nostri risultati concordano con quelli dei due studi citati. Questi 3 studi suggeriscono l’idea che un numero significativo di interessati e informati individui credono nella probabilità dell’AGI di raggiungere o oltrepassare l’intelligenza umana più o meno a metà di questo secolo, o anche prima. Questo non prova niente ovviamente, ma mostra che, in questi giorni, credere in questa possibilità non è un’idea elitaria. E’ qualcosa che dobbiamo considerare seriamente