Charly's blog

Singularity, fAIth e AItheist: come il Transumanesimo sta diventando sempre piu un atto di fede (seconda parte)

Se ci sono molti transumanisti che aspettano pieni di fede e speranza, due virtù teologali, robotjesus per portarli nel paradiso delle AI, non manca il profeta di sventura che minaccia la robotapocalisse [1]:

Da tempo Hawking ripete che dobbiamo guardarci dai progressi dell’intelligenza artificiale, perché potremmo presto scoprire che i robot sono meno amichevoli di come sembrano. L’astrofisico, che ha occupato a Cambridge la cattedra di Isaac Newton, si è detto preoccupato dalla crescita delle ricerche sulle armi intelligenti, mentre «finanziare progetti per effettuare screening medici più efficaci sui malati non sembra una priorità altrettanto alta». I benefici dell’intelligenza artificiale sono inferiori al danno potenziale, ha detto lo scienziato, perché «quando le macchine supereranno la fase critica e cominceranno a essere capaci di evolversi da sole, non potremo prevedere se i loro obiettivi saranno uguali ai nostri».  

Che dire al riguardo? Che Hawking ha ragione e una AI superintelligente e autocosciente potrebbe decidere di sbarazzarsi degli esseri umani. Ma si deve anche far notare che pure un Godzilla emergente dalle acque sarebbe un grosso problema da gestire. Vi sembra una possibile minaccia o è soltanto fantascienza? E qui casca la super intelligente AI.

 

—- AI: generale, forte, debole —-

Se c’è una cosa che inquina il dibattito sull’intelligenza artificiale è l’assoluta mancanza di precisione dei termini usati. Solo rimanendo nel settore delle AI, ad esempio, si registrano tre concezioni fra loro assai differenti [2]:

  • intelligenza artificiale generale: «Riguarda lo studio e la realizzazione di una IA capace di replicare l’intelligenza umana. Molte associazioni ed enti privati lavorano in questo campo della ricerca esplorando le possibilità di creare una macchina capace di avere coscienza di sé».
  • intelligenza artificiale debole: «Ci si riferisce ad applicazioni pratiche dove è richiesta la capacità da parte della macchina di comprendere e risolvere specifici problemi, come ad esempio il gioco degli scacchi oppure la capacità di leggere una radiografia ed emettere una diagnosi».
  • intelligenza artificiale forte: «Riguarda lo studio della creazione di una Intelligenza che non sia la semplice replica della mente umana, ma qualcosa di originale capace di pensare ed elaborare problemi mai affrontati prima. Sempre più ricercatori che lavorano nel campo della IA non vedono alcun impedimento alla creazione di una IA Forte, ma non c’è una visione comune sul risultato e nemmeno quando questo accadrà. La strada attualmente percorsa è quella di capire ed emulare il cervello umano e implementarne le sue funzionalità. Le reti neurali artificiali basate su sistemi di apprendimento permettono a una macchina di decidere in base a input senza che gli output o le regole siano rese esplicite».

L’intelligenza artificiale debole è facile da individuare, basti pensare al programmino di scacchi che si può installare sul cellulare o a un videogioco. Ma se consideriamo le aspettative dei transumanisti con l’avvento di AIdio, non si può che concludere che solo l’intelligenza artificiale generale risponde alle aspettative. Ma vediamo che cosa ne pensano al riguardo gli addetti ai lavori [3]:

  • The most common misconception is that what AI people are working towards is a conscious machine, that until you have a conscious machine there’s nothing to worry about. It’s really a red herring. To my knowledge, nobody, no one who is publishing papers in the main field of AI, is even working on consciousness. I think there are some neuroscientists who are trying to understand it, but I’m not aware that they’ve made any progress. As far as AI people, nobody is trying to build a conscious machine, because no one has a clue how to do it, at all. We have less clue about how to do that than we have about build a faster-than-light spaceship.
  • Computers have no wishes and desires. They don’t wake up in the morning and want to do things. Still today, they do what we tell them to do. The Jeopardy-playing IBM supercomputer Watson has never woken up and said, “Ah, I’m bored of playing Jeopardy! I want to play another game today.” And it will never wake up and think, “I want to play another game.” That’s just not in its code, and that’s not in the way that we write programs today.
  • One big misconception about AI is due to I.J. Good — the notion of an “intelligence explosion.” Good argued that when computers “exceed” human intelligence, they will then take on the task of making themselves more intelligent and this will rapidly lead them to becoming vastly more intelligent than humans. I believe that there are informational and computational limits to how intelligent any system, human or robotic, can become. Computers could certainly become smarter than people they already are, along many dimensions. But they will not become omniscient!
  • You hear that about almost any AI program out there. It can be, even in my artificial-intelligence class, an objection or an issue that a lot of students raise that a chess program really isn’t more intelligent than the person who wrote the program because the programmer has to program the computer. That’s a misconception. Chess is actually a good example — the programs are generally written by people who are fairly bad chess players. As a programmer, you can write a program that can do a task much better than you can, and the machine might even learn how to do the task better over time.

Allo stato attuale, pertanto, nessuno sta costruendo una AI generale semplicemente perché nessuno sa come fare o da dove partire. E se si parte dall’idea di copiare l’unica forma di intelligenza a noi nota, la mente umana, ci scontriamo con un duplice ostacolo. Non solo non sappiamo come il cervello funzioni, ma persino la metafora della mente come software non regge più [4]:

Meanwhile, vast sums of money are being raised for brain research, based in some cases on faulty ideas and promises that cannot be kept. The most blatant instance of neuroscience gone awry, documented recently in a report in Scientific American, concerns the $1.3 billion Human Brain Project launched by the European Union in 2013. Convinced by the charismatic Henry Markram that he could create a simulation of the entire human brain on a supercomputer by the year 2023, and that such a model would revolutionise the treatment of Alzheimer’s disease and other disorders, EU officials funded his project with virtually no restrictions. Less than two years into it, the project turned into a ‘brain wreck’, and Markram was asked to step down. We are organisms, not computers. Get over it. Let’s get on with the business of trying to understand ourselves, but without being encumbered by unnecessary intellectual baggage. The IP metaphor has had a half-century run, producing few, if any, insights along the way. The time has come to hit the DELETE key.

Anche dopo aver capito come la mente umana funzioni non è assolutamente detto che si possa replicarne il funzionamento in un contesto informatico, quale che sia la sua natura, con tutti i relativi elementi che associamo all’intelligenza: immaginazione, creatività, analisi, sintesi, emozioni e, soprattutto, autocoscienza.

E qual è la risposta degli AItheist? Questa: «The second idea I’m going to pick out from The Singularity is Kurzweil’s prediction that by 2025 personal computers (I think costing less than $1,000 in today’s money) will have the power of the human brain» [5]. Ma la potenza di un pc non è altro che il numero delle operazioni effettuabili in un determinato lasso di tempo. Anche la PS4 è più potente della prima PS, ma non è intelligente in nessun caso visto che è solo una macchina che si limita a fare quello per cui è stata programmata. Avere un pc potente come un cervello umano non vuol dire nulla se non si conosce come il cervello umano funzioni a meno che non si sostenga che sia una qualità magicamente emergente aggiungendo un poco di RAM. Con una CPU hai un tostapane, con CPU + 1 hai robotjesus.

Al netto delle fantasie escatologiche degli AItheist, capite perché nessuno sta lavorando alla AI generale? Perché non si sa neppure da dove iniziare!

 

—- L’era delle macchine stupide —-

Detto en passant se le cose stanno così, allora, anche il mind uploading deve essere depennato dalla lista visto che la mente umana non pare essere né funzionare come un software. E senza citare altre problematiche come i limiti fisici alla miniaturizzazione dei sistemi informatici o ai problemi energetici per alimentare le super CPU ci siamo già giocati la singolarità tecnologica e il mind uploading (per ora).

Si badi bene, tuttavia, che non sostengo che la cosa sia categoricamente impossibile. Al giorno d’oggi nessuno sa come procedere in questa direzione ma nulla toglie che un domani una nuova fisica apra la strada a sorprendenti rivoluzioni informatiche o che, alla fine, la mente umana funzioni davvero come un software. Di fatto, ahinoi, non lo sappiamo e può succedere così come può non succedere anche se, viste le conoscenze attuali, la seconda eventualità sembra più probabile. Ma sostenere con granitica certezza il contrario con tanto di tabelle temporali non è un atto scientifico, è solo un atto di fede.

Ma se di AI super intelligenti non si tratta, che sta succedendo allora? Che il diffondersi di pc più potenti, il perferzionarsi degli algoritmi e l’utilizzo delle reti neurali artificiali sta portando una maggiore diffusione delle AI sia in ambito domestico sia in ambito lavorativo. Ma, ancora una volta, ripetiamo l’ovvio: quale che sia il software o la rete neurale non c’è traccia di intelligenza umanamente intesa, niente intelligenza artificiale generale. La questione è se da quella debole già in uso da decenni si sta passando a quella forte ma se si considerano le idee in discussione tenderei a scartare la cosa:

  • mezzi che si guidano da soli;
  • strumenti di diagnosi automatici;
  • assistenti personali;
  • software di traduzione;

E scarto i semplici robot industriali che si limitano a fare le stesse cose per quanto possano essere sofisticati o il programmino che ti cerca le connessioni dei voli. Tornando ai software di nuova generazione, si può notare una maggiore autonomia sia nelle scelte sia nella capacità di risposta agli stimoli esterni come nel caso delle macchine che si guidano da sole. Ma questo discorso non vale in tutti i casi: un software di diagnosi può semplicemente valutare variabili legate alla salute utilizzando un database con tutte le conoscenze mediche in nostro possesso come guida di base e da lì procedere con ipotesi e trattamenti medici. All’inizio saranno uno strumento a disposizione dei medici ma con il passare degli anni sarà più logico usare una macchina che spendere centinaia di migliaia di euro nelle formazione e nel mantenimento di un medico che si limita a diagnosticare, per lo più, influenze e stiramenti muscolari.

Una delle abilità che più riscuote pubblicità nelle nuove AI è quella di automigliorarsi. Ma, attenzione, si parla di miglioramento dell’output non di mistiche evoluzioni alla Ultron dell’ultimo film della Marvel. Una macchina che impara non è altro che una macchina che si limita a fare meglio quello per la quale era stata progettata senza però avere il minimo discernimento sulla propria funzione e/o la propria esistenza.

E un ulteriore limite lo troviamo nel deep learning [6]:

At the recent AI By The Bay conference, Francois Chollet emphasized that deep learning is simply more powerful pattern recognition than previous statistical and machine learning methods. “The most important problem for AI today is abstraction and reasoning,” explains Chollet, an AI researcher at Google and famed inventor of widely used deep learning library Keras. “Current supervised perception and reinforcement learning algorithms require lots of data, are terrible at planning, and are only doing straightforward pattern recognition.”

By contrast, humans “learn from very few examples, can do very long-term planning, and are capable of forming abstract models of a situation and [manipulating] these models to achieve extreme generalization.”

Even simple human behaviors are laborious to teach to a deep learning algorithm. Let’s examine a situation such as avoiding being hit by a car as you walk down the road. If you go the supervised learning route, you’d need huge data sets of car situations with clearly labeled actions to take, such as “stop” or “move.” Then you’d need to train a neural network to learn the mapping between the situation and the appropriate action.

Con l’ovvia conclusione che «You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet». Ma ancora una volta si deve ricordare che il futuro è pieno di incognite e non si può escludere che nuove tecniche di apprendimento possano superare i limiti fin qui evidenziati. Ma senza tema di smentita posso scrivere che quanto strombazzato dai media non corrisponde a quanto vedremo nei prossimi anni visto che a latitare non saranno solo le AI generali, ma pure quelle forti. Insomma, #ciaone Skynet.

Ma su un punto Hawking aveva ragione e corriamo non pochi pericoli per mano delle AI. Ma non perché sono troppo intelligenti, bensì perché ci avviamo verso l’epoca della stupidità artificiale controllata. Ma di questo parleremo poi con particolare riferimento al mondo del lavoro.

 

[… continua]

 

Approfondimento:

– AI? https://aeon.co/essays/true-ai-is-both-logically-possible-and-utterly-implausible

– Lo stato dell’arte: http://disf.org/intelligenza-artificiale.

– Watson, how it works: https://www.aaai.org/Magazine/Watson/watson.php.

– AI is a myth? https://ieet.org/index.php/IEET2/more/searle20141130.

———————————————————————————————-

[1] Cfr. http://www.lastampa.it/2016/07/01/cultura/hawking-profeta-inascoltato-i-robot-domineranno-il-mondo-VXLEE1nSURI4yIcqcWqnBL/pagina.html.

[2] Cfr. http://www.costozero.it/intelligenza-artificiale-generale-debole-e-forte/.

[3] Cfr. http://www.businessinsider.com/myths-misconceptions-about-artificial-intelligence-2015-9.

[4] Cfr. https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer.

[5] Cfr. http://www.theequitykicker.com/2010/08/17/kurzweil-predicts-personal-computers-with-the-power-of-the-human-brain-by-2025/.

[6] Cfr. https://venturebeat.com/2017/04/02/understanding-the-limits-of-deep-learning/.

Annunci

2 commenti su “Singularity, fAIth e AItheist: come il Transumanesimo sta diventando sempre piu un atto di fede (seconda parte)

  1. Costozero (@Costozeroit)
    26 settembre 2017

    Grazie per il riferimento in bibliografia

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

Informazione

Questa voce è stata pubblicata il 20 settembre 2017 da in scienza con tag , , .
%d blogger hanno fatto clic su Mi Piace per questo: