«L'intelligenza artificiale (o IA, dalle iniziali delle due parole, in italiano[1]) è una disciplina appartenente all'informatica che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana.»
Definizioni specifiche possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente ed utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale:
- Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
- Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive.
- Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
- Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.
L'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi poiché manifesta aspetti etici oltre che teorici e pratici.
Storia
[modifica | modifica wikitesto]Tradizione di ricerca
[modifica | modifica wikitesto]Molteplici furono i passi che portarono alla nascita di questa disciplina. Il primo, sia a livello di importanza che di ordine cronologico, è l’avvento dei calcolatori ed il continuo interesse rivolto ad essi. Già nel 1623, grazie a Willhelm Sickhart, si arrivò a creare macchine in grado di effettuare calcoli matematici con numeri fino a sei cifre, anche se non in maniera autonoma. Nel 1642 Blaise Pascal costruì una macchina in grado di fare operazioni utilizzando il riporto automatico, mentre nel 1674 Gottfried Wilhelm von Leibniz creò una macchina in grado di effettuare la somma, la differenza e la moltiplicazione in maniera ricorsiva. Tra il 1834 ed il 1837 Charles Babbage lavorò al modello di una macchina chiamata macchina analitica, le cui caratteristiche anticiparono in parte quelle dei moderni calcolatori. Nel ventesimo secolo l’attenzione sui computer ritornò ad accendersi: nel 1937, ad esempio, Claude Shannon, all’università di Yale, mostrò che l’algebra booleana e le operazioni binarie potessero rappresentare il cambiamento circuitale all’interno dei telefoni. Un ulteriore passo importante fu l’articolo di Alan Turing redatto nel 1936, On Computable Numbers, With An Application To The Entscheidungsproblem[2], che pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing, definizioni cardine per i calcolatori sino ai giorni nostri. In seguito, nel 1943 McCulloch e Pitts crearono ciò che viene ritenuto il primo lavoro inerente all’intelligenza artificiale[3]. Tale sistema impiega un modello di neuroni artificiali nel quale lo status di tali neuroni può essere “on” o “off,” con uno passaggio a “on” in presenza di stimoli causati da un numero sufficiente di neuroni circostanti. McCulloch e Pitts arrivarono quindi a mostrare, ad esempio, che qualsiasi funzione computabile può essere rappresentata da qualche rete di neuroni, e che tutti i connettivi logici (“and”, “or”, ...) possono essere implementati da una semplice struttura neurale. Sette anni più tardi, nel 1950, due studenti dell’università di Harvard, Marvin Minsky e Dean Edmonds, crearono quella viene riconosciuta come la prima rete neurale, conosciuta con il nome di SNARC.
La nascita effettiva della disciplina (1956)
[modifica | modifica wikitesto]Nel 1956, nel New Hampshire, al Dartmouth College, si tenne un convegno al quale presero parte alcune delle figure di spicco del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti: John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester. Su iniziativa di McCarthy, un team di dieci persone avrebbe dovuto creare in due mesi una macchina in grado di simulare ogni aspetto dell’apprendimento e dell’intelligenza umana. Ad aderire a tale iniziativa, furono alcuni ricercatori, tra cui anche Trenchard More di Princeton, Arthur Samuel di IBM, e Ray Solomonoff e Oliver Selfridge del MIT. Nello stesso convegno, un’altra iniziativa catalizzò l’attenzione oltre al progetto di McCarthy: il programma di Allen Newell e Herbert Simon. Questi due ricercatori, a differenza di McCarthy, avevano già un programma capace di qualche forma di ragionamento, conosciuto con il nome di Logic Theorist, o LP, in grado di dimostrare teoremi partendo dai principi della matematica. Sempre nello stesso convegno, McCarthy introdusse l’espressione intelligenza artificiale, che segnò, in maniera indelebile, la nascita effettiva di tale disciplina, conferendole una natura propria.
Prime grandi aspettative (1950-1965)
[modifica | modifica wikitesto]Il programma creato da Newell e Simon permise loro di progredire e creare un programma chiamato General Problem Solver, o GPS. A differenza del LP, il GPS fu ideato con lo scopo di imitare i processi di risoluzione dei problemi utilizzati dagli esseri umani. Nei ristretti casi nel quale il programma poteva operare, si notò che l’approccio con il quale il programma considerava gli obiettivi e le azioni era assimilabile ad uno umano. Negli stessi anni, presso l’IBM, Rochester con dei suoi colleghi cominciò a sviluppare altri programmi capaci di ragionamento. Nel 1959, Herbert Gelemter creò il Geometry Theorem Prover, un programma in grado di dimostrare teoremi di geometria complessi. L’anno precedente, presso il MIT, McCarthy diede un altro contributo al campo dell’intelligenza artificiale definendo quello che per trent’anni fu riconosciuto come il linguaggio di programmazione dominante per la realizzazione dei sistemi di intelligenza artificiale: il Lisp. Oltre a ciò, McCarthy scrisse un documento intitolato Programs with Common Sense[4], nel quale descrive un programma ideale, chiamato Advice Taker, che può essere visto come il primo sistema intelligente completo. A differenza del LP e del GSP, l’Advice Taker era progettato per trovare soluzioni a problemi di tipo diverso, ovvero non strettamente matematici. Minsky, durante il suo periodo al MIT, supervisionò la creazione di programmi per affrontare quelli che vengono chiamati micro mondi, ovvero problemi limitati e descritti da asserzioni che richiedevano l’utilizzo di ragionamento per essere risolti. Tra questi, il programma di James Slagle del 1963, SAINT, era in grado di risolvere problemi riguardo il calcolo integrale in forma chiusa tipici del primo anno del college.
Prime difficoltà (1966-1969)
[modifica | modifica wikitesto]Tra le varie aspirazioni da parte dei ricercatori vi era principalmente quella di creare macchine in grado di esibire capacità ragionamento simili a quelle umane. Ad esempio, Herbert Simon, nel 1957, stimò che nel giro di dieci anni ci sarebbero state macchine in grado di competere con i campioni di scacchi (previsione che si avvererà, ma dopo quarant’anni). Queste aspirazioni, però, dovettero scontrarsi con alcune difficoltà: prime fra tutte, l’assoluta mancanza di conoscenza semantica relativa ai domini trattati dalle macchine, in quanto la loro capacità di ragionamento si limitava ad una mera manipolazione sintattica. A causa di questa difficoltà, nel 1966 il governo degli Stati Uniti d’America interruppe i fondi per lo sviluppo delle macchine traduttrici. Un ulteriore problema fu l’impossibilità del trattare molti problemi che l’intelligenza artificiale si era proposta. Questo perché si riteneva che “scalare” le dimensioni di un problema fosse solo una questione di hardware e memoria. Questo tipo di ottimismo fu presto spento quando i ricercatori fallirono nel dimostrare teoremi a partire da più di una dozzina di assiomi. Si capì quindi che il fatto di disporre di un algoritmo che, a livello teorico, fosse in grado di trovare una soluzione a un problema non significava che un corrispondente programma fosse in grado di calcolarla effettivamente a livello pratico. Un terzo tipo di difficoltà furono le limitazioni alla base della logica, nel senso di ragionamento, dei calcolatori. Nel documento di Minsky e Papert, intitolato Perceptrons (1969), si mostrò che, nonostante un percettrone (una semplice forma di rete neurale) fosse in grado di apprendere qualsiasi funzione potesse rappresentare, un percettrone con due input non era in grado di rappresentare una funzione che riconoscesse quando i due input sono diversi.
Sistemi basati sulla conoscenza (1969-1979)
[modifica | modifica wikitesto]Le precedenti difficoltà portarono a definire gli approcci adottati dalle macchine come approcci deboli, necessitando quindi di una conoscenza maggiore inerente al campo di applicazione. Nel 1969, grazie a Ed Feigenbaum (studente di Herbert Simon), Bruce Buchanam e Joshua Lederberg, venne creato il programma DENDRAL. Tale programma era in grado, a partire dalle informazioni sulla massa molecolare ricavate da uno spettrometro, di ricostruire la struttura di una molecola. Questo programma fu quindi il primo dei sistemi basati su un uso intensivo della conoscenza, che arrivarono più tardi ad inglobare tutti i concetti teorizzati da McCarthy per l’Advice Taker. Successivamente, Feigenbaum cominciò insieme ad altri ricercatori di Stanford l’Heuristic Program Project (HPP), al fine di estendere gli scenari applicativi di questi sistemi, cominciando con il sistema MYCIN nell’ambito delle diagnosi delle infezioni sanguigne. Si cominciò quindi a teorizzare dei sistemi conosciuti come sistemi esperti, ovvero in grado di possedere una conoscenza esperta in un determinato scenario di applicazione.
Dall’ambiente accademico all’industria (1980-)
[modifica | modifica wikitesto]Il primo sistema di intelligenza artificiale utilizzato in ambito commerciale fu R1, utilizzato dalla Digital Equipment nel 1982. Lo scopo del programma era quello di aiutare a configurare gli ordini per nuovi computer. Nel 1986, fu in grado di far risparmiare alla compagnia 40 milioni di dollari all’anno. Anche la Dupont utilizzò sistemi simili, risparmiando circa dieci milioni di dollari all’anno. Negli anni '80 dello scorso secolo, quasi ogni grande azienda americana aveva un proprio sistema esperto in operazione e stava studiando sistemi più avanzati. Nel 1981 in Giappone venne annunciato il progetto Fifth Generation, un piano di dieci anni con l’intento di costruire sistemi intelligenti basati su Prolog. In risposta, gli Stati Uniti d’America crearono la Microelectronics and Computer Technology Corporation (MCC), come consorzio di ricerca al fine di garantire la competitività a livello nazionale. In Inghilterra, il rapporto Alvey recuperò i fondi tagliati dal rapporto Lighthill, che nel 1973 portò il governo britannico alla decisione di interrompere il supporto verso la ricerca nell'ambito dell'intelligenza artificiale. Questi progetti però non raggiunsero gli scopi previsti. L’industria dell’intelligenza artificiale raggiunse nel 1988 una cifra dell'ordine di miliardi di dollari, includendo centinaia di aziende che stavano creando sistemi esperti, robot e software e hardware specializzati in questi settori.
Il ritorno delle reti neurali (1986-)
[modifica | modifica wikitesto]A metà degli anni ottanta dello scorso secolo fu reinventato l’algoritmo di apprendimento per reti neurali chiamato back-propagation, inizialmente ideato nel 1969 da Bryson e Ho. L’algoritmo fu applicato a molti problemi relativi all’apprendimento, inerenti sia al lato dell’informatica sia a quello della psicologia. I cosiddetti modelli connessionisti per la realizzazione di sistemi intelligenti furono visti come alternative ai modelli simbolici ideati da Newell e Simon, da McCarthy e dai loro collaboratori. Tali modelli cercarono di dare risposta a quelle domande alle quali i precedenti modelli non erano riusciti, ma in parte fallirono anch’essi. Di conseguenza, i modelli basati sull’approccio simbolico e quelli con un approccio connessionista furono visti come complementari.
L’intelligenza artificiale al giorno d’oggi (1986-)
[modifica | modifica wikitesto]Al giorno d’oggi i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima dagli esponenti dell’intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, quali Deep Blue; altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l’uso di un conducente umano, quindi in maniera del tutto autonoma. Nell’ambito di scenari più quotidiani si pensi, invece, ai termostati per il riscaldamento e l’aria condizionata in grado di anticipare il cambio di temperatura, gestire i bisogni degli inquilini e di interagire con altri dispositivi.
Ricerca
[modifica | modifica wikitesto]Il problema complesso dello sviluppare sistemi che esibiscono comportamenti intelligenti è stato affrontato operando una scomposizione in sotto-problemi, ognuno con uno specifico ambito di ricerca. Ogni sotto-problema consiste nello studiare particolari abilità e proprietà che caratterizzano il sistema intelligente.
Relativamente all'ambito di applicazione di un determinato sistema intelligente questo presenterà soluzioni più o meno sofisticate per ogni sotto-problema.
Deduzione, ragionamento e problem solving
[modifica | modifica wikitesto]Inizialmente i ricercatori si concentrarono sullo sviluppo di algoritmi che imitassero fedelmente i ragionamenti impiegati dagli esseri umani per risolvere giochi o realizzare deduzioni logiche in modo da poterli integrare all'interno dei sistemi intelligenti. Tali algoritmi solitamente si basano su una rappresentazione simbolica dello stato del mondo e cercano sequenze di azioni che raggiungano uno stato desiderato. Evoluzioni di questi algoritmi vennero realizzati tenendo in considerazione aspetti più complessi come l'incertezza o l'incompletezza delle informazioni, includendo concetti provenienti dalla probabilità, dalla statistica e dall'economia.
Per difficoltà legate alla complessità intrinseca dei problemi in esame, gli algoritmi per la loro risoluzione possono a volte richiedere enormi risorse computazionali. L'ottimizzazione degli algoritmi ricopre una priorità assoluta all'interno della ricerca in questo ambito.
Rappresentazione della conoscenza
[modifica | modifica wikitesto]La rappresentazione della conoscenza e l'ingegneria della conoscenza costituiscono contributi centrali per la ricerca nell'ambito dell'intelligenza artificiale.
In particolare, queste discipline si focalizzano su quale tipo di conoscenza è necessario o opportuno integrare all'interno di un sistema intelligente, e sul come rappresentare i diversi tipi di informazione. Fra le cose che un sistema intelligente ha la necessità di rappresentare troviamo frequentemente: oggetti, proprietà, categorie e relazioni fra oggetti, situazioni, eventi, stati, tempo, cause ed effetti, conoscenza posseduta da altri. La rappresentazione e l'ingegneria della conoscenza vengono spesso associate alla disciplina filosofica dell'ontologia.
La conoscenza e la sua rappresentazione sono cruciali soprattutto per quella categoria di sistemi intelligenti che basano il loro comportamento su una estensiva rappresentazione esplicita della conoscenza dell'ambiente in cui operano.
Pianificazione
[modifica | modifica wikitesto]Per permettere ai sistemi intelligenti di prevedere e rappresentare stati del mondo futuri e per prendere decisioni al fine di raggiungere tali stati massimizzando il valore atteso delle azioni, essi devono essere in grado di definire degli obiettivi e di perseguirli.
Nei problemi classici di pianificazione, un sistema intelligente può assumere di essere l'unica entità ad operare nell'ambiente e può essere assolutamente sicuro delle conseguenze di ogni azione compiuta. Se non è l'unico attore nell'ambiente o se l'ambiente non è deterministico un sistema intelligente deve costantemente monitorare il risultato delle proprie azioni e aggiornare le predizioni future ed i propri piani.
Apprendimento
[modifica | modifica wikitesto]L'apprendimento automatico è la disciplina che studia algoritmi capaci di migliorare automaticamente le proprie performance attraverso l'esperienza. E' stato un ambito di ricerca cruciale all'interno dell'intelligenza artificiale sin dalla sua nascita.
L'apprendimento automatico è particolarmente importante per lo sviluppo di sistemi intelligenti principalmente per tre motivi:
- Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutte le possibili situazioni in cui il sistema stesso si può trovare ad operare, eccetto per contesti estremamente semplici.
- Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutti i possibili cambiamenti dell'ambiente nel tempo.
- Un'ampia categoria di problemi può essere risolta più efficacemente ricorrendo a soluzioni che coinvolgono l'apprendimento automatico. Questa categoria di problemi include, ad esempio, il gioco degli scacchi ed il riconoscimento degli oggetti.
Elaborazione del linguaggio naturale
[modifica | modifica wikitesto]La capacità di elaborare il linguaggio naturale fornisce ai sistemi intelligenti la possibilità di leggere e capire il linguaggio utilizzato dagli esseri umani. Questa capacità si dimostra essenziale in tutte le applicazioni dell'intelligenza artificiale che richiedano la ricerca di informazioni, la risposta a domande, la traduzione o l'analisi di testi.
La difficoltà principale di questo processo è l'intrinseca ambiguità che caratterizza i linguaggi naturali, per questo motivo le soluzioni richiedono un'estesa conoscenza del mondo ed una notevole abilità nel manipolarlo.
Movimento e manipolazione
[modifica | modifica wikitesto]La robotica è una disciplina strettamente correlata con l'intelligenza artificiale.
I robot possono essere considerati sistemi intelligenti per tutti quei compiti che richiedono capacità di livello cognitivo per la manipolazione o lo spostamento di oggetti e per la locomozione, con i sotto-problemi della localizzazione (determinare la propria posizione e quella di altre entità nello spazio), della costruzione di mappe (apprendere le caratteristiche dello spazio circostante), e della pianificazione ed esecuzione dei movimenti.
Metodi
[modifica | modifica wikitesto]Agente intelligente
[modifica | modifica wikitesto]Il concetto di agente intelligente (o agente razionale) è centrale in molti degli approcci più comuni all'intelligenza artificiale.
Un agente è un'entità in grado di percepire l'ambiente attraverso l'utilizzo di sensori ed in grado di agire sull'ambiente attraverso l'utilizzo di attuatori. Ogni agente è quindi associato ad una sequenza di percezioni, intesa come la cronologia completa di tutti i rilevamenti effettuati da ciascun sensore, e ad una funzione agente, che specifica il comportamento dell'agente associando ad ogni sequenza di percezioni un'azione da compiere.
Definita misura della performance una funzione che associa ad ogni stato (o sequenza di stati) dell'ambiente un valore di utilità, un agente è intelligente (o razionale) se per ogni possibile sequenza di percezioni la sua funzione agente lo porta a compiere sempre l'azione che massimizza il valore atteso della misura della performance, data la sua conoscenza definita dalla sequenza di percezioni stessa e dalla conoscenza integrata nell'agente.
Esistono metodologie differenti per l'implementazione concreta della funzione agente, ciascuna più o meno adatta al tipo di ambiente in cui è posto l'agente.
Agenti reattivi semplici
[modifica | modifica wikitesto]Questa categoria di agenti seleziona l'azione da compiere sulla base della percezione corrente, ignorando completamente la cronologia delle percezioni.
Agenti basati su modello
[modifica | modifica wikitesto]Questa categoria di agenti è caratterizzata dal mantenere uno stato interno che dipende dalla cronologia delle percezioni e contemporaneamente riflette alcuni degli aspetti dell'ambiente non osservati.
L'aggiornamento dello stato richiede due tipi di conoscenza:
- dei modelli che descrivono l'evoluzione dell'ambiente indipendentemente dalle azioni compiute dall'agente,
- dei modelli che descrivono l'effetto delle azioni dell'agente sull'ambiente.
Agenti basati su obiettivi
[modifica | modifica wikitesto]In molte applicazioni, tenere traccia dello stato attuale dell'ambiente non è sufficiente per determinare le azioni da compiere, ma l'agente necessita di informazioni che rappresentano situazioni desiderabili, che prendono il nome di obiettivi, o goal. Questo tipo di agenti intelligenti è quello in cui maggiormente vengono impiegati i concetti di pianificazione e ricerca per problem solving.
Agenti basati su utilità
[modifica | modifica wikitesto]Il concetto di goal da solo non è sufficiente per ottenere dei comportamenti qualitativamente elevati in molte applicazioni, poiché l'informazione contenuta può essere utilizzata esclusivamente per distinguere gli stati desiderabili dagli stati non desiderabili. Attraverso il concetto di utilità è invece possibile caratterizzare in maniera precisa ogni stato, determinando quanto ogni stato è utile al fine del buon comportamento dell’agente.
Applicazioni
[modifica | modifica wikitesto]L'intelligenza artificiale è stata impiegata in un'ampia varietà di campi ed applicazioni come la medicina, il mercato azionario, la robotica, la legge, la ricerca scientifica e perfino i giocattoli. In alcune applicazioni, l'intelligenza artificiale si è radicata a tal punto all'interno della società o dell'industria da non essere più percepita come intelligenza artificiale.[5]
Anche nel campo dell'informatica stessa, molte soluzioni sviluppate originariamente per rispondere a problemi o necessità dell'intelligenza artificiale sono state adottate da altre discipline e non vengono più considerate parte dell'intelligenza artificiale. In particolare: time-sharing, interprete (informatica), interfaccia grafica, mouse, la struttura dati lista concatenata, la programmazione funzionale, la programmazione simbolica, la programmazione dinamica e la programmazione orientata agli oggetti.
Il primo utilizzo dell'intelligenza artificiale nelle banche è datato 1987 quando la Security Pacific National Bank negli USA organizzò una task force per la prevenzione delle frodi legate all'utilizzo non autorizzato delle carte di credito. Attualmente, e non solo in ambito bancario, le reti neurali vengono utilizzate per identificare fenomeni non riconducibili a un comportamento nominale e che richiedono un intervento umano.
Le reti neurali sono anche largamente impiegate per supportare le diagnosi mediche, e molte altre applicazioni sono attualmente in sviluppo, come ad esempio:
- Interpretazione delle immagini mediche.
- Analisi del suono del cuore[6].
- Diagnosi del cancro[7].
- Creazione di medicine.
- Robot da accompagnamento per gli anziani[8].
L'intelligenza artificiale è largamente utilizzata per la realizzazione di di assistenti automatici online principalmente dalle compagnie telefoniche e di telecomunicazione, con l'intento di ridurre i costi di assunzione e formazione del personale.
Anche nell'ambito dei trasporti l'utilizzo dell'intelligenza artificiale sta aumentando rapidamente[9]. Applicazioni della logica fuzzy sono state impegiate nella realizzazione di cambi di velocità per le automobili. Le automobili a guida autonoma sviluppate da Google e Tesla fanno largamente uso di tecniche di intelligenza artificiale[10][11].
Dibattito filosofico
[modifica | modifica wikitesto]Esistono due correnti filosofiche diverse che cercano di definire una macchina intelligente come prodotto della:
- Intelligenza artificiale debole (weak AI): alla base di questo pensiero sta la convinzione che una macchina possa essere programmata con delle regole ben definite, in modo da comportarsi in modo intelligente.
- Intelligenza artificiale forte (strong AI): alla base di questo pensiero sta il fatto che una macchina agisca in modo intelligente implica che essa sia anche cosciente di come realmente si comporta.
Rispondere alla domanda “può una macchina pensare?” da un punto di vista filosofico è impegnativo a causa di argomentazioni a favore e contro affermazioni puramente teoriche.
Nel 1950 Alan Turing, nel suo articolo “Computing Machinery and Intelligence”[12], porta il dibattito filosofico ad un livello più pragmatico, dando una definizione operativa di intelligenza basata su un test comportamentale inventato da lui stesso, chiamato "The imitation Game" e ricordato anche come "Test di Turing".
Il test si basa sull’esistenza di tre stanze allineate in cui nella prima c’è un uomo e nell’ultima una donna; in quella centrale invece risiede l’interrogante. L’uomo e la donna possono comunicare messaggi di testo solamente con l’interrogatore scrivendo tramite una tastiera e leggendo tramite uno schermo. L’obiettivo della donna è quello di farsi identificare come donna, mentre quello dell’uomo è quello di trarre in inganno l’interrogante, facendogli credere di essere una donna. Il gioco è ripetuto una seconda volta, scambiando l’uomo con una macchina.
La macchina è definita come intelligente se la frequenza con cui l’interrogante individua correttamente l’uomo e la donna è almeno la stessa con cui individua correttamente la macchina e la donna.
Una macchina può quindi ritenersi intelligente se e solo se si comporta come un essere umano, quindi solo se riesce a ingannare l’interrogante come farebbe un uomo.
In seguito, Searle descrive nell'articolo "Minds, Brains and Programs"[13] un esperimento mentale contro l’intelligenza artificiale forte, chiamato “la stanza cinese”. Egli vuole dimostrare che una macchina in grado di superare il test di Turing, non è capace di capire cosa succede al suo interno; non è, quindi, cosciente di come agisce. L'esperimento consiste in una persona che conosce solo l’inglese, munita di un libro di grammatica scritto in inglese e vari fogli, alcuni bianchi e alcuni con dei simboli. La persona è dentro alla stanza con una piccola finestra verso l’esterno. Attraverso la finestra appaiono simboli indecifrabili. La persona trova delle corrispondenze con i simboli del libro delle regole e segue le istruzioni. Le istruzioni possono includere scrivere simboli su un nuovo foglio, trovare nuovi simboli, ecc. Infine, questi fogli scritti verranno passati al mondo esterno, attraverso la finestra. Per un osservatore esterno, la macchina sta ricevendo simboli cinesi, li sta elaborando e sta rispondendo con altri simboli, esattamente come farebbe un uomo cosciente. In questo senso, secondo il test di Turing dovrebbe essere ritenuta intelligente. Il problema, che sottolinea Searle, è che in realtà al suo interno, niente della macchina conosce effettivamente il cinese, per cui non è cosciente di quello che sta effettivamente facendo. Secondo Searle essa sta semplicemente seguendo un insieme di regole descritte nel libro. Il dibattito rimane però aperto in quanto Searle non riesce a dimostrare pragmaticamente la tua tesi, dovendo far cosi ricorso alla intuizione.
Fantascienza
[modifica | modifica wikitesto]Nelle opere di fantascienza l'intelligenza artificiale è un tema ricorrente, come semplice elemento narrativo o come argomento centrale della storia. Generalmente è presentata sotto forma di computer avanzati, robot o androidi. Il tema è spesso legato a quello classico della ribellione della macchina, in cui un computer (nella maggior parte dei casi senziente) si rivolta contro gli esseri umani che l'avevano costruito.
Tra i computer senzienti rientrano ad esempio Multivac, presente in alcuni racconti di Isaac Asimov, paragonabile ai moderni sistemi di grid computing, e HAL 9000 del film 2001: Odissea nello spazio (1968) di Stanley Kubrick. Invece Pensiero Profondo, nella Guida galattica per autostoppisti, è un'intelligenza artificiale capace di fornire la risposta alla "domanda fondamentale sulla vita, l'universo e tutto quanto". Nella serie cinematografica di Terminator, il supercomputer Skynet è presentato come un sofisticatissimo insieme di network che, costruiti dal Dipartimento della difesa degli Stati Uniti verso la fine della guerra fredda, finiranno per divenire un insieme autocosciente ed intraprendere, al comando di un esercito di robot e cyborg, una spietata guerra per lo sterminio della specie umana. Nel film Matrix le macchine intelligenti tengono in schiavitù miliardi di esseri umani, per trarre da essi energia elettrica.
Oltre a quello del cinema e della televisione, anche il mondo dei cartoni animati e dei videogiochi ha sfruttato il tema dell'intelligenza artificiale. Un esempio è Cortana, l'intelligenza artificiale presente nella saga di Halo (nome affidato da Microsoft anche alla propria assistente virtuale: Cortana su Windows 10).
I robot o androidi senzienti sono anch'essi un classico. Nell'ipotesi che le macchine possano man mano diventare più simili agli esseri umani, gli autori hanno ipotizzato macchine dalla enorme capacità di calcolo e dotate di personalità. I "robot positronici" come il robot R. Daneel Olivaw del romanzo Fondazione, Marvin l'androide paranoico, R2-D2 e C-3PO di Guerre stellari, Data di Star Trek: The Next Generation e Chappie di Humandroid sono solo alcuni esempi tra i più noti. Queste macchine si distinguono dai semplici robot per una personalità spiccata e "umanizzata", resa possibile da un'intelligenza artificiale estremamente evoluta.
Negli ultimi anni (dal 2005), parallelamente alla ricerca, anche nel cinema la trattazione dell’intelligenza artificiale è orientata verso l’evoluzione autonoma di macchine intelligenti. Nel film Transcendence il protagonista subisce una grave incidente che lo porta alla morte e per salvare il suo “essere pensante” viene collegato ad una macchina che ne monitora le connessioni neurali. Nata come riproduzione esatta della mente umana, ben presto la macchina riesce ad riprogrammare parte del proprio codice, eliminando la parte emotiva caratteristica della mente umana, in favore di una spiccata propensione verso il controllo di massa del mondo.
Nel film Ex Machina il protagonista viene coinvolto in una serie di test, rivisitazioni del Test di Turing, su un'intelligenza artificiale con lo scopo di determinare se l'umanoide abbia piena coscienza di sé.
In modo simile, nella serie tv Westworld i protagonisti cercano di ricreare l’antico West creando degli Host dalle sembianze umane programmate in modo da seguire delle storyline predefinite. Durante la storia, però, a causa di alcuni malfunzionamenti fisici (hardware) le macchine riescono ad accedere a ricordi non debitamente cancellati; imparando dai propri errori essi arrivano comprendere la loro natura e a ribellarsi al controllo dell’uomo.
Nella serie tv Person of Interest un avanzatissimo sistema intelligente detto "la macchina" mediante visione artificiale e elaborazione del linguaggio naturale, è in grado di identificare preventivamente crimini violenti in modo da sventarli.
Note
[modifica | modifica wikitesto]- ^ L'ascronimo invertito, AI, in italiano, sta per "agenti intelligenti", mentre corrispondenti inglesi sono a loro volta invertiti: l'intelligenza artificiale si indica con AI, da Artificial Intelligence, mentre gli agenti intelligenti si indicano con IA, da Intelligent Agents
- ^ https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf
- ^ http://www.minicomplexity.org/pubs/1943-mcculloch-pitts-bmb.pdf
- ^ https://www.cs.cornell.edu/selman/cs672/readings/mccarthy-upd.pdf
- ^ Nick Bostrom
- ^ Heart sound analysis for symptom detection and computer-aided diagnosis, in Simulation Modelling Practice and Theory, vol. 12, n. 2, 2004, p. 129, DOI:10.1016/j.simpat.2003.11.005.
- ^ "IBM Watson for Oncology", su ibm.com.
- ^ A. Yorita, Cognitive Development in Partner Robots for Information Support to Elderly People, in IEEE Transactions on Autonomous Mental Development, vol. 3, n. 1, 1º marzo 2011, pp. 64–73, DOI:10.1109/TAMD.2011.2105868.
- ^ Transportation | One Hundred Year Study on Artificial Intelligence (AI100), su ai100.stanford.edu.
- ^ Google Self-Driving Car Project, su google.com.
- ^ Tesla Explains How A.I. Is Making Its Self-Driving Cars Smarter, su inc.com.
- ^ (EN) Alan Mathison Turing, Computing machinery and intelligence, in Mind. URL consultato l'11/11/2016.
- ^ http://cogprints.org/7150/1/10.1.1.83.5248.pdf
Bibliografia
[modifica | modifica wikitesto]- Somalvico Marco, Amigoni Francesco e Schiaffonati Viola, Intelligenza Artificiale, in Petruccioli Sandro (a cura di), Storia della scienza vol. IX, Istituto della Enciclopedia Italiana, 2003, pp. 615-624.
- Marcus Hutter, Universal Artificial Intelligence, Springer, 2005, ISBN 978-3-540-22139-5.
- George Luger e William Stubblefield, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, quinta edizione, Benjamin/Cummings, 2004, ISBN 0-8053-4780-1.
- Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, seconda edizione, Pearson Education Limited, 2003, ISBN 978-0137903955.
- Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, terza edizione, Pearson Education Limited, 2009, ISBN 978-0136042594.
- Nils J. Nilsson, The Quest For Artificial Intelligence, A History of Ideas And achievements, Web Version, Stanford University, 2010.
Voci correlate
[modifica | modifica wikitesto]- Agente intelligente
- Intelligenza artificiale forte
- Watson (intelligenza artificiale)
- Google DeepMind
- Alan Turing
Altri progetti
[modifica | modifica wikitesto]