Indice
-
Inizio
-
1 Definizione
-
2 Storia
-
2.1 Tradizione di ricerca
-
2.2 La nascita effettiva della disciplina (1956)
-
2.3 Prime grandi aspettative (1950-1965)
-
2.4 Prime difficoltà (1966-1969)
-
2.5 Sistemi basati sulla conoscenza (1969-1979)
-
2.6 Dall'ambiente accademico all'industria (1980-1985)
-
2.7 Il ritorno delle reti neurali (1986-)
-
2.8 L'intelligenza artificiale moderna (1986-)
-
2.9 Utilizzo di Python
-
2.10 Principi di Asilomar
-
-
3 Ricerca
-
4 Metodi
-
5 Applicazioni
-
6 Il mercato dell'intelligenza artificiale
-
7 AI for Good
-
8 Critiche e controversie
-
9 Regolamentazione
-
10 Dibattito filosofico
-
11 Fantascienza
-
12 Note
-
13 Bibliografia
-
14 Voci correlate
-
15 Altri progetti
-
16 Collegamenti esterni
Intelligenza artificiale
L'intelligenza artificiale (in sigla italiana: IA[1][2] o in inglese AI, dall'acronimo di Artificial Intelligence), nel suo significato più ampio, è la capacità o il tentativo di un sistema artificiale (tipicamente un sistema informatico) di simulare l'intelligenza umana attraverso l'ottimizzazione di funzioni matematiche.
L'etica dell'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi che manifesta numerosi aspetti sia teorici sia pratici.[3] Stephen Hawking nel 2014 ha messo in guardia riguardo ai pericoli dell'intelligenza artificiale, considerandola una minaccia per la sopravvivenza dell'umanità.[4]
Definizione
[modifica | modifica wikitesto]La norma ISO/IEC 42001:2023 Information technology - Artificial intelligence Management System (AIMS) definisce l'intelligenza artificiale come la capacità di un sistema[5] di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività.
Storia
[modifica | modifica wikitesto]Tradizione di ricerca
[modifica | modifica wikitesto]Molteplici furono i passi che portarono alla nascita di questa disciplina. Il primo, sia a livello di importanza sia di ordine cronologico, è l'avvento dei calcolatori e il continuo interesse rivolto a essi. Già nel 1623, grazie a Wilhelm Schickard, si arrivò a creare macchine in grado di effettuare calcoli matematici con numeri fino a sei cifre, anche se non in maniera autonoma. Nel 1642 Blaise Pascal costruì una macchina in grado di fare operazioni utilizzando il riporto automatico, mentre nel 1674 Gottfried Wilhelm von Leibniz creò una macchina in grado di effettuare la somma, la differenza e la moltiplicazione in maniera ricorsiva. Tra il 1834 e il 1837 Charles Babbage lavorò al modello di una macchina chiamata macchina analitica, le cui caratteristiche anticiparono in parte quelle dei moderni calcolatori. Nel ventesimo secolo l'attenzione sui computer ritornò ad accendersi: nel 1937, ad esempio, Claude Shannon, all'università di Yale, mostrò come l'algebra booleana e le operazioni binarie potessero rappresentare il cambiamento circuitale e l'inizio dell'innovazione digitale nelle reti di telecomunicazione.
Un ulteriore passo importante fu l'articolo di Alan Turing redatto nel 1936, On Computable Numbers, With An Application To The Entscheidungsproblem[6], che pone le basi per concetti quali calcolabilità, computabilità, macchina di Turing, definizioni cardine per i calcolatori sino ai giorni nostri. In seguito, nel 1943 McCulloch e Pitts crearono ciò che viene ritenuto il primo lavoro inerente all'intelligenza artificiale[7]. Tale sistema impiega un modello di neuroni artificiali nel quale lo stato di tali neuroni può essere “acceso” o “spento,” con un passaggio ad “acceso” in presenza di stimoli causati da un numero sufficiente di neuroni circostanti.
McCulloch e Pitts arrivarono quindi a mostrare, ad esempio, che qualsiasi funzione computabile può essere rappresentata da qualche rete di neuroni, e che tutti i connettivi logici (“e”, “o”, ...) possono essere implementati da una semplice struttura neurale. Sette anni più tardi, nel 1950, due studenti dell'università di Harvard, Marvin Minsky e Dean Edmonds, crearono quella che viene riconosciuta come la prima rete neurale artificiale, conosciuta con il nome di SNARC.
La nascita effettiva della disciplina (1956)
[modifica | modifica wikitesto]Nel 1956, nel New Hampshire, al Dartmouth College, si tenne un convegno al quale presero parte alcune delle figure di spicco del nascente campo della computazione dedicata allo sviluppo di sistemi intelligenti: John McCarthy, Marvin Minsky, Claude Shannon e Nathaniel Rochester. Su iniziativa di McCarthy, un team di dieci persone avrebbe dovuto creare in due mesi una macchina in grado di simulare ogni aspetto dell'apprendimento e dell'intelligenza umana. Ad aderire a tale iniziativa furono alcuni ricercatori, tra cui anche Trenchard More di Princeton, Arthur Samuel di IBM, e Ray Solomonoff e Oliver Selfridge del MIT. Nello stesso convegno, un'altra iniziativa catalizzò l'attenzione oltre al progetto di McCarthy: il programma di Allen Newell e Herbert Simon. Questi due ricercatori, a differenza di McCarthy, avevano già un programma capace di qualche forma di ragionamento, conosciuto con il nome di Logic Theorist, o LP, in grado di dimostrare teoremi partendo dai principi della matematica. Sempre nello stesso convegno, McCarthy introdusse l'espressione intelligenza artificiale, che segnò, in maniera indelebile, la nascita effettiva di tale disciplina, conferendole una natura propria.
Prime grandi aspettative (1950-1965)
[modifica | modifica wikitesto]Il programma creato da Newell e Simon permise loro di progredire e creare un programma chiamato General Problem Solver, o GPS. A differenza del LP, il GPS fu ideato con lo scopo di imitare i processi di risoluzione dei problemi utilizzati dagli esseri umani (nello specifico la cosiddetta "euristica mezzi-fini"[8]). Nei ristretti casi nel quale il programma poteva operare, si notò che l'approccio con il quale il programma considerava gli obiettivi e le azioni era assimilabile a un umano. Negli stessi anni, presso l'IBM, Rochester con dei suoi colleghi cominciò a sviluppare altri programmi capaci di ragionamento.
Nel 1959, Herbert Gelemter creò il Geometry Theorem Prover, un programma in grado di dimostrare teoremi di geometria complessi. L'anno precedente, presso il MIT, McCarthy diede un altro contributo al campo dell'intelligenza artificiale definendo quello che per trent'anni fu riconosciuto come il linguaggio di programmazione dominante per la realizzazione dei sistemi di intelligenza artificiale: il Lisp. Oltre a ciò, McCarthy scrisse un documento intitolato Programs with Common Sense[9], nel quale descrive un programma ideale, chiamato Advice Taker, che può essere visto come il primo sistema intelligente completo.
Minsky, durante il suo periodo al MIT, coordinò la creazione di programmi per affrontare quelli che vengono chiamati micro mondi, ovvero problemi limitati e descritti da asserzioni che richiedevano l'utilizzo di ragionamento per essere risolti. Tra questi, il programma di James Slagle del 1963, SAINT, era in grado di risolvere problemi riguardo al calcolo integrale in forma chiusa, tipici del primo anno del college.
Prime difficoltà (1966-1969)
[modifica | modifica wikitesto]Tra le varie aspirazioni da parte dei ricercatori vi era principalmente quella di creare macchine in grado di esibire capacità di ragionamento simili a quelle umane. Ad esempio, Herbert Simon, nel 1957, stimò che nel giro di dieci anni ci sarebbero state macchine in grado di competere con i campioni di scacchi (previsione che si avvererà, ma dopo quarant'anni). Queste aspirazioni, però, dovettero scontrarsi con alcune difficoltà: prime fra tutte, l’assoluta mancanza di conoscenza semantica relativa ai domini trattati dalle macchine, in quanto la loro capacità di ragionamento si limitava a una vera manipolazione sintattica. A causa di questa difficoltà, nel 1966 il governo degli Stati Uniti d'America interruppe i fondi per lo sviluppo delle macchine traduttrici. Un ulteriore problema fu l'impossibilità del trattare molti problemi che l'intelligenza artificiale si era proposta. Questo perché si riteneva che “scalare” le dimensioni di un problema fosse solo una questione di hardware e memoria.
Questo tipo di ottimismo fu presto spento quando i ricercatori fallirono nel dimostrare teoremi a partire da più di una dozzina di assiomi. Si capì quindi che il fatto di disporre di un algoritmo che, a livello teorico, fosse in grado di trovare una soluzione a un problema non significava che un corrispondente programma fosse in grado di calcolarla effettivamente a livello pratico. Un terzo tipo di difficoltà furono le limitazioni alla base della logica, nel senso di ragionamento, dei calcolatori. Nel documento di Minsky e Papert, intitolato Perceptrons (1969), si mostrò che, nonostante un percettrone (una semplice forma di rete neurale) fosse in grado di apprendere qualsiasi funzione potesse rappresentare, un percettrone con due input non era in grado di rappresentare una funzione che riconoscesse quando i due input sono diversi.
Sistemi basati sulla conoscenza (1969-1979)
[modifica | modifica wikitesto]Queste difficoltà portarono a definire gli approcci adottati dalle macchine come approcci deboli, che necessitavano quindi di una conoscenza maggiore inerente al campo di applicazione. Nel 1969, grazie a Ed Feigenbaum (studente di Herbert Simon), Bruce Buchanam e Joshua Lederberg, venne creato il programma DENDRAL. Tale programma era in grado, a partire dalle informazioni sulla massa molecolare ricavate da uno spettrometro, di ricostruire la struttura di una molecola. Questo programma fu quindi il primo dei sistemi basati su un uso intensivo della conoscenza, che arrivarono più tardi a inglobare tutti i concetti teorizzati da McCarthy per l'Advice Taker. Successivamente, Feigenbaum cominciò insieme con altri ricercatori di Stanford l'Heuristic Program Project (HPP), al fine di estendere gli scenari applicativi di questi sistemi, cominciando con il sistema MYCIN nell'ambito delle diagnosi delle infezioni sanguigne. Si cominciò quindi a teorizzare dei sistemi conosciuti come sistemi esperti, ovvero in grado di possedere una conoscenza esperta in un determinato scenario di applicazione. Si trattava di sistemi in cui l’uomo trasferiva direttamente la propria conoscenza alla macchina, stabilendo mediante regole logiche quali fossero le scelte da prendere in determinati contesti.[10]
Dall'ambiente accademico all'industria (1980-1985)
[modifica | modifica wikitesto]Il primo sistema di intelligenza artificiale utilizzato in ambito commerciale fu R1, utilizzato dalla Digital Equipment nel 1982. Lo scopo del programma era quello di aiutare a configurare gli ordini per nuovi computer. Nel 1986, fu in grado di far risparmiare alla compagnia 40 milioni di dollari all'anno. Anche la DuPont utilizzò sistemi simili, risparmiando circa dieci milioni di dollari all'anno. Negli anni '80 dello scorso secolo, quasi ogni grande azienda americana aveva un proprio sistema esperto in operazione e stava studiando sistemi più avanzati. Nel 1981 in Giappone venne annunciato il progetto Fifth Generation, un piano di dieci anni con l'intento di costruire sistemi intelligenti basati su Prolog. In risposta, gli Stati Uniti d'America crearono la Microelectronics and Computer Technology Corporation (MCC), come consorzio di ricerca al fine di garantire la competitività a livello nazionale. In Inghilterra, il rapporto Alvey recuperò i fondi tagliati dal rapporto Lighthill, che nel 1973 portò il governo britannico alla decisione di interrompere il supporto verso la ricerca nell'ambito dell'intelligenza artificiale. Questi progetti però non raggiunsero gli scopi previsti. L'industria dell'intelligenza artificiale raggiunse nel 1988 una cifra dell'ordine di miliardi di dollari, includendo centinaia di aziende che stavano creando sistemi esperti, robot e software e hardware specializzati in questi settori.
Il ritorno delle reti neurali (1986-)
[modifica | modifica wikitesto]A metà degli anni ottanta dello scorso secolo fu reinventato l'algoritmo di apprendimento per reti neurali chiamato back-propagation, inizialmente ideato nel 1969 da Bryson e Ho. L'algoritmo fu applicato a molti problemi relativi all'apprendimento, inerenti sia al lato dell'informatica sia a quello della psicologia. I cosiddetti modelli "connessionisti" per la realizzazione di sistemi intelligenti furono visti come alternative ai modelli simbolici ideati da Newell e Simon, da McCarthy e dai loro collaboratori. Tali modelli cercarono di dare risposta a quelle domande alle quali i precedenti modelli non erano riusciti, ma in parte fallirono anch'essi. Di conseguenza, i modelli basati sull'approccio simbolico e quelli con un approccio connessionista furono visti come complementari.
L'intelligenza artificiale moderna (1986-)
[modifica | modifica wikitesto]Oggigiorno i sistemi intelligenti sono presenti in ogni campo, anche nelle attività quotidiane e primeggiano nei giochi, come teorizzato anni prima dagli esponenti dell'intelligenza artificiale. Vi sono programmi che sono stati in grado di confrontarsi con campioni di scacchi, quali Deep Blue; altri che sono stati impiegati nelle missioni spaziali, come nel 1998 quando la NASA utilizzò un programma chiamato Remote Agent in grado di gestire le attività relative a un sistema spaziale; alcune auto sono oggi dotate di un sistema in grado di guidarle senza l'uso di un conducente umano, quindi in maniera del tutto autonoma. Nell'ambito di scenari più quotidiani si pensi, invece, ai termostati per il riscaldamento e l'aria condizionata in grado di anticipare il cambio di temperatura, gestire i bisogni degli abitanti e di interagire con altri dispositivi. In campo economico, particolarmente sensibile al cambiamento è il tasso di occupazione in generale,[11] come nella tecnofinanza dove avviene la più profonda rivoluzione.[12][13][14]
Utilizzo di Python
[modifica | modifica wikitesto]Il linguaggio di programmazione più diffuso nell'ambito della ricerca e dello sviluppo di sistemi di intelligenza artificiale è Python. Grazie alla sua semplice sintassi, questo linguaggio consente una rapida prototipazione delle reti neurali, facendo così risparmiare tempo ai ricercatori. Questo è un aspetto molto importante perché tipicamente le reti neurali richiedono molto tempo per essere allenate (da qualche ora, fino a qualche giorno o settimana).
Originariamente Python non è stato progettato per essere efficiente, ma grazie a Cython è stato possibile implementare librerie in grado di eseguire codice direttamente in C. Siccome le operazioni svolte tra i dati in input ai modelli di intelligenza artificiale, e i relativi parametri, sono spesso delle operazioni tra tensori (ad esempio prodotti tra tensori), è emerso che l'impiego di GPU per l'allenamento di questi modelli è molto vantaggioso, e di conseguenza sono nati frameworks come PyTorch o Tensorflow. Questi frameworks, importati in Python come librerie, consentono la realizzazione, l'allenamento e l'inferenza di modelli di intelligenza artificiale, fornendo la possibilità di eseguire tali modelli su CPU, GPU, o eventualmente anche TPU.
Principi di Asilomar
[modifica | modifica wikitesto]Nel 2017 a seguito del convegno di esperti mondiali di intelligenza artificiale Conferenza di Asilomar sulla Intelligenza Artificiale Benefica, promosso dal Future of Life Institute, è stato redatto con amplissimo consenso un vademecum con 23 principi per affrontare le problematiche etiche, sociali, culturali e militari dell'AI. Il documento è stato sottoscritto subito da oltre 800 esperti e in seguito da altre migliaia[15][16].
1. OBIETTIVO DELLA RICERCA: lo scopo della ricerca sull'Intelligenza Artificiale deve essere quello di creare un'intelligenza della quale beneficiare e non un'intelligenza senza uno scopo.
2. FINANZIAMENTO DELLA RICERCA: gli investimenti in materia di Intelligenza Artificiale devono essere accompagnati dai finanziamenti per la ricerca al fine di assicurare un uso da cui trarre beneficio, includendo questioni spinose in materia di informatica, economia, legge, etica e studi economici:
– Come possiamo rendere altamente solidi i sistemi di Intelligenza Artificiale del futuro in modo che questi non siano malfunzionanti oppure oggetto di hacking?
– Come possiamo accrescere la nostra prosperità attraverso l'automazione pur mantenendo le risorse e gli scopi delle persone?
– Come possiamo aggiornare i nostri sistemi legali in modo da renderli più corretti ed efficienti al fine di andare di pari passo con l'Intelligenza Artificiale e riuscendo a gestire i rischi a essa associati?
– A quale tipo di valori dovremmo allineare l'Intelligenza Artificiale e quali status legali ed etici dovremmo attribuirle?
3. COLLEGAMENTI TRA POLITICA E SCIENZA: ci dovrebbe essere uno scambio costruttivo e sano tra i ricercatori di intelligenza artificiale e i politici.
4. CULTURA DELLA RICERCA: una cultura di cooperazione, fiducia e trasparenza dovrebbe costituire la base di chi si occupa di ricerca e sviluppo dell'AI.
5. EVITARE LE CORSE: i team che si occupano dello sviluppo di sistemi Intelligenza Artificiale devono cooperare attivamente per evitare scorciatoie a discapito dei sistemi di sicurezza.
6. SICUREZZA: i sistemi di Intelligenza Artificiale dovrebbero essere sicuri e protetti nel corso di tutta la durata del loro ciclo di vita e verificabili nella loro fattibilità.
7. TRASPARENZA IN CASO DI INSUCCESSO: nel momento in cui un sistema di AI causasse un danno sarebbe possibile scoprirne le cause.
8. TRASPARENZA DEI GIUDIZI: qualsiasi coinvolgimento da parte di un sistema decisionale autonomo in materia di giustizia dovrebbe fornire spiegazioni soddisfacenti e verificabili da parte delle autorità umane competenti.
9. RESPONSABILITÀ: i progettisti e i costruttori dei sistemi avanzati di Intelligenza Artificiale sono parte attiva nelle implicazioni morali del loro uso e abuso, ma anche delle azioni e hanno la responsabilità e l'opportunità di plasmare tali implicazioni.
10. ALLINEAMENTO DEI VALORI: i sistemi di Intelligenza Artificiale altamente autonomi dovrebbero essere progettati affinché i loro scopi e comportamenti possano garantire di essere allineati con i valori umani a ogni operazione.
11. VALORI UMANI: i sistemi di Intelligenza Artificiale devono essere progettati e gestiti in modo da essere compatibili con gli ideali di dignità umana, i diritti, le libertà e la diversità culturale.
12. RISERVATEZZA PERSONALE: le persone dovrebbero avere il diritto di accedere, gestire e controllare i dati che generano e, di pari passo, dare ai sistemi Intelligenza Artificiale la possibilità di analizzare e utilizzare tali dati.
13. LIBERTÀ E PRIVACY: l'applicazione dell'Intelligenza Artificiale ai dati personali non deve limitare irragionevolmente l'idea di libertà delle persone, sia reale sia percepita.
14. BENEFICI CONDIVISI: le tecnologie Intelligenza Artificiale dovrebbero beneficiare e potenziale più persone possibili.
15. PROSPERITÀ CONDIVISA: la prosperità economica creata dall'Intelligenza Artificiale dovrebbe essere condivisa in modo ampio, per dare beneficio a tutta l'umanità.
16. CONTROLLO UMANO: gli esseri umani dovrebbero scegliere come e se delegare le decisioni ai sistemi di Intelligenza Artificiale per raggiungere i propri obiettivi umani.
17. NON-SOVVERSIONE: il potere conferito dal controllo dei sistemi di Intelligenza Artificiale altamente avanzati dovrebbe rispettare e migliorare, piuttosto che sovvertire, i processi sociali e civili tra il benessere della società.
18. CORSA ALLE ARMI AI: una corsa agli armamenti di armi letali autonome dovrebbe essere evitata.
19. GRADI DI PRECAUZIONE: in caso di mancato consenso, dovremmo evitare forti ipotesi riguardanti i limiti massimi sulle future capacità dell'Intelligenza Artificiale.
20. IMPORTANZA: l'Intelligenza Artificiale avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse commisurate.
21. RISCHI: i rischi associati ai sistemi Intelligenza Artificiale, in particolare, i rischi catastrofici o esistenziali, devono essere oggetto di pianificazione e mitigazione degli sforzi, affinché siano commisurati con il loro impatto atteso.
22. MIGLIORAMENTO PERSONALE RICORSIVO: i sistemi di Intelligenza Artificiale progettati per auto-migliorarsi o auto-replicarsi ricorrentemente in modo che possano portare a un rapido aumento della qualità o delle quantità, devono essere oggetto di misure di sicurezza e di controllo severe.
23. BENE COMUNE: la Super-intelligenza dovrebbe essere sviluppata esclusivamente al servizio di ideali etici ampiamente condivisi e a beneficio di tutta l'umanità, anziché di un solo paese o organizzazione.
Algoretica
[modifica | modifica wikitesto]Le tre principali religioni abramitiche, Microsoft e IBM, all'inizio del 2023 si sono incontrati in Vaticano alla Rome Call, per la richiesta congiunta di un'algoretica[17] (la riflessione etica sull’uso degli algoritmi) che guidi la progettazione dell'Intelligenza Artificiale. L'etica sull'uso degli algoritmi si basa su sei principi:
- Trasparenza
- Inclusione
- Responsabilità
- Imparzialità
- Affidabilità
- Sicurezza e privacy
A luglio 2023 è previsto un nuovo evento in cui ci prenderanno parte in Giappone anche i massimi esponenti delle religioni orientali.
Ricerca
[modifica | modifica wikitesto]Il problema complesso dello sviluppare sistemi che esibiscono comportamenti intelligenti è stato affrontato operando una scomposizione in sotto-problemi, ognuno con uno specifico ambito di ricerca. Ogni sotto-problema consiste nello studiare particolari abilità e proprietà che caratterizzano il sistema intelligente.
Relativamente all'ambito di applicazione di un determinato sistema intelligente questo presenterà soluzioni più o meno evolute per ogni sotto-problema.
Intelligenza artificiale forte e debole
[modifica | modifica wikitesto]Una primaria distinzione in seno alla ricerca nel campo dell'intelligenza artificiale è quella di intelligenza artificiale debole e intelligenza artificiale forte a secondo che vengano riprodotte solo alcune o tutte le funzionalità della mente umana.
Deduzione, ragionamento e problem solving
[modifica | modifica wikitesto]Inizialmente i ricercatori si concentrarono sullo sviluppo di algoritmi che imitassero fedelmente i ragionamenti impiegati dagli esseri umani per risolvere giochi o realizzare deduzioni logiche in modo da poterli integrare all'interno dei sistemi intelligenti. Tali algoritmi solitamente si basano su una rappresentazione simbolica dello stato del mondo e cercano sequenze di azioni che raggiungano uno stato desiderato. Evoluzioni di questi algoritmi vennero realizzati tenendo in considerazione aspetti più complessi come l'incertezza o l'incompletezza delle informazioni, includendo concetti provenienti dalla probabilità, dalla statistica e dall'economia.
Per difficoltà legate alla complessità intrinseca dei problemi in esame, gli algoritmi per la loro risoluzione possono a volte richiedere enormi risorse computazionali. L'ottimizzazione degli algoritmi ricopre una priorità assoluta all'interno della ricerca in questo ambito.
Rappresentazione della conoscenza
[modifica | modifica wikitesto]La rappresentazione della conoscenza e l'ingegneria della conoscenza costituiscono contributi centrali per la ricerca nell'ambito dell'intelligenza artificiale.
In particolare, queste discipline si focalizzano su quale tipo di conoscenza è necessario o opportuno integrare all'interno di un sistema intelligente, e sul come rappresentare i diversi tipi di informazione. Fra le cose che un sistema intelligente ha la necessità di rappresentare troviamo frequentemente oggetti, proprietà, categorie e relazioni fra oggetti, situazioni, eventi, stati, tempo, cause ed effetti, conoscenza posseduta da altri. La rappresentazione e l'ingegneria della conoscenza vengono spesso associate alla disciplina filosofica dell'ontologia.
La conoscenza e la sua rappresentazione sono cruciali soprattutto per quella categoria di sistemi intelligenti che basano il loro comportamento su una estensiva rappresentazione esplicita della conoscenza dell'ambiente in cui operano.
Pianificazione
[modifica | modifica wikitesto]Per permettere ai sistemi intelligenti di prevedere e rappresentare stati del mondo futuri e per prendere decisioni al fine di raggiungere tali stati massimizzando il valore atteso delle azioni, essi devono essere in grado di definire degli obiettivi e di perseguirli.
Nei problemi classici di pianificazione, un sistema intelligente può assumere di essere l'unica entità a operare nell'ambiente e può essere assolutamente sicuro delle conseguenze di ogni azione compiuta. Se non è l'unico attore nell'ambiente o se l'ambiente non è deterministico un sistema intelligente deve costantemente monitorare il risultato delle proprie azioni e aggiornare le predizioni future e i propri piani.
Apprendimento
[modifica | modifica wikitesto]L'apprendimento automatico è la disciplina che studia algoritmi capaci di migliorare automaticamente le proprie prestazioni attraverso l'esperienza. È stato un ambito di ricerca cruciale all'interno dell'intelligenza artificiale sin dalla sua nascita.
L'apprendimento automatico è particolarmente importante per lo sviluppo di sistemi intelligenti principalmente per tre motivi:
- Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutte le possibili situazioni in cui il sistema stesso si può trovare a operare, eccetto per contesti estremamente semplici.
- Gli sviluppatori di un sistema intelligente difficilmente possono prevedere tutti i possibili cambiamenti dell'ambiente nel tempo.
- Un'ampia categoria di problemi può essere risolta più efficacemente ricorrendo a soluzioni che coinvolgono l'apprendimento automatico. Questa categoria di problemi include, ad esempio, il gioco degli scacchi e il riconoscimento degli oggetti.
Elaborazione del linguaggio naturale
[modifica | modifica wikitesto]La capacità di elaborare il linguaggio naturale fornisce ai modelli di intelligenza artificiale di stimare con ottime probabilità la parola o la frase che segue il testo fornito in input, e di estrarne il contesto. Questa tecnica consente di ottenere risultati migliori rispetto a tecniche tradizionali quando si tratta di svolgere ricerca di informazioni, ottenere risposta a domande,tradurre o analizzare testi. L'architettura tipicamente impiegata per questo compito è il Transformer[18], che grazie al meccanismo dell'attenzione è in grado di catturare appieno il contesto del testo fornito in input.
La difficoltà principale di questo processo è l'intrinseca ambiguità che caratterizza i linguaggi naturali, per questo motivo le soluzioni richiedono un'estesa conoscenza del mondo e una notevole abilità nel manipolarlo.
Movimento e manipolazione
[modifica | modifica wikitesto]La robotica è una disciplina strettamente correlata con l'intelligenza artificiale.
I robot possono essere considerati sistemi intelligenti per tutti quei compiti che richiedono capacità di livello cognitivo per la manipolazione o lo spostamento di oggetti e per la locomozione, con i sotto-problemi della localizzazione (determinare la propria posizione e quella di altre entità nello spazio), della costruzione di mappe (apprendere le caratteristiche dello spazio circostante), e della pianificazione ed esecuzione dei movimenti.
Intelligenza artificiale quantistica
[modifica | modifica wikitesto]Un filone di ricerca promettente tenta di applicare l'intelligenza artificiale alla potenza di calcolo dei computer e degli algoritmi quantistici.[19]
Metodi
[modifica | modifica wikitesto]Agente intelligente
[modifica | modifica wikitesto]Il concetto di agente intelligente (o agente razionale) è centrale in molti degli approcci più comuni all'intelligenza artificiale.
Un agente è un'entità in grado di percepire l'ambiente attraverso l'utilizzo di sensori e in grado di agire sull'ambiente attraverso l'utilizzo di attuatori. Ogni agente è quindi associato a una sequenza di percezioni, intesa come la cronologia completa di tutti i rilevamenti effettuati da ciascun sensore, e a una funzione agente, che specifica il comportamento dell'agente associando a ogni sequenza di percezioni un'azione da compiere.
Definita misura della performance una funzione che associa a ogni stato (o sequenza di stati) dell'ambiente un valore di utilità, un agente è intelligente (o razionale) se per ogni possibile sequenza di percezioni la sua funzione agente lo porta a compiere sempre l'azione che massimizza il valore atteso della misura della performance, data la sua conoscenza definita dalla sequenza di percezioni stessa e dalla conoscenza integrata nell'agente.
Esistono metodologie differenti per l'implementazione concreta della funzione agente, ciascuna più o meno adatta al tipo di ambiente in cui è posto l'agente.
Agenti reattivi semplici
[modifica | modifica wikitesto]Questa categoria di agenti seleziona l'azione da compiere sulla base della percezione corrente, ignorando completamente la cronologia delle percezioni.
Agenti basati su modello
[modifica | modifica wikitesto]Questa categoria di agenti è caratterizzata dal mantenere uno stato interno che dipende dalla cronologia delle percezioni e contemporaneamente riflette alcuni degli aspetti dell'ambiente non osservati.
L'aggiornamento dello stato richiede due tipi di conoscenza:
- dei modelli che descrivono l'evoluzione dell'ambiente indipendentemente dalle azioni compiute dall'agente,
- dei modelli che descrivono l'effetto delle azioni dell'agente sull'ambiente.
Agenti basati su obiettivi
[modifica | modifica wikitesto]In molte applicazioni, tenere traccia dello stato attuale dell'ambiente non è sufficiente per determinare le azioni da compiere, ma l'agente necessita di informazioni che rappresentano situazioni desiderabili, che prendono il nome di obiettivi, o goal. Questo tipo di agenti intelligenti è quello in cui maggiormente vengono impiegati i concetti di pianificazione e ricerca per problem solving.
Agenti basati su utilità
[modifica | modifica wikitesto]Il concetto di goal da solo non è sufficiente per ottenere dei comportamenti qualitativamente elevati in molte applicazioni, poiché l'informazione contenuta può essere utilizzata esclusivamente per distinguere gli stati desiderabili dagli stati non desiderabili. Attraverso il concetto di utilità è invece possibile caratterizzare in maniera precisa ogni stato, determinando quanto ogni stato è utile al fine del buon comportamento dell’agente.
Applicazioni
[modifica | modifica wikitesto]L'intelligenza artificiale è stata impiegata in un'ampia varietà di campi e applicazioni come la medicina, il mercato azionario, la robotica, la legge, la ricerca scientifica, l'analisi dei dati, i giocattoli e perfino lo sviluppo di nuovi robot usando la potenza di calcolo di un personal computer.[20][21] In alcune applicazioni, l'intelligenza artificiale si è radicata a tal punto all'interno della società o dell'industria da non essere più percepita come intelligenza artificiale.[22] Essa trova applicazione anche nelle città intelligenti: gestione dei flussi (veicolari o turistici), operatività delle reti (telecomunicazioni ed energia), acquisti online e telelavoro.[23] Inoltre, trova applicazione nell'e-procurement, ad esempio nella ricerca e selezione di nuovi fornitori.[24]
Anche nel campo dell'informatica stessa, molte soluzioni sviluppate originariamente per rispondere a problemi o necessità dell'intelligenza artificiale sono state adottate da altre discipline e non vengono più considerate parte dell'intelligenza artificiale. In particolare il time-sharing, l'interprete (informatica), l'interfaccia grafica, il mouse, la struttura dati lista concatenata, la programmazione funzionale, la programmazione simbolica, la programmazione dinamica e la programmazione orientata agli oggetti.[25]
Il primo utilizzo dell'intelligenza artificiale nelle banche è datato 1987 quando la Security Pacific National Bank negli USA organizzò una task force per la prevenzione delle frodi legate all'utilizzo non autorizzato delle carte di credito. Attualmente, e non solo in ambito bancario, le reti neurali vengono utilizzate per identificare fenomeni non riconducibili a un comportamento nominale e che richiedono un intervento umano.
Le reti neurali sono anche largamente impiegate in medicina[26], e molte altre applicazioni sono attualmente in sviluppo, come ad esempio:
- Interpretazione delle immagini mediche: ad esempio, valutazione della posizione, estensione e gravità di un ictus cerebrale[27]; analisi dell'elettrocardiogramma per la valutazione del rischio di infarto miocardico acuto[28]; analisi dell'angiografia e dell'imaging intravascolare per la prevenzione della malattia aterosclerotica coronarica[28]
- Analisi del suono del cuore[29], previsione di eventi cardiaci avversi nelle due settimane successive a un impianto di stent[30]
- monitoraggio della terapia intensiva e riduzione del rischio di morte[30]
- Diagnosi del cancro[31] e delle malattie in genere mediante un'analisi multimodale dei sintomi[32]
- Diagnosi della leucemia[33][34]
- gestione dell'ematologia[35][36]
- medicina del sonno[37][38][39], diagnosi del disturbo unipolare e bipolare[40], depressione[41], psicoradiologia[42], progressione della malattia di Parkinson[43]
- Creazione di medicine
- Robot di accompagnamento per gli anziani[44], cura della persona e assistenza quotidiana: monitoraggio dei parametri vitali, monitoraggio dell'assunzione quotidiana dei farmaci prescritti, azioni tese a rimanere connessi col mondo esterno e in contatto con parenti amici e a svolgere una vita attiva, anche attraverso l'uso di app di videochiamata e di messaggistica istantanea, assistenza cognitiva e inclusione digitale, rilevazione delle cadute[45]
La spesa per l'intelligenza artificiale in ambito sanitario è raddoppiata nel 2020 fino a quota 4.8 miliardi di dollari, e, nuovamente nel 2021, a 10 miliardi di dollari.[46]
L'intelligenza artificiale è largamente utilizzata per la realizzazione di assistenti automatici online principalmente dalle compagnie telefoniche e di telecomunicazione, con l'intento di ridurre i costi di assunzione e formazione del personale.
Anche nell'ambito dei trasporti l'utilizzo dell'intelligenza artificiale sta aumentando rapidamente[47]. Applicazioni della logica fuzzy sono state impiegate nella realizzazione di cambi di velocità per le automobili. Le automobili a guida autonoma sviluppate da Google e Tesla fanno largamente uso di tecniche di intelligenza artificiale[48][49].
L’intelligenza artificiale viene anche impiegata nel campo della videosorveglianza. Gli algoritmi consentono il riconoscimento degli oggetti presenti nella scena al fine di generare allarmi.
In ambito videogame l'applicazione dell'intelligenza artificiale sta facendo sempre più breccia, per migliorare i strumenti di sviluppo dei videogiochi, andando a impattare su ricambio del personale, con un maggiore impatto su artisti concettuali, i desainer grafici, gli artisti dedicati al gioco finito e gli illustratori, in quanto l'intelligenza artificiale viene utilizzata per compiti come la generazione di storyboard, aspetto dei personaggi, rendering e animazioni e potrebbe contribuire fino al 50% dello sviluppo dei videogiochi entro il 2030-2035, inoltre a seconda dell'azienda si potrebbero usare soluzioni di intelligenza artificiale pubbliche o interne.[50]
Ultimo, ma non per importanza, è l'applicazione di reti neurali complesse nella generazione di testi, o meglio, nella trasformazione di un input generalmente testuale in un output anch'esso espresso in caratteri. In particolar modo negli ultimi anni, OpenAI ha rilasciato numerose versioni del suo "modello" denominato GPT, il quale ha riscontrato notevole successo e scalpore. Attraverso questo modello basato su una particolare rete neurale, è stato possibile generare dei racconti, riassumere automaticamente dei testi, tradurre in maniera sempre più precisa da una lingua all'altra. Attraverso questa disciplina le applicazioni sono le più disparate, tra cui, degno di nota e a forte impatto sociale, quello riguardo al binomio giornalismo e scrittura. Il Washington Post ad esempio, gìà nel 2017 dichiarò di aver pubblicato in un anno 850 news elaborate da un'intelligenza artificiale. Il giornale canadese The Globe and Mail invece è interamente diretto da una intelligenza artificiale[51]. Un altro utilizzo di questo modello trova riscontro nei tool di assistenza alla scrittura e generazione automatica di testi.
A questo riguardo è nata a febbraio 2023 la prima collana di libri scritta interamente da un'AI.[52] La tecnologia è stata anche utilizzata per generare intere sceneggiature cinematografiche come per Il diario di Sisifo.[53]
Il mercato dell'intelligenza artificiale
[modifica | modifica wikitesto]Nel 2023 l'Unione Europea investe nell'intelligenza artificiale una cifra che è 10 volte inferiore a quella degli Stati Uniti e pari alla metà di quella della Cina.[54]
Secondo l’Artificial Intelligence Index Report 2024 della Stanford University, nel 2023 il settore dell'AI ha generato investimenti pari a 25,2 miliardi di dollari, quasi 9 volte superiori al 2022 e circa 30 rispetto al 2019.[55][56]
In Italia
[modifica | modifica wikitesto]Il mercato italiano dell'intelligenza artificiale si presenta ancora agli albori, ma le prospettive per il futuro sono positive: nel 2018 ha raggiunto un valore di 85 milioni di euro, una cifra che fa riferimento agli investimenti nello sviluppo e nell'implementazione di progetti come:
- sviluppo di algoritmi di Intelligenza Artificiale;
- hardware per l'immagazzinamento e l'elaborazione di dati;
- software per la gestione dei dati;
- servizi di integrazione e personalizzazione.
Per capire il valore dell'intelligenza artificiale nel contesto tecnologico italiano, è sufficiente notare come si intreccia con altre tendenze digitali come la Cloud Transformation e l'Internet delle cose[57]. Il primo rende scalabile l'infrastruttura necessaria alla raccolta ed elaborazione dei dati, mentre il secondo crea dispositivi e sensori utili non solo per la raccolta dati ma anche per veicolare servizi basati sull'AI[57].
Il significato per le aziende italiane
[modifica | modifica wikitesto]I media e le aziende stanno rivolgendo sempre più l'attenzione verso il tema dell'intelligenza artificiale, in quanto questa si sta dimostrando impattante in termini di efficientamento e automazione di software gestionali, processi industriali, e così via. Tecniche come l'anomaly detection consentono ad esempio di riconoscere, attraverso dati provenienti da sensori, oggetti che presentano dei difetti già in fase di produzione. Reti neurali in grado di stimare la postura umana sono uno strumento che può diventare fondamentale per salvaguardare, ad esempio, la corretta postura del corpo umano durante le ore lavorative, andando a migliorare la sicurezza sul lavoro. I large language model, come ad esempio GPT-3[58], si stanno rivelando essere strumenti fondamentali per abbattere i tempi di sviluppo software, o ricevere risposte a domande su ostacoli incontrati nei processi lavorativi.
Il futuro dell'intelligenza artificiale in Italia
[modifica | modifica wikitesto]Benché le aziende italiane nel complesso non abbiano ancora una visione omogenea sul tema, si individuano già aree di sviluppo particolarmente interessanti:
- Smart home speaker
Si tratta di assistenti vocali intelligenti in grado di gestire oggetti intelligenti presenti in casa. Sono stati introdotti di recente, ma il loro mercato in Italia vale già 60 milioni di euro e il valore sembra destinato a crescere: in un futuro non troppo lontano, questi assistenti potrebbero fungere da canale con cui veicolare servizi e applicazioni legate al mondo dell'AI, creando nuove opportunità di sviluppo per le aziende del settore.
- Robot intelligenti
A questa categoria appartengono i collaborative robot e gli AGV (Automated Guided Vehicle). I primi collaborano con un operatore umano e sono in grado di adattare il proprio comportamento agli stimoli esterni, mentre i secondi si adattano all'ambiente esterno muovendosi in autonomia, senza il supporto di guide fisiche o percorsi predeterminati.[59]
- Tutor Intelligenti
A questa categoria appartengono gli avatar degli Edugames oppure dei robot che all'interno dei musei, e altri luoghi dell'apprendimento, guidano i discenti-visitatori e fungere dai docenti-educatori artificiali[60][61][62][63].
AI for Good
[modifica | modifica wikitesto]AI for Good è la piattaforma informatica dell'ONU che ha l'obiettivo di promuovere il dialogo nella comunità scientifica finalizzato allo sviluppo di progetti concreti nell'ambito dell'intelligenza artificiale, mediante un uso etico e orientato al bene comune di questa famiglia di tecnologie.
A partire dal 2017, AI for Good organizza ogni anno un evento globale, la cui quarta edizione è stata fatta il 21 settembre 2020 a Ginevra, in Svizzera. L'iniziativa operando in relazione a obiettivi di respiro globale[64][65], in particolare riguardo allo sviluppo sostenibile, e si propone di ottenere risultati più immediati e concreti rispetto ai documenti programmatici e di indirizzo generalmente prodotti dai meeting dell'ONU.
Le applicazioni di intelligenza artificiale sono state classificate in tre macrocategorie: intelligenza artificiale per la Terra (AI for Earth)[66][67], AI per fini umanitari (Humanitarian AI)[68][69] e AI per l'assistenza sanitaria (AI for Healthcare).[70]
Il primo AI for Good Global Summit si è tenuto dal 7 al 9 giugno 2017 a Ginevra[71][72][73] è stata la creazione di un focus group dell'ITU-T in tema di apprendimento automatico per la tecnologia di connessione 5G.[74]
Il secondo AI for Good Global Summit si è svolto dal 15 al 17 maggio 2018 presso la sede dell'ITU a Ginevra, e ha prodotto un totale di 35 progetti[75], anche in collaborazione con l'OMS per la categoria AI 4 Health (FG-AI4H).[76][77][78]
Fra i relatori erano presenti Roger Penrose e Samantha Cristoforetti.[79][80] In tale occasione, è stato attivato un repository dei progetti di AI for Goods e dei relativi esempi finalizzato agli obbiettivi dello sviluppo sostenibile[81][82], mentre l'ITU ha lanciato la rivista ICT Discoveries[83], la cui prima edizione straordinaria è stata dedicata all'intelligenza artificiale.[84]
Il terzo AI for Good Global Summit ha avuto luogo dal 28 maggio al 31 maggio 2019, sempre nella città svizzera che è sede dell'ONU[85], relativamente alle applicazioni civili e militari dell'AI nello spazio, quali ad esempio le previsioni meteorologiche affidabili entro un orizzonte temporale di 2 settimane, la previsione di asteroidi e corpi celesti in rotta di collisione con la Terra, il monitoraggio delle migrazioni animali di balene o specie in via di estinzione, la gestione satellitare di servizi basati sulla geolocalizzazione (come il controllo automatico di autoveicoli privi di guidatore).[86]
Critiche e controversie
[modifica | modifica wikitesto]Una maggiore attenzione è rivolta alle implicazioni etiche, ambientali e sociali dell'intelligenza artificiale e alla necessità di aumentare la trasparenza e la responsabilità delle grandi aziende tecnologiche per i loro algoritmi. Le principali critiche si riferiscono a:
- Pregiudizio algoritmico[87]
- La mancanza di responsabilità per i risultati generati dagli algoritmi "black-box”[88]
- Approvvigionamento non etico di minerali rari utilizzati nei dispositivi alimentati dall'AI[89]
- Impronta ambientale dei datacenter, il loro utilizzo di energia e acqua[90][91]
- Sfruttamento del lavoro digitale "clickwork" coinvolto nell'etichettatura dei dati per allenamento di intelligenza artificiale e nella moderazione dei contenuti[90]
- Manipolazione algoritmica delle preferenze di consumo e di voto degli utenti[92]
Trasparenza algoritmica e segreto industriale
[modifica | modifica wikitesto]Negli ultimi anni, a causa della crescente presenza di intelligenza artificiale nella società, ci sono stati dei tentativi di normare e integrare l'utilizzo delle intelligenze artificiali all'interno del quadro normativo europeo, con particolare attenzione al principio di trasparenza algoritmica, che può essere definito come "l'obbligo, gravante sui soggetti che adottano decisioni con l'ausilio di sistemi automatizzati di trattamento dei dati, di fornire ai destinatari una spiegazione comprensibile delle procedure utilizzate e di motivare sotto questo profilo le decisioni assunte"[93]. Il mancato rispetto della trasparenza violerebbe espressamente l'art. 111 Cost. e il diritto alla difesa ex art. 24 Cost. Inoltre, è stata ribadita nel 2017, dalla Dichiarazione di Asilomar, l'esigenza di garantire la massima trasparenza in ambito di decisioni giudiziarie, in caso di coinvolgimento di sistemi autonomi.
Disoccupazione
[modifica | modifica wikitesto]Secondo il report intitolato The Potentially Large Effects of Artificial Intelligence on Economic Growth, pubblicato da Goldman Sachs nel marzo 2023, l'intelligenza artificiale in particolare la sua capacità di generare contenuti senza l'intervento umano potranno garantire una crescita del 7% del PIL globale nei prossimi 10 anni. Tuttavia, essa è anche la causa prevedibile della perdita di 300 milioni di posti di lavoro nei settori amministrativo, legale, finanziario e bancario.[94]
Secondo un rapporto del World Economic Forum del 2023, nei successivi 5 anni il 23% dei posti di lavoro a livello mondiale subirà dei mutamenti a causa dell'intelligenza artificiale. L'automazione sostituirà l'81% delle attività lavorative di intermediari di prestito, supervisori e impiegati d’ufficio.[95]
Tuttavia, storicamente non sempre l'automazione è sinonimo di disoccupazione. Un precedente storico è rappresentato dall'introduzione del telaio meccanico che nel 1800 moltiplicò per 50 volte la produttività del lavoro, riducendo negli Stati Uniti il fabbisogno di manodopera del 98%. Eppure il crollo dei costi causò un'inaspettata esplosione della domanda, generando una quantità e varietà di posti di lavoro fino ad allora impensabile.[96]
Regolamentazione
[modifica | modifica wikitesto]Unione europea
[modifica | modifica wikitesto]Codice etico UE per l'intelligenza artificiale
[modifica | modifica wikitesto]Partendo dalla premessa per cui i governi devono garantire l'impiego dell'intelligenza artificiale nel massimo rispetto dell'etica, nell'aprile del 2019, l'Unione Europea ha elaborato il suo codice etico[97], che contiene le linee guida su utilizzo e sviluppo di sistemi di intelligenza artificiale. Il documento, che è stato predisposto da un gruppo di 52 esperti, rappresentati da informatici, ingegneri ma anche giuristi, filosofi, industriali, matematici, ha avuto un iter lungo e varie fasi di approfondimento[98].
Il punto di partenza dell'intero documento, e di tutti i principi giuridici che ne sono scaturiti, è che l'intelligenza artificiale deve avere l'uomo al centro e deve essere al servizio del bene comune per migliorare il benessere e garantire la libertà. Per prima cosa, il gruppo di esperti ha identificato le fondamenta giuridiche sulle quali il codice dovesse poggiare ricercandole nei Trattati UE, nella Carta dei Diritti e nella legge internazionale dei Diritti Umani. Da questa analisi sono stati individuati quei diritti inderogabili che, nell'Unione Europea, devono essere rispettati per l'intelligenza artificiale, vale a dire:
- Rispetto per la dignità dell'uomo
- Libertà dell'individuo
- Rispetto per la democrazia e per la giustizia
- Eguaglianza e non discriminazione
- Diritti dei cittadini
A questo punto è stato possibile dare indicazioni su quali fossero i principi etici da seguire nell'Unione per garantire che i sistemi di intelligenza artificiale siano sfruttati in modo affidabile, ovvero rispetto per l'autonomia dell'uomo, prevenzione del danno, equità e correttezza[99].
L'ultima fase di lavoro del gruppo di esperti è stata quella di redigere le linee guida UE del codice etico cui aziende, ricercatori e le comunità in generale dovranno attenersi e che rappresentano la traduzione operativa e la sintesi dei diritti fondamentali e dei principi sopra elencati[100].
Linee guida
[modifica | modifica wikitesto]- Supervisione umana: l'intelligenza artificiale deve essere al servizio dell'uomo e non deve invece ridurne, limitarne o fuorviarne l'autonomia; inoltre, non devono essere sviluppati sistemi che mettano a rischio i diritti fondamentali dell'uomo. La persona deve restare autonoma e in grado di supervisionare il sistema stesso.
- Solidità tecnica e sicurezza: gli algoritmi devono essere affidabili e sviluppati in modo tale che la sicurezza non venga messa in pericolo durante l'intero ciclo di vita del sistema.
- Privacy e governance dei dati: i cittadini devono sempre essere informati dell'utilizzo dei propri dati personali nel massimo rispetto della normativa UE sulla privacy per l'intero ciclo di vita del sistema che fa uso dell'intelligenza artificiale.
- Trasparenza: significa tracciabilità dei sistemi di intelligenza artificiale. Tutti i dati utilizzati, inclusi gli algoritmi, vanno documentati; solo così si potranno capire i motivi per cui, ad esempio, una decisione basata sull'intelligenza artificiale è stata presa in modo errato.
- Diversità, assenza di discriminazione, correttezza: i sistemi di intelligenza artificiale devono prendere in considerazione tutte le capacità e le abilità umane, garantendo l'accessibilità a tutti.
- Benessere sociale e ambientale: i sistemi di intelligenza artificiale devono essere utilizzati per sostenere cambiamenti ambientali positivi e perseguire obiettivi di sviluppo sostenibile[101].
- Responsabilità: devono essere adottati meccanismi di responsabilità nel riportare i dati e gli algoritmi utilizzati nei sistemi di intelligenza artificiale. Questo processo di valutazione consente di minimizzare eventuali impatti negativi.
Artificial Intelligence Act
[modifica | modifica wikitesto]Il 21 maggio 2024 il Consiglio dell'Unione europea ha approvato un apposito regolamento noto anche come Legge sull'intelligenza artificiale, che mira ad introdurre un quadro normativo e giuridico comune.[102] classificando e regolamentando le applicazioni dell'intelligenza artificiale in base al rischio di causare danni ai cittadini. Questa classificazione rientra principalmente in tre categorie: pratiche vietate, sistemi ad alto rischio e altri sistemi.[103]
Le pratiche vietate sono quelle che impiegano l'intelligenza artificiale per provocare manipolazioni subliminali o sfruttare le vulnerabilità delle persone che possono provocare danni fisici o psicologici, per fare un uso indiscriminato dell'identificazione biometrica remota in tempo reale negli spazi pubblici ad opera delle forze dell'ordine o per utilizzare "punteggi sociali" derivati dall'intelligenza artificiale da parte delle autorità per colpire ingiustamente individui o gruppi.[104] Il regolamento vieterebbe completamente questi ultimi, mentre per i primi tre viene proposto un regime di autorizzazione.[105]
I sistemi ad alto rischio, secondo il regolamento proposto, sono quelli che pongono minacce significative alla salute, alla sicurezza o ai diritti fondamentali delle persone. Richiedono una valutazione di conformità obbligatoria, intrapresa come autovalutazione da parte del fornitore, prima di essere immessi sul mercato. Applicazioni particolarmente critiche, come quelle per i dispositivi medici, richiedono che l'autovalutazione del fornitore ai sensi del regolamento sull'intelligenza artificiale venga presa in considerazione dall'organismo notificato che conduce la valutazione ai sensi delle normative dell'Unione Europea esistenti, come il regolamento sui dispositivi medici.[106]
La legge propone inoltre l'introduzione di un Comitato Europeo per l'Intelligenza Artificiale per promuovere la cooperazione internazionale e garantire il rispetto del regolamento.[107]
In Italia
[modifica | modifica wikitesto]Nel 2023, l'Autorità garante per la protezione dei dati personali ha approvato un regolamento che prevede tre principi per le decisioni terapeutiche assunte da sistemi automatizzati: trasparenza dei processi decisionali, supervisione umane delle decisioni automatizzate e non discriminazione algoritmica.[108]
G7
[modifica | modifica wikitesto]Il 30 ottobre 2023 i membri del G7 sottoscrivono undici principi guida per la progettazione, produzione e implementazione di sistemi di intelligenza artificiale avanzati, oltre ad un codice di condotta volontario per gli sviluppatori dell'intelligenza artificiale nel contesto del Processo di Hiroshima.
L'intesa riceve il plauso di Ursula von der Leyen che vi ritrova i principi della Direttiva Intelligenza Artificiale, in via di finalizzazione.[109]
Stati Uniti d'America
[modifica | modifica wikitesto]2023
[modifica | modifica wikitesto]Nel marzo 2023 Google ha proposto un'agenda digitale per la definizione di un'intelligenza responsabile, che prevede fra l'altro il rispetto delle normative vigenti in tema di privacy e sicurezza informatica.[110]
Nel maggio 2023 il vice presidente di Microsoft Brad Smith ha chiesto di firmare un ordine esecutivo che obblighi tutte le società informatiche statunitensi ad adottare gli standard del National Institute of Standards and Technology (NIST), che è incaricato di analizzare i loro rapporti annuali. La regolamentazione prevede l'obbligo di arrestare l'intelligenza artificiale nei casi di emergenza.[111]
Nel luglio 2023 l'amministrazione di Joe Biden e le maggiori aziende informatiche del settore (tra cui Alphabet, Microsoft, Meta, Anthropic e OpenAI) raggiungono un accordo che prevede una serie di regole alle quali single operatori sono liberi da aderire su base volontaria, in attesa dell'approvazione di una regolamentazione vincolante da parte del Congresso USA.[112]
Uno dei primi punti che le aziende di settore si sono dette pronte a introdurre è quello relativo alle filigrane che dovrebbero identificare inequivocabilmente testo, video, audio e immagini generate dall'Intelligenza Artificiale.[113]
Nel luglio 2023 Anthropic, Google, Microsoft e OpenAI hanno dato vita al Frontier Model Forum. A partire dal 2024 lo sviluppo della Intelligenza artificiale è stato indirizzato alla mitigazione e all’adattamento ai cambiamenti climatici, alla diagnosi precoce e la prevenzione del cancro.[114] Secondo il presidente di Microsoft Brad Smith, le aziende produttrici di modelli di frontiera hanno il compito di garantire che questa tecnologia "sia sicura, protetta e rimanga sotto il controllo umano".[115]
Il 30 ottobre 2023 il presidente Biden firma un ordine esecutivo che obbliga gli sviluppatori dell'intelligenza artificiale a condividere i propri test di sicurezza con il governo prima di rendere pubblici i loro software.[116] Il National Institute of Standards and Technology stabilisce lo standard per lo svolgimento di questi test di sicurezza.[117] il dipartimento per il commercio sviluppa le linee guida e la filigrana per l'autenticazione dei contenuti generati con l'Intelligenza Artificiale che trova impiego "nelle sentenze, nella libertà condizionale e nella libertà vigilata, nella scarcerazione e nella detenzione preventiva, nelle valutazioni dei rischi, nella sorveglianza, nella previsione del crimine e nella polizia predittiva e nell'analisi forense".[117]
Svizzera
[modifica | modifica wikitesto]Nel 2023 l'incaricato federale della protezione dei dati e della trasparenza (IFPDT) ha ribadito in forma scritta che la legge sulla protezione dei dati si applica anche all'intelligenza artificiale.[118]
Dibattito filosofico
[modifica | modifica wikitesto]Rispondere alla domanda “Può una macchina pensare?” "la macchina è inanimata?" è dibattito tuttora aperto a causa di argomentazioni a favore (Daniel Dennett, Hilary Putnam, Roger Penrose) e contro (Hubert Dreyfus, John Searle, Gerald Edelman, Jerry Fodor).
Esistono due correnti filosofiche diverse che cercano di definire una macchina intelligente come prodotto della:
- Intelligenza artificiale debole (weak AI): alla base di questo pensiero sta la convinzione che una macchina possa essere programmata con delle regole ben definite, in modo da comportarsi in modo intelligente.
- Intelligenza artificiale forte (strong AI): alla base di questo pensiero sta il fatto che una macchina agisca in modo intelligente implica che essa sia anche cosciente di come realmente si comporta.
Nel 1950 Alan Turing, nel suo articolo “Computing Machinery and Intelligence”[119], porta il dibattito filosofico a un livello più pragmatico, dando una definizione operativa di intelligenza basata su un test comportamentale inventato da lui stesso, chiamato "The Imitation Game" e ricordato anche come "Test di Turing".
Il test si basa sull'esistenza di tre stanze allineate in cui nella prima c'è un uomo e nell'ultima una donna; in quella centrale invece risiede l'interrogante. L'uomo e la donna possono comunicare messaggi di testo solamente con l'interrogatore scrivendo tramite una tastiera e leggendo tramite uno schermo. L'obiettivo della donna è quello di farsi identificare come donna, mentre quello dell'uomo è quello di trarre in inganno l'interrogante, facendogli credere di essere una donna. Il gioco è ripetuto una seconda volta, scambiando l'uomo con una macchina.
La macchina è definita come intelligente se la frequenza con cui l'interrogante individua correttamente l'uomo e la donna è almeno la stessa con cui individua correttamente la macchina e la donna.
Una macchina può quindi ritenersi intelligente se e solo se si comporta come un essere umano, quindi solo se riesce a ingannare l'interrogante come farebbe un uomo.
In seguito, John Searle descrive nell'articolo "Minds, Brains and Programs"[120] un esperimento mentale contro l'intelligenza artificiale forte, chiamato “la stanza cinese”. Egli vuole dimostrare che una macchina in grado di superare il test di Turing, non è capace di capire cosa succede al suo interno; non è, quindi, cosciente di come agisce. L'esperimento consiste in una persona che conosce solo l’inglese, munita di un libro di grammatica cinese scritto in inglese e vari fogli, alcuni bianchi e alcuni con dei simboli. La persona è dentro alla stanza con una piccola finestra verso l'esterno. Attraverso la finestra appaiono simboli indecifrabili. La persona trova delle corrispondenze con i simboli del libro delle regole e segue le istruzioni. Le istruzioni possono includere scrivere simboli su un nuovo foglio, trovare nuovi simboli, ecc. Infine, questi fogli scritti verranno passati al mondo esterno, attraverso la finestra. Per un osservatore esterno, la macchina sta ricevendo simboli cinesi, li sta elaborando e sta rispondendo con altri simboli, esattamente come farebbe un uomo cosciente. In questo senso, secondo il test di Turing dovrebbe essere ritenuta intelligente. Il problema, che sottolinea Searle, è che in realtà al suo interno, niente della macchina conosce effettivamente il cinese, per cui non è cosciente di quello che sta effettivamente facendo. Secondo Searle essa sta semplicemente seguendo un insieme di regole descritte nel libro. Secondo Daniel Dennett il dibattito rimane però aperto in quanto Searle non riesce a dimostrare pragmaticamente la sua tesi, dovendo far così ricorso alla intuizione.
Fantascienza
[modifica | modifica wikitesto]Nelle opere di fantascienza l'intelligenza artificiale è un tema ricorrente, come semplice elemento narrativo o come argomento centrale della storia. Generalmente è presentata sotto forma di computer avanzati, robot o androidi. Il tema è spesso legato a quello classico della ribellione della macchina, in cui un computer (nella maggior parte dei casi senziente) si rivolta contro gli esseri umani che l'avevano costruito.[121]
Tra i computer senzienti rientrano ad esempio Multivac, presente in alcuni racconti di Isaac Asimov, paragonabile ai moderni sistemi di grid computing, e HAL 9000 del film 2001: Odissea nello spazio (1968) di Stanley Kubrick. Invece Pensiero Profondo, nella Guida galattica per autostoppisti, è un'intelligenza artificiale capace di fornire la risposta alla "domanda fondamentale sulla vita, l'universo e tutto quanto". Nella serie cinematografica di Terminator, il supercomputer Skynet è presentato come un evolutissimo insieme di network che, costruiti dal Dipartimento della difesa degli Stati Uniti verso la fine della guerra fredda, finiranno per divenire un insieme autocosciente e intraprendere, al comando di un esercito di robot e cyborg, una spietata guerra per lo sterminio della specie umana. Nel film Matrix le macchine intelligenti tengono in schiavitù miliardi di esseri umani, per trarre da essi energia elettrica.
Oltre a quello del cinema e della televisione, anche il mondo dei cartoni animati e dei videogiochi ha sfruttato il tema dell'intelligenza artificiale. Un esempio è Cortana, l'intelligenza artificiale presente nella saga di Halo (nome affidato da Microsoft anche alla propria assistente virtuale: Cortana su Windows 10).
I robot o androidi senzienti sono anch'essi un classico. Nell'ipotesi che le macchine possano man mano diventare più simili agli esseri umani, gli autori hanno ipotizzato macchine con enorme capacità di calcolo e dotate di personalità. I "robot positronici" come il robot R. Daneel Olivaw del romanzo Fondazione, Marvin l'androide paranoico, R2-D2 e C-3PO di Guerre stellari, Data di Star Trek: The Next Generation e Chappie di Humandroid sono solo alcuni esempi tra i più noti. Queste macchine si distinguono dai semplici robot per una personalità spiccata e "umanizzata", resa possibile da un'intelligenza artificiale estremamente evoluta.
Anche in Italia, il tema negli anni ha dato vita a opere letterarie, teatrali e musicali. In ambito letterario, spicca "Il grande ritratto" di Dino Buzzati, considerato il primo, vero romanzo di fantascienza italiano, in cui si immagina un'intelligenza artificiale grande come una città e in grado di manipolare gli uomini[122]. In ambito musicale, band italiane come i Calibro 35 e gli Eterea Post Bong Band hanno creato dischi concept sul tema[123], facendo rappare un'intelligenza artificiale o parlando dell'evoluzione del rapporto uomo-macchina[124].
Note
[modifica | modifica wikitesto]- Annotazioni
- Fonti
- ^ intelligenza-artificiale, in Treccani.it – Enciclopedie on line, Roma, Istituto dell'Enciclopedia Italiana.
- ^ IA Che cos’è l'Intelligenza Artificiale, su sas.com, SAS Institute. URL consultato l'8 novembre 2024.
- ^ (EN) Kaplan Andreas e Haenlein Michael, Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence, 2018, DOI:10.1016/j.bushor.2018.08.004, ISSN 0007-6813 . URL consultato il 13 novembre 2018.
- ^ (EN) Rory Cellan-Jones, Hawking: AI could end human race, in BBC News, 2 dicembre 2014. URL consultato il 27 ottobre 2018.
- ^ Ovvero sistema informatico.
- ^ ON COMPUTABLE NUMBERS, WITH AN APPLICATION TO THE ENTSCHEIDUNGSPROBLEM (PDF), su cs.virginia.edu.
- ^ A LOGICAL CALCULUS OF THE IDEAS IMMANENT IN NERVOUS ACTIVITY (PDF), su minicomplexity.org. URL consultato il 14 dicembre 2016 (archiviato dall'url originale il 10 febbraio 2017).
- ^ (EN) Antonio Lieto, Cognitive Design for Artificial Minds, London, UK, Routledge, Taylor & Francis, 2021, ISBN 978-1-138-20792-9.
- ^ (EN) Programs with Common Sense (PDF), su cs.cornell.edu.
- ^ Intervista a Gianluigi Greco, su corrieredellacalabria.it.
- ^ Eugenio Occorsio, Intelligenza artificiale e Big Data. Così i robot cambiano il lavoro, su repubblica.it, 5 giugno 2017. URL consultato il 6 ottobre 2019.
- ^ Marco Ciotola, 5 modi in cui l'intelligenza artificiale sta rivoluzionando la finanza, su money.it, 7 aprile 2018. URL consultato il 6 ottobre 2019.
- ^ Alessandra Caparello, FinTech e Intelligenza Artificiale: come cambia la finanza, su wallstreetitalia.com, 13 dicembre 2018. URL consultato il 6 ottobre 2019.
- ^ Riccardo Barlaam, La rivoluzione dei robot taglierà 200mila posti nelle banche Usa, su ilsole24ore.com, 5 ottobre 2019. URL consultato il 6 ottobre 2019.
- ^ Stephen Hawking e Elon Musk firmano i 23 principi per l'AI - Digitalic
- ^ https://futureoflife.org/ai-principles/?cn-reloaded=1
- ^ L'algoretica, tra tecnologia e religione, su smartphonology.it.
- ^ Vaswani A , Shazeer N , Uszkoreit J et alii, Attention is all you need, in Advances in neural information processing systems, 30 ottobre 2017.
- ^ Flavio Fabbri, Intelligenza artificiale quantistica, che cos’è e come funziona, su key4biz.it, 8 novembre 2023.
- ^ Creata una AI capace di sviluppare un robot in modo indipendente. Gli scienziati la chiamano “evoluzione istantanea”, su redhotcyber.com, 29 ottobre 2023.
- ^ Discover the secrets of AI Marketing – Blog From Earth, su blogfromearth.com. URL consultato il 22 novembre 2023.
- ^ Nick Bostrom
- ^ L’archistar Ratti: «Robotica e intelligenza artificiale: così cambieranno le nostre città», su nordesteconomia.gelocal.it, 26 ottobre 2023.
- ^ Giampiero Volpi, ChatGPT compie un anno: è ora di usarlo anche nel Procurement?, su amp24.ilsole24ore.com, 3 novembre 2023.
- ^ George Bitsounis, Un laboratorio di Hong Kong ha creato un tessuto che cambia colore attraverso la tecnologia AI, su BitsounisProject, 1º gennaio 2024. URL consultato il 1º gennaio 2024.
- ^ (EN) Nadia Daneshvar, Deepti Pandita e Shari Erickson, Artificial Intelligence in the Provision of Health Care: An American College of Physicians Policy Position Paper, in Annals of Internal Medicine, 4 giugno 2024, DOI:10.7326/M24-0146. URL consultato il 10 luglio 2024.
- ^ Così l’intelligenza artificiale trasforma il settore sanitario, su amp24.ilsole24ore.com, 13 luglio 2023.
- ^ a b Quando l’algoritmo salva dall’infarto: il cuore si cura con l’intelligenza artificiale, su ilgiorno.it, 9 ottobre 2023.
- ^ T. R. Reed, N. E. Reed e P. Fritzson, Heart sound analysis for symptom detection and computer-aided diagnosis, in Simulation Modelling Practice and Theory, vol. 12, n. 2, 2004, p. 129, DOI:10.1016/j.simpat.2003.11.005.
- ^ a b Per Philips l'intelligenza artificiale sarà il motore dei prossimi 100 della salute, su wired.it, 18 luglio 2023.
- ^ "IBM Watson for Oncology", su ibm.com.
- ^ Artificial intelligence framework reveals nuance in performance of multimodal AI for health care, su webcache.googleusercontent.com, 18 novembre 2022 (archiviato il 19 novembre 2022).
- ^ Artificial intelligence helps diagnose leukemia, su Università di Bonn, 17 settembre 2021. URL consultato il 19 novembre 2021.
- ^ How Artificial Intelligence Can Help Diagnose Leukemia, in Oncology Times, vol. 43, n. 20, 20 ottobre 2021, DOI:10.1097/01.COT.0000798104.17383.5a.
- ^ A Review of Artificial Intelligence Applications in Hematology Management: Current Practices and Future Prospects, in J Med Internet Res., vol. 24, n. 7, 12 luglio 2022, DOI:10.2196/36490, PMC 9328784, PMID 35819826. URL consultato il 19 novembre 2022.
- ^ How artificial intelligence might disrupt diagnostics in hematology in the near future, in Oncogene, 8 giugno 2021, DOI:10.1038/s41388-021-01861-y, PMC 8225509, PMID 34103684.
- ^ Clinical applications of artificial intelligence in sleep medicine: a sleep clinician's perspective, in Sleep and Breathing, 2022, DOI:10.1007/s11325-022-02592-4, PMC 8904207, PMID 35262853. URL consultato il 19 novembre 2022.
- ^ A review of automated sleep disorder detection, in Computers in Biology and Medicine, vol. 150, 1º novembre 2022, DOI:10.1016/j.compbiomed.2022.106100.
- ^ Artificial intelligence and sleep: Advancing sleep medicine, in Sleep Med Rev ., 1º ottobre 2021, DOI:10.1016/j.smrv.2021.101512, PMID 34166990.
- ^ Artificial intelligence approach to classify unipolar and bipolar depressive disorders (PDF), in Academia.edu. URL consultato il 19 novembre 2022 (archiviato il 19 novembre 2022).
- ^ Deep learning for prediction of depressive symptoms in a large textual dataset, vol. 34, 27 agosto 2021, pp. 721-744, DOI:10.3390/electronics11050676.
- ^ Artificial intelligence applications in psychoradiology, in Psychoradiology, vol. 1, n. 2, Oxford University Press, 2 luglio 2021, pp. 94-107, DOI:10.1093/psyrad/kkab009.
- ^ Algorithm Able to Predict Initial 5-year Rate of Parkinson's Progression, su parkinsonsnewstoday.com, 4 gennaio 2023, DOI:10.1038/s41531-022-00439-z.
- ^ A. Yorita e N. Kubota, Cognitive Development in Partner Robots for Information Support to Elderly People, in IEEE Transactions on Autonomous Mental Development, vol. 3, n. 1, 1º marzo 2011, pp. 64-73, DOI:10.1109/TAMD.2011.2105868, ISSN 1943-0604 .
- ^ Nell'Italia di domani sempre più persone vivranno da sole. Circondate però dai nipotini di Alexa, su huffingtonpost.it, 2 ottobre 2023.
- ^ Artificial intelligence was supposed to transform health care. It hasn't., su politico.com.
- ^ Transportation | One Hundred Year Study on Artificial Intelligence (AI100), su ai100.stanford.edu. URL consultato il 18 novembre 2016.
- ^ Google Self-Driving Car Project, su google.com.
- ^ Tesla Explains How A.I. Is Making Its Self-Driving Cars Smarter, su inc.com.
- ^ AI Is Already Taking Jobs in the Video Game Industry
- ^ Il giornale diretto da una intelligenza artificiale funziona, su la Repubblica, 20 ottobre 2020. URL consultato il 24 novembre 2020.
- ^ (EN) Books written by artificial intelligence, su www.amazon.com. URL consultato il 28 febbraio 2023.
- ^ “Il diario di Sisifo”, il primo film scritto da un’Intelligenza Artificiale. Ed è italiano. | Federico Bo, su federicobo.eu, 2 marzo 2023. URL consultato il 23 dicembre 2023.
- ^ l'Europa in ritardo sull'intelligenza artificiale: "anche la Cina in veste il doppio", su amp.today.it.
- ^ Ecco come l’intelligenza artificiale sta rivoluzionando l’agroalimentare - Il Sole 24 ORE, su amp24.ilsole24ore.com. URL consultato il 21 giugno 2024.
- ^ AI Index Report 2024 – Artificial Intelligence Index, su aiindex.stanford.edu. URL consultato il 21 giugno 2024.
- ^ a b (EN) Massimo Merenda, Carlo Porcaro e Demetrio Iero, Edge Machine Learning for AI-Enabled IoT Devices: A Review, in Sensors, vol. 20, n. 9, 29 aprile 2020, p. 2533, DOI:10.3390/s20092533. URL consultato il 23 novembre 2020.
- ^ Language Models are Few-Shot Learners, su arxiv.org.
- ^ Osservatori Digital Innovation, L'Intelligenza Artificiale in Italia: mercato, trend e prospettive, su blog.osservatori.net. URL consultato il 30 maggio 2019.
- ^ Todino M. D., Di Tore S, De Simone G, and Sibilio M (2018). Virtual Reality Head-Mounted Display Used In Online & Distance Education. In: (a cura di): Papanikos G, Athens: ATINER'S Conference Paper Series, No: EDU2017-2407., in ATINER'S CONFERENCE PAPER SERIES, p. 1-21, Athens:Athens Institute for Education and Research, ISBN 9789605981150 , ISSN 2241-2891.
- ^ Di Tore S., TODINO M. D., Sibilio M (2020). La realtà virtuale come strumento didattico per favorire lo sviluppo della presa di prospettiva., in In: (a cura di): Panciroli C., Animazione digitale per la didattica. p. 155-164, MILANO:FrancoAngeli, ISBN 978-88-351-0728-6.
- ^ TODINO M. D., Di Tore S., De Simone G. (2020). Media Education e formazione docenti: contestualizzare le esperienze videoludiche dei propri studenti., in STUDI SULLA FORMAZIONE, vol. 23, ISSN 2036-6981, doi: 10.13128/ssf-11625.
- ^ TODINO M. D., Di Tore S, Maffei S, De Simone G, Sibilio M (2017). L'utilizzo di tecnologie head-mounted display a supporto della didattica attraverso ambienti di apprendimento virtuali in contesti non formali ., in GIORNALE ITALIANO DELLA RICERCA EDUCATIVA, p. 165-176, ISSN 2038-9744.
- ^ (EN) Declan Butler, AI summit aims to help world's poorest, in Nature, vol. 546, n. 7657, 6 giugno 2017, pp. 196-197, DOI:10.1038/546196a, ISSN 0028-0836 (archiviato dall'url originale il 30 aprile 2019).
- ^ (EN) How Can We Optimize AI for the Greatest Good, Instead of Profit?, su technologyreview.com. URL consultato il 29 giugno 2018 (archiviato dall'url originale il 9 novembre 2018).
- ^ (EN) National Geographic Society, RFP: AI for Earth Innovation, su nationalgeographic.org. URL consultato il 14 aprile 2023 (archiviato dall'url originale il 28 agosto 2020).
- ^ (EN) Microsoft AI for Earth, su microsoft.com. URL consultato il 10 marzo 2019.
- ^ (EN) AI for Humanitarian Action, su microsoft.com. URL consultato il 10 marzo 2019.
- ^ (EN) Humanitarian AI (Cambridge, MA), su Meetup. URL consultato il 10 marzo 2019.
- ^ (EN) Yongjun Wang, Haipeng Shen, Qiang Dong, Yilong Wang, Sufeng Ma, Hao Li, Yi Dong, Hui Zhi e Yong Jiang, Artificial intelligence in healthcare: past, present and future, in Stroke and Vascular Neurology, vol. 2, n. 4, 1º dicembre 2017, pp. 230-243, DOI:10.1136/svn-2017-000101, ISSN 2059-8688 , PMC 5829945, PMID 29507784.
- ^ AI for Good Global Summit 2017, su ITU.
- ^ (EN) AI for Good - YouTube, su YouTube. URL consultato il 2 luglio 2018.
- ^ (EN) AI for Good Global Summit - 2017 Report, su slideshare.net.
- ^ Machine Learning for 5G, su itu.int.
- ^ (EN) ITU annual global summit generates 35 pioneering AI for Good proposals | OpenGovAsia, su opengovasia.com. URL consultato il 29 giugno 2018.
- ^ Simon Bradley, AI has 'enormous' potential to transform health sector, in SWI swissinfo.ch. URL consultato il 29 giugno 2018.
- ^ An AI can now tell how malnourished a child is just from a photo | New Scientist, su newscientist.com. URL consultato il 21 giugno 2018.
- ^ ITU, Artificial Intelligence for Health: ITU and WHO call for proposals, su ITU News, 2 ottobre 2018. URL consultato il 21 giugno 2019.
- ^ Meet the Experts, su itu.int. URL consultato il 2 giugno 2018 (archiviato il 14 dicembre 2018).
- ^ (EN) AI for Good Global Summit 15-17 May 2018, Geneva - YouTube, su YouTube. URL consultato il 2 luglio 2018.
- ^ (EN) AI Repository, su itu.int. URL consultato il 29 giugno 2018.
- ^ ITU, Tell the world about your AI for Good project on ITU's AI Repository, in ITU News, 25 aprile 2018.
- ^ Sito della rivista ICT Discoveries, su itu.int.
- ^ (EN) The impact of Artificial Intelligence, su itu.int. URL consultato il 3 luglio 2018 (archiviato il 24 maggio 2019).
- ^ Day 1, 28 May 2019 Programme, su AI for Good Global Summit. URL consultato il 28 maggio 2019 (archiviato dall'url originale il 5 novembre 2019).
- ^ AI for Good Global Summit 2019: AI for Space, su AI + News, 1º giugno 2019. URL consultato il 13 ottobre 2022 (archiviato dall'url originale il 27 gennaio 2020).
- ^ https://arxiv.org/abs/2008.07309
- ^ Kirsten Martin, Ethical Implications and Accountability of Algorithms, in Journal of Business Ethics, 2018, DOI:10.1007/s10551-018-3921-3.
- ^ Kate Crawford e Vladan Joler, Anatomy of an AI System, 2018.
- ^ a b Kate Crawford, The Atlas of AI., Yale University Press, 2021, DOI:10.12987/9780300252392.
- ^ (EN) Mél Hogan, Data flows and water woes: The Utah Data Center, in Big Data & Society, vol. 2, n. 2, 1º dicembre 2015, p. 2053951715592429, DOI:10.1177/2053951715592429. URL consultato il 24 giugno 2021.
- ^ Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, 2019.
- ^ Paolo Zuddas, Brevi note sulla trasparenza algoritmica, in Amministrazione in cammino.
- ^ Con l’intelligenza artificiale addio a 300 milioni di posti di lavoro, lo studio di Goldman Sachs: quali ruoli rischiano di più, su open.online, 28 marzo 2023.
- ^ IA è futuro del Lavoro: il WEF riporta che il 23% delle professioni verranno assorbite dalle Intelligenza Artificiale, su redhotcyber.com, 12 ottobre 2023.
- ^ Intelligenza artificiale, perché ChatGPT mette a rischio metà dei posti di lavoro nei paesi ricchi, su corriere.it, 3 aprile 2023.
- ^ https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
- ^ https://www.ilsole24ore.com// L'Europa pubblica un codice etico sull'intelligenza artificiale di L. Tremolada
- ^ https://www.hdblog.it
- ^ https://www.ilsole24ore.com Intelligenza artificiale,ecco le nuove linee guida dell'Europa di L.Tre
- ^ https://www.ai4business.it
- ^ (EN) digital-strategy.ec.europa.eu, https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-laying-down-harmonised-rules-artificial-intelligence . URL consultato il 9 gennaio 2023.
- ^ Michael Veale, Demystifying the Draft EU Artificial Intelligence Act, in Computer Law Review International, vol. 22, n. 4, 2021, DOI:10.31235/osf.io/38p5f.
- ^ mhc.ie, https://www.mhc.ie/hubs/legislation/the-eu-artificial-intelligence-act . URL consultato il 29 novembre 2023.
- ^ (EN) Center for Data Innovation, https://datainnovation.org/2021/05/the-artificial-intelligence-act-a-quick-explainer/ . URL consultato il 14 novembre 2021.
- ^ mhc.ie, https://www.mhc.ie/hubs/the-eu-artificial-intelligence-act/eu-ai-act-high-risk-ai-systems . URL consultato il 29 novembre 2023.
- ^ (EN) Brookings, https://www.brookings.edu/blog/techtank/2021/05/04/machines-learn-that-brussels-writes-the-rules-the-eus-new-ai-regulation/ . URL consultato il 7 settembre 2021.
- ^ Marzio Bartoloni, Cure e intelligenza artificiale: la privacy e il rischio dell’algoritmo che discrimina, su amp24.ilsole24ore.com, 11 ottobre 2023.
- ^ Hiroshima Process International Guiding Principles for Advanced AI system, su digital-strategy.ec.europa.eu, 30 ottobre 2023.
- ^ Google vuole un'IA responsabile: ecco le sue idee, su punto-informatico.it.
- ^ Microsoft vuole nuova agenzia USA per regolare IA, su punto-informatico.it.
- ^ IA, c'è l'accordo tra big tech e Casa Bianca: "È una svolta per lo sviluppo responsabile", su tech.everyeye.it.
- ^ Intelligenza artificiale, c'è la svolta: in arrivo i watermark da OpenAI, Google e altri, su tech.everyeye.it, 21 luglio 2023.
- ^ Anthropic, Google, Microsoft e OpenAI: alleanza Intelligenza Artificiale, su punto-informatico.it.
- ^ I colossi dell'Intelligenza artificiale hanno deciso di darsi una regolata, su agi.it, 26 luglio 2023.
- ^ Joe Biden emette un Ordine Esecutivo per ridurre i rischi relativi alle Intelligenze Artificiali, su redhotcyber.com.
- ^ a b Usa: da Biden un ordine esecutivo sull’AI sicura, protetta e affidabile, su ai4business.it.
- ^ Le aziende svizzere usano l'AI per controllare i loro dipendenti, su tio.ch, 19 novembre 2023.
- ^ (EN) Alan Mathison Turing, Computing machinery and intelligence, in Mind. URL consultato l'11 novembre 2016 (archiviato dall'url originale il 2 luglio 2008).
- ^ http://cogprints.org/7150/1/10.1.1.83.5248.pdf
- ^ (EN) Robert B. Fisher, AI and Cinema - Does artificial insanity rule?, University of Edinburgh
- ^ (EN) Buzzati e la cibernetica: "Il grande ritratto", un romanzo breve del 1960 da riscoprire, su criticaletteraria.org. URL consultato il 31 gennaio 2023.
- ^ Rockol com s.r.l, √ I Calibro 35 hanno fatto rappare un'intelligenza artificiale, su Rockol. URL consultato il 31 gennaio 2023.
- ^ Blog | Eterea Post Bong Band, la musica è matematica, su Il Fatto Quotidiano, 16 aprile 2013. URL consultato il 31 gennaio 2023.
Bibliografia
[modifica | modifica wikitesto]- Jean-Gabriel Ganascia, L'intelligenza artificiale, Milano, Il Saggiatore, 1997, ISBN 88-428-0439-8.
- Diego Gosmar, Machine Learning. Il sesto chakra dell'intelligenza artificiale, 2020, ISBN 979-8644551132.
- Enrico Prati, Mente artificiale, Milano, EGEA, 2017, ISBN 978-88-238-7997-3.
- Somalvico Marco, Amigoni Francesco e Schiaffonati Viola, Intelligenza Artificiale, in Petruccioli Sandro (a cura di), Storia della scienza vol. IX, Roma, Istituto della Enciclopedia Italiana, 2003, pp. 615-624.
- Marcus Hutter, Universal Artificial Intelligence, Berlin, Springer, 2005, ISBN 978-3-540-22139-5.
- George Luger e William Stubblefield, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, quinta edizione, Benjamin/Cummings, 2004, ISBN 0-8053-4780-1.
- Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, seconda edizione, Pearson Education Limited, 2003, ISBN 978-0-13-790395-5.
- Stuart Russell e Peter Norvig, Artificial Intelligence: A Modern Approach, terza edizione, Pearson Education Limited, 2009, ISBN 978-0-13-604259-4.
- Nils J. Nilsson, The Quest For Artificial Intelligence, A History of Ideas And achievements, Web Version, Stanford University, 2010.
- Antonio Lieto, Cognitive Design for Artificial Minds, London (UK), Routledge, Taylor & Francis, 2021, ISBN 978-1-138-20792-9.
- Gardner A., An Artificial Intelligence Approach to Legal Reasoning, 0262071045, 9780262071048 MIT 1987.
- Nick Bostrom, Superintelligenza, Bollati Boringhieri, 2018, ISBN 9788833929019.
- Maciej Komosinski e Andrew Adamatzky, Artificial Life Models in Software, Poznan (PL), Springer, 2009, DOI:10.1007/978-1-84882-285-6, ISBN 9781848822849.
Voci correlate
[modifica | modifica wikitesto]- Acceleratore di Intelligenza Artificiale
- Agente intelligente
- Alan Turing
- Apprendimento automatico
- Computazione quantistica
- John Searle
- Intelligenza artificiale forte
- Intelligenza artificiale generativa
- Reti neurali artificiali
- Watson (intelligenza artificiale)
- Machine learning
- Algoritmo genetico
- IA-completo
- Informatica teorica
- Estinzione dell'umanità
- Robot tax
- Stereotipi di genere nella tecnologia
Altri progetti
[modifica | modifica wikitesto]- Wikiquote contiene citazioni sull'intelligenza artificiale
- Wikibooks contiene testi o manuali sull'intelligenza artificiale
- Wikizionario contiene il lemma di dizionario «intelligenza artificiale»
- Wikiversità contiene risorse sull'intelligenza artificiale
- Wikimedia Commons contiene immagini o altri file sull'intelligenza artificiale
Collegamenti esterni
[modifica | modifica wikitesto]- intelligènza artificiale, su Treccani.it – Enciclopedie on line, Istituto dell'Enciclopedia Italiana.
- Francesco Amigoni, Viola Schiaffonati e Marco Somalvico, Intelligenza artificiale, in Enciclopedia della scienza e della tecnica, Istituto dell'Enciclopedia Italiana, 2007-2008.
- intelligènza artificiale, su sapere.it, De Agostini.
- (EN) B.J. Copeland, artificial intelligence, su Enciclopedia Britannica, Encyclopædia Britannica, Inc.
- (EN) Artificial Intelligence, su Internet Encyclopedia of Philosophy.
- (EN) Selmer Bringsjord e Naveen Sundar Govindarajulu, Artificial Intelligence, su Stanford Encyclopedia of Philosophy.
- (EN) Opere riguardanti Intelligenza artificiale, su Open Library, Internet Archive.
- (EN) Denis Howe, artificial intelligence, in Free On-line Dictionary of Computing. Disponibile con licenza GFDL
- Elements of AI, primi passi verso l’Intelligenza artificiale, su innovazione.gov.it.
- Orizzonte Insegnanti, su orizzonteinsegnanti.it. Intelligenza Artificiale al servizio dell’Istruzione.
- Intelligenza artificiale nel mondo reale: casi d’uso e applicazioni pratiche, su SPIN - Ricerca Innovazione e Trasferimento Tecnologico. URL consultato l'11 aprile 2024 (archiviato il 30 ottobre 2023).
Controllo di autorità | Thesaurus BNCF 7253 · LCCN (EN) sh85008180 · GND (DE) 4033447-8 · BNE (ES) XX4659822 (data) · BNF (FR) cb11932084t (data) · J9U (EN, HE) 987007294969105171 · NDL (EN, JA) 00574798 |
---|