Cerca
Close this search box.

La storia dell’intelligenza artificiale (in breve)

La storia dell'AI (in breve)

Indice

L’intelligenza artificiale è il tema caldo del momento, con questo articolo inauguriamo una nuova serie in cui cerchiamo di analizzarne gli effetti e di comprendere questa tecnologia.

La nascita dell'AI per come la conosciamo

Anche se fu la Conferenza di Dartmouth ad essere riconosciuta a livello mondiale come il momento della nascita dell’IA, limitarsi a descrivere solo ciò che avvenne dopo indurrebbe erroneamente il lettore a ritenere che prima nulla ci fosse.

Fin dall’antichità l’uomo, spinto all’azione da un impulso di autoimitazione, tentò di ricreare parti o caratteristiche di sé, prima con miti e poi, materialmente, con macchine come le thaumata di Erone di Alessandria. Le invenzioni di marchingegni sempre più complessi proseguirono nei secoli successivi, ma la nascita delle IA fu favorita anche dai contributi di altre discipline, come la filosofia, la matematica e la psicologia. In particolare, dalla filosofia sono riscontrabili i risultati relativi al dibattito sulla natura dell’intelligenza e della razionalità; dalla matematica l’approccio logico-formale; dalla psicologia l’analisi delle relazioni fra azione e conoscenza, dalle neuroscienze, per quello che concerne l’indagine sulla ricreazione del funzionamento del cervello umano.

Determinanti, però, saranno gli studi sulla cibernetica e di informatica che si svilupparono circa un decennio prima della Conferenza di Dartmouth.

In particolare la cibernetica, termine con il quale si intende lo studio unitario dei processi riguardanti “la comunicazione e il controllo nell’animale e nella macchina”, verrà ripresa e incorporata nello studio delle Intelligenze Artificiali con il paradigma delle reti neurali.

Il ruolo di turing

A fronte di quanto detto non è difficile capire come l’idea di una macchina intelligente non fosse totalmente nuova già nei primi decenni del Novecento, ma il primo a porla in questi termini fu il famoso matematico Alan Turing.

Turing creò, nel 1936, la “macchina di Turing”, un modello logico-matematico di un dispositivo meccanico ideale adatto a simulare la logica di un qualsiasi algoritmo computazionale, definito da un insieme di step logici. La sua importanza deriva dalla dimostrazione che un algoritmo eseguibile da una macchina di Turing possa essere anche computato da un qualsiasi altro dispositivo computazionale con adeguata potenza di calcolo, come, ad esempio, un personal computer.

Inoltre risale al 1950 il c.d  “Test di Turing” per valutare l’intelligenza di una macchina.

Turing, il cui proposito era quello di valutare le capacità di pensiero di una macchina, descrisse questo test in un saggio, il Computing Machinery and Intelligence, e prendendo spunto da un vecchio gioco di società, sostenne come un elaboratore potesse essere considerato intelligente se, nell’interagire con una persona, ignara della identità del suo interlocutore, questa si convincesse dell’umanità di quest’ultimo. Il saggio di Turing, così come le sue macchine, ebbero un’enorme influenza sulla ricerca nell’intelligenza artificiale e sulla filosofia della mente.

A fronte di questo pare ovvio come la Conferenza di Dartmouth non sia stata un evento casuale e isolato, ma il necessario sviluppo delle teorie e degli studi precedenti, soprattutto della prima metà del Novecento. 

L'entusiasmo iniziale ed il primo inverno dell'AI.

Gli anni che seguirono Dartmouth furono segnati da grandi aspettative, incoraggiate, anche, dall’esponenziale crescita dei supporti informatici.

Due sono le tendenze rilevate in questi anni; da una parte vi era un gruppo, guidato da Newell, che coltivava interesse nella simulazione dei processi cognitivi umani per mezzo dell’elaboratore ( paradigma della simulazione) , dall’altra, la restante schiera di esperti il cui unico scopo era il raggiungimento della migliore prestazione possibile per i programmi indipendentemente dal fatto che le procedure risultassero effettivamente imitative dei procedimenti umani (paradigma della prestazione).

Dopo un primo periodo di forte entusiasmo, nel quale gli studi videro il favore degli investitori, in particolare dalla DARPA, azienda governativa statunitense, gli anni che seguirono furono caratterizzati da profondi insuccessi che condussero i ricercatori, negli anni 70 del Novecento, a concentrarsi su aree più ristrette di competenza nelle quale diventava fondamentale la conoscenza di uno specifico dominio. Questo portò alla realizzazione dei c.d. sistemi aperti, nel quale la conoscenza era legata tanto alla comprensione teorica quanto ad alcune specifiche regole euristiche determinanti per la risoluzione di un determinato problema. 

Queste due conoscenze, che si manifestavano come in un esperto umano di uno specifico settore, venivano codificate e rappresentate in una forma che l’elaboratore utilizzava per risolvere problemi simili a quelli affrontati dall’esperto umano.

I primi sistemi aperti furono  DENDRAL, programmato per studi di tipo biochimico, e MYCIN, che incorporava conoscenza medica specifica attraverso cui fornire terapie per infezioni batteriche.

Dagli anni 80 al giorno d'oggi

Dopo il superamento di questo periodo di stallo, chiamato in gergo “inverno dell’intelligenza artificiale” perciò, si assistette ad un relativamente rapido sviluppo. Negli anni ‘80 infatti si applicò un algoritmo, basato sulla retropropagazione dell’errore, che risolvette con successo numerosi problemi di apprendimento in informatica e ingegneria. Ma, a seguito di un secondo calo di interesse dovuto all’incapacità dei fornitori commerciali di sviluppare una vasta gamma di soluzioni praticabili e il conseguente fallimento di aziende, si iniziò a ritenere l’IA come impraticabile e persino il termine venne messo al bando.

Era questo il secondo inverno per la tecnologia del XXI secolo che terminò

negli anni ‘90, quando la sfida si concretizzò con l’obiettivo di superare il “Test di Turing”.  Sempre più ingegneri del software svilupparono bot, programmi software progettati per automatizzare attività ripetitive e predefinite su internet, in grado di sostenere una conversazione umana e nel 1997 Deep Blue, calcolatore molto potente dell’epoca, vinse per la prima volta una partita a scacchi contro l’allora campione del mondo Garry Kasparov.

Si riscontrarono quindi i primi successi grazie a computer più veloci in grado di elaborare una maggior quantità di dati. Nonostante ciò bisognerà aspettare la fine del primo decennio del 2000 prima che gli investitori riacquistino fiducia nel progetto, vista anche l’ormai maturità sia dei mezzi che dei metodi.

Ad oggi questo lungo e inesorabile percorso, che vede ormai le Intelligenze Artificiali protagoniste in molti ambiti della nostra esistenza, che sia per svago o per utilità, costringe a domandarsi quale sia l’approccio migliore verso sistemi che ci assomigliano e ci assomiglieranno sempre di più.

In questa serie di articoli, ci dedicheremo all’analisi dell’evoluzione e degli impatti di questa tecnologia sull’umanità, cercando di gettare luce sui cambiamenti, sulle sfide e sulle promesse che l’introduzione di questa tecnologia ha portato nella nostra società, delineando un quadro completo per comprendere appieno il suo ruolo in continua evoluzione nel nostro mondo.

FANTARCHEOLOGIA

Partecipando alle lezioni di metodologia della ricerca archeologica del dipartimento

Di ogni notizia e informazione è riportata la fonte a fine articolo, l’autore delega ogni verifica finale della loro veridicità. Ogni considerazione, argomentazione e sviluppo è stata fatta dagli autori sulla base dei propri studi e conoscenze personali. Si specifica che in nessun articolo si tratta in alcun modo di consigli finanziari.

Per maggiori informazioni su T&C si indirizza al seguente link.