Cerca
Close this search box.

L’AI e l’etica

Etica, dal greco ἔθοϚ «costume, carattere», fa riferimento a tutte le considerazioni sui principi legati alla morale e al comportamento pratico dell’uomo1, includendo l’identificazione dei diritti e dei doveri morali verso sé stessi e gli altri, al fine di ottenere criteri di valutazione per le azioni umane2. L’avvento dell’Intelligenza Artificiale (IA) ha causato non pochi quesiti sotto molti punti di vista, tra cui anche quello etico, ramificato in diverse questioni, che verranno pian piano sviscerate nel corso di questa serie. Prima di procedere è utile sottolineare che l’etica ha carattere fortemente territoriale e culturale, per quello che qui concerne prenderemo a riferimento prevalentemente la cultura occidentale euro-statunitense. I temi attorno all’etica dell’IA si possono riassumere in 8 punti cardine3 che sono alla base delle recenti normative tra cui ritroviamo principalmente la privacy, la responsabilità e la sicurezza, la trasparenza e la lotta alle disuguaglianze, ma anche il controllo umano della tecnologia, insieme alla responsabilità professionale e alla promozione dei valori umani. In merito alla privacy, ad esempio, un esempio tangibile è il provvedimento del Garante del 31 marzo 2023 contro Chatgpt per la raccolta illecita di dati personali4 con il quale il garante ha disposto con effetto immediato «la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense»5. Con il provvedimento emesso il garante evidenziava la mancanza di una adeguata informativa agli utenti oltre che l’assenza di una base giuridica che giustificasse la massiccia raccolta e conservazione di dati personali. Altra sfida è la determinazione della responsabilità giuridica in caso di danni causati dall’IA, e, in questo caso l’esempio di cui si abusa è quello del veicolo a guida autonoma. Ma di fondamentale importanza sono anche le questioni legate alla trasparenza nell’utilizzo di questi sistemi che causano inevitabilmente disuguaglianze informative e non ed è per questo che i governi di tutto il mondo si stanno interessando alla materia.  Non è un caso infatti che queste tematiche siano al centro sia della disciplina dell’AI Act che  nell’Executive Order statunitense, anche se quest’ultimo risente dell’approccio americano ed è caratterizzato da un approccio molto più liberale e a favore delle grandi imprese. Dal punto di vista nazionale notiamo come dalla necessità di rispondere nel modo migliore si sia generata la costituzione della Società Italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA) che si definisce come «come associazione culturale che riunisce accademici, studiosi, operatori, aziende e cittadini interessati ai problemi etici sollevati dalla IA»6, di fatto promuove corsi e articoli sul tema. È in questo contesto che diventa fondamentale l’insegnamento al rapportarsi con gli strumenti. L’AI Literacy7 viene definita come un insieme di competenze che consentono una solida comprensione dell’IA attraverso tre assi prioritari: apprendimento dell’IA, apprendimento di come funziona l’IA e apprendimento per la vita con l’IA e la sua implementazione. Nell’AI Literacy si inizia, infatti, col capire cosa effettivamente sia l’intelligenza artificiale e come funziona. Questo include introdurre la familiarità con concetti come il machine learning, le reti neurali e gli algoritmi di IA, in quanto la comprensione è essenziale per riconoscere le applicazioni pratiche dell’IA nei vari contesti. Un’ulteriore componente importante è la capacità di valutare criticamente le soluzioni basate sull’intelligenza artificiale. Questo implica essere consapevoli dei potenziali bias nei dati di addestramento e delle implicazioni etiche associate all’uso dell’IA. Essere alfabetizzati in IA significa di fatto anche saper utilizzare strumenti basati su quest’ultima o collaborare con sistemi intelligenti per migliorare l’efficienza e l’automazione in vari contesti. Poiché la tecnologia dell’IA è in continua evoluzione, l’AI Literacy richiede un’attitudine all’apprendimento continuo e l’aggiornamento delle conoscenze. Come anticipato, l’obiettivo principale sarà quello di esaminare le molteplici questioni etiche suscitate dall’avvento dell’Intelligenza Artificiale. Attraverso un’analisi approfondita di tali problematiche, siamo più preparati a comprendere l’impatto complessivo dell’IA sulla società e a sviluppare strategie per gestire in modo efficace le sfide etiche che essa presenta. NOTE 1 C.A. VIANO, voce « Etica», in Enc. Trec., 1993 2Ibidem 3 J.FJELD, N. ACHTEN,H.HILLIGOSS, A.C.NAGY, M. SRIKUMAR, Principled Artificial Intelligence Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI, in The Berkman Klein Center for Internet e Society, 2020 4 Garante della Privacy, Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori, Doc-Web 9870847, 2023 5Ibidem 7 D.BASHIR, AI Literacy : Understanding Shifts in our Digital Ecosystem , in New Degree Press, 2022

Real World Assets

ASSET TRADIZIONALI SULLA BLOCKCHAIN – IL FUTURO? Gli asset di cui andremo a parlare in questo articolo rispecchiano in toto tutto quello su cui può investire l’essere umano al giorno d’oggi: dal classico titolo di stato fino alle royalties degli autori, dagli immobili fino alle stock option. Come possiamo però rendere “future-proof” tutto questo? La risposta molto probabilmente è già nel titolo: la Blockchain. COS’E’ LA BLOCKCHAIN? Per farla breve e senza usare paroloni, immaginate di avere un registro digitale, immutabile e permanente che tiene appuntate tutte le operazioni e/o transazioni, e in esse le informazioni, che sono state in esso compiute dai cosiddetti “contratti intelligenti” ed elaborate dai “validatori”. Il tutto viene poi trasformato in stringhe di codici alfanumerici per rendere più sicure e trasparenti queste informazioni. Vige infatti il principio della “verità crittografica”, ovvero il principio nel quale il codice con cui è stata costruita la blockchain funziona senza bisogno di garanzie e fiducia di terzi (CHAINLINK BLOG). COME POSSIAMO INTEGRARE GLI ASSET SULLA BLOCKCHAIN? Ovviamente, per ogni tipo di asset, varierà il meccanismo con cui viene integrato nella blockchain e reso disponibile a tutti. Faremo quindi due esempi che vengono dalle idee uscite in questi ultimi tempi: uno per un asset finanziario, il classico titolo di stato, e uno per un asset reale, ovvero un immobile. Partiamo dal titolo di stato. Siccome siamo (orgogliosamente) italiani, utilizzeremo il nostro amato BTP. All’emissione, si effettuerà la classica asta dove vengono raccolti capitali tramite gli ordini effettuati sul MOT dalle Società di Investimento o dalle banche. Contestualmente, vengono emessi i “Token” sulla blockchain, ovvero delle rappresentazioni digitali del titolo che garantiscono all’investitore la proprietà dell’asset e, di conseguenza, tutti i diritti e i doveri che quell’asset permette di esercitare una volta acquistato. Ora invece passiamo all’immobile, e per questo esempio prenderemo una villetta bifamiliare. Normalmente, il futuro proprietario di un immobile deve eseguire dal notaio l’atto che ne attesterà la sua proprietà, pagandolo migliaia di euro e rimanendo schiavi della burocrazia di queste procedure. Con la Blockchain è il Token che attesta la proprietà viene acquistato dal futuro proprietario. Egli si ritroverà nel proprio portafoglio virtuale (o wallet) questo asset digitale che automaticamente, al momento dell’acquisto, attribuisce al proprietario tutti i diritti e i doveri che sono garantiti normalmente quando si possiede un immobile di questo tipo. Il proprietario poi potrà decidere se rivenderlo tutto o, essendo in questo caso la rappresentazione di una villa bifamiliare, venderne metà per concedere ad un’altra famiglia di abitare nell’altra metà della sua proprietà. Può anche decidere di dare in affitto questa metà, rimanendo proprietario della villa intera e incassando una rendita immobiliare. CHE VANTAGGI E SVANTAGGI CI SONO? NON E’ TROPPO COMPLICATO? I vantaggi principali sono evidenti: snellire la burocrazia e i costi annessi aumentare la tracciabilità e la sicurezza delle operazioni aumentare la scalabilità permettendo un’esecuzione delle compravendite più veloce aumentare ed unificare maggiormente la liquidità del mercato Attualmente, con le regolamentazioni stringenti in vigore, bisogna considerare l’aspetto normativo di questo sistema: non è infatti presente, al giorno d’oggi, alcuna direttiva o regolamento che definisca anche solo la modalità di utilizzo della Blockchain negli ambiti più importanti e di maggior impatto come la finanza. Tuttavia, come ci si poteva aspettare, gli ultimi regolamenti che vengono fatti riguardano l’antiriciclaggio e il tentativo (quasi inutile) di arginare l’operatività malevola e criminale. Gli altri possibili svantaggi possono essere il rischio e la complessità di questa nuova tecnologia. Va però detto che, prima della bolla Dot-Com in cui Internet era la nuova tecnologia dirompente, questi svantaggi andranno man mano a scomparire con l’adozione di massa e il passare del tempo. Le persone, infatti, si adatteranno ai nuovi standard di tecnologia, una volta adottata su larga scala, come hanno fatto con Internet e i PC. IN CONCLUSIONE Ci si può aspettare sicuramente un avanzamento prorompente di questi asset nella Blockchain. I primi esperimenti sono già iniziati da anni e, negli ultimi mesi, le banche centrali e i grandi fondi d’investimento stanno investendo i loro capitali per poter offrire questo tipo di prodotti ai propri clienti. Un esempio è proprio Bankitalia che, l’anno scorso, ha emesso i primi bond sulla blockchain Algorand. FONTI https://www.chainalysis.com/blog/asset-tokenization-explained/#risks https://blog.chain.link/what-is-cryptographic-truth/ https://blog.chain.link/real-world-assets-rwas-explained/ https://www.nasdaq.com/articles/how-is-rwa-real-world-asset-tokenization-disrupting-industries

L’Ai e lo sviluppo economico

Una cosa sulla quale quasi tutti siamo d’accordo è che la tecnologia è fondamentale nel miglioramento della vita umana; non è chiarissimo che cosa la favorisca, come si diffonda o come si trasformi in benessere, però sappiamo che ne abbiamo bisogno. Nell’enciclopedia Treccani la tecnologia viene definita come: “Tecniche utilizzate per produrre oggetti e migliorare le condizioni di vita dell’uomo” “Lo sviluppo di strumenti o di macchine con cui si è risolto un problema o è stato migliorato un aspetto della nostra vita quotidiana” La tecnologia è uno stock di conoscenza, conoscenza che viene applicata alla risoluzione dei problemi dell’uomo. Tecnologia e produzione Dal punto di vista economico ci aiuta in tre modi: Per prima cosa aumenta la produttività di un certo fattore di input, cioè la quantità di beni e servizi che si può ottenere con la stessa quantità di fattore produttivo.   Già un modello abbastanza basilare come quello rappresentato da una funzione Cobb-Douglas aiuta a spiegare questo effetto. La funzione Cobb-Douglas è una funzione di produzione basata su due fattori produttivi, il lavoro e il capitale. Q =𝐴 𝐿^(a)𝐾^(1-a) Dove L è la quantità di lavoro, ad esempio il numero di impiegati, K è il capitale e alpha è un numero tra zero e uno. 1)      I rendimenti sono decrescenti: si può aumentare solo la quantità di un fattore, però il suo effetto decrese per ogni unità in più. 2)      Gode di effetti di scala: se si aumentano entrambi gli input la quantità totale prodotta aumenta. Quindi, in teoria, se aumentano tutti e due si può aumentare la produzione, però considerando che il mondo è limitato e che ciò che conta è la quantità di prodotto per persona che, per forza di cose, se aumentano entrambi rimane basso, alla fine quello che gioca e ha sempre giocato un fattore fondamentale è A, ovvero il livello di tecnologia È abbastanza semplice vedere in quanti ambiti lo sviluppo tecnologico ci abbia aiutati a produrre di più, prendiamo per esempio gli Stati Uniti e la percentuale di lavoratori impiegati in agricoltura. Perché l’agricoltura? L’agricoltura è alla base del mantenimento dei lavoratori in altri settori dell’economia, significa poter sfamare una percentuale più grande di persone impiegate in altri settori. Perché gli Stati Uniti? Perché rimangono un grosso produttore di beni alimentare, quindi si può escludere un possibile effetto specializzazione. Migliora la qualità dei prodotti che consumiamo. Prendiamo per esempio le auto, negli ultimi 50 anni la loro mortalità, misurata, nel caso degli Stati Uniti, in numero di decessi ogni 100 milioni di miglia guidate, è passata da 5.1 a 1.5. Sicuramente molti fattori hanno contribuito al raggiungimento di questo risultato, però il miglioramento tecnologico è stato fondamentale. Spesso contribuisce alla velocizzazione dello sviluppo tecnologico Tralasciando le modalità con cui si innova, se la tecnologia è general purpose o se l’innovazione sia di prodotto o di processo, l’incremento della tecnologia, intesa come stock di conoscenze, ha finora portato ad incremento della velocità con cui se ne introduce di nuova. Questa è la legge dei ritorni accelerati di Kurzweil: per via di un processo di auto valutazione e di effetto composto la crescita tecnologica assume un andamento esponenziale. Noi, come essere umani, facciamo fatica ad immaginarci un aumento della velocità di crescita tecnologica e, dato che la nostra memoria è molto recente, arriviamo ad assumere che sia lineare. In realtà se guardiamo alla storia dell’umanità non sembrerebbe essere così, pur essendo su questo pianeta da 400.000 anni il grosso dello sviluppo (che per adesso riusciamo a cogliere) è avvenuto negli ultimi 200. Perché l’Intelligenza Artificiale? Abbiamo scelto di parlare di questo tema per due ragioni principali, la prima è che è l’argomento del momento (gioco di parole non voluto) e vogliamo capirci qualcosa, la seconda è che l’Intelligenza Artificiale è un’invenzione che ha ed avrà dei risvolti interessantissimi in ambito sociale ed economico. Da persone senza una formazione in ambito scientifico cercheremo di fare, al meglio delle nostre capacità, un’indagine su quelli che sono e saranno i suoi effetti sull’uomo.   Si andrà nel passato, analizzando ciò che è già successo nella storia, in particolare guardando alle tecnologie general purpose, come l’elettricità e lo sviluppo dei computer. Muovendoci verso l’epoca attuale passeremo ad analizzare quali effetti ha già prodotto in ambito informatico, ad esempio i sistemi esperti, e se l’intelligenza artificiale possa essere considerata come un continuo di quella informatica oppure come un qualcosa di diverso. Vedremo gli effetti a breve termine dell’Ai sul lavoro, come ad esempio l’automatizzazione dei processi produttivi e l’introduzione dei co-pilot, sull’apprendimento, sulla distribuzione della ricchezza e sulla misurazione dell’economia. Per finire guarderemo al futuro con l’obiettivo di capire quali possono essere gli effetti a lungo termine sull’umanità, dalla demografia all’integrazione con il cervello umano.

La storia dell’intelligenza artificiale (in breve)

L’intelligenza artificiale è il tema caldo del momento, con questo articolo inauguriamo una nuova serie in cui cerchiamo di analizzarne gli effetti e di comprendere questa tecnologia. La nascita dell’AI per come la conosciamo Anche se fu la Conferenza di Dartmouth ad essere riconosciuta a livello mondiale come il momento della nascita dell’IA, limitarsi a descrivere solo ciò che avvenne dopo indurrebbe erroneamente il lettore a ritenere che prima nulla ci fosse. Fin dall’antichità l’uomo, spinto all’azione da un impulso di autoimitazione, tentò di ricreare parti o caratteristiche di sé, prima con miti e poi, materialmente, con macchine come le thaumata di Erone di Alessandria. Le invenzioni di marchingegni sempre più complessi proseguirono nei secoli successivi, ma la nascita delle IA fu favorita anche dai contributi di altre discipline, come la filosofia, la matematica e la psicologia. In particolare, dalla filosofia sono riscontrabili i risultati relativi al dibattito sulla natura dell’intelligenza e della razionalità; dalla matematica l’approccio logico-formale; dalla psicologia l’analisi delle relazioni fra azione e conoscenza, dalle neuroscienze, per quello che concerne l’indagine sulla ricreazione del funzionamento del cervello umano. Determinanti, però, saranno gli studi sulla cibernetica e di informatica che si svilupparono circa un decennio prima della Conferenza di Dartmouth. In particolare la cibernetica, termine con il quale si intende lo studio unitario dei processi riguardanti “la comunicazione e il controllo nell’animale e nella macchina”, verrà ripresa e incorporata nello studio delle Intelligenze Artificiali con il paradigma delle reti neurali. Il ruolo di turing A fronte di quanto detto non è difficile capire come l’idea di una macchina intelligente non fosse totalmente nuova già nei primi decenni del Novecento, ma il primo a porla in questi termini fu il famoso matematico Alan Turing. Turing creò, nel 1936, la “macchina di Turing”, un modello logico-matematico di un dispositivo meccanico ideale adatto a simulare la logica di un qualsiasi algoritmo computazionale, definito da un insieme di step logici. La sua importanza deriva dalla dimostrazione che un algoritmo eseguibile da una macchina di Turing possa essere anche computato da un qualsiasi altro dispositivo computazionale con adeguata potenza di calcolo, come, ad esempio, un personal computer. Inoltre risale al 1950 il c.d  “Test di Turing” per valutare l’intelligenza di una macchina. Turing, il cui proposito era quello di valutare le capacità di pensiero di una macchina, descrisse questo test in un saggio, il Computing Machinery and Intelligence, e prendendo spunto da un vecchio gioco di società, sostenne come un elaboratore potesse essere considerato intelligente se, nell’interagire con una persona, ignara della identità del suo interlocutore, questa si convincesse dell’umanità di quest’ultimo. Il saggio di Turing, così come le sue macchine, ebbero un’enorme influenza sulla ricerca nell’intelligenza artificiale e sulla filosofia della mente. A fronte di questo pare ovvio come la Conferenza di Dartmouth non sia stata un evento casuale e isolato, ma il necessario sviluppo delle teorie e degli studi precedenti, soprattutto della prima metà del Novecento.  L’entusiasmo iniziale ed il primo inverno dell’AI. Gli anni che seguirono Dartmouth furono segnati da grandi aspettative, incoraggiate, anche, dall’esponenziale crescita dei supporti informatici. Due sono le tendenze rilevate in questi anni; da una parte vi era un gruppo, guidato da Newell, che coltivava interesse nella simulazione dei processi cognitivi umani per mezzo dell’elaboratore ( paradigma della simulazione) , dall’altra, la restante schiera di esperti il cui unico scopo era il raggiungimento della migliore prestazione possibile per i programmi indipendentemente dal fatto che le procedure risultassero effettivamente imitative dei procedimenti umani (paradigma della prestazione). Dopo un primo periodo di forte entusiasmo, nel quale gli studi videro il favore degli investitori, in particolare dalla DARPA, azienda governativa statunitense, gli anni che seguirono furono caratterizzati da profondi insuccessi che condussero i ricercatori, negli anni 70 del Novecento, a concentrarsi su aree più ristrette di competenza nelle quale diventava fondamentale la conoscenza di uno specifico dominio. Questo portò alla realizzazione dei c.d. sistemi aperti, nel quale la conoscenza era legata tanto alla comprensione teorica quanto ad alcune specifiche regole euristiche determinanti per la risoluzione di un determinato problema.  Queste due conoscenze, che si manifestavano come in un esperto umano di uno specifico settore, venivano codificate e rappresentate in una forma che l’elaboratore utilizzava per risolvere problemi simili a quelli affrontati dall’esperto umano. I primi sistemi aperti furono  DENDRAL, programmato per studi di tipo biochimico, e MYCIN, che incorporava conoscenza medica specifica attraverso cui fornire terapie per infezioni batteriche. Dagli anni 80 al giorno d’oggi Dopo il superamento di questo periodo di stallo, chiamato in gergo “inverno dell’intelligenza artificiale” perciò, si assistette ad un relativamente rapido sviluppo. Negli anni ‘80 infatti si applicò un algoritmo, basato sulla retropropagazione dell’errore, che risolvette con successo numerosi problemi di apprendimento in informatica e ingegneria. Ma, a seguito di un secondo calo di interesse dovuto all’incapacità dei fornitori commerciali di sviluppare una vasta gamma di soluzioni praticabili e il conseguente fallimento di aziende, si iniziò a ritenere l’IA come impraticabile e persino il termine venne messo al bando. Era questo il secondo inverno per la tecnologia del XXI secolo che terminò negli anni ‘90, quando la sfida si concretizzò con l’obiettivo di superare il “Test di Turing”.  Sempre più ingegneri del software svilupparono bot, programmi software progettati per automatizzare attività ripetitive e predefinite su internet, in grado di sostenere una conversazione umana e nel 1997 Deep Blue, calcolatore molto potente dell’epoca, vinse per la prima volta una partita a scacchi contro l’allora campione del mondo Garry Kasparov. Si riscontrarono quindi i primi successi grazie a computer più veloci in grado di elaborare una maggior quantità di dati. Nonostante ciò bisognerà aspettare la fine del primo decennio del 2000 prima che gli investitori riacquistino fiducia nel progetto, vista anche l’ormai maturità sia dei mezzi che dei metodi. Ad oggi questo lungo e inesorabile percorso, che vede ormai le Intelligenze Artificiali protagoniste in molti ambiti della nostra esistenza, che sia per svago o per utilità, costringe a domandarsi quale sia l’approccio migliore verso sistemi che ci assomigliano e ci assomiglieranno sempre di più. In