Cerca
Close this search box.

Laureanda, speriamo presto laureata, in giurisprudenza, Romagnola doc cresciuta a piadina, squacquerone e prosciutto.

WhatsApp_Image_2024-01-23_at_12.18.03_PM2

Sofia Lasi

I miei progetti:

Da novembre 2022 collaboro con il consulente finanziario Mirko Tessari per la realizzazione di articoli per il suo blog.

Link agli articoli scritti in collaborazione:

 

Da giugno 2023 collaboro con la pagina Ragionamenti Finanziari per la realizzazione dei contenuti.

Link ai contenuti scritti in collaborazione:

Condivido il mio percorso per prendere la certificazione IFTA I e II.

Trovi tutti i riassunti, i miei appunti e bigini nella sezione oikonopedia.

I miei articoli:

Società

Democrazia sotto l’occhio del Deepfake: Il Ruolo dell’IA nelle Elezioni

Stati Uniti, Unione Europea, ma anche Indonesia, Iran, Russia e Taiwan: cos’hanno in comune queste nazioni? In tutte si svolgeranno delle elezioni nel 2024. Alcuni le chiamano «Mega elezioni»1, si stima infatti che ben 4 miliardi di persone saranno chiamate al voto per un totale del 51% della popolazione del pianeta. Potrebbe suscitare curiosità il legame tra l’Intelligenza Artificiale e le elezioni, ma considerando che già nel 2016 ci sono stati casi in cui i social media sono stati accusati di aver influenzato radicalmente gli utenti2, con l’avvento dell’Intelligenza Artificiale, il potenziale di intervenire nel processo elettorale si è notevolmente ampliato. Ciò non per forza con risvolti negativi; infatti, in molti casi può essere utilizzata per aiutare gli elettori a comprendere e confrontare le posizioni dei diversi candidati su varie questioni. Inoltre, può assistere i candidati nell’analisi dei desideri degli elettori e nella creazione di programmi che creino un rapporto diretto con l’elettore.3 Come nota Schneier nell’articolo AI and US Election Rules ci sono usi legittimi più o meno nobili dell’IA, come ad esempio la creazione di satira su candidati avversari, che poco si discostano dai vecchi sistemi di photoshop, o di chatbot in grado di comunicare personalmente con l’elettore, mentre altri sono più complessi da distinguere e impongono l’assunzione di maggiori tutele. Attualmente, grande preoccupazione riguarda i deepfake: l’avanzamento delle soluzioni di Intelligenza Artificiale generativa rende sempre più semplice la creazione iperrealistiche di foto, video e registrazioni audio falsi, con l’obiettivo di danneggiare l’immagine pubblica di un candidato, sostenere teorie o influenzare negativamente i voti. Il Center for countering digital hate (Ccdh )4 ha evidenziato come i principali generatori di immagini con Intelligenza Artificiale possano creare elementi utili per destare disinformazione sulle elezioni nel 41% dei casi, inclusi immagini che potrebbero supportare false affermazioni su candidati o frodi elettorali. I governi non sono sordi a queste problematiche e una dimostrazione viene dalle linee guida della Commissione Europea del 26.03.20245 nelle quali si invitano le aziende del settore ad imporre etichette sui video fake per renderli riconoscibili e ad una maggiore trasparenza sui messaggi elettorali diffusi dagli influencer. Pur non essendo questi obblighi ma solo raccomandazioni contenute in linee guida, si instaurano nel panorama del nuovo Digital service act (DSA) che impone alle piattaforme con più di 45 milioni di utenti nell’UE di prevenire e contrastare la diffusione di contenuti illegali e dannosi, includendo tra questi, quello che potrebbe «minare l’integrità delle elezioni»6 e seguono di pochi giorni la richiesta formale di informazioni in merito alle misure adottate per mitigare i rischi associati all’IA generativa, inclusa la diffusione di deepfake e le manipolazioni che potrebbero ingannare gli elettori, della Commissione a Bing, Google Search, Facebook, Instagram, Snapchat, TikTok, YouTube e X. Inoltre,significativo è l’impegno delle grandi società tecnologiche, tra cui spiccano Google, Microsoft e OpenAI, che proprio in previsione dell’eccezionalità dell’anno hanno stretto un accordo, noto come Tech Accord to Combat against Deceptive Use of AI in 2024 Elections, con l’obiettivo «di impostare le aspettative per il modo in cui i firmatari gestiranno i rischi derivanti dall’ AI Election»7 Come le società leader stesse dichiarano «Siamo impegnati a fare la nostra parte come società di tecnologia, pur riconoscendo che l’uso ingannevole di AI non è solo una sfida tecnica, ma una questione politica, sociale ed etica e spero che gli altri si impegnino in modo simile all’azione in tutta la società.»8 L’accordo firmato rappresenta un impegno volontario per promuovere sette obiettivi principali nel contesto della gestione dei contenuti elettorali ingannevoli generati artificialmente. Questi obiettivi includono la prevenzione attraverso l’applicazione di precauzioni ragionevoli, l’identificazione dell’origine dei contenuti, il rilevamento attivo di contenuti ingannevoli, la pronta risposta a incidenti, l’apprendimento dalle esperienze passate, l’educazione del pubblico sulle pratiche mediatiche elettorali, e il sostegno allo sviluppo di strumenti di difesa e risorse per proteggere il dibattito pubblico e l’integrità democratica dall’uso di contenuti elettorali artificialmente manipolati. Nel quadro dei loro impegni fino al 2024, le parti coinvolte si adoperano con determinazione per affrontare le sfide poste dai contenuti elettorali ingannevoli generati artificialmente concentrandosi sullo sviluppo e sull’implementazione di tecnologie avanzate, lavorano per mitigare i rischi associati a tali contenuti. Questo impegno comprende il sostegno allo sviluppo di soluzioni innovative per identificare e certificare l’autenticità del contenuto, nonché l’adozione di metodi di tracciabilità e controllo delle immagini generate dall’IA. Parallelamente, si impegnano nella valutazione continua dei modelli inclusi nell’accordo al fine di comprendere meglio i rischi e migliorare i controlli. Si sforzano anche di promuovere la resilienza intersettoriale, condividendo le migliori pratiche e gli strumenti per affrontare il contenuto elettorale ingannevole in modo tempestivo ed efficace. Punto che poi si lega anche alla più recente disciplina governativa è il fatto che anche i privati riconoscano nella trasparenza un elemento chiave del loro approccio. Le parti coinvolte nell’accordo infatti si impegnano a fornire informazioni chiare sulle politiche adottate e sulle azioni intraprese per contrastare il contenuto ingannevole, collaborando attivamente con organizzazioni della società civile, accademici ed esperti. Inoltre, riconoscendo l’importanza dell’educazione e della sensibilizzazione del pubblico, si adoperano per promuovere la consapevolezza sui rischi associati al contenuto elettorale ingannevole e per fornire strumenti e risorse educative per proteggere il pubblico dalla manipolazione e dall’inganno. In conclusione, l’impegno delle società private del settore tecnologico nel garantire l’integrità della democrazia è un passo significativo verso la costruzione di un ambiente online sicuro e affidabile durante i processi elettorali. Il riconoscimento dei rischi associati ai contenuti elettorali ingannevoli generati artificialmente e gli sforzi per sviluppare e implementare soluzioni tecnologiche per contrastarli sono cruciali. Tuttavia, è importante sottolineare che la responsabilità di preservare la democrazia non ricade solo sulle spalle delle società private del tech o sui governi, ma anche sui cittadini stessi. È fondamentale che ogni individuo partecipi attivamente nell’analizzare criticamente le informazioni che riceve e nell’esercitare il proprio diritto al voto in modo informato. Solo attraverso un impegno condiviso tra le aziende tecnologiche, i governi e i cittadini, si può garantire un panorama elettorale equo e trasparente, preservando così i fondamenti stessi della democrazia. Fonti 1

Read More »
Tech

L’AI e l’etica

Etica, dal greco ἔθοϚ «costume, carattere», fa riferimento a tutte le considerazioni sui principi legati alla morale e al comportamento pratico dell’uomo1, includendo l’identificazione dei diritti e dei doveri morali verso sé stessi e gli altri, al fine di ottenere criteri di valutazione per le azioni umane2. L’avvento dell’Intelligenza Artificiale (IA) ha causato non pochi quesiti sotto molti punti di vista, tra cui anche quello etico, ramificato in diverse questioni, che verranno pian piano sviscerate nel corso di questa serie. Prima di procedere è utile sottolineare che l’etica ha carattere fortemente territoriale e culturale, per quello che qui concerne prenderemo a riferimento prevalentemente la cultura occidentale euro-statunitense. I temi attorno all’etica dell’IA si possono riassumere in 8 punti cardine3 che sono alla base delle recenti normative tra cui ritroviamo principalmente la privacy, la responsabilità e la sicurezza, la trasparenza e la lotta alle disuguaglianze, ma anche il controllo umano della tecnologia, insieme alla responsabilità professionale e alla promozione dei valori umani. In merito alla privacy, ad esempio, un esempio tangibile è il provvedimento del Garante del 31 marzo 2023 contro Chatgpt per la raccolta illecita di dati personali4 con il quale il garante ha disposto con effetto immediato «la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense»5. Con il provvedimento emesso il garante evidenziava la mancanza di una adeguata informativa agli utenti oltre che l’assenza di una base giuridica che giustificasse la massiccia raccolta e conservazione di dati personali. Altra sfida è la determinazione della responsabilità giuridica in caso di danni causati dall’IA, e, in questo caso l’esempio di cui si abusa è quello del veicolo a guida autonoma. Ma di fondamentale importanza sono anche le questioni legate alla trasparenza nell’utilizzo di questi sistemi che causano inevitabilmente disuguaglianze informative e non ed è per questo che i governi di tutto il mondo si stanno interessando alla materia.  Non è un caso infatti che queste tematiche siano al centro sia della disciplina dell’AI Act che  nell’Executive Order statunitense, anche se quest’ultimo risente dell’approccio americano ed è caratterizzato da un approccio molto più liberale e a favore delle grandi imprese. Dal punto di vista nazionale notiamo come dalla necessità di rispondere nel modo migliore si sia generata la costituzione della Società Italiana per l’Etica dell’Intelligenza Artificiale (SIpEIA) che si definisce come «come associazione culturale che riunisce accademici, studiosi, operatori, aziende e cittadini interessati ai problemi etici sollevati dalla IA»6, di fatto promuove corsi e articoli sul tema. È in questo contesto che diventa fondamentale l’insegnamento al rapportarsi con gli strumenti. L’AI Literacy7 viene definita come un insieme di competenze che consentono una solida comprensione dell’IA attraverso tre assi prioritari: apprendimento dell’IA, apprendimento di come funziona l’IA e apprendimento per la vita con l’IA e la sua implementazione. Nell’AI Literacy si inizia, infatti, col capire cosa effettivamente sia l’intelligenza artificiale e come funziona. Questo include introdurre la familiarità con concetti come il machine learning, le reti neurali e gli algoritmi di IA, in quanto la comprensione è essenziale per riconoscere le applicazioni pratiche dell’IA nei vari contesti. Un’ulteriore componente importante è la capacità di valutare criticamente le soluzioni basate sull’intelligenza artificiale. Questo implica essere consapevoli dei potenziali bias nei dati di addestramento e delle implicazioni etiche associate all’uso dell’IA. Essere alfabetizzati in IA significa di fatto anche saper utilizzare strumenti basati su quest’ultima o collaborare con sistemi intelligenti per migliorare l’efficienza e l’automazione in vari contesti. Poiché la tecnologia dell’IA è in continua evoluzione, l’AI Literacy richiede un’attitudine all’apprendimento continuo e l’aggiornamento delle conoscenze. Come anticipato, l’obiettivo principale sarà quello di esaminare le molteplici questioni etiche suscitate dall’avvento dell’Intelligenza Artificiale. Attraverso un’analisi approfondita di tali problematiche, siamo più preparati a comprendere l’impatto complessivo dell’IA sulla società e a sviluppare strategie per gestire in modo efficace le sfide etiche che essa presenta. NOTE 1 C.A. VIANO, voce « Etica», in Enc. Trec., 1993 2Ibidem 3 J.FJELD, N. ACHTEN,H.HILLIGOSS, A.C.NAGY, M. SRIKUMAR, Principled Artificial Intelligence Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI, in The Berkman Klein Center for Internet e Society, 2020 4 Garante della Privacy, Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori, Doc-Web 9870847, 2023 5Ibidem 7 D.BASHIR, AI Literacy : Understanding Shifts in our Digital Ecosystem , in New Degree Press, 2022

Read More »
Economia e Finanza

Emilia terra di unicorni: il caso Bio-on

Mentre penso che ognuno di noi abbia almeno una vaga idea di cosa sia accaduto a Parmalat, uno dei più noti casi di frode finanziaria e contabile nella storia aziendale italiana, ritengo che meno conosciuto, ma altrettanto interessante sia il caso Bio-on, l’unicorno emiliano della bioplastica. Le udienze per il caso Bio-on sono tutt’ora in corso, in particolare nell’anno che si è appena concluso è entrato nel vivo il processo a carico del fondatore e presidente Marco Astorri, del suo vice Guido Cicognani e di altri sette, tra dirigenti aziendali e revisori dei conti, accusati di diversi reati, tra cui bancarotta fraudolenta impropria, distrazione, manipolazione del mercato e tentato ricorso abusivo al credito. Prima però di avventurarsi nelle cause che hanno portato a tale epilogo e al motivo per cui il caso venga ad oggi associato a quello più noto dell’industria casearia, reputo necessario ripercorrere la storia del primo “unicorno” emiliano. La storia Era il 2006, quando Marco Astorri, grafico pubblicitario, gestendo una fornitura di skypass sulle Dolomiti, si trova di fronte a una sfida inaspettata. Il problema, sebbene apparentemente semplice, era insormontabile: cercare un materiale biodegradabile adatto per gli skypass, ma che non fosse né plastica, per non inquinare le piste, né carta, che bagnandosi avrebbe compromesso il corretto funzionamento del dispositivo. Dopo notti insonni a cercare possibili soluzioni e l’aver attraversato l’oceano per acquistare i brevetti ad Honolulu, Bio-on nasce nel 2007 come intellectual property company, avente sede a Bologna, con l’obiettivo, per far fronte al problema dell’inquinamento da plastica, di riuscire a produrre a livello industriale il Pha, che fa parte della famiglia delle c.d. bioplastiche. Nel 2014 la start-up si quotò in borsa sul listino AIM e nel corso del 2018, il valore del titolo registrò un repentino aumento, passando da 31 a 71 euro entro la fine di luglio e portando la capitalizzazione di mercato oltre il miliardo di euro. Bio-on diventò così l’unicorno delle bioplastiche e per circa un anno il valore nominale si mantenne stabile, ma a seguito delle accuse avanzate dal fondo americano Quintessential, il titolo crollò inesorabilmente. Nel video-denuncia, infatti, Gabriele Greco, rappresentante del fondo, accusò la società emiliana di essere una “grande bolla basata su tecnologia improbabile, con crediti e fatturato simulati”. In aggiunta, il fatto che Bio-On non avesse ancora effettivamente prodotto o venduto quasi nulla ulteriormente compromise la già precaria situazione finanziaria. Nonostante l’aumento del valore del titolo, infatti, il prodotto di Bio-on aveva dimostrato di non essere adatto alla produzione su scala industriale a causa degli elevati costi di fabbricazione, che avrebbero inevitabilmente influito sul prezzo finale, compromettendo la competitività del prodotto. Inoltre, dopo le accuse emerse che le tecnologie e i brevetti alla base del prodotto risalivano addirittura al 1926; erano perciò obsolete e di efficacia discutibile. Le dichiarazioni di Quintessential, nonostante fosse esplicitato che il fondo avesse un interesse economico nella caduta delle azioni, ebbero ovviamente un impatto significativo sul mercato, causando la perdita di oltre 700 milioni di capitalizzazione e portando la Consob a sospendere il titolo dalle contrattazioni. In breve tempo questo subì una diminuzione dell’82% del suo valore di mercato, i ricavi crollarono, e poco dopo, quando le perdite superarono i 10 milioni di euro il titolo venne definitivamente sospeso dalla contrattazione. La rilevazione di potenziali illeciti contabili ha determinato l’avvio di un’azione di accertamento promossa d’ufficio dal Tribunale di Bologna, e a seguito dell’indagine svolta dalla Guardia di Finanza si è evidenziata una serie di operazioni societarie tese esclusivamente a creare entità fittizie, note come “scatole vuote“, con lo scopo di legittimare transazioni interne al gruppo societario, come l’acquisto di licenze, a favore della casa madre. Parallelamente, si è riscontrata una strategia di alterazione dei dati contabili mirata a far apparire come raggiunti gli obiettivi aziendali e finanziari. L’obiettivo finale di tali manovre, originariamente riconducibili a finanza straordinaria e poi tradotte in termini contabili, era di sostenere il valore azionario di Bio-on. Il 20 dicembre 2019 è stata dichiarata la bancarotta di Bio-On e, come annunciato dal Tribunale Fallimentare, tutti gli asset di Bio-On, compreso il sito produttivo di Castel San Pietro Terme, il portafoglio di brevetti e marchi, le partecipazioni azionarie, la tecnologia fermentativa, i beni mobili, le attrezzature e le scorte di magazzino, sono stati messi all’asta in un unico lotto per essere poi rilevati da Haruki S.p.A . Plastic Bubble e Parmalat La vicenda “Plastic bubble” viene, come anticipato, spesso accostata al caso Parmalat; non a caso lo stesso video-denuncia di Greco si intitola “Bio-on S.p.A.: Una Parmalat a Bologna?”. Alcune similitudini si possono riscontrare fin da subito dopo la quotazione, in modo simile a quanto accaduto con Bio-On, Parmalat ha adottato una strategia di crescita basata su acquisizioni internazionali, finanziando prevalentemente queste operazioni attraverso l’emissione di obbligazioni sul mercato. Tuttavia, le acquisizioni effettuate erano solo marginalmente correlate con l’attività principale di Parmalat e contribuivano in modo limitato alla sua espansione. Spesso coinvolgevano imprese di grandi dimensioni in difficoltà, che aumentavano il fatturato del Gruppo, ma al contempo amplificavano le perdite operative, occultate attraverso la sistematica manipolazione dei bilanci. Come osservato sia in Parmalat che in Bio-On, la dirigenza aziendale ha adottato una pratica di creazione di “scatole vuote” o imprese “operativamente improduttive” per presentare una percezione distorta di crescita ed efficienza. Nonostante l’annuncio di ambiziosi progetti e partnership con aziende multinazionali, come IKEA,o all’avanguardia nella ricerca nel periodo 2015-2019, Bio-On non ha registrato progressi significativi. L’obiettivo sembrava concentrarsi principalmente sulla creazione di società affiliate con contratti di licenza per la propria tecnologia, generando entrate principalmente attraverso operazioni interne al gruppo. In analogia a Bio-On, Parmalat, prima del suo default, ha continuato a contrarre consistenti operazioni di debito quasi mensili, con importi superiori a cento milioni di euro, comportando elevati costi in termini di commissioni e interessi. L’indebitamento è così cresciuto in modo esponenziale dal 1990 al 2003. Le distrazioni di rilevanza erano finalizzate a coprire debiti personali, sostenere aumenti di capitale per mantenere il controllo sulla società quotata e fornire supporto alle società affiliate nel settore

Read More »
Tech

La storia dell’intelligenza artificiale (in breve)

L’intelligenza artificiale è il tema caldo del momento, con questo articolo inauguriamo una nuova serie in cui cerchiamo di analizzarne gli effetti e di comprendere questa tecnologia. La nascita dell’AI per come la conosciamo Anche se fu la Conferenza di Dartmouth ad essere riconosciuta a livello mondiale come il momento della nascita dell’IA, limitarsi a descrivere solo ciò che avvenne dopo indurrebbe erroneamente il lettore a ritenere che prima nulla ci fosse. Fin dall’antichità l’uomo, spinto all’azione da un impulso di autoimitazione, tentò di ricreare parti o caratteristiche di sé, prima con miti e poi, materialmente, con macchine come le thaumata di Erone di Alessandria. Le invenzioni di marchingegni sempre più complessi proseguirono nei secoli successivi, ma la nascita delle IA fu favorita anche dai contributi di altre discipline, come la filosofia, la matematica e la psicologia. In particolare, dalla filosofia sono riscontrabili i risultati relativi al dibattito sulla natura dell’intelligenza e della razionalità; dalla matematica l’approccio logico-formale; dalla psicologia l’analisi delle relazioni fra azione e conoscenza, dalle neuroscienze, per quello che concerne l’indagine sulla ricreazione del funzionamento del cervello umano. Determinanti, però, saranno gli studi sulla cibernetica e di informatica che si svilupparono circa un decennio prima della Conferenza di Dartmouth. In particolare la cibernetica, termine con il quale si intende lo studio unitario dei processi riguardanti “la comunicazione e il controllo nell’animale e nella macchina”, verrà ripresa e incorporata nello studio delle Intelligenze Artificiali con il paradigma delle reti neurali. Il ruolo di turing A fronte di quanto detto non è difficile capire come l’idea di una macchina intelligente non fosse totalmente nuova già nei primi decenni del Novecento, ma il primo a porla in questi termini fu il famoso matematico Alan Turing. Turing creò, nel 1936, la “macchina di Turing”, un modello logico-matematico di un dispositivo meccanico ideale adatto a simulare la logica di un qualsiasi algoritmo computazionale, definito da un insieme di step logici. La sua importanza deriva dalla dimostrazione che un algoritmo eseguibile da una macchina di Turing possa essere anche computato da un qualsiasi altro dispositivo computazionale con adeguata potenza di calcolo, come, ad esempio, un personal computer. Inoltre risale al 1950 il c.d  “Test di Turing” per valutare l’intelligenza di una macchina. Turing, il cui proposito era quello di valutare le capacità di pensiero di una macchina, descrisse questo test in un saggio, il Computing Machinery and Intelligence, e prendendo spunto da un vecchio gioco di società, sostenne come un elaboratore potesse essere considerato intelligente se, nell’interagire con una persona, ignara della identità del suo interlocutore, questa si convincesse dell’umanità di quest’ultimo. Il saggio di Turing, così come le sue macchine, ebbero un’enorme influenza sulla ricerca nell’intelligenza artificiale e sulla filosofia della mente. A fronte di questo pare ovvio come la Conferenza di Dartmouth non sia stata un evento casuale e isolato, ma il necessario sviluppo delle teorie e degli studi precedenti, soprattutto della prima metà del Novecento.  L’entusiasmo iniziale ed il primo inverno dell’AI. Gli anni che seguirono Dartmouth furono segnati da grandi aspettative, incoraggiate, anche, dall’esponenziale crescita dei supporti informatici. Due sono le tendenze rilevate in questi anni; da una parte vi era un gruppo, guidato da Newell, che coltivava interesse nella simulazione dei processi cognitivi umani per mezzo dell’elaboratore ( paradigma della simulazione) , dall’altra, la restante schiera di esperti il cui unico scopo era il raggiungimento della migliore prestazione possibile per i programmi indipendentemente dal fatto che le procedure risultassero effettivamente imitative dei procedimenti umani (paradigma della prestazione). Dopo un primo periodo di forte entusiasmo, nel quale gli studi videro il favore degli investitori, in particolare dalla DARPA, azienda governativa statunitense, gli anni che seguirono furono caratterizzati da profondi insuccessi che condussero i ricercatori, negli anni 70 del Novecento, a concentrarsi su aree più ristrette di competenza nelle quale diventava fondamentale la conoscenza di uno specifico dominio. Questo portò alla realizzazione dei c.d. sistemi aperti, nel quale la conoscenza era legata tanto alla comprensione teorica quanto ad alcune specifiche regole euristiche determinanti per la risoluzione di un determinato problema.  Queste due conoscenze, che si manifestavano come in un esperto umano di uno specifico settore, venivano codificate e rappresentate in una forma che l’elaboratore utilizzava per risolvere problemi simili a quelli affrontati dall’esperto umano. I primi sistemi aperti furono  DENDRAL, programmato per studi di tipo biochimico, e MYCIN, che incorporava conoscenza medica specifica attraverso cui fornire terapie per infezioni batteriche. Dagli anni 80 al giorno d’oggi Dopo il superamento di questo periodo di stallo, chiamato in gergo “inverno dell’intelligenza artificiale” perciò, si assistette ad un relativamente rapido sviluppo. Negli anni ‘80 infatti si applicò un algoritmo, basato sulla retropropagazione dell’errore, che risolvette con successo numerosi problemi di apprendimento in informatica e ingegneria. Ma, a seguito di un secondo calo di interesse dovuto all’incapacità dei fornitori commerciali di sviluppare una vasta gamma di soluzioni praticabili e il conseguente fallimento di aziende, si iniziò a ritenere l’IA come impraticabile e persino il termine venne messo al bando. Era questo il secondo inverno per la tecnologia del XXI secolo che terminò negli anni ‘90, quando la sfida si concretizzò con l’obiettivo di superare il “Test di Turing”.  Sempre più ingegneri del software svilupparono bot, programmi software progettati per automatizzare attività ripetitive e predefinite su internet, in grado di sostenere una conversazione umana e nel 1997 Deep Blue, calcolatore molto potente dell’epoca, vinse per la prima volta una partita a scacchi contro l’allora campione del mondo Garry Kasparov. Si riscontrarono quindi i primi successi grazie a computer più veloci in grado di elaborare una maggior quantità di dati. Nonostante ciò bisognerà aspettare la fine del primo decennio del 2000 prima che gli investitori riacquistino fiducia nel progetto, vista anche l’ormai maturità sia dei mezzi che dei metodi. Ad oggi questo lungo e inesorabile percorso, che vede ormai le Intelligenze Artificiali protagoniste in molti ambiti della nostra esistenza, che sia per svago o per utilità, costringe a domandarsi quale sia l’approccio migliore verso sistemi che ci assomigliano e ci assomiglieranno sempre di più. In

Read More »

Cose di me che ti posso raccontare:

All-in-One Solution
Find all the tools you’ll need to create advanced websites in one place. Stop waisting time searching for solutions.
All-in-One Solution
Find all the tools you’ll need to create advanced websites in one place. Stop waisting time searching for solutions.
All-in-One Solution
Find all the tools you’ll need to create advanced websites in one place. Stop waisting time searching for solutions.