Cerca
Close this search box.

Leggi tutti gli articoli.

Condividiamo competenze per un’informazione opensource.

Poichè come disse il signor Kenneth Galbraith “L’unica funzione che hanno le previsioni economiche è quella di rendere l’astrologia rispettabile”: raccogliamo i nostri pensieri senza tante pretese su quello che succede nel mondo.

Qui puoi trovare tutti gli articoli che abbiamo scritto. Scegli il titolo che ti ispira e clicca sul link: buona lettura.

Seleziona la categoria che ti interessa:

I nostri ultimi articoli...

Società

1992, la fine di un’era

Capita, ascoltando il dibattito politico, di veder affiorare vecchie nostalgie riguardo la prima repubblica: è un classico sintomo della classe politica italiana, revisionare il passato per giustificare i propri errori. Ma  com’è avvenuta la transizione tra prima e seconda repubblica? E come facciamo a capire quando una repubblica finisce? Forse è meglio iniziare dalla seconda domanda. Anzitutto, le convenzioni “prima” e “seconda” repubblica sono per lo più giornalistiche e aiutano ad indicare di quale classe politica stiamo parlando con precisione; solitamente si parla di “cambio di repubblica” quando avvenimenti eclatanti scuotono i palazzi del potere politico italiano fino a cambiarne le fondamenta. Le prime scosse Il 5 aprile 1992 il Corriere della Sera tuona in prima pagina: TERREMOTO! L’ITALIA PROTESTA ELEZIONI TERREMOTO! Per la prima volta dal 1948, la Democrazia Cristiana perde 2 punti percentuali e la crescita del Partito Socialista Italiano si ferma; da questi sconcertanti declini trae profitto il nuovo partito di Umberto Bossi, la Lega Nord e, nel frattempo, tutti i giornali parlano già di stagione dell’ingovernabilità, dati i disastrosi risultati elettorali. Nel frattempo il Presidente della Repubblica Francesco Cossiga si dimette con 2 mesi di anticipo dalla fine del suo mandato. Tutto questo tumulto a Roma ha una spiegazione precisa e per capirne le cause dobbiamo spostarci a Milano, dove da mesi gli occhi e le orecchie degli italiani sono puntati sull’indagine “Mani Pulite”, con cui il sostituto procuratore Antonio Di Pietro e il suo pool stanno sgominando un racket di imprenditori e dirigenti di partito che, col loro sistema di tangenti, stanno massacrando l’apparato economico ed edilizio di una città; tra gli indagati figurano nomi eccellenti come Aldo Forlani, all’epoca segretario della DC, e Bettino Craxi, segretario del PSI. Aggiungi qui il testo dell’intestazione In questo clima di disordine politico, l’11 maggio 1992, inizia a Roma, il grande ballo della Repubblica Italiana, l’elezione del 9° Presidente della Repubblica.  Il gotha DC si riunisce a Palazzo Sturzo per scegliere il candidato da presentare: al tavolo delle decisioni siedono Forlani, De Mita, Gava, Mancino e, ovviamente, Andreotti. Nel 1992 il divo Giulio è a capo del suo settimo governo; è il purosangue della politica italiana e, all’età di 73 anni, è appena stato nominato senatore a vita, ma viene da un periodo politico complesso. Ha appena dovuto firmare il decreto scritto da Giovanni Falcone che riporta dietro le sbarre i boss di mafia scarcerati per “decorrenza dei termini”; in più, gravano sul destino del giudice le centinaia di condanne ai danni della mafia, proclamate il 30 gennaio, dal maxiprocesso a cosa nostra. Di tutta risposta alla firma del decreto il 12 marzo ‘92, la mafia crivella di colpi Salvo Lima uomo chiave della corrente andreottiana in Sicilia.  Andreotti prende nota, sa che l’unica carica che manca alla sua collezione è quella al Quirinale; infatti, tramite ufficiose agenzie che circolano nei palazzi, si viene a sapere che Andreotti si starebbe muovendo come uomo per tutte le stagioni.   A questo punto, è bagarre interna alla DC tra Forlani e Andreotti: entrambi sanno che è l’ultima possibilità per ambire a questa carica ed il partito sceglie di spingere sulla candidatura del  segretario Forlani anziché sostenere Andreotti. È il primo giorno di votazioni, per la prima volta nella storia repubblicana i grandi elettori voteranno all’interno di catafalchi. Scalfaro (Presidente della Camera) inizia la chiama e l’unico nome degno di nota in questa giornata è quello di Di Pietro, che viene votato più volte ma è ineleggibile perché non ancora cinquantenne. Ma un’altra figura che esce allo scoperto è quella dei franchi tiratori che sono fondamentali in questa elezione.  A fine giornata all’interno della DC è guerra aperta tra Forlani e Andreotti, che è ancora sicuro della sua candidatura e sa di poter contare sulle fila di un “partito ombra” che si estende per tutto l’arco parlamentare: il partito andreottiano. All’alba del quinto scrutinio, Forlani accetta la sconfitta con 299 voti mancanti. Mauro Borghezio (Lega Nord) sarà profetico dicendo che “dentro a quei catafalchi non si votava per il Presidente della Repubblica, si andava a mettere la firma sulla fine della prima repubblica”.  La bomba Forlani è fuori dai giochi, Andreotti comprende che è questo il momento di entrare in scena, sguinzaglia così i suoi fedelissimi a raccogliere voti a destra e a sinistra. Ma le speranze durano poco; alle 17.50 del 23 maggio 1992, in Sicilia scoppia una bomba che fa tremare la penisola da nord a sud; Giovanni Falcone, Francesca Morvillo e gli uomini della scorta, perdono la vita in un terribile attentato sul tratto autostradale di Capaci, firmato Cosa Nostra. Oltre a fare i conti col magistrato, la mafia manda un messaggio chiaro ai suoi ex-amici a Roma. Andreotti capisce: se non ritira la candidatura al Quirinale, il prossimo nella lista sarà lui. Termina, col posarsi delle macerie, la corsa del “Divo”. Ai funerali di Falcone e Morvillo, a rappresentare le istituzioni, c’è Giovanni Spadolini, (Presidente del Senato) tutti pensano sarà lui il prossimo Presidente della Repubblica, ha già pronto il discorso. La bomba Le cose però vanno diversamente, davanti al parlamento riunito in seduta comune Oscar Luigi Scalfaro (Presidente della Camera) formula una domanda che sconquassa il paese: “Ci si domanda ma è solo mafia questa? Ma non ha anche il marchio atroce e inumano del terrorismo? E perché tutto ciò avviene proprio quando il mondo politico appare debole e sconcertato?”. Questa frase e 672 voti, il 25 maggio 1992, renderanno il magistrato novarese Oscar Luigi Scalfaro il 9° Presidente della Repubblica, nonché primo magistrato a ricoprire questa carica,  toccherà a lui essere il faro nella transizione tra prima e seconda repubblica che sta per aprirsi, perchè come dichiarerà Andreotti: “La prima repubblica è finita e quella che verrà dopo è una nebulosa oscura in cui è pericoloso navigare”. Fonti Storia della DC. 1943-1993: mezzo secolo di Democrazia cristiana di Giorgio galli Podcast romanzo quirinale di Marco Damilano e Chora media. Storia Contemporanea vol.2 Pearson Articoli dell’epoca

Read More »
Società

I numeri della sanità mentale

Il passato del tabù mentale Nel passato, avere un disordine psichiatrico era motivo di vergogna per chi ne era affetto e per la sua famiglia. Oltretutto, ammettere di avere un disturbo mentale, ti rendeva pericoloso agli occhi delle persone; infatti, era opinione comune che un “matto” potesse far del male a sé stesso e, peggio ancora, a chi gli stava accanto. Ancora oggi questi retaggi continuano ad essere presenti, nonostante siano numerosi gli interventi attuati contro questo fenomeno di stigmatizzazione. Tutto ciò fa sì che le persone non ricorrano all’aiuto e al supporto necessario, da parte di professionisti della salute. Terapie contemporanee, sfide giovanili e covid-19. Oggi sono diverse le terapie messe in atto per ciascuna delle numerose patologie esistenti, che variano per sintomatologia e gravità. È molto frequente, anche tra i giovani, l’insorgenza di disturbi psichiatrici come ansia, depressione, stati di angoscia e agitazione anche cronica che spesso si manifestano con crisi di panico o dipendenze. Nella società di oggi, si è molto più esposti e probabilmente, non sempre si è in grado di gestire le emozioni, sia proprie che altrui. È noto, inoltre, che anche il lockdown e l’isolamento sociale dovuti alla pandemia del coronavirus abbiano influito sul benessere psicologico degli individui. L’incertezza del domani, la chiusura forzata ha incrementato di oltre il 25% i casi di depressione, stress, disturbi dell’umore, del sonno.  I Limiti e le Prospettive del Supporto Finanziario e Governativo Il più delle volte, questi disturbi risultano risolvibili con l’aiuto di un terapeuta, uno psicologo e questi professionisti hanno un costo non sempre accessibile a tutti.  Si attesta che in Italia, tra il 2015 e il 2018, ciò che il governo ha speso per la salute mentale, si aggira intorno al 3,5% del fabbisogno sanitario nazionale; mentre nel 2019, nel periodo precedente alla pandemia, i valori erano del 3%. Nel 2022 il Governo Italiano ha stanziato circa 25milioni di euro nel tentativo di ridurre i danni causati dalla pandemia del coronavirus. Il “bonus psicologo” prevedeva una cifra di 600 euro per sostenere le spese delle sedute terapeutiche. Ciononostante, i fondi non erano sufficienti per coprire le spese di tutte le domande inoltrate; infatti delle 395mila ricevute, sono state accolte solo poche di più di 40mila. Per di più, a seguito di uno studio della commissione UE, si è evidenziato che delle quasi 400mila domande ricevute, ben 300mila provenivano da giovani di età inferiore ai 35 anni. Nel 2023, dopo la Legge di bilancio, i fondi sono raddoppiati con il solo scopo di soddisfare più richieste possibili, ma ciò non è ancora sufficiente. In Europa, l’Italia è uno degli stati che si dedica meno alla salute mentale con il suo 3,4% della spesa sanitaria, a differenza di quei paesi che, invece, vi dedicano più del 10%. Credo che ad oggi, ci si sta muovendo nella maniera più ottimale per poter fronteggiare l’incremento o il peggioramento di disordini mentali, ma è necessario fare di più come ad esempio, aumentare le campagne di sensibilizzazione; incrementare gli interventi già attuati, come appunto, il bonus psicologo; erogare fondi da investire nelle strutture territoriali e nell’aumento del personale sanitario. La salute è un bene fondamentale e non va tralasciato.  Fonti https://www.politichegiovanili.gov.it/comunicazione/news/2022/10/bonuspsicologico/

Read More »
News

Calcio Italiano in Arabia

Da poco si è conclusa l’edizione 2024 della Supercoppa Italiana disputata in Arabia Saudita, che ha visto trionfare l’Inter contro il Napoli per 1-0. Al di là dal risultato sportivo, le immagini che hanno fatto storcere il naso, sono quelle degli stadi quasi vuoti per alcune partite, cosa del tutto normale dato che squadre come la Fiorentina, tra le partecipanti alla competizione, non hanno praticamente seguito nel paese arabo e sono poco conosciute. A questo punto la domanda sorge spontanea: come ci è finito così lontano da Roma un simile trofeo? La storia del Trofeo A partire dalla sua nascita nel 1988, la Supercoppa Italiana è stata pensata come trofeo che incoronava il vero campione, della stagione precedente appena conclusasi, con una partita diretta tra il vincitore del campionato di Serie A e della Coppa Italia. Trattandosi di un trofeo creato nell’era delle televisioni private e dell’aumento del pubblico potenziale, alla Lega Calcio Italiano venne l’idea di usare questa partita per farsi conoscere all’estero. Del resto di solito a giocarsela erano sempre quelle 3/4 squadre delle città Italiane più grandi  e conosciute all’estero, quindi i nomi delle contendenti erano involontariamente già noti anche per i non appassionati dello sport.  La 6ª edizione della Supercoppa italiana fu il primo tentativo di portare all’estero questa competizione. La partita venne disputata il 21 agosto 1993 al Robert F. Kennedy Memorial Stadium di Washington tra il Milan e il Torino, e si concluse con la vittoria del Milan  per 1-0 con rete di Marco Simone. Quindi, da circa 30 anni la competizione, non è solo una “questione Italiana”. Dopo questa volta, per un’altra edizione all’estero della Supercoppa Italiana si è atteso sino al 2002 con la partita tra Juventus e Parma, conclusa per 2-1 in favore dei bianconeri. Lo scontro venne disputato allo stadio 11 Giugno a Tripoli, Libia. L’anno successivo tornò in America in New Jersey allo Giants Stadium.  Come emerge dalla scelta delle mete, si trattava di città in cui era presente una forte comunità italiana che già segue le squadre che andranno a giocare la partita, dove quindi era facile riempire uno stadio di tifosi interessati. Questi eventi però non riuscivano veramente a portare forti incassi nelle casse squadre o aumento del pubblico per il ritorno della visibilità mediatica. . La svolta internazionale La rivoluzione della competizione per aumentare la visibilità e gli incassi era però dietro l’angolo. A partire dal 2009, la Supercoppa Italiana si disputò molto lontano da Roma, arrivando fino a Pechino. La collaborazione tra la Lega calcio e Federcalcio Cinese, si consolidò poi con le edizioni del 2011-2012-2015. Ospitare un trofeo simile era motivo di prestigio per il governo cinese che voleva gettare le basi storiche per la trasformazione della Cina in una futura superpotenza nel gioco del calcio e nello panorama sportivo mondiale. Questo progetto di creare un sistema sportivo legato al calcio, si articolava in molti modi e con la mobilitazione di grosse risorse e ospitare queste partite era solo uno dei punti.  L’inizio dell’avventura araba della Supercoppa si ha nel 2014, con l’edizione precedente all’ultima nell’estremo oriente. Infatti, quella che si è disputata a Gennaio di quest’anno non era la prima edizione giocata in Medio Oriente, bensì la 6ª. Il governo saudita ha infatti messo in campo in questi anni, la stessa logica di creazione di un retaggio storico per il calcio nazionale ospitando le maggiori competizione e chiamando a sé i migliori talenti sportivi. Perché si gioca in Medio Oriente? A prescindere dall’essere favorevoli o meno con la politica messa in atto dal governo dell’Arabia Saudita per nobilitare lo sport nel suo paese, resta indubbio che esistano importanti vantaggi e ritorni economici che riguardano le squadre e i giocatori che scelgono di partecipare al gioco.  Per quanto riguarda la Supercoppa Italiana, oggi la scelta di giocare all’estero è data da una forte influenza sul montepremi. Tenendo solo conto delle edizioni giocate con l’aggiornamento della valuta dalla lira all’euro. Si può vedere come negli stessi anni, il disputare la finale all’estero abbia portato un notevole impatto sul montepremi finale da dividere tra i vari partecipanti. Nell’ultima colonna è posto il montepremi dovuto alla nuova formula della Supercoppa Italiana che prevede la partecipazione non più solo di due squadre ma delle 4 selezionati secondo particolari criteri. Quindi, grazie all’accordo quadriennale stipulato tra la Federcalcio Italiana ed il governo saudita, il montepremi sia arrivato ad una cifra molto più alta delle precedenti. Somme di rilievo considerando che si tratta di una partita diretta e del prestigio che si riceve dalla vittoria. Montepremi Italia Montepremi Cina  Montepremi Arabia Montepremi nuova modalità in Arabia 3.000.000 6.000.000 6.750.000 23.000.000 Tifosi e sponsor: quanto fanno incassare? Come si è detto in precedenza, far giocare una simile competizione all’estero era principalmente per aumentare il seguito e la popolarità del calcio italiano. Come possiamo vedere nella tabella che segue, le squadre italiane hanno un importante seguito anche all’estero, questi tifosi costituiscono un mercato molto importante per il merchandising e per il ritorno mediatico di queste squadre.  Squadre  Tifosi in Italia  Tifosi nel mondo Incassi sponsor maglia Juventus 8.725.000 27.000.000 57.000.000 Inter 3.975.000 55.000.000 26.000.000 Milan 3.868.000 95.000.000 15.000.000 Napoli 2.783.000 35.000.000 11.000.000 Roma  1.895.000 22.000.000 8.000.000 Fiorentina 673.000 900.000 circa 26.200.000 Lazio 606.000 1.000.000 circa 8.000.000 Cagliari 520.000  800.000 circa 4.000.000 Torino 462.000 600.000 circa 4.000.000 Bologna 328.000 500.000 circa 3.000.000 I dati sui tifosi nel mondo mostrati in tabella riguardano sondaggi eseguiti a livello mondiale per le maggiori squadre europee. I club che figurano con la voce “circa” a seguito del numero, hanno i numeri che sono stime di valutazioni societarie e non veri e propri sondaggi ufficiali. La motivazione più grande della conoscenza visibilità e del seguito all’estero è davanti agli occhi di tutti: gli sponsor. Nell’ultima colonna a destra è presente la voce “Incassi sponsor maglia”, questo perché la maglia della squadra infatti costituisce una pubblicità persistente che ben si imprime nella mente dei tifosi e chi segue le partite di quella squadra. Al punto che per alcune

Read More »
Tech

La storia dell’intelligenza artificiale (in breve)

L’intelligenza artificiale è il tema caldo del momento, con questo articolo inauguriamo una nuova serie in cui cerchiamo di analizzarne gli effetti e di comprendere questa tecnologia. La nascita dell’AI per come la conosciamo Anche se fu la Conferenza di Dartmouth ad essere riconosciuta a livello mondiale come il momento della nascita dell’IA, limitarsi a descrivere solo ciò che avvenne dopo indurrebbe erroneamente il lettore a ritenere che prima nulla ci fosse. Fin dall’antichità l’uomo, spinto all’azione da un impulso di autoimitazione, tentò di ricreare parti o caratteristiche di sé, prima con miti e poi, materialmente, con macchine come le thaumata di Erone di Alessandria. Le invenzioni di marchingegni sempre più complessi proseguirono nei secoli successivi, ma la nascita delle IA fu favorita anche dai contributi di altre discipline, come la filosofia, la matematica e la psicologia. In particolare, dalla filosofia sono riscontrabili i risultati relativi al dibattito sulla natura dell’intelligenza e della razionalità; dalla matematica l’approccio logico-formale; dalla psicologia l’analisi delle relazioni fra azione e conoscenza, dalle neuroscienze, per quello che concerne l’indagine sulla ricreazione del funzionamento del cervello umano. Determinanti, però, saranno gli studi sulla cibernetica e di informatica che si svilupparono circa un decennio prima della Conferenza di Dartmouth. In particolare la cibernetica, termine con il quale si intende lo studio unitario dei processi riguardanti “la comunicazione e il controllo nell’animale e nella macchina”, verrà ripresa e incorporata nello studio delle Intelligenze Artificiali con il paradigma delle reti neurali. Il ruolo di turing A fronte di quanto detto non è difficile capire come l’idea di una macchina intelligente non fosse totalmente nuova già nei primi decenni del Novecento, ma il primo a porla in questi termini fu il famoso matematico Alan Turing. Turing creò, nel 1936, la “macchina di Turing”, un modello logico-matematico di un dispositivo meccanico ideale adatto a simulare la logica di un qualsiasi algoritmo computazionale, definito da un insieme di step logici. La sua importanza deriva dalla dimostrazione che un algoritmo eseguibile da una macchina di Turing possa essere anche computato da un qualsiasi altro dispositivo computazionale con adeguata potenza di calcolo, come, ad esempio, un personal computer. Inoltre risale al 1950 il c.d  “Test di Turing” per valutare l’intelligenza di una macchina. Turing, il cui proposito era quello di valutare le capacità di pensiero di una macchina, descrisse questo test in un saggio, il Computing Machinery and Intelligence, e prendendo spunto da un vecchio gioco di società, sostenne come un elaboratore potesse essere considerato intelligente se, nell’interagire con una persona, ignara della identità del suo interlocutore, questa si convincesse dell’umanità di quest’ultimo. Il saggio di Turing, così come le sue macchine, ebbero un’enorme influenza sulla ricerca nell’intelligenza artificiale e sulla filosofia della mente. A fronte di questo pare ovvio come la Conferenza di Dartmouth non sia stata un evento casuale e isolato, ma il necessario sviluppo delle teorie e degli studi precedenti, soprattutto della prima metà del Novecento.  L’entusiasmo iniziale ed il primo inverno dell’AI. Gli anni che seguirono Dartmouth furono segnati da grandi aspettative, incoraggiate, anche, dall’esponenziale crescita dei supporti informatici. Due sono le tendenze rilevate in questi anni; da una parte vi era un gruppo, guidato da Newell, che coltivava interesse nella simulazione dei processi cognitivi umani per mezzo dell’elaboratore ( paradigma della simulazione) , dall’altra, la restante schiera di esperti il cui unico scopo era il raggiungimento della migliore prestazione possibile per i programmi indipendentemente dal fatto che le procedure risultassero effettivamente imitative dei procedimenti umani (paradigma della prestazione). Dopo un primo periodo di forte entusiasmo, nel quale gli studi videro il favore degli investitori, in particolare dalla DARPA, azienda governativa statunitense, gli anni che seguirono furono caratterizzati da profondi insuccessi che condussero i ricercatori, negli anni 70 del Novecento, a concentrarsi su aree più ristrette di competenza nelle quale diventava fondamentale la conoscenza di uno specifico dominio. Questo portò alla realizzazione dei c.d. sistemi aperti, nel quale la conoscenza era legata tanto alla comprensione teorica quanto ad alcune specifiche regole euristiche determinanti per la risoluzione di un determinato problema.  Queste due conoscenze, che si manifestavano come in un esperto umano di uno specifico settore, venivano codificate e rappresentate in una forma che l’elaboratore utilizzava per risolvere problemi simili a quelli affrontati dall’esperto umano. I primi sistemi aperti furono  DENDRAL, programmato per studi di tipo biochimico, e MYCIN, che incorporava conoscenza medica specifica attraverso cui fornire terapie per infezioni batteriche. Dagli anni 80 al giorno d’oggi Dopo il superamento di questo periodo di stallo, chiamato in gergo “inverno dell’intelligenza artificiale” perciò, si assistette ad un relativamente rapido sviluppo. Negli anni ‘80 infatti si applicò un algoritmo, basato sulla retropropagazione dell’errore, che risolvette con successo numerosi problemi di apprendimento in informatica e ingegneria. Ma, a seguito di un secondo calo di interesse dovuto all’incapacità dei fornitori commerciali di sviluppare una vasta gamma di soluzioni praticabili e il conseguente fallimento di aziende, si iniziò a ritenere l’IA come impraticabile e persino il termine venne messo al bando. Era questo il secondo inverno per la tecnologia del XXI secolo che terminò negli anni ‘90, quando la sfida si concretizzò con l’obiettivo di superare il “Test di Turing”.  Sempre più ingegneri del software svilupparono bot, programmi software progettati per automatizzare attività ripetitive e predefinite su internet, in grado di sostenere una conversazione umana e nel 1997 Deep Blue, calcolatore molto potente dell’epoca, vinse per la prima volta una partita a scacchi contro l’allora campione del mondo Garry Kasparov. Si riscontrarono quindi i primi successi grazie a computer più veloci in grado di elaborare una maggior quantità di dati. Nonostante ciò bisognerà aspettare la fine del primo decennio del 2000 prima che gli investitori riacquistino fiducia nel progetto, vista anche l’ormai maturità sia dei mezzi che dei metodi. Ad oggi questo lungo e inesorabile percorso, che vede ormai le Intelligenze Artificiali protagoniste in molti ambiti della nostra esistenza, che sia per svago o per utilità, costringe a domandarsi quale sia l’approccio migliore verso sistemi che ci assomigliano e ci assomiglieranno sempre di più. In

Read More »
Società

Analisi sulla criminalità in Italia: un’indagine neutrale sui dati statistici

Indice “Una volta si dormiva con le finestre aperte”, “Questo paese è una giungla”, “Non si può più uscire la sera”; credo che chiunque abbia mai parlato con una persona over 50 ha sentito queste frasi almeno una volta. Personalmente, anche grazie ad una distribuzione delle età alquanto strana all’interno della mia famiglia, mi trovo spesso a sentire affermazione del genere, quindi mi sono chiesto se davvero questo sia il periodo più pericoloso della storia recente (indicativamente dagli anni ‘90, tralasciando per ovvie ragioni periodi come gli anni di piombo o le stragi di mafia) Ho cercato di fare una analisi il più neutrale possibile, basandomi su informazioni provenienti da fonti autorevoli, impegnandomi ad essere il più neutrale possibile nel limite delle mie capacità. Nel caso ci fossero dubbio o contestazioni nell’utilizzo o nell’interpretazione dei dati, vi prego di scriverci in modo da poter discutere e eventualmente correggere questo articolo. Prima di iniziare vi vorrei però mostrare come ho costruito l’articolo e le modalità di classificazione. Siccome stiamo parlando di sicurezza pubblica mi sono concentrato sui reati che sono maggiormente visibili: incomincio parlando di omicidi, crimini che difficilmente passano inosservati, per poi muovermi verso quelli che per loro natura possono essere un po’ più nascosti: rapine, furti di vario genere, estorsioni e altro violenze. Siccome si sta parlando di azioni violente che hanno un certo impatto sull’immediata opinione delle persone, tralascio tutti quei crimini definiti da “colletti bianchi” o che comunque, pur provocando dei danni a livello sociale, non sono immediatamente percepiti come causa di minore sicurezza. In questa categoria rientrano evasione fiscale, corruzione, ma anche traffico di stupefacenti o sfruttamento della prostituzione; tutti reati che sono si dannosi e spesso fonte di altri illeciti, però non immediatamente osservabili e non immediatamente associabili ad una minore sicurezza. Omicidi Decrescita generale del tasso di omicidi. La prima cosa che si nota subito cercando dati riguardo alla criminalità è la decrescita del numero di omicidi volontari; questo dato pur apparendo banale ci dà immediata e non troppo influenzabile indicazione sulla sicurezza in Italia. Credo che il numero di omicidi sia un dato più veritiero rispetto agli altri, perché a differenza degli altri crimini è meno suscettibile alla decisione della vittima di denunciare o meno: una volte che si trova il cadavere non si può non denunciarlo come omicidio, mentre negli altri casi, se non c’è la segnalazione da parte di qualcuno, non lo si calcola come reato. Vittime di omicidio per 100.000 abitanti nei paesi del G7 dal 2000 al 2020, per paese. Anche confrontando il rapporto con l’estero il tasso di omicidi rimane uno tra i più bassi tra i paesi sviluppati, anche al di sotto di paesi che hanno uno standard di vita e una qualità della vita migliore. Statistics Denmark. (February 23, 2023). Number of reported homicides in Denmark from 2012 to 2022 [Graph]. In Statista. Retrieved September 10, 2023, from https://www.statista.com/statistics/576114/number-of-homicides-in-denmark/ . In questo grafico ho confrontato il tasso di omicidi ogni 100.000 abitanti di Italia e Danimarca, un paese che da tempo viene considerato uno dei più felici al mondo e con un’ottima qualità della vita. Il tasso di omicidi rimane comunque significativamente più basso in Italia. Crime Index by Country 2019 – https://www.numbeo.com/crime/rankings_by_country.jsp?title=2019 Questo è un grafico a dispersione che mette in relazione i dati relativi al tasso di criminalità e al tasso di omicidi nel 2019. Il tasso di criminalità misura il numero di reati denunciati pro capite, quindi per forza di cose i due dati non sono indipendenti, siccome il numero di omicidi va ad influenzare il dato del tasso di criminalità. Il confronto tra diversi paesi potrebbe essere problematico, in quanto ci sono delle differenze nella propensione a riferire un illecito e se si considera un certo comportamento come reato o meno. Il grafico è comunque parecchio interessante, perché mostra come l’Italia abbia un tasso di omicidi basso, ma un tasso di criminalità relativamente alto, soprattutto se si considera che, forse, la propensione a denunciare i soprusi è minore che in altri stati simili. Bisogna poi considerare che non viene fatta una distinzione della gravità dell’illecito penale, che comunque ha una capacità diversa di influenzare la percezione dei cittadini. Le Statistiche di criminalità e i loro problemi. Prima di continuare è giusto soffermarci qualche secondo per parlare, in maniera magari semplicistica e banale, del funzionamento delle statistiche di criminalità . I dati riguardanti la criminalità si sono iniziati a raccogliere da metà circa dell’800, quando, durante la rivoluzione industriale, le nazioni occidentali hanno avuto i mezzi per raccoglierli e si sono convinti dell’importanza delle statistiche nel guidare le politiche locali e statali. Da allora si sono prodotti svariati indicatori in ambito umano-sociale: misurazioni economiche, indici di sviluppo umano, istruzione e criminalità. Quando si parla di scienze sociali l’attendibilità dei dati è un bel problema, a differenza delle scienze dure i fenomeni appaiono in un ambiente non controllato e multiforme come la società, dove svariati fattori si influenzano a vicenda, condito dal fatto che si stanno studiando gli esseri umani, esseri che possono adottare i più svariati comportamenti. Nel caso delle misurazioni dei reati la situazione diventa ancora più complicata; si sta parlando di contesti dove le punizioni sono spesso pesanti, coperti da stigma sociale, dove ci sono incentivi a mentire e l’interpretazione dei fatti varia da persona a persona. I dati amministrativi. In Italia i dati vengono registrati attraverso l’SDI (sistema di indagine), un database che aggrega le denunce provenienti da tutte le forze di polizia. Le statistiche riportate dall’Sdi, o da qualunque altro sistema come l’UCR (Uniform Crime Report) negli Stati Uniti, hanno delle fallacie intrinseche nel rappresentare il reale numero di crimini commessi in un determinato territorio per due ragioni principali: la presenza di reati che non vengono riconosciuti e la mancata denuncia da parte della vittima. Per quanto riguarda il primo si sta guardando ad una situazione in cui molto probabilmente non vi sono delle vere e proprie vittime e non vengono scoperti. C’è anche da considerare che molti dei

Read More »
Economia e Finanza

UK e bond vigilantes: governare da investitore retail.

Se è vero che in occidente le proteste non si portano più avanti con forconi e baionetta, le teste cadono ugualmente.

Spesso questo succede a causa di implicazione finanziare, che nel tempo hanno stretto un legame indissoluble con l’economia reale, acquisendo la capacità di variarne il corso. Diventando di fatto una possibile arma di protesta.

I bond vigilantes ce lo possono spiegare.

Quindi: come si butta giù un governo da investitore retail?

Infatti questo è quello che è successo tra settembre e l’ottobre dello scorso 2022 al governo lampo della britannica Liz Truss.

Read More »
Investimenti e Mercati

Il costo del tempo.

Indice Esistere, dal latino existere, significa letteralmente “uscire da”. Vuol dire dunque, almeno secondo il dizionario, uscire dalla zona dell’indeterminato, darsi una forma ed una propria identità. Tuttavia, però per far questo è necessario compiere una serie di scelte continue. Sono le scelte che realizziamo, che portiamo avanti quotidianamente che definiscono le persone che siamo, o meglio, che scegliamo di essere. Ecco perché la possibilità di scegliere ed il libero arbitrio sono tra le principali cifre connotative del nostro essere umani. Ogni giorno la nostra vita è costellata da decisioni da prendere dalle più irrilevanti, come scegliere tra cappuccino o espresso, a quelle più importanti, che segnano radicalmente la nostra vita. Tuttavia, queste scelte portano come conseguenza, in modo inevitabile, incertezze e paure a riguardo. Ma perché è così difficile scegliere? Porsi domande è generalmente facile, farsi le domande giuste un po’ meno, ma è il trovare risposte che è proprio difficile. Questo a causa dell’assenza di certezze. Da qui nasce l’angoscia, il dubbio, sentimento naturale di tutti quanti, inevitabile in quanto, come abbiamo detto sopra, la vita è strutturalmente composta da scelte. È la sintesi, in soldoni, se hai reminiscenze, della filosofia di Kierkegaard. La vita è in realtà un continuo AUT-AUT: un continuo flusso di scelte. Ma chiudiamo questo excursus di filosofia e torniamo ai nostri amati investimenti. Gli investimenti non fanno eccezione a ciò che abbiamo detto: la scelta è un elemento centrale e fondante dell’investimento stesso. A partire dalla scelta dello strumento più adatto, al broker con cui investire, al momento in cui entrare, ai modi con cui incrementare il capitale, alle strategie… e si potrebbe andare avanti all’infinito. A tutte queste domande, seppur non esistenziali, non c’è una risposta necessariamente migliore delle altre e giusta universalmente. Ritorna quindi il discorso che facevamo in apertura: il fatto che non ci siano certezze fisse ci rende il mondo degli investimenti talvolta angosciante e difficile, soprattutto al primo impatto. L’investimento di per sé è una scelta su un qualcosa di incerto, su cui abbiamo evidenze statistiche, ma non certezze. Anzi chi ha certezze in finanza, solitamente, mente. Ma devo davvero investire? Ma partiamo dalla domanda originale, quella che viene prima di tutto: devo investire sì o no? Per quanto potrà sembrare strano la risposta è un po’ controintuitiva: in realtà questa scelta non esiste. Piuttosto, la corretta domanda che dovresti porti è: tengo tutto in  liquidità o voglio gestire il mio capitale in altri modi? Esatto. Questo perché in realtà siamo tutti investitori, ma proprio tutti, anche chi non investe nel senso letterale del termine. Infatti, quando non compri strumenti finanziari o investi in altro modo in altri progetti, stai comunque investendo. Ti dici: “Ho risparmiato un poco, però non voglio investire, che poi magari perdo e poi comunque è un onere, un impegno”. Anche quando pensi di non star facendo nulla con il tuo patrimonio: in realtà stai investendo proprio senza far nulla. Più esattamente stai, più o meno consciamente, investendo in liquidità. Questo rende di fatto il non investire una scelta d’investimento vera e propria. Passami il gioco di parole ma, scegliere di non scegliere è una scelta e spoiler: è una delle scelte finanziarie peggioriche si possano fare. Perché dico questo? Appurato che scegliendo di non investire in realtà si investe il 100% del proprio patrimonio in liquidità, esattamente come qualsiasi altro asset, anche la liquidità subisce delle  fluttuazioni di valore, in un modo, però, logicamente meno immediato. Per effetto dell’inflazione, infatti, anche se non ce ne accorgiamo poiché il valore nominale resta invariato nel tempo, il valore reale della liquidità che possediamo subisce delle fluttuazioni di valore reale. Quindi se con gli investimenti giustamente curati e con una corretta strategia di portafoglio è possibile ottimizzare le performance, annullare l’effetto dell’inflazione e portare anche eventuali profitti a casa, con la liquidità è sicuro al 100% che perderai denaro. Chi farebbe un investimento in cui c’è il 100% di possibilità di perdere? Sicuramente non un grande statista o per meglio dire un folle. Ecco a conti fatti se stai tenendo il 100% del tuo patrimonio in liquidità ti stai comportando  esattamente da folle. L’effetto dell’inflazione. Come puoi ben vedere dal grafico: dal 2000 al 2019 non investendo 100.000 euro, dopo 20 anni si avrebbe avuto una perdita di 28.284,35 mila euro in termini di valore d’acquisto. Ovvero 100.000 euro sarebbero stati sempre 100.000 a valore nominale, ma di fatto avresti potuto comprare molto meno cose. Questo è l’effetto dell’inflazione sui nostri patrimoni. Se prendessimo i dati dal 1970 avremmo avuto un rendimento del nostro patrimonio in liquidità addirittura del -97%. Follia pura. Quando ci approcciamo agli investimenti allora quello che ci dovrebbe preoccupare non sono tanto le possibili minusvalenze che potrebbe fare il nostro portfolio durante le normali fluttuazioni di mercato, ma piuttosto i costi che stiamo sostenendo quando non stiamo investendo. Costi che possiamo dividere in due categorie: una costi legati all’inflazione, come abbiamo visto prima, e i cosiddetti costi opportunità. Che cosa sono i costi opportunità? Il costo opportunità in economia è il costo derivante dal mancato sfruttamento di un’opportunità, è la perdita derivante dalla potenziale rendita o beneficio che avremmo potuto trarre dalla strada non percorsa. È molto più semplice da spiegare con un esempio. Quando decidi di guardare la solita serie Netflix hai un costo di tempo dovuto alla spesa di tempo che devi impiegare per guardare, ma inoltre hai anche dei costi opportunità legati al fatto che al posto di guardare la tv, potresti leggere qualcosa sempre di piacevole, ma di formativo, come un bel libro. Tornando a noi il senso è proprio questo: se scegli di fare A stai anche rinunciando a fare B, C e D, ma se questi B, C e D ti darebbero un rendimento maggiore di quello che ti sta dando A allora tu sei in perdita. Se non stai investendo hai dei costi legati sì all’inflazione, ma contemporaneamente hai dei costi opportunità in quanto stai perdendo un ammontare di soldi del controvalore della potenziale rendita che avrebbero potuto fruttare il tuo capitale investito. Appurato che non investire porta sempre delle perdite. Quantifichiamo le perdite derivate dal non investire. Parliamo di numeri. Ipotizziamo un lasso di tempo di una

Read More »
Candele giapponesi e Charles Dow, l'ideatore dell'analisi tecnica.
Investimenti e Mercati

I 3 pilastri dell’Analisi Tecnica.

Indice Prima di avviare lo studio delle metodologie e degli strumenti impiegati nell’analisi tecnica dei mercati finanziari è necessario definire e discutere le premesse di pensiero su cui tale analisi è basata. Questo per distinguerla dall’altre tipologie di analisi e capire cosa si possa ottenere con il suo utilizzo e come poterlo inserire nella nostra routine di analisi. Andiamo quindi a definire i fondamenti logici e filosofici su cui si basano le sue potenzialità. Userò un vocaboli tecnici per abituarti alla corretta terminologia, ma non preoccuparti, perché subito sotto ti metterò la spiegazione dei concetti a parole umane. L’analisi tecnica e i suoi obbiettivi. L’analisi tecnica è un tipo di analisi che consiste nello studio dell’andamento passato dei prezzi dei vari asset finanziari al fine di prevedere quelli che saranno i movimenti futuri. Più in particolare: l’analisi tecnica è lo studio della market action tramite l’uso sistematico dei grafici, allo scopo di prevedere le tendenze future dei prezzi. John J. Murphy Con il termine market action includiamo le tre principali fonti di informazioni disponibili di un analista tecnico: prezzo, volume e open interest. Questi tre concetti li approfondiremo nelle sezioni successive, ma intanto ti do una rapida spiegazione per capire di che cosa stiamo parlando. Volume = ammontare totale degli scambi fatti nel mercato scelto, nel periodo di tempo stabilito.Open interest = numero di contratti derivati non ancora chiusi al momento stabilito. In altre parole è la somma di tutte le posizioni long e short ancora aperte. L’analisi tecnica è perciò un approccio analitico, basato su principi statistici e su altri assunti che permettono nel loro insieme di individuare i migliori market timing. Ovvero per capire quali sono i momenti migliori per entrare o uscire dal mercato. I pilastri cardine dell’analisi tecnica. L’analisi tecnica si basa su tre principi fondamentali: #1: Il mercato sconta tutto. Principio #1: Il mercato sconta tutto. Secondo un’analista tecnico, infatti, all’interno del prezzo di un asset siano già incorporati anche tutti i fattori non meramente finanziari. Questi fattori di cui parlo sono quelli di tipo fondamentale e possono essere: particolari circostanze geopolitiche, voci più o meno veritiere su acquisti e cessioni di società e persino eventi politici come le elezioni. L’analisi fondamentale, che appunto, è basata sullo studio delle forze economiche che creano domanda e offerta, studiano di fatto la causa dei movimenti nei mercati finanziari. Tuttavia un analista tecnico, non si interroga sulla natura e sulle motivazioni di questi eventi fondamentali, poiché presume che le variabili siano talmente tante e che di fatto nessuno sappia esattamente definire le implicazioni che possono conseguire. Ecco perché l’analisi tecnico si concentra sullo studio dei movimenti dei prezzi, non sulle cause, ma sugli effetti. In virtù di questo ragionamento un’analista tecnico andrà a fare un’analisi unicamente del prezzo, perché darà per scontato che se i prezzi stanno salendo per una qualsiasi ragione, la domanda è superiore all’offerta e quindi di conseguenza i fondamentali saranno sicuramente rialzisti e viceversa. Un mio piccolo appunto: per riuscire ad individuare le motivazioni fondamentali di determinati momenti di mercato serve un background di conoscenze di tipo micro e macroeconomico, ma anche di conoscenza generale, attualità geopolitica e culturale, che rende a volte, molto difficile l’indagine delle cause reali. Molto spesso, anche i migliori, riescono a trarre conclusioni solo per contrasto, ovvero quando le motivazioni sono evidenti, ed è anche quando è troppo tardi per il mercato (che si dice sconti tutto anche mesi prima). Sebbene possa sembrare un approccio molto semplicistico, ti consiglio di dargli un’opportunità. Sicuramente un’analisi di tipo tecnico non è assolutamente sufficiente se si vuole comprendere l’andamento dell’economia e far considerazioni di tipo macroeconomico, ma è irreprensibile dal punto di vista statistico nel momento in cui abbiamo intenzione di strutturare una strategia per operare a mercato, sia a lungo che a breve termine. #2: La storia si ripete. Principio #2: La storia si ripete. Questo principio è la base di tutta l’analisi tecnica. Infatti, poiché l’andamento dei prezzi riflette la psicologia di chi investe, è probabile che quanto accaduto sui mercati tenderà ad accadere nuovamente anche in futuro. In altre parole: i prezzi sono il risultato della somma della psicologia umana, che indirizza la fiducia nel mercato e quindi ne determina la domanda e l’offerta. Solitamente non avvengono cambiamenti radicali e repentini nella psicologia, ma solo di tipo minimo e nel lunghissimo periodo, se non a fronte di shock singolari, come ad esempio crisi finanziarie, sono cambiamenti nel breve periodo trascurabili. Ecco perché è statisticamente molto probabile che pattern di prezzo individuati nel passato si ripetano nel futuro. Inoltre, piccola osservazione mia, si dice spesso che l’analisi tecnica è una profezia che si auto avvera. Poiché i grafici sono fruibili a tutti, tutti possono fare analisi tecnica e trovare. Poiché gli strumenti grafici, anche se l’utilizzo e le intuizioni possono essere molto differenti, è comunque molto probabile che più persone facciano le stesse ipotesi, poiché i concetti rimangono sempre gli stessi. Quindi un’analisi prende più valore in proporzione al numero degli operatori che la ipotizzano e aprono operazioni simili. In altre parole una figura, una zona tecnica, acquista maggiore validità nel momento in cui più persone, fanno la stessa tipologia di analisi e quindi psicologicamente attribuiscono valore alla zona individuata. Ovviamente questo discorso è valido nel momento in cui andiamo a parlare di breve periodo, perché sicuramente l’economia, i fattori fondamentali di un economia, sono indirizzate piuttosto dalla politica economica scelta da uno stato, dalle banche, da chi detiene tanta liquidità e non dai retail come me o te. #3: I prezzi si muovono in trend. Principio #3: I prezzi si muovono in trend. Questo principio lo approfondiremo con il supporto dei grafici nelle prossime sezioni. Generalmente si intende con trend un movimento al rialzo o al ribasso, duraturo e continuativo per un certo lasso di tempo. Un esempio: Intanto però inizio a introdurre due concetti: Lo scopo di un analista tecnico è quello di riuscire a identificare un trend sin dall’inizio, per poter operare di conseguenza. Un’osservazione statistica di tipo empirica:

Read More »
Investimenti e Mercati

La Prova del Lavoro: Costanza.

Indice Parliamo (anche noi) di Elon Musk. Come se in questi giorni non se ne sentisse abbastanza parlare. È forse uno degli uomini più chiacchierati di questi ultimi anni: fondamentalmente una rockstar. Anche se spero di non vederlo mai vestito come Damiano dei Maneskin. Visto le ultime decisioni che l’imprenditore sudafricano sta prendendo, ci sarebbe davvero tanto di cui parlare. Ma tralasciando il discorso Twitter, di cui sarà interessante vedere gli esiti, è sempre stato un personaggio originale, con una storia singolare, che ha delle idee geniali, ma che ultimamente dice e fa cose discutibili. In particolare, sin dall’inizio della bullrun crypto, Musk si è sempre proposto un po’ come padrino, come portabandiera, della blockchain. Prometto che in questo articolo non troverai un discorso da investitore boomer sulle cripto. Piuttosto una mia riflessione sulla tendenza, molto umana, alla ricerca della via più breve, più semplice, della scorciatoia a discapito del saper riconoscere e perseguire il valore reale. Tornando ad Elon Musk ricordo con molta simpatia, all’inizio di quest’anno, la campagna che permetteva il pagamento in dogecoin di alcuni prodotti tesla. (Sono andata a controllare, sono ancora accettati.) Doge è una memecoin, ovvero un token digitale nato per scherzo, inizialmente senza un progetto di alcun tipo. Nonostante questo, nell’arco di 5 mesi dall’inizio della bullrun crypto, DOGE ha fatto la bellezza del 42090%. Numeri folli: dal valore millesimi di centesimo fino a sfiorare gli 0.80$. Quotazione che poi, come puoi vedere dal grafico, è stata riassorbito velocemente. Movimenti come questi, sono stati caratterizzanti anche di altre criptovalute, magari di minor portata, ma sempre realizzando dei numeri che a noi potrebbero sembrare da capogiro. È anche grazie tali a meccanismi che in questi due anni si sentiva quasi periodicamente parlare del giovanissimo milionario che aveva fatto fortuna con le crypto o magari ti ritrovavi a cene e feste dove il conoscente che seguendo il tal guru, senza alcuna preparazione e senza mai aver investito in altro, aveva fatto un 10x sul capitale. Dopo tanti anni che risparmi e investi diligentemente, per quanto irrazionale, ti rode un po’ vederti superare, almeno sulla carta, dall’ultimo arrivato. Pensi di non essere stato abbastanza bravo, abbastanza sul pezzo. Magari sotto sotto persino ti penti di esser rimasto sui tuoi passi e non aver seguito il trend del momento. Quando vediamo persone che fanno un sacco di soldi che di solito non fanno un sacco di soldi, anche se razionalmente sappiamo che c’è qualcosa che non va, siamo tentati. Inconsciamente forse vorremmo che funzionasse, che esistesse una via più facile, semplice, veloce per raggiungere i nostri obbiettivi. Entropia della ricchezza. Esiste una legge fisica naturale per la quale ogni cosa nell’universo tende alla massima entropia. L’entropia è il grado di equilibrio di un sistema o in altre parole meno cervellotiche: tutto tende all’equilibrio. Quindi fortunatamente, o meglio sfortunatamente per tanti, l’equilibrio si ristabilisce sempre anche nei mercati finanziari. Quando ci sono delle anomalie, il sistema torna poi verso il suo equilibrio di lungo periodo. Quando scoppiano le bolle, si dice che “il mercato sale con le scale e scende con l’ascensore”. La situazione delle cripto al momento la conosciamo tutti e possiamo riassumerla citando scherzosamente un film: “Profondo rosso”. Ma non è su questo che voglio infierire. Anche perché avendo investito in prima persona, mi tirerei la zappa sui piedi. Piuttosto il mondo cripto sembrava il mondo dalle nuove mille opportunità. Da molti visti come la promessa di far soldi con poca fatica, seguire poche dritte e ottenere profitti pazzeschi. Ha dato il via ad una spasmodica ricerca, più o meno conscia, della strada più facile, della scorciatoia, imbellettandola con seducenti promesse di tecnologie all’avanguardia. Tuttavia, come abbiamo visto, le crypto non sono state il cavallo fortunato, se non per pochi. Quindi ti voglio dare delle altre via per diventare ricco senza lavorare. Le metodologie che mi vengono in mente sono essenzialmente 3: Vincere alla lotteria o simili Diventare eredi di una fortuna, meglio se senza fratelli con cui dividere Sposarsi con un partner molto ricco   A discapito del mio tono, che ti potrà sembrare ironico e irriverente, questi tre sopracitati sono davvero gli unici modi reali per diventare ricchi senza lavorare con impegno. Se ci pensi non sono nemmeno così infattibili.   Tuttavia, oltre ad avere molte criticità, c’è un problema di fondo che li accomuna: nessuno di questi modi sono dipendenti interamente dalla tua singola volontà, ma sono estremamente legati a delle variabili randomiche. Vuoi davvero affidare la tua situazione finanziaria alla fortuna? Se desideri diventare ricco e con quella ricchezza realizzare i tuoi obiettivi, allora è importante che tu prenda in mano il controllo della tua vita finanziaria. Tornando al discorso cripto, andare alla ricerca dei cosiddetti pump, ovvero le esplosioni verticali di prezzo tipici delle coin a bassa capitalizzazione è esattamente come vincere alla lotteria, ma più adrenalinico, come in un videogame.   È ciò che farebbe un opportunity seeker, in gergo coloro che sono sempre alla ricerca dell’ultima tendenza per poterla sfruttare. Non che ci sia nulla di male in tutto ciò, ma saper prendere dei rischi di tipo più speculativo è una professione vera e propria ed è sicuramente una figura ben lontana da quella di un investitore. C’è poi un secondo problema, più nascosto: una volta acquisita (e non accumulata) la ricchezza sei sicuro di riuscire a mantenerla? In tutti e tre i casi passeresti dalla tua situazione attuale a essere “x” volte più ricco tutto d’un colpo e non grazie ad un processo di accumulo avvenuto nel tempo. Una ricerca sul Mental accounting del premio Nobel per l’economia Richard Thaler dimostra che la propensione al rischio cambia completamente in funzione della fonte da cui proviene il denaro. Ovvero la nostra mente distingue tra i soldi guadagnati col “sudore della fronte” e i guadagni piovuti dal cielo. I primi sono da spendere in modo oculato. I guadagni facili, invece, possono essere usati per investimenti folli, acquisti pazzi e spese illogiche. Questo è uno dei motivi per cui, come confermato dallo studio

Read More »
Economia e Finanza

Collasso FTX – Alameda Research

In questo articolo cercheremo di andare a fondo alla questione FTX, cercando di capire cosa è successo al secondo Exchange di criptovalute più importante per volumi. Cercheremo di andare in ordine cronologico per avere un quadro chiaro degli eventi accaduti.   Indice Situazione prima del crollo. Come abbiamo detto sopra, esso era il secondo Exchange centralizzato più importante dopo Binance, soprattutto perché costituiva un punto di riferimento per il trading di derivati. Come ormai tutti i CEX, FTX possedeva il suo token di riferimento, $FTT. Le sue tokenomics e la sua centralità all’interno della piattaforma rispettano più o meno quelle del token di Binance, $BNB. Infatti, detenere i token di FTX comportava sconti sulle fees e altri vantaggi, così come il suo burn avveniva tramite la compravendita degli strumenti presenti sull’Exchange. Va però specificato che BNB ha usecase molto più importanti di $FTT, in quanto ha anche una propria blockchain. Abbiamo anche nominato Alameda Research, ma cosa c’entra in tutto questo? Beh, il CEO di FTX è lo stesso di Alameda. Costui è Sam Bankman-Fried, con un patrimonio che si aggirava intorno ai 15 miliardi di dollari. Alameda si occupava di trading quantitativo sulle criptovalute, ed era uno dei principali investitori del token $FTT. Questo è uno dei punti chiave, in quanto è uno dei principali motivi del caos successo in questi giorni. Di seguito ripercorreremo gli eventi più salienti in ordine cronologico, successivamente faremo un’analisi dettagliata, con operazioni e movimenti, che hanno portato al crollo di FTX. Cosa è successo: 6 Novembre: primo Tweet di CZ (Changpeng Zhao), CEO di Binance Inizia tutto da qui, con un Tweet di Changpeng Zhao. Dichiarava testuali parole: “Inizieremo a liquidare la nostra posizione in $FTT perché non supportiamo le persone che fanno pressioni alle spalle degli altri big player dell’industria”.  Questo ha scatenato un sell-off che ha portato il token a fare un -8%.  A seguito dello spostamento di questi milioni di token, il CEO di FTX (per semplicità lo citeremo come “SBF”) twitta dicendo che CZ sta giocando sporco.  I principali motivi della liquidazione da parte di Binance sono i seguenti: ⦁ Secondo le loro analisi, FTX si era rivelato finanziariamente “instabile” (più avanti nell’articolo scopriremo come e perché) ⦁ Era un’operazione di risk management che voleva evitare gli stessi errori commessi nel caso Terra ($LUNA, $UST). Questo motivo è anche una sorta di accusa molto pesante verso FTX, dato che il crollo dell’ecosistema LUNA è stato molto controverso e presuppone che il suo ideatore, Do Kwon, avesse premeditato tutto e prelevato miliardi di dollari prima del crollo generale. 7 Novembre: SBF cerca di rassicurare tutti La prima risposta non tarda ad arrivare: si dichiara infatti che non ci sono problemi di liquidità e che sono tutti rumors falsi, con alcuni dettagli che poi scopriremo essere non sufficienti. 8 Novembre: il crollo Ironia della sorte, SBF si rimangia tutto e chiama in aiuto Binance, dicendo che lo aiuterà a ricoprire i debiti e i prelievi degli utenti, ringraziando inoltre CZ per il lavoro che ha svolto in questi anni. Questo però non serve a fermare le liquidazioni che stanno avvenendo su $FTT e $SOL prime fra tutte, anche per mano di Alameda, detentore di una grossissima fetta di questi due token. Dopo il soccorso annunciato, Binance si tira indietro dopo aver visto la situazione contabile di FTX. Quest’ultimo infatti, come detto anche da SBF, ha bisogno di un capitale che va dai 5 ai 9 miliardi di dollari, per coprire i debiti e i prelievi degli utenti. Justin Sun si offre come candidato Il creatore della chain TRON si butta nell’affare miliardario, dopo che la Security and Exchange Commission annuncia di iniziare un’investigazione nel caso.  Esso vuole garantire innanzitutto il funzionamento dei prelievi 1:1, facendolo però tramite gli asset della sua chain ($TRX, $USDD, $JST quelli più importanti). Dopo questa notizia, il prezzo di $TRX su FTX vola dai circa 6 centesimi fino ai 4 dollari, significando l’acquisto massiccio degli utenti nella speranza di riuscire a prelevare i loro fondi. Ad ora però, non vi è nulla di concluso. SBF sembra voler ingannare tutti Si teorizza, nei giorni successivi, che il CEO abbia premeditato tutto: si sostiene infatti che abbia aperto una “backdoor” all’interno dei sistemi interni di sicurezza dell’Exchange per poter prelevare fondi senza che gli auditor finanziari se ne accorgessero. Ci sono stati altri episodi come il presunto riciclaggio di denaro che avveniva tramite le donazioni in crypto all’ucraina che investiva su FTX. Non ci addentreremo in questioni politiche, ma le accuse sono molto gravi sotto tutti i punti di vista. Un insider afferma inoltre che gli stipendi ai dipendenti venivano pagati direttamente sulla piattaforma di FTX, e che gli veniva assicurato il fatto che esso fosse sicuro come una banca. Cattiva gestione dei fondi di Alameda. Alameda si definisce come un “market maker e azienda di trading quantitativo”. Era si uno dei principali market maker di FTX, ma il suo “trading quantitativo” era in realtà una procedura molto semplice per cercare utile: investire milioni in blockchain start-up e progetti innovativi nei round di private sale per poi avere un guadagno enorme una volta sviluppati. C’è anche dell’assurdo: in un’intervista di 5 mesi fa, la Co-CEO di Alameda dichiara “non abbiamo grandi strumenti per il risk management e tendiamo a non usare manovre per contenere le perdite (stoploss ndr.). Analisi. Partiamo con quest’immagine, che mostra la supply attiva di $FTT nel tempo. Balza all’occhio un aumento del +124,3% della supply circolante circa 40 giorni prima del caos, per un valore di circa 8,6 miliardi di dollari (al prezzo di corrispondenza). Secondo CoinMetrics, è stato il più grande movimento di $FTT e uno dei più grossi movimenti giornalieri sulla rete ERC-20 che si siano mai registrati. Questo non è un fattore che influisce direttamente sul prezzo dell’asset, in quanto questi token non stati venduti a mercato. Lo influenza però indirettamente, in quanto diluisce $FTT in maniera considerevole, e quindi vi è la persistente possibilità che questi vengano venduti da Alameda

Read More »
Economia e Finanza

BFT: Byzantine Fault Tolerance

Le blockchain sono network distribuiti dove i partecipanti devono concordare regolarmente sull’attuale stato di essi, ovvero devono raggiungere il consenso. Tuttavia, raggiungerlo in modo sicuro ed efficiente non è affatto facile. La domanda che ci poniamo e che a cui cercheremo di rispondere in questo articolo è: come può un network distribuito di nodi (in questo caso una blockchain) concordare su una decisione se alcuni dei nodi potrebbero fallire, smettere di funzionare o agire in modo malevolo? Il problema dei Generali Bizantini è stato ideato nel 1982. Si tratta di un dilemma logico dove un gruppo di generali bizantini potrebbe avere problemi di comunicazioni quando cerca di accordarsi sulla prossima mossa da fare. Ipotizzando quindi che i generali devono decidere se attaccare o difendersi, l’importante non è cosa facciano ma che raggiungano il consenso, che tutti concordino su una decisione comune per eseguirla in modo coordinato. Gli obiettivi quindi sono: Ciascun generale deve decidere se attaccare o difendersi (si; no); Una volta presa la decisione non si torna indietro; Tutti i generali devono concordare sulla stessa decisione ed eseguirla in modo sincronizzato Il problema è che uno o più generali potrebbero inviare messaggi falsi per confondere gli altri generali, agendo in modo disonesto e causare un fallimento. Applicando il problema al contesto blockchain, ogni generale è un nodo del network ed essi devono raggiungere il consenso sull’attuale stato di sistema. La maggioranza di questi nodi quindi deve concordare ed eseguire la stessa azione in modo coordinato per evitare il fallimento e collasso della blockchain. L’unico modo per raggiungere questo consenso è avere almeno i due terzi dei nodi affidabili. La Byzantine Fault Tolerance, o BFT, è quindi la proprietà del network di resistere ai fallimenti derivanti dal Problema dei generali descritto sopra. Un sistema BFT è in grado di operare anche se alcuni nodi falliscono o agiscono in malafede. Esistono più soluzioni a questo problema, queste soluzioni vengono adottate tramite gli algoritmi di consenso. I più famosi sono il Proof of Work e il Proof of Stake. Li tratteremo nel dettaglio in un nostro articolo dedicato proprio alla ricerca, allo studio e alla comprensione di questi algoritmi, per capire i vantaggi, gli svantaggi che portano ai network dove sono adottati e per capire anche come essi cerchino di risolvere il Blockchain Trilemma. Fonti: https://academy.binance.com/it/articles/byzantine-fault-tolerance-explained

Read More »
Economia e Finanza

APTOS: progetto bomba o flop?

Indice Cos’è Aptos. Aptos è un rivoluzionario Layer 1 che mira il proprio focus sui pagamenti digitali, sull’integrazione dei propri servizi a livello aziendale e, soprattutto, all’adozione e facilità d’uso. Il progetto viene sviluppato da ex membri di Meta che vorrebbero riproporre uno dei più grandi progetti fallimentari della società: la stablecoin DIEM. Per fare questo, hanno deciso di costruire una blockchain che non mirasse solo alla stablecoin stessa, ma che avesse un digital asset nativo ($APT) con cui pagare le commissioni on-chain. Si definiscono inoltre i “Solana Killer”, mirando a superare di gran lunga i TPS (Transaction Per Second) di quest’ultima. Dei 100mila TPS promessi però non vi è neanche l’ombra; infatti, sono stati raggiunti a malapena 45 TPS. In precedenza, il progetto era riuscito ad accaparrarsi una somma considerevole da alcuni dei più importanti Venture Capital come a16z o DragonFly Capital, mentre con l’attuale rivoluzione hanno raccolto oltre 350mln di dollari anche da Binance e FTX Ventures. La domanda che mi faccio e a cui voglio rispondere in questo articolo è: hanno investito sfruttando la FOMO oppure c’è realmente sostanza dentro questa blockchain? AptosBFT: algoritmo di consenso di Aptos. Partiamo col dire che, pur essendo un Layer 1, Aptos non viene sviluppato su Solidity (linguaggio di programmazione utilizzato per sviluppare su Ethereum) ma su Move. Quest’ultimo venne usato per sviluppare il precedente progetto Diem. Il meccanismo di consenso viene quindi ripreso a quello di Diem (DiemBFT) non solo per il sopracitato motivo, ma anche per il fatto che alcuni sviluppatori di Aptos erano proprio quelli che lavoravano in Meta e avevano creato Diem. AptosBFT si basa su HotStuff, un miglioramento del sistema di consenso PracticalBFT (pBFT). In breve, il primo è il miglioramento del secondo che è il miglioramento del terzo. Il pBFT si basava sulla regola base del Proof of Stake: non avere più di 1/3 di nodi malevoli (al contrario del <50% su Bitcoin). Inoltre, esso introduceva un sistema per cui i nodi venivano classificati in “primari” e “secondari”. Aptos introduce quindi, oltre al già migliorato HotStuff che garantisce un’altissima velocità di comunicazione fra nodi(per questo assicuravano più di 100.000 TPS), velocità di comunicazione superiori e un sistema di rotazione dei validatori e degli utilizzatori della blockchain per garantire un ulteriore livello di sicurezza. Se tutto ciò ti sembrasse arabo: qua trovi la spiegazione del BFT e a breve troverai anche alcuni articoli che ti chiariranno cosa sono i meccanismi di consenso su blockchain. Articolo sul BFT Tokenomics. Le Tokenomics sono state rese pubbliche soltanto pochissimi giorni prima dei listing sui principali Exchange, il che è stato molto sospetto. Vediamole insieme. L’allocazione avviene come descritto dal grafico: 02% alla Community 19% ai Core Contributors 5% alla Aptos Foundation 48% agli Investitori Come vediamo da questo grafico invece, la supply iniziale è stata fissata a circa 1 miliardo di token $APT, è costantemente inflazionata e NON è fissa. Le staking reward, erogate per permettere al protocollo di funzionare tramite AptosBFT, il meccanismo di consenso proprietario di Aptos, sono fissate al 7% e annualmente si riducono dell’1,5% fino a raggiungere un minimo del 3,25%. Queste reward e riduzioni di APY vanno anche in base agli $APT messi in staking e alla performance del protocollo. Inoltre, le fee di transazione vengono attualmente burnate. In base a questi settaggi, la supply finale stimata fra 10 anni sarà poco più di 1,5mld di token $APT. Questi parametri possono essere modificati tramite on-chain governance. La distribuzione per i Core Contributors e gli Investitori è frazionata mensilmente e non erogabile fino al dodicesimo mese dall’uscita della Mainnet. Ti propongo, qui di seguito, se mastichi un po’ di inglese, un’analisi della tokenomics e una comparazione con i listing di $ICP (Internet Computer Protocol) e $GLMR (Moonbeam) fatta da un utente della community di Aptos. [pdf-embedder url=”http://oikono.org/wp-content/uploads/2022/11/Aptos-Tokenomics-Analysis.pdf” title=”Aptos Tokenomics Analysis”] Listing: com’è andata? La notte del 19/10 viene listato il token $APT su tutti i principali CEX. Schizza facendo numeri paurosi, poi in un minuto crolla. Così avviene in quasi tutti i listing. Qui però ci sono tanti motivi da additare al crollo, e questi potrebbero giustificare un ulteriore ribasso costante e duraturo sul token. Andiamoli a vedere insieme. NB: i prezzi di listing di partenza e i massimi raggiunti sono diversi per ogni Exchange. Qui prendiamo in considerazione il mercato SPOT di FTX [APT/USDT] Tokenomics inflattiva e tutto sommato non ponderata correttamente Movimenti attuali dati dalla FOMO Airdrop. Questi ultimi venivano dati a chi eseguiva dei task, come ad esempio partecipare alla Testnet. Essi sono stati tra i 150 e i 300 token per utente, una cifra considerevole che e’ stata subito venduta non appena ci sono stati i listing. Il suo probabile futuro. Questo ecosistema ha ricevuto ingenti somme di denaro per essere finanziato, questo è un probabile indicatore che qualcosa di innovativo c’è. Il tanto disappunto viene dalle tokenomics non all’altezza e dai TPS dichiarati abbastanza ridicoli. In ottica di fondamentali possiamo dire che ci possono essere miglioramenti, lo stesso PancakeSwap vuole approdare su Aptos, e come lui tanti alti progetti. Ha un competitor non da sottovalutare, Sui, anch’esso guidato da tanta FOMO. In ottica speculativa, non ci sono motivi per cui il prezzo debba crescere nei prossimi mesi. Essendo un token molto inflattivo, l’unica speranza di vederlo fare nuovi massimi e’ una bullrun, cosa che non accadra’ nei prossimi mesi sicuramente.

Read More »
Uncategorized

NEXO sanzionata

Durante l’ultimo anno molti Exchange sono stati sanzionati dalle autorità di audit competenti per i motivi più disparati alla base dei quali sicuramente emerge la scarsa regolamentazione che pervade più generalmente il mondo crypto e web3.In questo vortice degli Exchange centralizzati a rischio sanzione è entrato pure Nexo.  Cosa è successo: Nel caso di Nexo, l’azione legale viene perpetrata da alcuni stati americani come New York e California, che lo accusano di diverse azioni illegali che sarebbero state intraprese negli ultimi mesi. La più rilevante: la compravendita di prodotti definiti dai regolatori americani come “securities”. Non essendo questi prodotti registrati ufficialmente come tali, il lender di Criptovalute rischia di vedersi sommerso dalle accuse degli stati americani. Infatti, le securities negli USA vanno registrate come tali. Coloro che vendono prodotti che hanno i requisiti di securities, ma che non vengono registrati legalmente come tali, sono soggetti a sanzioni. Si ipotizza inoltre che, fino al 31 Luglio 2022, gli account attivi (soltanto in California) ammontano a circa 18000, contando investimenti totali per oltre 170 milioni di dollari.In un annuncio, il procuratore generale dello stato di New York Leticia James, ha intrapreso un’azione legale pesantissima proprio contro Nexo, accusandolo di “aver violato la legge e truffato gli investitori, raccontando falsita’ sulle proprie licenze e registrazioni in possesso. Nexo deve necessariamente fermare le sue operazioni e proteggere gli investitori”. Di fatto si cerca quindi di vietare in toto l’uso del lender nello stato sopra menzionato. La risposta di Nexo non si e’ fatta attendere e, il co-founder Antoni Trenchev, ha assicurato che “considerando le condizioni di mercato attuali e i numerosi casi di bancarotta (vedi Celsius), stiamo collaborando con i regolatori statunitensi al fine di assecondare le loro richieste e proteggere gli investitori” Vedremo come si sviluppera’ la faccenda, terremo aggiornato l’articolo in caso di news. 

Read More »
Economia e Finanza

DAO: cos’è, come funziona e la sua storia.

Table of Contents In questi ultimi anni abbiamo visto nascere come funghi queste nuove piattaforme: le DAO, una rivoluzione nel mondo DeFi e non solo. La prima, però, risale al lontano 2014 ed è TheDAO. Che cos’è una DAO? In inglese Decentralized Autonomous Organization, una DAO è un’organizzazione autonoma e decentralizzata. Autonoma perché è dotata di un software che è in grado di gestire autonomamente l’organizzazione, ideato in modo tale che essa sopravviva senza l’intervento umano all’interno di essa. e Decentralizzata perché priva di un ente centrale che ne comandi l’operato. Solitamente questo viene garantito dalla “governance”, ovvero un sistema di autorizzazione o veto a modifiche all’interno dell’organizzazione. Le decisioni vengono prese a seguito di votazione a cui hanno accesso tutti coloro che detengono il potere di voto, che molto spesso puo’ essere rappresentato da dei Token o Shares. La Storia in breve. La prima DAO, TheDAO, fu fondata nel 2014 sulla blockchain di Ethereum. Ancora oggi una delle più famose ed è ricordata per alcuni eventi molto particolari: Offrendo il proprio token a chi avesse messo $ETH in raccolta: vennero raccolti 150 milioni in Ethereum in soli 15 giorni. Ha perso circa 50 milioni di dollari a seguito di un attacco hacker alla blockchain di Ethereum. A seguito di questo episodio la soluzione fu drastica: venne creato un Hard Fork di Ethereum e il vecchio codice hackerato venne lasciato indietro, cambiando il nome alla chain in Ethereum Classic. Per consultare tutte le DAO esistenti, esiste un sito molto completo, deepdao.io, dove è possibile consultare tutte le loro caratteristiche. Risvolti nel mondo societario-imprenditoriale in Italia. Si può adottare una DAO nel mondo corporate? Come evidenziato in parte della letteratura sull’argomento, la necessità di costituire un ente a responsabilità limitata ha lo scopo di evitare il rischio che una organizzazione di persone che svolgono “insieme” attività di impresa possa essere qualificata alla stregua di una società in nome collettivo irregolare. Infatti, questo comporterebbe il rischio che qualsiasi token holder, anche chi che ne possiede una quantità veramente ridotta, possa essere considerato illimitatamente responsabile per tutte le obbligazioni sociali. In altre parole, il rischio è che il rapporto fra i possessori di token della DAO venga qualificato alla stregua di una società di fatto; evento questo che avrebbe come conseguenza la responsabilità illimitata di tutti i soci/possessori dei token della DAO. Tralasciando i ragionamenti in merito alla necessità che la DAO non sia “totalmente autonoma” (in questo caso, infatti, sarebbe un algoritmo a dover essere qualificato come imprenditore/amministratore della società e ciò, allo stato italiano, non sembra essere ammissibile), il vero problema riguarda la scelta del modello societario più adatto. Non sembrerebbe, infatti, possibile costituire una DAO come S.P.A. e nonostante l’astratta possibilità di far circolare le azioni della società tramite token, la necessità che una S.P.A. sia gestita da un consiglio di amministrazione o da un amministratore unico si scontra con la natura decentralizzata dell’ente. Il problema dell’amministrazione dell’ente può invece essere risolto tramite la costituzione di una S.R.L. In questo modello, infatti, è possibile che i soci si occupino direttamente dell’amministrazione. Non è quindi necessario preoccuparsi dell’istituzione di un organo centralizzato, che intacchi la natura “decentralizzata” dell’ente. Le problematiche maggiori si rinvengono andando a considerare la possibilità di far circolare le quote di questa S.R.L. attraverso la loro incorporazione nei token. Quindi, di fatto, l’idea rimane tutto sommato rivoluzionaria: avere le quote della nostra società su blockchain consentirebbe: Tracciabilità dei propri acquisti/vendite immediata e sicura. Maggiore velocità e minori costi di esecuzione degli ordini. L’eliminazione di intermediari finanziari (banche, fondi di investimento…). Purtroppo, però ad ora non è nulla di concreto e attuare una soluzione simile porterebbe problemi legali.

Read More »
Investimenti e Mercati

Lazy Portfolio.

Indice Come investire con una minima volatilità e meno incertezza? In realtà non c’è una risposta univoca e precisa a questa domanda, né una verità assoluta, anzi! Sì, certamente ci sono asset che hanno queste caratteristiche, ovvero meno volatilità e incertezza, ma questo più in teoria che in pratica. La risposta a questa domanda, infatti, non sta tanto negli asset class che scegliamo, ma piuttosto nella strategia che utilizziamo. I Lazy Portfolio A tal proposito, oggi parliamo di lazy portfolio. Argomento che interessa a tanti, soprattutto in un momento come questo: con tanta volatilità. Alcuni dei lazy portfolio più famosi, come l’All Weather di Ray Dalio e il Golden Butterfly di Harry Browne, li avrai sicuramente già sentiti nominare. In questo articolo andremo a spiegare cosa sono, i loro pregi, ma anche i difetti. Senza scadere troppo nel tecnico, dato che seguiranno poi degli articoli in cui analizzeremo assieme in modo approfondito la composizione dei portafogli pigri più noti, andiamo a capire insieme se questo tipo di investimento può fare al caso tuo. Il Pensiero e l’Approccio Il mondo degli investimenti prevede degli approcci molto diversi tra di loro, ma che possiamo suddividere in due grandi categorie: un approccio all’investimento attivo, ad esempio attraverso lo stock picking, e un approccio più passivo. I lazy portfolio riguardano questa seconda categoria di investitori. Infatti, l’idea alla base è quella di creare un portafoglio di strumenti ben diversificati in grado di muoversi in situazioni di mercato molto diverse tra loro, anche totalmente opposte, dando sì dei buoni rendimenti ma concentrandosi soprattutto sul ridurre il rischio e la volatilità. Tutto questo combinato a un minimo sforzo di gestione. Ma come si crea un lazy portfolio? Per capire come si crea un lazy portfolio dobbiamo capire meglio il pensiero che sta alla base di questo: ovvero un approccio di tipo macroeconomico. Mi spiego meglio: all’interno di un ciclo economico si osserva un’alternanza di fasi, caratterizzate da aspettative sulla crescita o decrescita economica e sull’inflazione o deflazione, che determinano i prezzi degli asset finanziari. Sono proprio le aspettative a guidare i mercati finanziari e in base a queste, in ogni fase ci saranno alcune asset class migliori di altre. A differenza però dei portafogli a stampo macro più classici, dove si cerca di capire e azzeccare la fase economica corrente e il punto preciso in cui ci si trova per indirizzare le proprie scelte verso strumenti che in quella determinata fase potrebbero offrire maggiori performance, i lazy portfolio rinunciano a cercare di individuare la fase specifica e puntano invece ad ottenere buone performance in tutte le fasi del ciclo, puntando idealmente a rendimenti più bassi, ma mantenendo minimi volatilità e rischio. Infatti, non è semplice, nemmeno per i migliori economisti, riuscire a stabilire con precisione in che fase di mercato siamo e anche assumendo di riuscire a capire correttamente quale sia la fase economica corrente, risulta ancora più complicato stabilire con precisione in che momento di questa fase ci troviamo, ovvero risulta quasi impossibile determinare se si è all’inizio, alla fine o nel mezzo di una fase macroeconomica. Questo viene risolto dai lazy portfolio che eliminano per loro natura costitutiva questo problema di analisi macroeconomica. Come si struttura? Riassumendo i lazy portfolio individuano i quattro fattori principali che influenzano le fasi di un’economia: crescita economica, decrescita economica, inflazione e deflazione e definiscono per ogni singola fase quali sono gli asset che hanno performato meglio. Di seguito ti lascio una schematizzazione esempio del comportamento di crescita delle principali asset class nelle diverse fasi:   Crescita economica Inflazione Aumenta Azioni, Obbligazioni aziendali/emergenti, Materie Prime/Oro Materie Prime/Oro, Obbligazioni legate all’inflazione Diminuisce Titoli di stato, Obbligazioni legate all’inflazione Titoli di stato, Azioni (es. di lettura della tabella: in caso di crescita economica superiore all’attesa: azioni, obbligazioni aziendali e/o emergenti e materie prime tendono a salire) Gli strumenti sopracitati sono solo una parte, solitamente si identificano diversi strumenti come opzioni, azioni, obbligazioni, commodities, REITS, Titoli di Stato, oro e asset class alternativi di vario tipo indici e ETF. La composizione non è necessariamente standard, ma il concetto base rimane sempre quello: tenendo conto delle preferenze ed esigenze personali, identificare strumenti adatti per ogni singola fase di mercato. Una volta deciso gli asset e il peso che vogliamo attribuirgli nel bilancio complessivo del portafoglio avremo così il nostro lazy portfolio. A questo punto sarà tutto di semplicissima gestione: andremo ad accumulare e a ribilanciare secondo le tempistiche previste dalla nostra strategia. Una volta visto cosa sono i portafogli pigri, viene spontaneo chiedersi se valga la pena o meno costruirne uno. Vantaggi Ci sono principalmente quattro vantaggi che un lazy portfolio più offrire: La diversificazione Poiché siamo liberi di scegliere con coscienza gli asset che vogliamo, i lazy portfolio consentono di diversificare su tutti gli strumenti che più riteniamo adatti e solitamente si cerca di ridurre la volatilità includendo diverse asset class. La decorrelazione I lazy portfolio sono per loro natura costitutiva composti da strumenti decorrelati tra loro. Infatti, come abbiamo già detto, l’idea di questi portafogli è di bilanciare i nostri investimenti su asset che hanno ottime performance in fasi alterne. In altre parole, se il portafoglio è costruito correttamente, quando un asset sale uno rimane fermo o con delle perdite ridotte dalla limitata volatilità, ma quando poi cambia la fase di mercato i ruoli si invertono. Le performance Grazie alla diversificazione e alla decorrelazione di questi portafogli storicamente si sono ottenute buone performance anche quando i mercati sono scesi. La gestione Sono portafogli molto semplici da gestire, sia materialmente, perché richiedono solo di essere ribilanciati, sia emotivamente, in quanto hanno spesso una volatilità inferiore alle singole asset class. VS Svantaggi Ma se da un lato abbiamo parlato dei vantaggi di questi portafogli, non possiamo ignorare gli svantaggi che questi comportano. L’altra faccia della medaglia delle performance e i rendimenti. È insito che nel momento in cui inseriamo asset class non performanti in quella specifica fase di mercato, ma che ci permettono di avere una copertura maggiore su tutte le casistiche,

Read More »