–Restic è un’applicazione per la gestione di backup sia in locale che in cloud, che supporta la crittografazione (AES-256) e la deduplicazione dei dati, riducendo dunque in modo significativo lo spazio necessario per conservare i file bekappati.
Restic è già ad oggi compatibile con la maggior parte dei servizi cloud quali : “OpenStack Swift, bucket Amazon S3, Backblaze B2, Microsoft Azure Blob Storage, Google Cloud”, e sono presenti anche immagini Docker.
Restic è sviluppato in linguaggio GO, cosa che lo rende molto leggero ed efficiente, risolvendo anche molti problemi di gestione di dipendenze.
– INSTALLAZIONE
Esistono molti pacchetti di installazione per la maggior parte dei sistemi operativi, coprendo un range che va da Arch Linux a MacOS, fino ai sistemi *BSD/*NIX……
Per i sistemi più “standard” l’installazione è banale:
Una volta installato il pacchetto i comandi per l’utilizzo di Restic sono davvero semplici ed immediati.
Prima di tutto va inizializzato lo spazio che si decide di stanziare, dedicare, al backup, ricordandosi che Restic chiama la destinazione per i backup “repository” ( –repo oppure -r ).
Quindi per inizializzare la Directory prescelta per la gestione dei backup possiamo agire in 3 modi diversi:
spostarci all’interno della DIR prescelta e dare il comando # restic init
indicare il PATH dei backup # restic init –repo /mnt/data/<nome_utente>/backup/
indicare un percorso di rete # restic -r sftp:<utente>@<indirizzo_IP>:/mnt/data/<nome_utente>/backup init
– COMANDI PRINCIPALI
init
backup
ls
restore
snapshots
tag
copy
stats
…….. e molti altri ancora che potete trovare sulla documentazione ufficiale, al sito restic-official-docu
Per poter automatizzare gli accessi ad aree esterne come, altri server, servizi cloud o altro, possiamo usare due metodi diversi;
1) creiamo un file .restic.env nel quale possiamo inserire i dati di accesso (es. ad AWS S3) , aggiungendo la password creata durante la fase di inizializzazione [“init“]
oppure
2) creiamo un file .rest_pass in cui inseriamo soltanto la password
created restic repository 80ee4591fd at C:\Users\User\Desktop\restic-repo
Please note that knowledge of your password is required to access the repository. Losing your password means that your data is irrecoverably lost.
Esegui il BACKUP
.\restic.exe backup -r C:\Users\User\Desktop\restic-repo E:\TEST1.txt enter password for repository: repository 80ee4591 opened successfully, password is correct created new cache in C:\Users\User\AppData\Local\restic
Files: 1 new, 0 changed, 0 unmodified Dirs: 1 new, 0 changed, 0 unmodified Added to the repo: 467 B
processed 1 files, 0 B in 0:00 snapshot 0161a85c saved
Vedere la lista degli snapshot effettuati
.\restic.exe snapshots -r C:\Users\User\Desktop\restic-repo enter password for repository: repository 80ee4591 opened successfully, password is correct
.\restic.exe ls -l -r C:\Users\User\Desktop\restic-repo 0161a85c enter password for repository: repository 80ee4591 opened successfully, password is correct snapshot 0161a85c of [E:\TEST1.txt] filtered by [] at 2021-08-05 13:08:45.8317433 +0200 CEST): drwxrwxrwx 0 0 0 1979-12-31 23:00:00 /E -rw-rw-rw- 0 0 0 2021-08-05 13:07:20 /E/TEST1.txt
Esegui il Restore
Per effettuare un test reale, ho cancellato il file E:\TEST1.txt
.\restic.exe restore 0161a85c -r C:\Users\User\Desktop\restic-repo –target E:\restore enter password for repository: repository 80ee4591 opened successfully, password is correct restoring to E:\restore
….così facendo ho recuperato la copia di backup facendone il restore sul disco E:\restore
$ ls -l E:\restore
Directory: E:\restore
Mode LastWrite Time Length Name —- ————- —— —- d—– 31/12/1979 23:00 0 TEST1.txt
Elimina gli snapshot
.\restic.exe forget –prune 0161a85c -r C:\Users\User\Desktop\restic-repo enter password for repository: repository 80ee4591 opened successfully, password is correct [0:00] 100.00% 1 / 1 files deleted 1 snapshots have been removed, running prune loading indexes… loading all snapshots… finding data that is still in use for 0 snapshots [0:00] 0 snapshots searching used packs… collecting packs for deletion and repacking [0:00] 100.00% 1 / 1 packs processed
to repack: 0 blobs / 0 B this removes 0 blobs / 0 B to delete: 2 blobs / 531 B total prune: 2 blobs / 531 B remaining: 0 blobs / 0 B unused size after prune: 0 B ( of remaining size)
rebuilding index [0:00] 0 packs processed deleting obsolete index files [0:00] 100.00% 1 / 1 files deleted removing 1 old packs [0:00] 100.00% 1 / 1 files deleted done
N.B.: bisogna ricordarsi che, nel caso stessimo agendo sull’eliminazione di un backup/snapshot in ambiente cloud, tipo Amazon Bucket S3, prima del comando di forget –prune bisognerà dare un “restic unlock <ID dello snapshot>“
Auto Pulizia
.\restic.exe forget –prune –keep-daily 7 –keep-monthly 12 –keep-yearly 3 -r C:\Users\User\Desktop\restic-repo enter password for repository: repository 80ee4591 opened successfully, password is correct Applying Policy: keep 7 daily, 12 monthly, 3 yearly snapshots
Aggiorna la versione
Prima di tutto verifichiamo quale versione abbiamo al momento:
.\restic.exe version restic 0.12.0 compiled with go1.15.8 on windows/amd64
oppure
$ restic version restic 0.12.0 compiled with go1.15.8 on linux/amd64
Sulla macchina ArchLinux la versione è già l’ultima disponibile al momento (5 Agosto 2021) quindi non eseguiremo l’aggiornamento ma, ricordate che in caso di macchine nascoste da un Firewall a cui è vietato fare download di pacchetti si può comunque scaricare su di un’altra macchina l’ultima versione del software dal repository ufficiale su github , scompattarlo e sostituire il nuovo “restic” direttamente in /usr/bin
L’invito è quello di leggere la documentazione ufficiale poichè è davvero ricca di esempi, spiegazioni e modi di utilizzare questo fantastico strumento, ultra flessibile e davvero performante.
Per chi ancora non conosce il progetto IPFS (creato all’interno del MIT di Boston), posso cominciare dando la definizione riportata sulla pagina Wikipedia, ossia che: L’InterPlanetary File System (IPFS) è un protocollo di comunicazione e una rete peer-to-peer per l’archiviazione e la condivisione di dati in un file system distribuito.
IPFS basa il suo funzionamento sull’utilizzo di molteplici tecnologie, racchiudendo in se le più moderne idee alla base di precedenti sistemi peer-to-peer, inclusi DHT, BitTorrent, Git e SFS.
Bene, dopo questa introduzione dobbiamo capire cosa si può già realmente fare con IPFS, poichè essendo un progetto in forte sviluppo, sono già parecchi gli usi pratici su cui potremo inserire IPFS in un nostro progetto.
Ma quella definizione di “Sistema Interplanetario per la gestione dei dati” potrebbe forse farvi comprendere la vicinanza di questo progetto con la blockchain. Infatti quando è nata la tecnologia della Blockchain, il Bitcoin aveva lo scopo di far usare la blockchain per espandere la libertà finanziaria a tutti coloro che avrebbero usato quel sistema. IPFS vuole portare ulteriormente avanti il concetto da cui è nata la blockchain, non a caso, per gli sviluppatori del progetto la stessa blockchain non dovrebbe essere vista legata solamente alle transazioni di denaro (immagine che attualmente è stata appiccicata a questa fantastica tecnologia ), ma bensì dovrebbe rappresentare la nuova infrastruttura di Internet.
In pratica, Internet, così come lo conosciamo oggi, non dovrà più essere il sistema a cui noi semplicemente accediamo, e di cui qualcun’altro possiede l’infrastruttura.
Proviamo a fare un esempio che possa essere chiaro per tutti:
Oggi quando cerchiamo Facebook sul motore di Google, stiamo compiendo le seguenti azioni
Chiediamo a Google di cercare Facebook, per poi
Chiedere a Facebook di mostrarci che cosa fanno i nostri contatti
..tutto ciò senza considerare tutti i passaggi intermedi che ci servono per arrivare su Google e successivamente arrivare a Facebook, ad iniziare dalla prima "request" che viene fatta dal nostro device al nostro gestore di connessione, che sia il provider che ci fornisce la linea di casa o l’operatore telefonico che ci fornisce la rete per navigare.
Passaggi nei quali lasciamo in rete un sacco di tracce, dal nostro indirizzo IP, il nostro indirizzo MAC(ossia l’identificatore unico e univoco del nostro dispositivo connesso in rete), la localizzazione geografica della nostra posizione in tempo reale, la versione di Browser che stiamo utilizzando, fino alla stringa di ricerca che vogliamo venga esaudita. Insomma un bel pò di dati per una semplice ricerca.
Consideriamo adesso che tutte le aziende attraverso cui passano i nostri dati di navigazione, possono leggere e dunque sfruttare tutte queste informazioni per capire come ci comportiamo in rete, cosa siamo soliti cercare, se siamo appassionati di viaggi o di informatica, se abbiamo preferenze verso certi prodotti piuttosto che altri, e molto altro ancora, una vera e propria profilazione.
Ma una profilazione non serve solo come agglomerato di dettagli e specifiche di un’ utente, vendute agli inserzionisti per creare una pubblicità su misura per ogni singolo internauta. Una profilazione di questo tipo identifica una specifica persona meglio delle sedute dallo psicanalista, e non serve usare il concetto di coloro che sono soliti dire: "ma io non ho nulla da nascondere", in quanto il concetto di Privacy non nasce per difendere coloro che hanno qualcosa da nascondere. Immaginate di diventare dei VIP e che improvvisamente stuoli di giornalisti e paparazzi si piazzino davanti a casa vostra, cercando di rubare un momento qualunque della vostra vita, fotografandovi ovunque voi siate……, credo che invochereste il diritto di privacy immediatamente, non perchè abbiate qualcosa da nascondere, ma perchè avete una vostra vita da vivere; allora immaginiamo questi "scrutatori" della vostra vita, come costantemente parcheggiati nel vialetto davanti alla vostra stradina per navigare in Internet. Appena vi collegate, per un qualunque motivo, loro sono già li tutti pronti a scattare foto di ogni attimo della vostra navigazione, che sia per lavoro o per svago.
Adesso immaginiamo come potrebbe essere la stessa esperienza se non ci fosse bisogno di "Internet, per accedere ad Internet", questo è quello che stanno cercando di realizzare con IPFS, costruendo un protocollo di navigazione che sostituisca HTTP/S, ormai vecchio, accroccato e che non riesce più a stare al passo con la costante crescita delle innovazioni del WEB. Tenendo anche presente che l’http/s è un protocollo di livello 4, mentre nella pila (ISO/OSI) dei protocolli di rete ci sono ben 7 livelli.
IPFS vuole dunque cambiare il protocollo standard da https:// a ipfs:// , che può sembrare una cosa insignificante, invece tutto questo cambia moltissimo l’uso della rete per ogni utente, perchè con IPFS quando richiediamo un’informazione in rete , non la stiamo più chiedendo ad un insieme di server, sparsi chissà dove nel mondo, e di proprietà di una Big Corporation, ma lo stiamo chiedendo a qualcuno che si trova vicino a noi e che condivide quella informazione, nello spirito dei sistemi peer-to-peer.
Oggi il web è fondamentalmente inefficiente e costoso perché internet costa in ogni suo singolo aspetto, dalla connessione, alle infrastrutture per i servizi che si appoggiano, tutti, troppo, alle infrastrutture GAFA (Google, Amazon, Facebook, Microsoft), di conseguenza, non è possibile immaginare l’attuale Internet come il luogo che preserverà la storia umana.
I vantaggi che si potrebbero trarre dall’utilizzo di IPFS sarebbero molteplici, ad esempio:
• download più veloci ed efficienti: mentre HTTP può scaricare una risorsa da un solo computer alla volta, IPFS pu`o recuperare parti diverse di un file da molteplici computer contemporaneamente;
• un web più robusto: l’architettura di IPFS elimina i server centrali che rappresentano un single point of failure permettendo la creazione di un Web “permanente”. IPFS crea una rete resiliente dove ogni risorsa è sempre disponibile grazie al mirroring dei dati su più nodi;
• resistenza alla censura: mentre può essere molto semplice per un governo bloccare l’accesso a un determinato sito internet ospitato presso un server centralizzato, IPFS crea un Web immune alla censura.
Wikipedia è stato uno dei primi progetti ad essere stato “portato” su IPFS con un progetto che si chiama Distributed Wikipedia.
Dunque come iniziato ad accennare all’inizio dell’articolo, <u>IPFS è un sistema distribuito per l’archiviazione e l’accesso a file, siti Web, applicazioni e dati</u>.
Questo, in soldoni, significa che potrai archiviare qualsiasi tipo di dato/file in IPFS e, dopo averli archiviati, IPFS fornirà un hash che inizia con Qm. Si potrà quindi accedere ai dati usando quell’hash.
HASH
Che cosa sono e quale scopo hanno gli hash ?
L’hash in termini tecnici è noto come Identificatore di contenuto (CID) in IPFS. Il CID è sostanzialmente un’etichetta utilizzata per indicare il contenuto in IPFS, ma non indica dove è archiviato il contenuto. L’hash crittografico del contenuto viene quindi utilizzato per generare CID. L’hash corrisponde a un multihash di caratteri che inizierà con “Qm”. Le lettere “Qm” definiscono l’algoritmo (SHA-256) e la lunghezza (byte 32) utilizzati da IPFS.
Gli hash sono funzioni che accettano input arbitrari e restituiscono un valore di lunghezza fissa. Essi possono essere rappresentati in diverse basi (base2, base16, base32, ecc…).
Caratteristiche degli hash crittografici:
Deterministico
Non correlato
Unico
Senso unico
L’utilizzo dell’hash come chiave per l’identificazione dei file ha inoltre il vantaggio di garantirne l’integrità, poichè, così facendo, il nodo che ha richiesto una risorsa, per assicurarsi che il file ottenuto sia effettivamente quello richiesto e che non abbia subito alcuna alterazione, non dovrà far altro che ricalcolarne l’hash e verificare che questo corrisponda con quello che aveva inizialmente richiesto. Oltre ad aggiungere questa misura di sicurezza gratuitamente, la scelta di utilizzare l’hash come chiave porta un secondo vantaggio, ovvero la deduplicazione dei file: ogni volta che un utente pubblica un nuovo file su IPFS, la rete verifica attraverso il suo hash se questo è già presente, evitando automaticamente che ne vengano mantenute molteplici copie qualora più utenti caricassero la medesima risorsa.
Dal momento che IPFS utilizza l’indirizzamento basato sul contenuto, i file memorizzati su di esso non possono più essere modificati, infatti qualunque aggiornamento al file produrrebbe anche una modifica dell’hash che lo identifica. Per questa ragione IPFS, esattamente come Git, supporta il versioning dei file. Ogni volta che il contenuto di un file viene aggiornato, IPFS crea un oggetto chiamato commit che rappresenta un particolare snapshot nella cronologia delle versioni di un determinato IPFS object. Ogni commit contiene un riferimento al commit precedente e un link alla specifica versione dell’IPFS object (vedi immagine). IPFS tiene traccia in questo modo dell’ultima versione del file e di tutte le versioni precedenti.
SALVARE I DATI
pinning
Ora, una volta spiegato cosa c’è alla base del progetto IPFS, dobbiamo chiarire alcuni punti importanti. IPFS usa lo slogan per cui ciò che SALVI sul sistema rimarrà li per sempre….. SI & NO. La precisazione va ben fatta perchè, facciamo un esempio: Qualche giorno fa abbiamo assistito ad un service-down da parte di Google, che ha precluso l’accesso ai dati personali e lavorativi di milioni di persone, le quali improvvisamente, non riuscivano più ad accedere all’account Gmail, ai dati (privati e di lavoro) su Google Drive etc…. (e la lista è lunga). Pensiamo ai danno provocati da questo “blackout informatico”. Tutto ciò non sarebbe accaduto se i dati a cui noi volevamo attingere fossero stati già salvati su IPFS perchè non dipendono dai servizi e dalle architetture di un’azienda, per grande che sia, ma sono attivi perchè condivisi e replicati da tutti i pc degli utenti che utilizzano questo sistema/protocollo. Quindi se io salvo in rete un documento, questo sarà accessibile fino a quando ci sarà anche solo 1 pc nella rete IPFS in grado di condividermelo. Seppur banalizzato, il concetto è questo ma, non tutto ciò che possiamo caricare su IPFS rimane in eterno, questo perchè non ci serve mantenere ogni cosa, quindi esiste un processo, il PINNING, che ci permette di dire alla rete quali file noi consideriamo IMPORTANTI e vogliamo vengano mantenuti, altrimenti IPFS ha un suo sistema di pulizia della cache per cui, tutto ciò che non è stato “pinnato” verrà svuotato. Un pò come il garbage collector.
PROBLEMA
Chiaramente nessun sistema è perfetto, dunque anche IPFS, seppur abbia ottimi punti di partenza e di futuro sviluppo, ha anch’esso alcuni aspetti problematici da tenere presente, ma così come la Blockchain ha creato i Bitcoin come sistema di INCENTIVAZIONE per poter far crescere l’uso della sua innovazione, così anche IPFS ha dovuto trovare la soluzione per lo stesso dilemma.
Infatti, il problema principale di IPFS è quello di riuscire a mantenere i file sempre disponibili, poichè se un file è condiviso da pochi nodi della rete questo diventerà non disponibile non appena questi nodi andranno offline, esattamente come capita su BitTorrent per i file con pochi seeders. L’unico modo per risolvere questo problema è offrire un incentivo ai nodi per rimanere online quanto più tempo possibile e distribuire così proattivamente i file sulla rete in modo che ci sia sempre un certo numero minimo garantito di nodi, che ne mantenga una copia disponibile.
SOLUZIONE
Per questo gli stessi sviluppatori di IPFS hanno creato il progetto Filecoin, una blockchain basata su IPFS che punta alla creazione di un mercato decentralizzato per lo storage di dati. In questo modo chi offre il proprio spazio di archiviazione per il salvataggio di dati su IPFS è al tempo stesso incentivato economicamente a farlo e a mantenere il proprio nodo online per quanto più tempo possibile. In pratica come Bitcoin per la Blockchain.
Di Filecoin parleremo approfonditamente in un prossimo articolo.
IPNS
L’IPNS, ossia Inter-Planetary Name System è la parte tecnologica di IPFS che possiamo associare a ciò che noi conosciamo sulla internet, basata sul protocollo HTTP, come il servizio DNS, tramite il quale possiamo navigare, grazie alla traduzione da indirizzo-IP basato su numeri, a sequenza ordinata di lettere che compongono gli URL che utilizziamo ogni giorno.
Secondo la documentazione ufficiale di IPFS:
” l’ IPNS è un sistema per la creazione e l’aggiornamento di collegamenti mutabili al contenuto IPFS. Poiché gli oggetti in IPFS sono indirizzati al contenuto, il loro indirizzo cambia ogni volta che il loro contenuto lo fa. È utile per una varietà di cose, ma rende difficile ottenere l’ultima versione di qualcosa.”
Quindi, un nome gestito su IPNS equivale all’hash di una chiave pubblica, ed è associato a un record contenente informazioni sull’hash a cui è collegato, che è firmato dalla chiave privata corrispondente. Chiaramente tutti i nuovi record possono essere firmati e pubblicati in qualsiasi momento.
OGNI COSA HA BISOGNO DEL PROPRIO ATTREZZO
Come ho carcato di spiegare (data la vastità dell’argomento) , IPFS può rendervi indipendenti dall’Internet tradizionale, infatti posso salvalre file, pubblicare un sito ed altro ancora, senza dover usare Google, un DNS, o avere un dominio comprato su un ISP……, già dimenticavo di dire che, così come oggi siamo abitutati a comprare e registrare un dominio per il nostro sito, la stessa cosa la possiamo fare in modo indipendente anche su IPFS, tramite ENS (Ethereum Name Service).
In questo caso possiamo vedere come due tecnologie, simili nei concetti, si possono unire, ed è il caso proprio di IPFS+ENS.
L’ Ethereum Name Service (ENS) è definito come un “sistema di denominazione distribuito, aperto ed estensibile basato sulla blockchain di Ethereum”. Ethereum, per coloro che non lo sapessero, è una piattaforma di contratto intelligente (una blockchain) che vanta un gran numero di applicazioni decentralizzate (dapps), una vivace community di sviluppatori e una dichiarata community di utenti.
ENS è stato progettato per creare un sistema simile al DNS, tuttavia, a causa della diversa architettura decentralizzata di Ethereum, l’ENS varia dalla struttura sfruttata nei sistemi DNS. Tuttavia, proprio come il DNS, l’ENS detiene un record di nomi gerarchici separati da punti chiamati domini, con il proprietario del dominio di primo livello che ha il pieno controllo sui sottodomini.
Ad esempio, se “tizio” possiede il dominio “soldiapalate.eth”, può creare “blog.soldiapalate.eth” e configurarlo come desidera.
Per gli utenti della rete principale di Ethereum, l’ENS semplifica decisamente le cose, inquanto migliora l’usabilità delle dapps restituendo, attraverso la risoluzione inversa, nomi leggibili dall’uomo invece dei lunghi hash di IPFS.
WEB 3.0
Come stavo chiarendo qui sopra, posso essere indipendente da tutto se voglio usare IPFS come sistema di backup/scambio di file ma, cosa succede se voglio usare queste nuove tecnologie per creare un sito web?. Da questi ragionamenti è nato quello che oggi è il web3, che accomuna sistemi decentralizzati come IPFS alle Blockchain, come Ethereum, ma non solo. Infatti, seppur abbiamo chiarito che IPFS funziona, a livello concettuale com Torrent, se i contenuti che voglio condividere sono presenti solo su un computer e quel computer, per qualsiasi motivo, non è disponibile, quei contenuti saranno irragingibili.
Per questo motivo, da qualche tempo per IPFS esistono anche dei servizi di pinning: che ci aiutano a garantire la disponibilità dei nostri contenuti. Tra questi, alcuni nomi sono quelli di Pinata, Infura ed anche il blasonato Cloudflare ha aggiunto tra i suoi servizi quelli di “Gateway Website for IPFS” …… and more.
Il vantaggio del Web 3.0 è che i dati sono distribuiti punto a punto, quindi non è necessario preoccuparsi di perdere i dati se i server sulla rete vengono interrotti. Non è lo stesso di un Web centralizzato, quando il server di accesso viene interrotto, non è possibile accedere al sito Web.
CONCLUSIONE
Per questo primo articolo introduttivo è tutto, nel prossimo inizieremo ad affrontare alcuni casi pratici per vedere come si salvano i dati, li si recuperino in caso di cancellazione, vedremo come attivare un nostro nodo locale e come accedere alla Dashboard di gestione del nodo, e come usare alcuni dei servizi di gateway per velocizzare e gestire il pinning dei dile importanti.
Siamo arrivati a quelle che già da molti mesi sono tra le elezioni presidenziali più attese degli ultimi anni, ed i mercati finanziari sono stati, come sempre, ricchi di chiacchiere, di ogni genere, colpi bassi, gossip di cattivo gusto, insomma di tutto quanto ormai abbiamo imparato essere il circo mediatico dietro ad uno degli eventi più importanti al mondo, per via delle ripercussioni, positive e negative, sulla maggior parte delle nazioni. Ma da qualche anno le implicazioni non sono più soltanto a carattere geo-politico e finanziario ma anche sui vari asset strategici della economia digitale, tra cui Bitcoin.
E’ ormai assodato che la relazione tra il “cripto mondo” e questo grande evento statunitense richieda ulteriori indagini, vista la sua rilevanza storica.
Infatti dobbiamo tenere presente che Bitcoin ha chiuso il mese di Ottobre, per la seconda volta, nella sua intera storia, intorno ai 14.000 dollari, l’unico precedente lo possiamo ritrovare soltanto in quel periodo tra la fine del 2017 e l’iniio del 2018, in cui arrivò addirittura a 20.000 dollari.
Del resto anche prima del rialzo del 2017, si erano svolte le elezioni americane del 2016 tra la Clinton e Trump. Dunque potrebbe significare che le elezioni statunitensi hanno un’ impatto su Bitcoin in un modo o nell’altro?
Volendo cercare una correlazione, andando indietro a verificare, potremmo notare che, nell’ultimo ciclo elettorale, Standard & Poor 500 (l’indice della borsa statunitense) aveva registrato volatilità durante il periodo delle elezioni. In particolare, durante il mese di Ottobre e la prima settimana di novembre 2016, l’SPX era calato di oltre il 6%, mentre subito dopo le elezioni, le azioni erano rapidamente risalite, invertendo la tendenza verso quelli che sarebbero diventati i nuovi massimi storici.
Quindi, da un lato, abbiamo una situazione in cui si potrebbe tracciare una correlazione causale tra l’andamento di Bitcoin e le elezioni presidenziali statunitensi, d’altro canto, si potrebbe anche sostenere che questa correlazione sia semplicemente il risultato dell’aver stampato e pompato nei mercati una grande quantità di denaro, la stessa FED aveva dichiarato qualche settimana fa che, a causa degli aiuti all’economia per via del Covid, nel solo 2020, sono stati stampati l’equivalente del 22% di tutti i dollari in circolazione.
Gli eventi che si sono abbattuti sull’economia, all’arrivo del 2020, hanno però modificato la visione di molte persone ed aziende, circa quello che Bitcoin può diventare, infatti, mentre prima era visto principalmente come un’ asset speculativo con una capitalizzazione di mercato di poco più di $ 200 miliardi, oggi si è guadagnato un nuovo ruolo, ossia quello di una moneta per salvaguardare le nostre richezze diventando noi, in primis, degli “holder”, pensando quindi principalmente ad un accumulo come forma di prossima ricchezza, contro la visione speculativa dell’inizio.
Non a caso, proprio in questo anno alcune Big, società quotate in borsa di grande reputazione, come Square e MicroStrategy (per citarne solo alcune), hanno portato l’argomento della “riserva di valore” ad un livello successivo, avendo collocato sul mercato digitale, una grossa percentuale delle loro riserve aziendali investendo diversi milioni di dollari nell’acquisto di Bitcoin.
L’ascesa di Bitcoin come riserva di valore
Tutto ciò di cui abbiamo discusso fino ad ora, ci porta dunque a trattare Bitcoin come la nuova “riserva di valore”. In effetti, in un periodo di accresciuta incertezza, la necessità di una riserva assoluta di valore è diventata ancora più una necessità.
Tradizionalmente, l’oro è il bene di rifugio verso cui gli investitori si affollano in tempi di crisi. Ma Bitcoin sembra essere diventato decisamente più interessante per gli investitori tecnologici di oggi, con scarso interesse per le proprietà ingombranti dell’oro.
Dall’inizio della crisi economica da Covid, lo stimolo di ricerca della “riserva di valore” su cui investire è cresciuta parecchio, volendo analizzare i due protagonisti del mercato possiamo notare che, l’oro è aumentato del 40% (dal minimo al massimo), mentre Bitcoin è aumentato di oltre il 120%. Questa discrepanza nelle prestazioni diventa ancora più chiara se vista in un arco di tempo di 10 anni.
Conclusione
In conclusione, avendo osservato che, nonostante gli avvicendamenti dei presidenti americani, da quando Bitcoin è nato, possiamo affermare con una certa sicurezza che le elezioni statunitensi alla fine avranno poca influenza sulla traiettoria di crescita a lungo termine di Bitcoin.
Quello che possiamo immaginare è che certamente, il giorno stesso delle elezioni, fino anche ad una settimana dopo, sarà ragionevole prevedere una reazione del mercato legacy al candidato vincitore, che potrebbe andare in entrambi i modi, poichè, in genere, i mercati preferiscono mantenere lo status quo, il che significherebbe la vittoria di Trump, che sarebbe percepita dai mercati come “business as usual”, mentre, il rovescio della medaglia avverrebbe, se Biden dovesse vincere, per cui, le percezioni dei mercati dipenderebbero dal discorso inaugurale dello stesso neo presidente.
Concludo, ribadendo che questa è un’analisi totalmente pesonale e, che quindi a mio parere, a prescindere da chi verrà eletto, Bitcoin procederà come sempre per la sua strada, nel caso della rielezione di Trump, senza eventuali battute di pausa, ma proseguendo il trend di crescita del 2020 per tutto il 2021, tornando a puntare verso quella quota 20.000 che aveva già raggiunto nel Dicembre 2017.
Ci siamo, dopo il primo articolo, in cui ti è ho spiegato, come “Sviluppare applicazioni per Ethereum con GETH“, è giunto il momento di andare avanti, arrivando alla seconda fase, con cui potrai sviluppare un tuo ambiente di test. Vedrai come si può realizzare un custom testnet reale, generando un tuo nodo ethereum in locale.
Potrai così iniziare a capire, mettendoci mano, i meccanismi del funzionamento di un nodo genesis, su cui configurerai il mining PoW della tua moneta preferita, l’ether, capendo al meglio l’utilizzo del miglior client, oggi esistente, ossia GETH, realizzando così anche una rete ad hoc, uno script di avvio per il mining, e scoprirai cosa cercare per leggere l’output generato, per fare esercizio su quel principio che, a me, piace chiamare con il termine di “studio ed approfondimento”.
In questo nuovo articolo, vedremo un tool davvero nuovo ed interessante, che ci mostrerà un metodo diverso per poter interagire sulla blockchain di Ethereum.
Questo strumento si chiama EthQL, ed è lo strumento che può essere utilizzato per esplorare e interrogare la blockchain di Ethereum. Se sei uno sviluppatore o un semplice appassionato, con questo articolo capirai come sfruttare a pieno questo strumento.
Per la lettura completa dell’articolo, che ho pubblicato sul portale di etherevolution, ti rimando ad usare il link diretto che ti condivido qui a fianco: ETHQL