in-memory computing grandi moli di dati direttamente nella memoria

In-Memory Computing Database

In-Memory Computing Database

La quantità di dati prodotti e gestiti giornalmente in ogni parte del mondo ha raggiunto dimensioni inimmaginabili rispetto anche solo a cinque anni fa. Internet of Things, Digital Technology, Mobility sono solo alcune delle ultime evoluzioni tecnologiche che hanno impresso a questo fenomeno un’accelerazione esponenziale. Un trend, visibile in tutti i settori dell’economia e in ogni parte del mondo.
La complessità degli attuali scenari competitivi obbliga le aziende al continuo riallineamento dell’offerta sulla base dei cambiamenti repentini della domanda. Big Data e Internet of Things restituiscono un ricco bacino informativo da cui sviluppare nuove opportunità di business, ma generano al contempo nuove sfide di governance.

L’in-memory computing è la chiave di volta per rispondere proattivamente all’effervescenza del mercato, perché permette di elaborare grandi moli di dati direttamente nella memoria centrale del sistema, restituendo le informazioni pertinenti con maggiore rapidità.
Il ricorso a piattaforme di “in-memory” via cloud permette di dotarsi di un’infrastruttura prestazionale e scalabile per il data management, con vantaggi di affidabilità, agilità e performance, a supporto di applicazioni analitiche e mission-critical.

In altre parole, l’in-memory computing elimina la necessità di eseguire operazioni di ricerca e recupero delle informazioni su disco ogni volta che viene eseguita un’elaborazione, rendendo trascurabile la latenza di accesso ai dati. Questo nuovo modello tecnologico porta ad un forte miglioramento delle performance di sistema e contiene in sé il potenziale per un’innovazione epocale delle attività di elaborazione elettronica, insomma una nuova era, caratterizzata da un più rapido ed efficiente accesso ai dati.
Due fattori principali stanno contribuendo alla forte espansione dell’ in-memory computing:

Processori a 64 bit
Con il rilascio del processore a 64 bit, avviene una vera e propria rivoluzione nelle capacità di
memoria potenzialmente utilizzabili.

Continua diminuzione del prezzo della RAM
Negli ultimi 30 anni i prezzi della RAM sono diminuiti di oltre 500.000 volte:

Nel frattempo i retailers, alla costante ricerca di strumenti di analisi dei dati per assumere decisioni tempestive in maniera rapida e confidente, hanno un potenziale enorme, a oggi ancora inespresso, nei dati immagazzinati nei propri sistemi, siano essi transazionali o memorizzati in data-warehouse, siano essi prodotti e gestiti dall’azienda o provenienti dalle interconnessioni con il proprio eco-sistema composto da clienti, fornitori, partner commerciali etc… Questa impressionante mole d’informazioni è un patrimonio fondamentale che può essere reso disponibile per prendere decisioni immediate, in modalità real-time ad ogni livello della propria catena decisionale.

Al pari di un comune database, il motore di In-Memory Computing supporta gli standard di settore, come SQL e MDX, ma include anche un motore per il calcolo ad alte prestazioni che integra il supporto del linguaggio procedurale direttamente nel kernel del database. Tale approccio elimina l’esigenza di leggere i dati dal database, elaborarli e quindi riscriverli nuovamente nel database.

Il motore di In-Memory Computing propone quindi significative innovazioni tecniche come l’utilizzo del nucleo della CPU e la massiccia elaborazione parallela. In particolare la velocità, la scalabilità e la capacità di compressione dei dati sono i suoi veri punti di forza tecnici.

Tra le prime aziende a credere ed investire in questa tecnologia e’ stata SAP che ha creato una propria soluzione HANA, una nuova tecnologia destinata a cambiare il mercato, in particolare della Business Intelligence.

Hana e’ una nuova soluzione ibrida basata sulla tecnologia di in-memory computing, che sarà installata su diversi server e apparati di Dell, Hp, Ibm e Fujitsu. Coinvolte nel progetto anche Cisco e Intel. Si chiama Hana (acronimo di High Performance Analytic Appliance) ed è una soluzione che comprende la prima appliance analitica basata sulla tecnologia ‘in-memory computing’.

HANA è una combinazione di software e hardware sulla quale possono girare applicazioni sviluppate appositamente ma che può anche essere accostata a tradizionali sistemi ERP e di business intelligence.

Le regole del gioco cambiano quindi con il software in-memory di SAP HANA:

Perché attendere analisi effettuate su dati già obsoleti? Perché accettare elaborazioni di transazioni, esecuzione dei processi e ricerca di informazioni troppo lenti?
Affidati alla piattaforma SAP HANA per attingere a volumi elevati di informazioni dettagliate e aggiornate al verificarsi degli eventi.

Perché scegliere SAP HANA?

  • Velocità: gestire volumi di dati massivi in secondi, non in ore
  • Agilità: decisioni real-time supportate da informazioni real-time
  • Ordine: ottenere informazioni da ogni dato, strutturato o non strutturato
  • Penetrazione dei dati: indagare, e ottenere risposte, immediatamente
  • Potenza: eseguire nuove applicazioni che sfruttano le potenzialità delle informazioni
  • Cloud: un modello cloud-based sicuro, scalabile e robusto
  • Innovazione: utilizzare la conoscenza per guidare il cambiamento, velocemente come mai prima
  • Semplicità: ridurre costi e complessità per ogni volume o tipo di dato
  • Valore: ottimizzare il business per creare nuove offerte e aumentare i margini di profitto
  • Scelta: utilizzare l’hardware e il software che si preferiscono

Tutto ciò significa che attraverso HANA, le applicazioni possono delegare le operazioni direttamente alla memoria invece che ai dischi. L’informazione viene così conservata e analizzata in HANA, invece che immagazzinata in tabelle statiche all’interno di database tradizionali.

IN-MEMORY COMPUTING, la tecnologia c’e’ e vale la pena provarla.

VPN – Navigazione Sicurezza e Anonimato

VPN - Navigazione Sicurezza e Anonimato

VPN – Navigazione Sicurezza e Anonimato

Facciamo una piccola premessa per spiegare al meglio che cosa sono le VPN e come possiamo usarle.

Una VPN, acronimo di Virtual Private Network, nasce come l’estensione della rete locale. Grazie ad una VPN è possibile connettere computer e dispositivi mobili fisicamente situati anche a migliaia di chilometri di distanza così come se fossero collegati alla stessa rete locale (aziendale, dell’ufficio o di casa).
Dal momento che le informazioni viaggiano utilizzando un mezzo intrinsecamente insicuro qual è la rete Internet, le VPN prevedono l’utilizzo di un algoritmo crittografico che permetta di cifrare le informazioni in transito rendendole inaccessibili da parte di persone non autorizzate (vengono così scongiurati i cosiddetti attacchi man-in-the-middle, impedendo ad un qualunque malintenzionato che si ponga tra i due estremi della comunicazione di intercettare e leggere informazioni che non gli appartengono).

Le principali peculiarità di una VPN sono:

Economicità: la scelta di una implementazione adeguata in fase di decisione permette di scegliere la soluzione più adeguata al miglior costo sostenibile;
Semplicità: grazie allo sviluppo di diversi protocolli la tecnologia è vpn/pptp e´semplice da implementare;
Sicurezza: Il traffico passante viene comunemente crittografato aumentando conseguentemente la sicurezza della connessione.

Le VPN possono essere usate come alternativa ai Proxy per rendere anonime le nostre connessioni ad internet e, tendenzialmente, sono solitamente più performanti e sicure. A differenza dei Proxy il vostro traffico viene totalmente protetto inibendo ogni sorta di monitoraggio da parte del vostro ISP, infine sfrutterete l’indirizzo IP della rete VPN e non il vostro. Si può usare una VPN sostanzialmente perchè garantisce una navigazione anonima sul web. Tutti i dati sono criptati tramite algoritmi. In pratica è come se i nostri dati internet passassero attraverso un tunnel, proprio la VPN, che scherma la nostra connessione. Questo significa essere più sicuri quando ci si connette ad una rete pubblica, come un wifi in hotel o in un internet cafè. E’ possibile accedere a siti che sono bloccati, come spesso accade proprio all’interno delle reti pubbliche. Non ultimo si è più protetti dagli attacchi di hackers e sniffers. Da ricordare però che il traffico è protetto finché si trova all’interno del tunnel: una volta uscito sarà “allo scoperto” come una qualsiasi altra normale connessione. Ora, so che i più tecnici avrebbero da fare qualche appunto alle affermazioni qui sopra, ma volevo andare dritto al punto.

Solitamente si sfruttano reti VPN dislocate in un paese diverso rispetto al proprio per evitare censure governative o per accedere a siti internet non accessibili a determinate nazioni per questioni di license, un esempio lampante è dato dal servizio Last.FM ormai accessibile in tutto il mondo ma agli albori era possibile iscriversi e sfruttare il servizio solo se si era cittadini Americani e una verifica del proprio IP impediva a cittadini non Americani di sfruttare il sevizio, grazie ad una VPN Americana si poteva aggirare questo limite.

VPN LIST

CyberGhostVPN : un servizio gratuito dislocato in tutto il mondo grazie alla presenza di 20 server, offre banda e traffico limitato per un massimo di 2h consecutive dopo le quali si verrà automaticamente disconnessi.
Per la connessione sfrutta un client proprietario basato sul protocollo OpenVPN ed è purtroppo limitato ai soli utenti Windows. È possibile espandere l’account alla versione Premium a 49euro all’anno eliminando il limite temporale della connessione e ampia la gamma dei server disponibili fino a 230, infine la versione Premium offre i comuni protocolli OpenVPN, L2TP/IPSec e PPTP permettendo il collegamento anche da sistemi operativi diversi da Windows.

TunnelBear : garantisce mensilmente 500Mb di traffico internet gratuito senza alcun limite di banda o di traffico, se inoltre seguite su Twitter l’account ufficiale del servizio il traffico raddoppierà ad 1Gb al mese. La versione premium ha un costo di 49,99 dollari all’anno e offre anche un client per dispositivi mobili iOS e Android.

PureVPN : è un ottima via d’uscita per tutte quelle persone che vivono all’estero e sono disperate perchè hanno una connessione scarsissima e non possono sfruttare a pieno la VPN, inoltre e´ tra le piu´ economiche poiche´ permette di usare fino a 5 multi login (per tanto pagate una volta e condividete l’account con altri amici o parenti, fino a 5) Si seleziona l’Italia dalla server list e cliccate connetti e il gioco e’ fatto., funziona su PC , Mac , Android , Linux , permette i torrent e il p2p.

ExpressVPN : è una tra le più longeve e famose VPN sul mercato. I suoi punti di forza sono la velocità , la copertura delle nazioni e i client proprietari che permettono di usare in modo semplice la VPN su android o Ios. Ottima copertura delle nazioni (45 nazioni , Italia inclusa) , client e app fatta a doc disponibili per il mobile (ricordiamo che è SEMPRE possibile configurare manualmente una connessione VPN su un cellulare) , nessun limite di banda , criptazione dati e possibilità di vedere in streaming contenuti video , come vedere NETFLIX fuori dagli Stati Uniti o vedere Sky Go dall’estero. Permesso P2P e Torrent.

IPVanishVPN : da oltre 15 anni è presente sul mercato con soluzioni VPN. Le sue caratteristiche sono sicurezza estrema (NAT Firewall incluso nel prezzo), Velocità (forse la rete privata VPN più scelta dai gamers), semplicità d’uso.
IPVanish infatti cripta i nostri dati in uscita (per tanto non filtrabili e riconoscibili dai nostri provider) utilizza server velocissimi (rete privata Tier 1 tra le più veloci sul mercato).

Abbiamo dunque capito che poter usare una VPN puo´ essere molto utile ma ricordiamoci sempre di agire usando la testa. Quindi se dovete usare una VPN , usatene una economica o sfruttate i periodi di prova , usando comunque VPN professionali.

Facciamo spazio alla partizione di /boot

Kernel Old Remove

Kernel Old Remove

Oggi giorno molti utenti possono decidere di provare ugualmente l’esperienza Linux pur mantenendo di base il proprio sistema Windows principale, oppure per esigenze di lavoro avere due o anche piu’ sistemi operativi su di un unico PC; tutto cio’ grazie ai software opensource come, solo per citarne uno, VirtualBox.

Spesso pero’ alcune informazioni errate o una disattenzione in fase d’installazione oppure ancora l’utilizzo di immagini gia preparate, possono portarci a dover gestire partizioni piu’ piccole del dovuto, in particolare quando si parla della partizione di /boot, infatti in questa partizione sono presenti tutti i vari kernel scaricati durante gli aggiornamenti e a lungo andare, avendo questa cartella solitamente uno spazio limitato, si riempie e non permette più di aggiornare il sistema.

Puo’ dunque capitare che un bel giorno il sistema richieda d’installare l’ennesimo aggiornamento, dentro il quale ci potra’ essere un nuovo kernel ma, all’improvviso, vi arriva la segnalazione che l’operazione non e’ eseguibile poiche’ avete quasi esaurito lo spazio della partizione di /boot.

Cosa fare ?? Beh se siete gia skillati potreste decidere di espandere la partizione con vari software LVM etc, ma se siete alle prime armi e non volete rischiare di giocarvi il boot del vostro sistema forse opterete per questa soluzione che, se eseguita con la massima attenzione, vi portera’ nel giro di un paio di minuti a risolvere il problema, per lo meno fino alla prossima richiesta di spazio.

Per cominciare aprite il terminale ed eseguite questo comando

df -hT

Questo comando vi restituirà una lista completa di tutte le partizioni disponibili sul vostro computer con il relativo quantitativo di spazio libero.

/dev/sda1      ext2      236M  147M     77M  66% /boot

Come si può notare dal risultato anche se sono disponibili ingenti quantità di spazio in altre partizioni del sistema, nel mio caso la partizione di /boot risulta piena al 66% questo è dovuto ai vecchi kernel ancora presenti al suo interno quindi è bene procedere con l’eliminazione dei file obsoleti. Prima però accertatevi di quale kernel state utilizzando in questo momento attraverso il comando

uname -a

Questo vi mostrerà il kernel che state utilizzando.Ricordatevi di non eleliminare questo kernel né il penultimo per sicurezza.

Linux LVBU 4.2.0-23-generic

Adesso che sappiamo quale kernel stiamo utilizzando possiamo procedere con l’eliminazione dei kernel obsoleti.Utilizzando questo comando

dpkg --get-selections | grep linux-image;dpkg --get-selections | grep linux-headers

Vi apparirà una lista completa di tutti i vari aggiornamenti presenti nella cartella /boot

linux-image-4.2.0-21-generic install
linux-image-4.2.0-22-generic install
linux-image-4.2.0-23-generic install
linux-image-extra-4.2.0-21-generic install
linux-image-extra-4.2.0-22-generic install
linux-image-extra-4.2.0-23-generic install
linux-image-generic install
linux-headers-4.2.0-21 install
linux-headers-4.2.0-21-generic install
linux-headers-4.2.0-22 install
linux-headers-4.2.0-22-generic install
linux-headers-4.2.0-23 install
linux-headers-4.2.0-23-generic install
linux-headers-generic install

Come potete vedere nella cartella oltre all’ultimo kernel sono presenti altri file che possono essere obsoleti. State molto attenti a non eliminare il kernel visualizzato con il comando uname -a e il suo “predecessore”, entrambi si possono facilmente distinguere grazie al loro numero più elevato, ad esempio: nel mio caso il kernel più recente è linux-image-4.2.0-23-generic mentre il penultimo kernel è linux-image-4.2.0-22-generic.

Per eliminare i vecchi files basta utilizzare questo comando

sudo apt-get purge NOMEKERNEL
Esempio: sudo apt-get purge linux-image-4.2.0-21-generic

Una volta eseguito il comando inserite la vostra password come utente root e confermate, dopo qualche secondo questo kernel verrà rimosso

Dopo il termine dell’operazione potete controllare se effettivamente si è liberato dello spazio attraverso il comando citato in precedenza

df -hT

/dev/sda1      ext2      236M  101M    123M  46% /boot

come potete notare siamo passati dal 66% di spazio occupato ad avere il 46%

Una volta terminata la pulizia sarà possibile aggiornare senza problemi il vostro sistema avendo a disposizione quasi la totalità dello spazio della cartella /boot.

Come avete visto nella lista dei kernel, oltre al kernel generale ci sono, abbinati alla versione, anche i pacchetti  linux-image-extra-<versione.xxx> e linux-headers-<versione.xxx>, per non lasciare file inutili possiamo eliminare anche questi concatenandoli tutti in un’unico comando

Nel mo caso il comando verrebbe cosi:

sudo apt-get purge linux-image-4.2.0-21-generic linux-image-extra-4.2.0-21-generic linux-headers-4.2.0-21 linux-headers-4.2.0-21-generic

come potete osservare i numeri di versione sono tutti gli stessi. A questo punto dando nuovamente il comando per la ricerca delle versioni del kernel potrete notare nel mio caso che non ci sono piu’ file inerenti alla versione 4.2.0-21

dpkg --get-selections | grep linux-image;dpkg --get-selections | grep linux-headers

linux-image-4.2.0-22-generic install
linux-image-4.2.0-23-generic install
linux-image-extra-4.2.0-22-generic install
linux-image-extra-4.2.0-23-generic install
linux-image-generic install
linux-headers-4.2.0-22 install
linux-headers-4.2.0-22-generic install
linux-headers-4.2.0-23 install
linux-headers-4.2.0-23-generic install
linux-headers-generic install

Ora siete liberi di aggiornare il vostro kernel
#RecuperaspazioKernel

Internet of Things

Internet of Things (IoT)

Internet of Things (IoT)

Internet of Things, o in breve “IoT”, è quell’insieme di tecnologie che portano intelligenza agli oggetti, facendo sì che questi comunichino con noi o con altre macchine, offrendoci un nuovo livello di interazione o di informazione rispetto all’ambiente in cui questi oggetti si trovano. Esempio, un pneumatico ci avverte se si sta per rompere, piante che comunicano all’annaffiatoio quando è il momento di essere innaffiate, scarpe da ginnastica che trasmettono la velocità di corsa dell’atleta e il suo stato di affaticamento, flaconi delle medicine che ci segnalano quando ci si dimentica di prendere un farmaco.

Non si tratta di episodi sperimentali, ma di un’innovazione che negli ultimi anni ha accelerato il ritmo dello sviluppo, infatti si pensi allo smart metering che, in ambito domestico, sta portando le “utilities” a sostituire i tradizionali contatori con apparati sensorizzati e controllati da remoto che ci dicono quanto stiamo consumando in modo da permetterci di razionalizzare i consumi.

COME FUNZIONA L’INTERNET OF THINGS

Ma come avviene tutto questo? grazie a sensori, tag Rfid, attuatori, smart code che, applicati a un qualsiasi oggetto come un lampione, un cappello, una tazza o un ponte, trasmettono e ricevono informazioni, utilizzando come piattaforma di scambio il Web.

LE ORIGINI

Le origini dell’Internet of Things vengono attribuite a un ricercatore britannico del Mit (Massachussets Institute of Technology), Kevin Ashton, che nel 1999 coniò per primo il nome per descrivere un sistema dove Internet viene connessa al mondo fisico tramite una rete di sensori distribuiti. A quella che era solo un’ipotesi, fece poi seguito una via sperimentale. Tra i primi progetti pilota, ricordiamo la piattaforma Cense (Central Nervous System for the Earth), nata nel novembre del 2009 negli Hp Labs. L’obbiettivo? creare un network di sensori mondiale capace di connettere oggetti e persone. I sensori, infatti, sono gli organi intelligenti della Rete che, misurando ogni tipo di variazione ambientale come vibrazioni, rotazioni, suoni, correnti d’aria o del mare, luce, temperatura, pressione, umidità, permettono una nuova rappresentazione del mondo in tempo reale a supporto di una molteplicità di settori applicativi, dalla difesa al retail, dalla meteorologia al traffico.
La ricerca e sviluppo di Ibm si è invece focalizzata su un progetto chiamato Smart Planet. Nelle quattro città campione su cui Ibm ha investito in ricerca e sviluppo sono state rilasciate soluzioni per la decongestione del traffico che hanno permesso di ridurre le emissioni di Co2 del 14%, di abbattere i picchi di traffico del 18% e di favorire l’utilizzo del trasporto pubblico di un +7%.

L’INTERNET OF THINGS OGGI

Grazie anche ai progressi delle tecnologie wireless e satellitari, oggi l’Internet of Things è una nuova dimensione tecnologica attraverso la quale è possibile mettere a sistema il mondo analogico, attraverso tutta una serie di accessi, ognuno dei quali veicola tutta una serie di informazioni. Sensori, tag Rfid, cellulari, smartphone, chioschi multimediali, telecamere, videocamere: la IoT include più standard tecnologici, come ad esempio, Gps e near field communication.

Nel 2010 si sono viste diverse applicazioni dell’Internet of Things anche nella conservazione dell’energia. Le cosiddette Smart grid, infatti, applicano un utilizzo intelligente dell’alimentazione che sfruttano nuove economie di scala e software di supporto. Tra le società che hanno iniziato a investire su questo fronte General Electric e Google, che attraverso il consorzio Usnap (Utility Smart Network Access Port) stanno lavorando a un processo di standardizzazione per definire dispositivi di misurazione tali da permettere all’utenza domestica di accedere alle smart grid monitorando i propri consumi.

CHE COSA È POSSIBILE COLLEGARE ALLA RETE

Di tutto, almeno dal punto di vista teorico. Anche animali (per esempio attraverso segnalatori che ne consentono la localizzazione), piante (attraverso sensori che ne controllano l’illuminazione o il fabbisgono di acqua) e addiritura persone (utilizzando pacemaker o altri dispositivi per il controllo da remoto dei parametri biologici).

Con un po’ di fantasia è possibile collegare in rete praticamente ogni cosa. Per essere connesso un oggetto, una “thing”, deve rispettare due caratteristiche: avere un indirizzo IP che ne consente l’identificazione univoca sulla Rete e la capacità di scambiare dati attraverso la rete stessa senza bisogno dell’intervento umano.

A CHE COSA SERVE

Obiettivo degli oggetti connessi è, in generale, quello di semplificarci la nostra vita automatizzando processi o mettendoci a disposizione informazioni che prima non avevamo. Qualche esempio: La strada intelligente, o smart road, in grado di dialogare con le auto, con i semafori e con la segnaletica al fine di ottimizzare i flussi di traffico, ridurre l’inquinamento e i tempi di percorrenza; Sensori posti sulle strisce dei posti auto che individuano la presenza o meno di una vettura, possono inviare l’informazione a un centro dati, che lo fa apparire sulla app per smartphone, come nel progetto Streetline, già in prova a Los Angeles e Indianapolis. Se funzionerà, in futuro, posteggiare sarà più facile.
I termostati intelligenti sono in grado di imparare orari ed esigenze e di scegliere la temperatura adatta per ogni momento, e possono far risparmiare fino al 20% di energia e, tramite smartphone possono essere comandati a distanza anche l’aria condizionata o il riscaldamento, da far accendere quando serve, poco prima di tornare casa. O ancora, i termostati Nest, acquistati da Google, sono piccoli gioielli dell’Internet delle cose, infatti essi conoscono le previsioni del tempo del luogo in cui si trovano, sono dotati si sensori di movimento che contano le persone che passano davanti (quante e quando) e “impara” dalle nostre abitudini.

QUALE SARÀ L’IMPATTO SULL’AMBIENTE DELL’INTERNET OF THINGS

Gli oggetti connessi permetteranno di ottimizzare in tempo reale processi produttivi e attività economiche riducendo in maniera sensibile l’inquinamento e il consumo di risorse.

L’illuminazione pubblica per esempio, se gestita con le nuove tecnologie, potrebbe contenere del 40% i consumi di energia elettrica. Oppure le coltivazioni, che potrebbero essere irrigate in modo molto più efficiente rispetto a quello tradizionale se monitorate da una rete di sensori capaci di comunicare al sistema di erogazione dell’acqua il reale fabbisogno delle piante, determinato in base alla temperatura, alla stagione, all’umidità del suolo e alle previsioni del tempo.

QUALI SONO I RISCHI DERIVANTI DAL VIVERE IN UN MONDO DI OGGETTI CONNESSI

Il principale problema legato all’Internet of Things, per noi utenti comuni, riguarda la tutela della privacy e il corretto utilizzo dei dati. Vivere in un mondo di sensori, misuratori e oggetti di uso quotidiano in grado di raccogliere e scambiare informazioni su come vengono utilizzati, sulle nostre abitudini e sul nostro stato di salute ci espone al rischio di perdere il controllo di ciò che comunichiamo sulla Rete.

Un esempio? Il bracciale per il fitness rileva che ultimamente le nostre performance sportive sono peggiorate. Potremmo essere il bersaglio ideale per la pubblicità, indesiderata, di un integatore alimentare; oppure peggio, un’ente finanziario senza scrupoli potrebbe decidere di utilizzare dati sanitari raccolti in Rete in maniera più o meno lecita per verificare lo stato di salute di un potenziale cliente e decidere se condergli o meno un mutuo od una polizza assicurativa.

QUALI SETTORI TRARRANNO I MAGGIORI VANTAGGI DALLO SVILUPPO DELL’ IoT

Secondo gli analisti il comparto dell’energia e quello dei trasporti saranno quelli che godranno, fin da subito, dei maggiori benefici. Infatti, la possibilità di ottimizzare il consumo di risorse, per esempio segnalando sprechi e guasti, e i flussi di movimentazione di merci e persone, scegliendo i percorsi e i tempi più idonei in base alle condizioni di traffico e al tipo di spostamento, genereranno per gli operatori economici risparmi sensibili e immediatamente misurabili.

UN’EVOLUZIONE INARRESTABILE (E LA CINA È IN TESTA)

Oggi sono connessi a Internet qualcosa come 1,5 miliardi di personal computer mentre i cellulari connessi alla Rete sono 1 miliardo. Secondo gli analisti, da qui ai prossimi dieci anni i dispositivi collegati a Internet supereranno i 100 miliardi. Attraverso l’Internet of Things sarà virtualmente possibile identificare e gestire in modalità remota dispositivi e veicoli, tracciare animali e cose, sfruttando tag Rfid, chip e barcode bidimensionali, sensori a infrarossi e sistemi di georeferenziazione, collegati a Internet o a una qualsiasi rete di telecomunicazioni. Tra modelli e tecnologie, la sfida è aperta.

I governi degli stati occidentali stanno portando avanti una sponsorizzazione dedicata alla realizzazione di una Internet delle cose, ma la nazione che in questo momento è più avanti nello sviluppo è la Cina, che da tempo a introdotto misure atte a supportare la IoT offrendo incentivi economici e detrazioni fiscali.

È il caso di Jinan Yinquan Technology, una delle sussidiarie del gruppo China Intelligence Information Systems (Ciisi), che è stata selezionata dal governo di Shandong come una delle aziende di riferimento del prossimo piano quinquennale (2011-2015) dedicato a uno sviluppo industriale della Internet of Things o, come viene chiamato più semplicemente, The Plan. Il programma prevede che nei prossimi anni la provincia di Shandong diventerà la culla geografica industriale della IoT cinese. Le due città su cui il governo ha deciso di iniziare sono Jinan e Qingdao, su cui verrà ripartito un budget di 30 miliardi di dollari americani. Insomma, mentre Ibm progetta le smart cities in Cina hanno messo in cantiere addirittura la regione intelligente. Noi forse, come troppo spesso accade staremo semplicemente a vedere.

 

 

#InternetofThingsNuovoFuturooMiraggio

Navigare piu’ sicuri con una chiavetta Usb

Naviga sicuro - YubiKeys

Naviga sicuro – YubiKeys

Alle nostre password affidiamo ormai la sicurezza di tutti i nostri servizi online (social network, home banking, dischi virtuali con foto personali dati etc…) , tutto cio’ anche se siamo, in qualche modo, consapevoli della loro debolezza di fondo.
Immaginiamo seppur inconsapevolmente che, se qualcuno le dovesse rubare potrebbe avere accesso ai nostri, in totale liberta’, anonimato e senza alcun tipo di controllo.

Certo sappiamo che esiste gia un metodo, a oggi ampiamente diffuso, per proteggersi da questo scenario fin troppo comune e si chiama “autorizzazione a due fattori” (in gergo 2FA) o “verifica in due passaggi” . Questo si basa su un assunto molto semplice, ossia, per poter accedere a un servizio, l’utente deve conoscere qualcosa, ovvero la/le propria password (primo fattore), e possedere qualcosa, come un cellulare (secondo fattore). Ad oggi il sistema 2FA più diffuso, disponibile per le maggiori piattaforme, passa per l’invio di un codice speciale tramite SMS, da inserire in aggiunta alla password (vedi Gmail). Un procedimento noioso, che diventa inutile se per un qualche motivo non abbiamo a portata di mano il dispositivo autorizzato a ricevere il codice, oppure semplicemente abbiamo cambiato numero di cellulare e non abbiamo aggiornato il profilo (tragedia).

Sicurezza via USB
La svedese Yubico ci propone una soluzione diversa, infatti al sistema incentrato sullo smartphone, essa sostituisce con una pennina USB, da usare come secondo fattore. Il prodotto in questione si chiama Yubikey e ne esistono diversi modelli, distinti per caratteristiche e protocolli supportati. Il funzionamento è semplice, quando ci si collega ad un servizio online, come ad esempio Gmail, basta digitare la password e poi toccare la pennina inserita in una delle porte USB del computer. Il sistema remoto riconosce la presenza del dispositivo e consente l’accesso dell’utente. Alla base del procedimento c’è un protocollo open source, chiamato Fido U2F (Universal Two Factor), che la Yubico ha sviluppato in collaborazione con Google. Il protocollo e’ OPEN dunque, qualsiasi sviluppatore può abilitarlo per il proprio servizio online.

Le nostre prove hanno confermato la semplicità del procedimento di autenticazione ma, come sempre non e’ tutto oro cio che luccica, ed in questo caso c’è una complicazione da non sottovalutare ossia che, l’impostazione iniziale della Yubikey va fatta per ogni servizio, con procedure quasi mai identiche e spesso nascoste fra le mille opzioni specifiche per la singola piattaforma. Certamente nulla che non possa riuscire anche all’utente medio, magari con l’aiuto delle guide in linea di fornite dalla stessa Yubico, ma comunque un procedimento in più che potrebbe scoraggiare chi non utilizza la verifica in due passaggi per ragioni di pigrizia. Dovremmo pero’ ricordarci tutti che e’ proprio la pigrizia la componente preferita da chi vuole rubarci i dati.

Compatibilità e versioni disponibili
Fra i maggiori browser, Chrome di Google è attualmente l’unico che è compatibile nativamente con Yubikey (dalle versione 41 in poi). Per Safari e Firefox esistono dei plugin specifici da installare per attivare il supporto alle chiavine di Yubico. Quanto ai servizi online, la compatibilità è completa per Google, Dropbox e Salesforce. Per WordPress, la nota piattaforma di blogging, è disponibile un plugin di compatibilità. Niente da fare al momento per i servizi Apple: l’azienda ad oggi non ha mostrato alcuna intenzione di adottare il protocollo Fido U2F sviluppato da Yubico e Google.

La Yubikey Edge, che supporta FIDO U2F, costa 34€, Il modello superiore, Yubikey Neo, aggiunge la possibilità di abilitare la verifica in due passaggi anche tramite NFC su alcuni smartphone Android, costa 59€. Entrambe sono acquistabili online su Amazon Italia.

Ma qualcuno si stara’ chiedendo, “cosa succede nel caso la Yubikey venga smarrita o rubata ???”, beh! nessuna paura poiche’ si può accedere ai vari account tramite il sistema 2FA basato sull’invio di un codice SMS, che è comunque buona norma mantenere attivo, ed una volta entrati sarà possibile cancellare l’associazione con la chiavetta che non è più in nostro possesso. L’alternativa, come per le chiavi dell’auto, è possederne due (entrambe da autorizzare su tutti i servizi, però) e lasciarne una in un posto sicuro.

Speriamo che l’argomento di questo articolo, oltre ad avervi ato una buona alternativa nella gestione della vostra privacy, vi abbia anche fatto riflettere sull’importanza, sempre maggiore, di mantenere alti i livelli di sicurezza di vostri dati personali.

 

#NavigasicuroconYubikey