in-memory computing grandi moli di dati direttamente nella memoria

In-Memory Computing Database

In-Memory Computing Database

La quantità di dati prodotti e gestiti giornalmente in ogni parte del mondo ha raggiunto dimensioni inimmaginabili rispetto anche solo a cinque anni fa. Internet of Things, Digital Technology, Mobility sono solo alcune delle ultime evoluzioni tecnologiche che hanno impresso a questo fenomeno un’accelerazione esponenziale. Un trend, visibile in tutti i settori dell’economia e in ogni parte del mondo.
La complessità degli attuali scenari competitivi obbliga le aziende al continuo riallineamento dell’offerta sulla base dei cambiamenti repentini della domanda. Big Data e Internet of Things restituiscono un ricco bacino informativo da cui sviluppare nuove opportunità di business, ma generano al contempo nuove sfide di governance.

L’in-memory computing è la chiave di volta per rispondere proattivamente all’effervescenza del mercato, perché permette di elaborare grandi moli di dati direttamente nella memoria centrale del sistema, restituendo le informazioni pertinenti con maggiore rapidità.
Il ricorso a piattaforme di “in-memory” via cloud permette di dotarsi di un’infrastruttura prestazionale e scalabile per il data management, con vantaggi di affidabilità, agilità e performance, a supporto di applicazioni analitiche e mission-critical.

In altre parole, l’in-memory computing elimina la necessità di eseguire operazioni di ricerca e recupero delle informazioni su disco ogni volta che viene eseguita un’elaborazione, rendendo trascurabile la latenza di accesso ai dati. Questo nuovo modello tecnologico porta ad un forte miglioramento delle performance di sistema e contiene in sé il potenziale per un’innovazione epocale delle attività di elaborazione elettronica, insomma una nuova era, caratterizzata da un più rapido ed efficiente accesso ai dati.
Due fattori principali stanno contribuendo alla forte espansione dell’ in-memory computing:

Processori a 64 bit
Con il rilascio del processore a 64 bit, avviene una vera e propria rivoluzione nelle capacità di
memoria potenzialmente utilizzabili.

Continua diminuzione del prezzo della RAM
Negli ultimi 30 anni i prezzi della RAM sono diminuiti di oltre 500.000 volte:

Nel frattempo i retailers, alla costante ricerca di strumenti di analisi dei dati per assumere decisioni tempestive in maniera rapida e confidente, hanno un potenziale enorme, a oggi ancora inespresso, nei dati immagazzinati nei propri sistemi, siano essi transazionali o memorizzati in data-warehouse, siano essi prodotti e gestiti dall’azienda o provenienti dalle interconnessioni con il proprio eco-sistema composto da clienti, fornitori, partner commerciali etc… Questa impressionante mole d’informazioni è un patrimonio fondamentale che può essere reso disponibile per prendere decisioni immediate, in modalità real-time ad ogni livello della propria catena decisionale.

Al pari di un comune database, il motore di In-Memory Computing supporta gli standard di settore, come SQL e MDX, ma include anche un motore per il calcolo ad alte prestazioni che integra il supporto del linguaggio procedurale direttamente nel kernel del database. Tale approccio elimina l’esigenza di leggere i dati dal database, elaborarli e quindi riscriverli nuovamente nel database.

Il motore di In-Memory Computing propone quindi significative innovazioni tecniche come l’utilizzo del nucleo della CPU e la massiccia elaborazione parallela. In particolare la velocità, la scalabilità e la capacità di compressione dei dati sono i suoi veri punti di forza tecnici.

Tra le prime aziende a credere ed investire in questa tecnologia e’ stata SAP che ha creato una propria soluzione HANA, una nuova tecnologia destinata a cambiare il mercato, in particolare della Business Intelligence.

Hana e’ una nuova soluzione ibrida basata sulla tecnologia di in-memory computing, che sarà installata su diversi server e apparati di Dell, Hp, Ibm e Fujitsu. Coinvolte nel progetto anche Cisco e Intel. Si chiama Hana (acronimo di High Performance Analytic Appliance) ed è una soluzione che comprende la prima appliance analitica basata sulla tecnologia ‘in-memory computing’.

HANA è una combinazione di software e hardware sulla quale possono girare applicazioni sviluppate appositamente ma che può anche essere accostata a tradizionali sistemi ERP e di business intelligence.

Le regole del gioco cambiano quindi con il software in-memory di SAP HANA:

Perché attendere analisi effettuate su dati già obsoleti? Perché accettare elaborazioni di transazioni, esecuzione dei processi e ricerca di informazioni troppo lenti?
Affidati alla piattaforma SAP HANA per attingere a volumi elevati di informazioni dettagliate e aggiornate al verificarsi degli eventi.

Perché scegliere SAP HANA?

  • Velocità: gestire volumi di dati massivi in secondi, non in ore
  • Agilità: decisioni real-time supportate da informazioni real-time
  • Ordine: ottenere informazioni da ogni dato, strutturato o non strutturato
  • Penetrazione dei dati: indagare, e ottenere risposte, immediatamente
  • Potenza: eseguire nuove applicazioni che sfruttano le potenzialità delle informazioni
  • Cloud: un modello cloud-based sicuro, scalabile e robusto
  • Innovazione: utilizzare la conoscenza per guidare il cambiamento, velocemente come mai prima
  • Semplicità: ridurre costi e complessità per ogni volume o tipo di dato
  • Valore: ottimizzare il business per creare nuove offerte e aumentare i margini di profitto
  • Scelta: utilizzare l’hardware e il software che si preferiscono

Tutto ciò significa che attraverso HANA, le applicazioni possono delegare le operazioni direttamente alla memoria invece che ai dischi. L’informazione viene così conservata e analizzata in HANA, invece che immagazzinata in tabelle statiche all’interno di database tradizionali.

IN-MEMORY COMPUTING, la tecnologia c’e’ e vale la pena provarla.

VPN – Navigazione Sicurezza e Anonimato

VPN - Navigazione Sicurezza e Anonimato

VPN – Navigazione Sicurezza e Anonimato

Facciamo una piccola premessa per spiegare al meglio che cosa sono le VPN e come possiamo usarle.

Una VPN, acronimo di Virtual Private Network, nasce come l’estensione della rete locale. Grazie ad una VPN è possibile connettere computer e dispositivi mobili fisicamente situati anche a migliaia di chilometri di distanza così come se fossero collegati alla stessa rete locale (aziendale, dell’ufficio o di casa).
Dal momento che le informazioni viaggiano utilizzando un mezzo intrinsecamente insicuro qual è la rete Internet, le VPN prevedono l’utilizzo di un algoritmo crittografico che permetta di cifrare le informazioni in transito rendendole inaccessibili da parte di persone non autorizzate (vengono così scongiurati i cosiddetti attacchi man-in-the-middle, impedendo ad un qualunque malintenzionato che si ponga tra i due estremi della comunicazione di intercettare e leggere informazioni che non gli appartengono).

Le principali peculiarità di una VPN sono:

Economicità: la scelta di una implementazione adeguata in fase di decisione permette di scegliere la soluzione più adeguata al miglior costo sostenibile;
Semplicità: grazie allo sviluppo di diversi protocolli la tecnologia è vpn/pptp e´semplice da implementare;
Sicurezza: Il traffico passante viene comunemente crittografato aumentando conseguentemente la sicurezza della connessione.

Le VPN possono essere usate come alternativa ai Proxy per rendere anonime le nostre connessioni ad internet e, tendenzialmente, sono solitamente più performanti e sicure. A differenza dei Proxy il vostro traffico viene totalmente protetto inibendo ogni sorta di monitoraggio da parte del vostro ISP, infine sfrutterete l’indirizzo IP della rete VPN e non il vostro. Si può usare una VPN sostanzialmente perchè garantisce una navigazione anonima sul web. Tutti i dati sono criptati tramite algoritmi. In pratica è come se i nostri dati internet passassero attraverso un tunnel, proprio la VPN, che scherma la nostra connessione. Questo significa essere più sicuri quando ci si connette ad una rete pubblica, come un wifi in hotel o in un internet cafè. E’ possibile accedere a siti che sono bloccati, come spesso accade proprio all’interno delle reti pubbliche. Non ultimo si è più protetti dagli attacchi di hackers e sniffers. Da ricordare però che il traffico è protetto finché si trova all’interno del tunnel: una volta uscito sarà “allo scoperto” come una qualsiasi altra normale connessione. Ora, so che i più tecnici avrebbero da fare qualche appunto alle affermazioni qui sopra, ma volevo andare dritto al punto.

Solitamente si sfruttano reti VPN dislocate in un paese diverso rispetto al proprio per evitare censure governative o per accedere a siti internet non accessibili a determinate nazioni per questioni di license, un esempio lampante è dato dal servizio Last.FM ormai accessibile in tutto il mondo ma agli albori era possibile iscriversi e sfruttare il servizio solo se si era cittadini Americani e una verifica del proprio IP impediva a cittadini non Americani di sfruttare il sevizio, grazie ad una VPN Americana si poteva aggirare questo limite.

VPN LIST

CyberGhostVPN : un servizio gratuito dislocato in tutto il mondo grazie alla presenza di 20 server, offre banda e traffico limitato per un massimo di 2h consecutive dopo le quali si verrà automaticamente disconnessi.
Per la connessione sfrutta un client proprietario basato sul protocollo OpenVPN ed è purtroppo limitato ai soli utenti Windows. È possibile espandere l’account alla versione Premium a 49euro all’anno eliminando il limite temporale della connessione e ampia la gamma dei server disponibili fino a 230, infine la versione Premium offre i comuni protocolli OpenVPN, L2TP/IPSec e PPTP permettendo il collegamento anche da sistemi operativi diversi da Windows.

TunnelBear : garantisce mensilmente 500Mb di traffico internet gratuito senza alcun limite di banda o di traffico, se inoltre seguite su Twitter l’account ufficiale del servizio il traffico raddoppierà ad 1Gb al mese. La versione premium ha un costo di 49,99 dollari all’anno e offre anche un client per dispositivi mobili iOS e Android.

PureVPN : è un ottima via d’uscita per tutte quelle persone che vivono all’estero e sono disperate perchè hanno una connessione scarsissima e non possono sfruttare a pieno la VPN, inoltre e´ tra le piu´ economiche poiche´ permette di usare fino a 5 multi login (per tanto pagate una volta e condividete l’account con altri amici o parenti, fino a 5) Si seleziona l’Italia dalla server list e cliccate connetti e il gioco e’ fatto., funziona su PC , Mac , Android , Linux , permette i torrent e il p2p.

ExpressVPN : è una tra le più longeve e famose VPN sul mercato. I suoi punti di forza sono la velocità , la copertura delle nazioni e i client proprietari che permettono di usare in modo semplice la VPN su android o Ios. Ottima copertura delle nazioni (45 nazioni , Italia inclusa) , client e app fatta a doc disponibili per il mobile (ricordiamo che è SEMPRE possibile configurare manualmente una connessione VPN su un cellulare) , nessun limite di banda , criptazione dati e possibilità di vedere in streaming contenuti video , come vedere NETFLIX fuori dagli Stati Uniti o vedere Sky Go dall’estero. Permesso P2P e Torrent.

IPVanishVPN : da oltre 15 anni è presente sul mercato con soluzioni VPN. Le sue caratteristiche sono sicurezza estrema (NAT Firewall incluso nel prezzo), Velocità (forse la rete privata VPN più scelta dai gamers), semplicità d’uso.
IPVanish infatti cripta i nostri dati in uscita (per tanto non filtrabili e riconoscibili dai nostri provider) utilizza server velocissimi (rete privata Tier 1 tra le più veloci sul mercato).

Abbiamo dunque capito che poter usare una VPN puo´ essere molto utile ma ricordiamoci sempre di agire usando la testa. Quindi se dovete usare una VPN , usatene una economica o sfruttate i periodi di prova , usando comunque VPN professionali.

OpenStack – Introduzione

OpenStack Cloud Software

OPENSTACK – PARTE PRIMA

Si parla molto di OpenStack e delle sue applicazioni. Ma che cos’è davvero, perché è stato sviluppato e quali sono i suoi vantaggi?

Che cos’è?
OpenStack è un sistema operativo per il cloud computing in grado di controllare componenti di storage, networking e computing. È open source e gratuito, di solito è installato sotto forma di soluzione IaaS. OpenStack fornisce un insieme di strumenti che servono a costruire e gestire piattaforme cloud sia pubbliche sia private. Permette agli utenti di installare macchine virtuali e si può accedere al codice sorgente per modificarlo in qualsiasi modo sia utile per gli scopi specifici del progetto.

Chi lo ha sviluppato?
Nel 2010 Rackspace e la NASA hanno collaborato a un progetto congiunto che è poi diventato OpenStack. Il codice iniziale è stato usato per Nebula, la piattaforma cloud della NASA, poi il progetto si è dato l’obiettivo più ampio di aiutare le aziende a far girare software cloud su hardware standard.

Chi lo usa?
Tra i vendor, alcuni dei nomi più importanti che attualmente supportano e distribuiscono OpenStack sono Canonical, Cisco, EMC, HP, Huawei, IBM, Oracle, Google e Red Hat. Tra gli utenti attuali ci sono Bloomberg, Comcast, PayPal e Wells Fargo. Ci sono incontri internazionali periodici su OpenStack – gli OpenStack Summit – in tutto il mondo, che raccolgono programmatori e utenti della piattaforma.

E’ quindi ormai innegabile l’interesse che tutto il mondo IT ha riservato in questi ultimi anni ad OpenStack.

Qual’è la ragione di tutto questo?

L’ormai tradizionale paradigma client-server, in progetti in cui la scalabilità e le finestre di picchi di carico sono variabili essenziali all’interno dell’equazione della produttività, presenta oggi giorno evidenti limiti di gestione dei carichi e della velocita’ di evoluzione dei progetti. Ecco quindi nascere l’esigenza di uno strumento che fosse flessibile ed allo stesso momento affidabile.

Questo concetto spiega quindi le motivazioni che possono spingere ad adottare una piattaforma cloud, ma perché fra tutte le piattaforme esistenti si parla sempre di OpenStack?

OpenStack è un progetto aperto
La sua natura aperta ha fatto sì che tutti i vendor interessati all’introduzione di specifiche funzionalità o determinati ambiti potessero contribuire in maniera attiva e funzionale al progetto, innescando un circolo virtuoso in cui ogni miglioramento apportato per favorire se stessi va a beneficio della comunità.

La sua natura aperta fa sì che chi adotta OpenStack per il proprio ambiente cloud è di fatto esente dal cosiddetto vendor lock-in, ossia l’essere vincolato ad un rivenditore specifico per le proprie tecnologie. Infatti se lo standard OpenStack è garantito, ogni venditore potrà essere valutato in modo paritetico a tutti gli altri, rendendo così il mercato più competitivo e conveniente per il cliente finale.

I presupposti di un progetto OpenStack

Bisogna subito tenere presente che “non tutti i progetti sono adatti al cloud“, nonostante cio che viene erroneamente interpretato leggendo in giro per il web, infatti questo principio sfugge a molti che guardano verso le nuvole vedono unicamente un posto differente da cui erogare i propri servizi. Esistono dei requisiti da tenere presente per capire se un progetto è adatto al cloud.

Un progetto OpenStack quindi deve essere:

** Non persistente: non deve basarsi sulla persistenza dei dati all’interno delle macchine coinvolte. Questo aspetto non va confuso con l’esigenza di avere uno storage solido e sicuro, si tratta invece di non giudicare le istanze che concorrono al progetto come perenni, ma come componenti utili al loro scopo e liberamente sacrificabili;

** Scalabile: deve supportare applicazioni che nativamente siano in grado di scalare. L’applicazione nasce già dallo sviluppo come pensata per il cloud;

** Dinamico: a fronte di un innalzamento delle richieste ricevute il progetto deve essere in grado in maniera autonoma di gestire le nuove componenti. Gli interventi manuali successivi all’implementazione sulle istanze coinvolte devono essere inesistenti;

** Rapido: deve essere passibile di provisioning, favorendo la velocità di creazione (e distruzione) di nuove istanze;

Se il vostro progetto risponde a questi requisiti messi in evidenza qui sopra, allora potete pensare ad integrare OpenStack ed è giunto quindi il momento di capire in cosa consiste.

Le componenti di OpenStack

La parola stack descrive un insieme di entità che concorrono ad uno scopo comune. OpenStack è composto da numerose elementi che devono comunicare fra loro, lo strato di comunicazione passa attraverso due filoni fondamentali: la memorizzazione delle informazioni e la coda delle azioni da svolgere. Queste due azioni sono coperte ciascuna da un elemento specifico:

MySQL

Il database MySQL è necessario per la memorizzazione delle informazioni di configurazione generali del sistema, per la memorizzazione delle informazioni di autenticazione relative a ciascun componente e per il mantenimento dinamico dello stato del sistema.
Ogni azione eseguita all’interno dell’infrastruttura OpenStack è tracciata all’interno del database. L’importanza di questa componente è evidentemente capitale.

RabbitMQ

RabbitMQ è uno scheduler, un software didicato alla gestione delle code ed all’organizzazione delle sequenze di operazioni. Tutti i nodi facenti parte dell’infrastruttura OpenStack comunicano con lo scheduler, ed anche in questo caso è presto spiegato come questa componente ricopra enorme importanza per il regolare funzionamento dell’ambiente.

Determinato quindi il sistema di circolazione e reperimento delle informazioni si può focalizzare l’attenzione sugli elementi peculiari di OpenStack, riassunti in questo diagramma che si trova sul sito ufficiale del progetto:

OpenStack Diagramma Software

                                                     OpenStack Diagramma Software

Keystone

Keystone è il software che gestisce il sistema di autenticazione di OpenStack. Il principio su cui si fonda è quello classico degli utenti e dei gruppi, ma di fatto si occupa di gestire le tre tipologie di utenti configurabili in OpenStack:

  • Cloud Provider Admins: ossia gli amministratori del sistema OpenStack;
  • Tenants: ossia i profili delle compagnie fruitrici dei servizi;
  • Users: ossia gli utenti delle compagnie fruitrici dei servizi;

Il concetto di “compagnia” si riferisce ad un sotto-ambiente interno alla stessa installazione di OpenStack. Applicato ad un provider esso potrebbe essere rappresentato dai clienti, mentre all’interno di un cloud privato potrebbe essere associato ad un dipartimento interno.

Glance

Glance si occupa del provisioning (ossia di fornire) delle immagini all’interno dell’ambiente. Questa componente fornisce un bacino di istanze gia preconfigurate, disponibili ai fruitori dei servizi, per effettuare il deploy (ossia la messa in produzione) dell’istanza desiderata all’interno del proprio ambiente.
Le immagini sono supportate nei formati KVM qcow, Aws, VMWare purché esista su queste un Master Boot Record.

Nova

Nova è il compute service, un servizio che permette di gestire i sistemi virtuali erogati all’interno dell’ambiente. All’interno della macchina definita controller il servizio nova-api guiderà l’avvio e la terminazione delle istanze comandando la sua controparte nova-compute, attiva su tutte le macchine hypervisor facenti parte della struttura OpenStack.
Le decisioni su dove e come le istanze dovranno essere avviata saranno gestite dal servizio nova-compute-service (basato su libvirt).

Horizon

Horizon è l’interfaccia web dalla quale è possibile controllare agevolmente le istanze in modalità point-and-click oltre che le immagini gestite da Glance. Il software Horizon è basato sul modulo wsgi del webserver Apache.

C’è ancora un’ultimo aspetto da tenere presente, come è deducibile dallo schema, lo storage.
In un setup base le macchine possono essere erogate direttamente dai dischi degli hypervisor, ma in ambienti di larga scala ciò potrebbe non essere auspicabile. In questi casi fare riferimento ad un gestore dello spazio centralizzato permetterebbe di utilizzare gli hypervisor come semplici erogatori, valorizzando la scalabilità generale del progetto, ed ecco dunque venirci in aiuto questo componente per la gestione dei volumi, Cinder.

Cinder

In origine parte del progetto Nova (chiamato nova-volume) e dal 2012 progetto a se stante, Cinder è il servizio che fornisce il block storage per le istanze, uno storage gestito e centralizzato che funziona da dispositivo a blocchi per le virtual machines. Le macchine virtuali risiedono quindi su un device dedicato, definito sulla base di quello che è la modalità con cui l’hypervisor ha accesso allo storage.
Cinder supporta diverse modalità per essere visto dagli hypervisors: è possibile infatti utilizzare dischi locali o sistemi storage esterni, quali NFS, FibreChannel, DRBD o iSCSI.

Swift

A differenza di Cinder, Swift è un servizio di storage online che si occupa di rendere disponibile spazio all’interno dell’ambiente OpenStack mediante la modalità object storage. I dati non vengono registrati direttamente su dispositivi a blocchi, ma preventivamente convertiti in oggetti binari, distribuiti all’interno di più device in modo da garantirne la massima accessibilità oltre che la replica.
Swift è compatibile con il servizio di storage Amazon S3 e funziona con lo stesso principio: fornire uno storage web accessibile e scalabile.

Conclusioni

In questa lunga introduzione sono stati illustrati filosofia, componenti e soprattutto potenzialità di OpenStack, ma sebbene la lettura possa essere apparsa lunga, questa tocca appena la superficie dell’universo relativo a questo grande progetto.
Nel prossimo articolo verrà avviato un piccolo studio di fattibilità vero e proprio con lo scopo di mettere su strada tutti i vari software che lo compongono ed iniziare cosi ad adoperare OpenStack.

Facciamo spazio alla partizione di /boot

Kernel Old Remove

Kernel Old Remove

Oggi giorno molti utenti possono decidere di provare ugualmente l’esperienza Linux pur mantenendo di base il proprio sistema Windows principale, oppure per esigenze di lavoro avere due o anche piu’ sistemi operativi su di un unico PC; tutto cio’ grazie ai software opensource come, solo per citarne uno, VirtualBox.

Spesso pero’ alcune informazioni errate o una disattenzione in fase d’installazione oppure ancora l’utilizzo di immagini gia preparate, possono portarci a dover gestire partizioni piu’ piccole del dovuto, in particolare quando si parla della partizione di /boot, infatti in questa partizione sono presenti tutti i vari kernel scaricati durante gli aggiornamenti e a lungo andare, avendo questa cartella solitamente uno spazio limitato, si riempie e non permette più di aggiornare il sistema.

Puo’ dunque capitare che un bel giorno il sistema richieda d’installare l’ennesimo aggiornamento, dentro il quale ci potra’ essere un nuovo kernel ma, all’improvviso, vi arriva la segnalazione che l’operazione non e’ eseguibile poiche’ avete quasi esaurito lo spazio della partizione di /boot.

Cosa fare ?? Beh se siete gia skillati potreste decidere di espandere la partizione con vari software LVM etc, ma se siete alle prime armi e non volete rischiare di giocarvi il boot del vostro sistema forse opterete per questa soluzione che, se eseguita con la massima attenzione, vi portera’ nel giro di un paio di minuti a risolvere il problema, per lo meno fino alla prossima richiesta di spazio.

Per cominciare aprite il terminale ed eseguite questo comando

df -hT

Questo comando vi restituirà una lista completa di tutte le partizioni disponibili sul vostro computer con il relativo quantitativo di spazio libero.

/dev/sda1      ext2      236M  147M     77M  66% /boot

Come si può notare dal risultato anche se sono disponibili ingenti quantità di spazio in altre partizioni del sistema, nel mio caso la partizione di /boot risulta piena al 66% questo è dovuto ai vecchi kernel ancora presenti al suo interno quindi è bene procedere con l’eliminazione dei file obsoleti. Prima però accertatevi di quale kernel state utilizzando in questo momento attraverso il comando

uname -a

Questo vi mostrerà il kernel che state utilizzando.Ricordatevi di non eleliminare questo kernel né il penultimo per sicurezza.

Linux LVBU 4.2.0-23-generic

Adesso che sappiamo quale kernel stiamo utilizzando possiamo procedere con l’eliminazione dei kernel obsoleti.Utilizzando questo comando

dpkg --get-selections | grep linux-image;dpkg --get-selections | grep linux-headers

Vi apparirà una lista completa di tutti i vari aggiornamenti presenti nella cartella /boot

linux-image-4.2.0-21-generic install
linux-image-4.2.0-22-generic install
linux-image-4.2.0-23-generic install
linux-image-extra-4.2.0-21-generic install
linux-image-extra-4.2.0-22-generic install
linux-image-extra-4.2.0-23-generic install
linux-image-generic install
linux-headers-4.2.0-21 install
linux-headers-4.2.0-21-generic install
linux-headers-4.2.0-22 install
linux-headers-4.2.0-22-generic install
linux-headers-4.2.0-23 install
linux-headers-4.2.0-23-generic install
linux-headers-generic install

Come potete vedere nella cartella oltre all’ultimo kernel sono presenti altri file che possono essere obsoleti. State molto attenti a non eliminare il kernel visualizzato con il comando uname -a e il suo “predecessore”, entrambi si possono facilmente distinguere grazie al loro numero più elevato, ad esempio: nel mio caso il kernel più recente è linux-image-4.2.0-23-generic mentre il penultimo kernel è linux-image-4.2.0-22-generic.

Per eliminare i vecchi files basta utilizzare questo comando

sudo apt-get purge NOMEKERNEL
Esempio: sudo apt-get purge linux-image-4.2.0-21-generic

Una volta eseguito il comando inserite la vostra password come utente root e confermate, dopo qualche secondo questo kernel verrà rimosso

Dopo il termine dell’operazione potete controllare se effettivamente si è liberato dello spazio attraverso il comando citato in precedenza

df -hT

/dev/sda1      ext2      236M  101M    123M  46% /boot

come potete notare siamo passati dal 66% di spazio occupato ad avere il 46%

Una volta terminata la pulizia sarà possibile aggiornare senza problemi il vostro sistema avendo a disposizione quasi la totalità dello spazio della cartella /boot.

Come avete visto nella lista dei kernel, oltre al kernel generale ci sono, abbinati alla versione, anche i pacchetti  linux-image-extra-<versione.xxx> e linux-headers-<versione.xxx>, per non lasciare file inutili possiamo eliminare anche questi concatenandoli tutti in un’unico comando

Nel mo caso il comando verrebbe cosi:

sudo apt-get purge linux-image-4.2.0-21-generic linux-image-extra-4.2.0-21-generic linux-headers-4.2.0-21 linux-headers-4.2.0-21-generic

come potete osservare i numeri di versione sono tutti gli stessi. A questo punto dando nuovamente il comando per la ricerca delle versioni del kernel potrete notare nel mio caso che non ci sono piu’ file inerenti alla versione 4.2.0-21

dpkg --get-selections | grep linux-image;dpkg --get-selections | grep linux-headers

linux-image-4.2.0-22-generic install
linux-image-4.2.0-23-generic install
linux-image-extra-4.2.0-22-generic install
linux-image-extra-4.2.0-23-generic install
linux-image-generic install
linux-headers-4.2.0-22 install
linux-headers-4.2.0-22-generic install
linux-headers-4.2.0-23 install
linux-headers-4.2.0-23-generic install
linux-headers-generic install

Ora siete liberi di aggiornare il vostro kernel
#RecuperaspazioKernel

Come creare una Web TV 2.0

Crea la tua WebTV 2.0

Crea la tua WebTV 2.0

Di Web TV ne nascono a decine ogni giorno grazie ai molti servizi disponibili online e, tra i più giovani impazza la moda del livestream via smartphone. Vediamo dunque in questo secondo articolo, che segue il precedente “Come creare una Web TV gratuita“, come utilizzare ulteriori sistemi 2.0 per la creazione di un canale TV per condividere le nostre idee e passioni.

Le WebTV sono un fenomeno ormai affermato della cultura del ventunesimo secolo. Come gia accaduto durante l’epoca delle radio libere, favorite dal bassissimo costo di realizzazione, infatti oggi giorno per poter partire bastano, una connessione a internet, una webcam o uno smartphone e un account su un servizio di streaming online e tanta tanta voglia di mettere in mostra le proprie capacità. Come gia sappiamo, negli ultimi anni più di qualcuno è riuscito a diventare famoso e a guadagnare tramite le pubblicità e la condivisione dei propri video, vedi i casi italiani di Fedez o Frank Matano, tanto per citarne alcuni ma, molti altri rimangono nell’anonimato della Rete pur costruendosi una propria reputazione ed un proprio seguito.
Si può creare una WebTV sia per dire la propria su qualcosa che ci appassiona o commentare ciò che accade nel mondo ed essere in onda per pochi minuti al giorno, sia per lanciare una piccola televisione locale con un palinsesto strutturato e sostenendosi attraverso la raccolta pubblicitaria o con l’autofinanziamento. Tutto ciò è reso possibile dalle decine di servizi presenti in Rete che permettono di ospitare le WebTv degli internauti: da YouTube a Ustream, ogni piattaforma offre diverse funzionalità e caratteristiche.
Sono sempre di più, ad esempio, gli utenti che sfruttano le potenzialità del livestream (commenti in diretta, immediatezza ,spontaneità) rispetto a coloro che caricano video, filmati in precedenza e modificati tramite i software di editing. Tra i giovanissimi, come dicevamo ad inizio articolo, impazza invece la moda del livestream grazie soprattutto a Periscope e Meerkat, due applicazioni lanciate nei primi mesi del 2015 e che hanno fatto appassionare migliaia e migliaia di persone alla diretta di contenuti multimediali via smartphone.

YouTube – Hangouts
Una piattaforma per creare web tv molto usata è Hangouts. Il servizio integrato all’interno del social network Google+ ma soprattutto è uno strumento importante in quanto si interfaccia direttamente con YouTube. In molti hanno tentato l’avventura della diretta video e alcuni (i cosiddetti YouTubers) ne hanno fatto una vera e propria professione. Per poter utilizzare la funzione livestream di YouTube è necessario prima di tutto creare un account Google e verificarlo sulla piattaforma video di Big G, dopo di che’, sara’possibile creare un servizio di live streaming per migliaia di spettatori, i quali possono accedere sia da Google+ che da YouTube. Il primo passo da compiere è cliccare sul bottone Carica, presente nella parte in alto a destra, vicino all’icona della foto profilo. Nella pagina che si aprirà, l’utente dovrà entrare nella sezione Live Streaming, presente nella parte destra dello schermo: cliccando su Inizia, partirà immediatamente la diretta video, con la possibilità di interagire con i propri fan, grazie alla chat. Al termine del livestream, il video sarà disponibile sul canale YouTube e visibile a tutti gli internauti della Rete. Tramite gli Analytics, è possibile studiare i momenti migliori del programma e capire dove intervenire per aumentare gli ascolti. Ovviamente, qualora preferiate, è possibile creare un video live su YouTube anche con le app ufficiali di Hangouts sia per Android che per iPhone/iPad. Ricordiamo, infine, che al termine della diretta video su Hangouts, i video verranno caricati sul vostro canale YouTube e gli utenti potranno guardarli in differita. Hangouts è un ottimo modo per creare web tv professionali.

Ustream
Ustream è una piattaforma di streaming video utilizzata soprattutto dalle aziende per diffondere il proprio messaggio o dalle piccole stazioni televisive locali, che cercano un modo economico per creare una Web Tv e raggiungere una audience maggiore. Rispetto alla gratuità di YouTube, Ustream ha un costo mensile che si aggira intorno ai cento euro (l’offerta base) per avere la possibilità di caricare video in alta definizione e uno storage di 500 GB. È possibile creare anche un account gratuito, ma la trasmissione dei livestream non è in alta definizione ed è intervallata dalla pubblicità.
Per registrarsi gratuitamente è necessario cliccare su Sign Up, presente nel centro della home e poi su Start Free Trial (i video caricati saranno disponibili per la visione solo per trenta giorni). Completato l’iter, per iniziare lo streaming in diretta si deve premere su Vai in diretta, scegliere la categoria e scrivere una breve descrizione dell’evento e infine permettere l’acceso al microfono e alla webcam da parte del servizio. Una volta in onda, si potrà interagire con i visitatori attraverso la chat e condividere l’inizio della diretta con i propri amici sui social network per aumentare il numero dei telespettatori. Ustream è disponibile anche in versione mobile, attraverso l’applicazione scaricabile dal Google Play Store e dall’App Store.

Livestream
Con un servizio specifico per le televisioni e le radio, Livestream è uno delle soluzioni migliori per chi è in cerca di una piattaforma affidabile per creare una WebTv. Livestream mette a disposizione qualsiasi tipo di tool per mandare in live streaming eventi culturali e manifestazioni sportive. Smartphone, tablet, telecamere professionali, qualsiasi tipo di device è supportato per la diretta video. Il servizio ha un costo che varia dai pochi dollari al mese, fino a quasi ottocento per avere il massimo supporto dallo staff della piattaforma. Livestream offre anche la possibilità di creare un account gratuitamente, senza il supporto alla diretta tramite smartphone e tablet.

ToMakeWeb
Dedicata al mondo del business, ToMakeWeb è adatto a chi ricerca un servizio pensato e sviluppato per creare una WebTv in onda ventiquattro ore al giorno. Con ToMakeWeb è possibile creare un palinsesto giornaliero, caricando i video tramite YouTube o direttamente dal personal computer, personalizzare la grafica e gestire i banner pubblicitari. Attraverso il monitoraggio delle statistiche l’azienda può capire quali sono i programmi più seguiti e modificare le trasmissioni che non hanno il supporto dei telespettatori. Con la chat e i social network si può interagire in diretta con il pubblico e rispondere alle loro domande. Il servizio di livestream ha un costo minimo di settanta euro al mese e aumenta ad ogni funzionalità in più richiesta.

Periscope
Tra le applicazioni più amate tra i giovani, Periscope permette di essere in onda per un breve periodo e di interagire con i propri fan attraverso la chat. Semplicissimo da usare, è stato acquistato da Twitter per poter mandare in onda i live streaming direttamente sul social network. Insieme a Meerkat, altro servizio di streaming video direttamente da mobile, ha creato non pochi problemi alle case di produzione per la violazione dei diritti televisivi. Inoltre, molto sociologi hanno evidenziato la pericolosità di un servizio che permette il livestream toccando un semplice bottone, senza alcun tipo di filtro.

 

Quindi, alla fine della fiera, il concetto e’ che “chi piu’ ne ha pou’ ne metta” sia di idee che di contenuti.
Condividete gente, condividete.