GDPR

Arriva il GDPR, un’opportunità da cogliere oltre gli obblighi

ARRIVA IL GDPR, UN’OPPORTUNITA’ DA COGLIERE OLTRE GLI OBBLIGHI

Come noto il 25 maggio 2018 diventerà obbligatorio per le aziende pubbliche e private attenersi al Regolamento Europeo sulla protezione dei dati personali (General Data Protection Regulation – GDPR).

Il GDPR prevede pesanti sanzioni in caso di violazione (dal 2% al 4% del fatturato e fino a 20 milioni di Euro) ma in un mondo caratterizzato da minacce informatiche sempre più insidiose e variegate e dalla presenza di tecnologie di raccolta e analisi dei dati estremamente sofisticate e pervasive, la sicurezza e il governo dei dati è comunque imprescindibile in un’attività, indipendentemente dagli obblighi di legge e non solo in relazione ai dati personali. L’entrata in vigore di questa normativa rappresenta quindi un’opportunità da cogliere per affrontare il tema della sicurezza in modo organico e sistematico nell’interesse stesso dell’azienda anziché limitarsi al rispetto formale e contingente di requisiti normativi.

Il GDPR va in questa direzione poiché nella sostanza non contiene indicazioni specifiche sulle soluzioni da adottare per essere in regola ma definisce gli obiettivi e i requisiti lasciando poi al titolare del trattamento la responsabilità di individuare e applicare “misure tecniche e organizzative adeguate per garantire un livello di sicurezza adeguato al rischio” (Art. 32). La scelta delle misure da adottare deve inoltre tener conto dello stato dell’arte delle tecnologie e dei costi di attuazione, pertanto esse dovranno periodicamente essere aggiornate per seguire lo sviluppo tecnologico e i costi relativi dovranno essere tenuti in debita considerazione nei budget delle aziende.

Fatta eccezione per casi specifici in cui il rischio è particolarmente elevato a causa della tipologia di dati trattati e del loro contesto di utilizzo da parte dell’azienda, il percorso verso il raggiungimento di un livello di sicurezza adeguato prevede a nostro parere prevalentemente interventi basati su best practices e buon senso, tra cui ad esempio:

Mappatura delle informazioni gestite dall’azienda per individuarne tipologia, posizione, utilizzo, provenienza, protezione per determinare il proprio livello di rischio;

Formazione e sensibilizzazione degli utenti e dei gestori dei sistemi, inclusi i collaboratori esterni;

– Razionalizzazione dei permessi di accesso degli utenti e opportuna gestione password;

Dismissione o aggiornamento di sistemi basati su piattaforme obsolete e applicazione regolare di patching;

– Verifica ed eventuale integrazione delle procedure di backup e restore dei dati;

– Revisione dei sistemi di sicurezza perimetrale e di protezione dei dispositivi utente – Firewall, Antispam, URL Filtering, Antivirus;

Cifratura dei dati e delle comunicazioni con l’esterno, con particolare attenzione ai dispositivi mobili – smartphone, tablet, notebook, USB stick, etc. – e ai repository di dati su Cloud;

– Raccolta, conservazione e analisi dei log.

Per tutti questi temi Surftech conosce e applica soluzioni tecnologiche valide, scelte con approccio pratico in base alle effettive esigenze dei clienti. Ha poco senso ad esempio introdurre prodotti di pseudonimizzazione dei dati o sistemi di correlazione dei log basati su intelligenza artificiale se in azienda si usano ancora sistemi operativi fuori supporto come Windows XP o Windows 2003, non esiste una politica di patching e gli utenti usano password statiche scritte su foglietti attaccati al monitor e copiano i dati aziendali sul proprio Dropbox. Non va infatti dimenticato che spesso il punto più debole è il “device collegato alla tastiera”, cioè l’utente stesso che non applica comportamenti corretti e diventa inconsapevolmente veicolo dei malware.

Ma, oltre a prescrizioni che come detto possiamo ritenere di carattere generale, il GDPR ne include anche altre di più specifiche, volte a garantire alle persone, e in special modo ai minori, maggiori diritti sul trattamento da parte delle aziende dei propri dati personali. L’articolo 15 stabilisce ad esempio che ciascun cittadino ha il diritto di ottenere da un’azienda “la conferma che sia o meno in corso un trattamento di dati personali che lo riguardano e in tal caso, di ottenere l’accesso ai dati personali”, nonché di farli rettificare se inesatti (articolo 16) e di farli cancellare se il titolare non ha più l’obbligo o il diritto di conservarli (“diritto all’oblio” – articolo 17) o al contrario di impedire al titolare di cancellarli, ad esempio perché servono al cittadino per far valere un proprio diritto. In linea di principio tutte queste richieste, con relative regole, eccezioni e casi particolari, vanno assolte dalle aziende gratuitamente, cioè senza far pagare nulla al richiedente se non dei costi amministrativi ragionevoli in caso di richieste manifestamente infondate o eccessive.

Una norma che solleva molte preoccupazioni è l’obbligo per il titolare del trattamento di notificare all’autorità di controllo, che per l’Italia è il Garante per la protezione dei dati personali, una eventuale violazione di dati personali “senza ingiustificato ritardo e, ove possibile, entro 72 ore dal momento in cui ne è venuto a conoscenza”, accompagnando la notifica con numerosi dettagli (articolo 33). Nel caso di una violazione che può comportare rischi elevati per i diritti e la libertà delle persone il titolare è inoltre tenuto a comunicarla tempestivamente agli interessati (articolo 34).

Per soddisfare le prescrizioni sopra riportate in modo organico ed efficiente le aziende dovranno raggiungere e mantenere un livello di governance dei dati gestiti molto elevato, creando un contesto in cui consapevolezza e sensibilità verso il tema della sicurezza generino comportamenti corretti e facciano sì che con il tempo ogni nuova iniziativa tenga conto fin dalla progettazione iniziale delle necessità di sicurezza dei dati (principio di “security by design”) e dei diritti delle persone sul trattamento e la tutela dei propri dati ma salvaguardando al tempo stesso le legittime necessità di utilizzo dei dati da parte delle aziende per il proprio business.

Il GDPR comunque non vuol essere un peso insostenibile per le aziende: nella normativa compaiono spesso termini come “adeguato”, “proporzionale”, “ragionevole”, “ove possibile”, etc. che dovrebbero consentire a ogni organizzazione di attuare il proprio percorso verso la compliance e il ruolo di Surftech è proprio quello di aiutare le aziende a definire questo percorso. Conviene quindi affrontare l’argomento in modo pragmatico, attuando misure sostenibili che puntino a rispettare la sostanza del provvedimento e inizino con il sanare le situazioni di maggiore rischio, cercando magari di sfruttare l’occasione per introdurre migliorie e ottenere benefici anche in altri ambiti. Al crescere della maturità aziendale sull’argomento si potranno via via applicare soluzioni e procedure più avanzate che aumentino progressivamente la sicurezza.

Surftech propone di iniziare con un incontro introduttivo durante il quale si possa:

– avere una panoramica del GDPR, comprenderne la struttura e gli obiettivi, utilizzare una versione “navigabile” del provvedimento per leggere il testo dei principali articoli ed eventualmente approfondire quelli di maggior interesse per l’azienda specifica;

– effettuare un’analisi dell’attuale situazione aziendale in relazione alla sicurezza informatica attraverso una checklist di requisiti riferiti ai vari punti della normativa; per le situazioni più grandi e articolate questo processo potrebbe richiedere il coinvolgimento in più riprese di diversi reparti e figure aziendali;

– elaborare un piano di attività per l’attuazione delle misure più opportune.

Contattaci per maggiori informazioni.

Il Sole 24 Ore

Il Sole 24 Ore parla di noi

IL SOLE 24 ORE PARLA DI NOI

Siamo lieti di annunciare che oggi, giovedì 5 aprile 2018, è uscito l’articolo che parla delle nostre attività sul prestigioso quotidiano “Il Sole 24 Ore“.
Un traguardo importante che ci rende orgogliosi dei risultati raggiunti anche, e soprattutto, grazie alle importanti partnership e ai clienti che da tanti anni collaborano con noi.

Tutto questo accade nell’anniversario dei 10 anni dalla nascita di Surftech e non ci fermiamo: vogliamo evolvere e continuare a migliorare come le tecnologie che sostengono il nostro lavoro.

Grazie da tutto il team Surftech a chi ci ha accompagnato lungo questo percorso e a chi ci darà fiducia in futuro!

Leggi il testo completo dell’intervista:

 

LA MISSION DI SURFTECH: INFRASTRUTTURE INFORMATICHE PER ELEVARE LA PRODUTTIVITÀ

In ogni azienda che basa la propria attività su processi gestiti dalle moderne tecnologie, esiste qualcosa che non appare sugli schermi del PC ma che è fondamentale per organizzare e portare avanti qualunque fase del lavoro: l’infrastruttura informatica.

È un aspetto dell’Information Technology riservato agli specialisti ma di cui fruisce ogni lavoratore, ogni quadro, ogni fornitore e chiunque abbia a che fare con una determinata azienda. Quindi è un elemento importante che richiede cura e competenza, e poche aziende possono vantare una capacità d’intervento a questi livelli.

Una delle più qualificate è Surftech, società di consulenza informatica con sedi nelle provincie di Verona e Bolzano, che quest’anno festeggia i 10 anni di attività e che si è specializzata nell’impostazione di infrastrutture informatiche. I tre soci fondatori, Francesco e Alberto Ziviani, e Alberto Businaro, hanno portato avanti con successo la mission di realizzare per i propri clienti soluzioni di qualità, facile applicazione e soprattutto funzionali alla crescita aziendale di chi le adotta.

Il migliore esempio in questo senso viene dai settori di Mobility e Smart Working, in cui la collaborazione con Surftech ha permesso alle aziende clienti di fornire ai propri dipendenti gli strumenti per lavorare da qualunque postazione, anche remota, e in qualunque momento, senza vincoli di orario e in massima sicurezza. Con questo tipo di organizzazione è stato dimostrato che la produttività migliora del 20 per cento e aumenta la qualità del lavoro.

Grazie agli ottimi risultati di questi progetti Surftech ha incrementato notevolmente il suo volume d’attività ed è ora alla ricerca di personale tecnico qualificato da poter inserire stabilmente nei propri organici. Info: http://surftech.it/

 

Citrix HDX Adaptive Transport

Citrix HDX Adaptive Transport con EDT

Citrix HDX Adaptive Transport con EDT

 

COS’È?

Citrix HDX Adaptive Transport con EDT – Enlightened Data Transport – è l’evoluzione del protocollo di presentazione di Citrix basato su UDP che ha prestazioni fino a 2,5 volte migliori per le sessioni interattive e fino a 10 volte migliori per i file/bulk transfer rispetto al protocollo HDX su TCP.

Perché usarlo?

Per provare la soddisfazione di sentir dire agli utenti: “adesso Citrix è molto più veloce e fluido di prima!’’

Quando usarlo?

HDX con EDT ha prestazioni migliori rispetto a HDX su TCP soprattutto quando la connessione ha latenza elevata; è quindi perfetto su reti WAN (MPLS, VPN etc). Su reti LAN a bassa latenza non si percepiscono invece reali differenze tra TCP ed EDT.

Per utilizzare EDT servono i seguenti requisiti:

– XenApp/XenDesktop 7.13 o superiore.

– Windows Citrix Receiver 4.9 o superiore

– Linux Citrix Receiver 13.7 o superiore (ad esempio per chi usa thin client linux)

– Citrix netscaler 11.1/12.0 o superiore (a partire da certe build).

A partire dalla versione 7.16, XenApp e XenDesktop usano di default HDX su EDT con fallback su TCP.

Come abilitarlo?

Per attivare HDX Adaptive Transport con EDT è necessario configurare l’apposita Citrix policy.
Per utilizzare EDT incapsulato in SSL con Netscaler è necessario configurare il Netscaler ed aprire le relative porte UDP di comunicazione (VIP e SNIP).

 

COME CI SIAMO ARRIVATI?

Qui di seguito le continue evoluzioni che Citrix ha portato al suo protocollo di presentazione:

1991     nasce Citrix ICA su UDP
1994     Citrix ICA su TCP 1494
2004     Citrix ICA con Session Reliability TCP 2598
2009     Citrix HDX
2010     Citrix HDX 3D PRO
2015     Citrix Framehawk
2016     Citrix Thinwire
2017     Citrix HDX Adaptive Transport with EDT

E’ evidente l’impegno e la capacità di Citrix di apportare continue migliorie al protocollo e all’esperienza utente per mantenere sempre un gap significativo rispetto a tutte le soluzioni concorrenti.

Letteratura EDT:

HDX Adaptive Transport and EDT: ICA’s New Default Transport Protocol (Part I)

HDX Adaptive Transport and EDT: ICA’s New Default Transport Protocol (Part II)

https://docs.citrix.com/en-us/xenapp-and-xendesktop/current-release/technical-overview/hdx/adaptive-transport.html

 

Monitoraggio

Monitoraggio: ecco perché è importante

MONITORAGGIO: ECCO PERCHE’ E’ IMPORTANTE

Molti ricorderanno uno spot pubblicitario di qualche anno fa: “La potenza è nulla senza controllo”. Questa massima può essere ben applicata anche alle infrastrutture informatiche: non è così infrequente avere infatti a che fare con impianti potenti, ridondati in ogni loro componente e dotati delle migliori tecnologie sul mercato che poi vengono vanificati da un disco pieno su un server o da un servizio che va in errore.

Per dipingere un quadro più completo della situazione, a quella massima mi piace aggiungerne un’altra: “Non si può controllare ciò che non si conosce”. Un’affermazione che può sembrare banale, ma che in realtà è spesso il punto focale della questione: è assolutamente necessario infatti, nel progettare un sistema di controllo, possedere una visibilità a 360° dei sistemi coinvolti nei processi e delle loro interazioni, proprio per evitare che un singolo servizio o parametro fuori controllo (di solito proprio quello a cui nessuno aveva pensato) possa bloccare l’erogazione di un servizio o peggio, innescando il tipico “effetto domino”, l’erogazione di più servizi in cascata.

Ancora prima quindi di decidere quale strumento o tecnica di controllo adottare, è indispensabile anzitutto individuare i sistemi e i parametri da tenere sotto controllo determinandone anche le soglie di corretto funzionamento, le modalità di calcolo dei parametri e le modalità di segnalazione in caso di anomalia, cercando per quanto possibile di non dimenticarsi nulla. Infatti, tutto sommato, la scelta del sistema di monitoraggio non è così cruciale come si può pensare: molto più importante è sapere cosa controllare e impostare gli avvisi in modo che siano mirati e circoscritti a situazioni di effettiva anomalia, evitando così di inondare il povero personale IT di segnalazioni numerose e ripetute che dopo un po’ non vengono più nemmeno lette, all’interno delle quali si possa poi nascondere quell’unica segnalazione davvero importante che necessita di immediata attenzione.

Detto questo, scendiamo un po’ più nel dettaglio.

Partendo dal “basso”, si inizia con lo strato hardware: pressoché tutti i sistemi sono dotati di schede di gestione in grado di inviare segnalazioni in caso di problemi di natura hardware. Si tratta di schede presenti sulle motherboard dei server (IMM per IBM, ILO per HP, iDRAC per Dell e così via) che, opportunamente configurate, sono in grado di segnalare proattivamente problemi legati al funzionamento delle componenti hardware del sistema, ad esempio ventole o alimentatori non funzionanti, moduli di memoria guasti, dischi offline etc; strumenti analoghi sono disponibili su componenti come storage, unità nastro, moduli UPS, apparati di rete, sensori di controllo ambientale etc.

Una corretta impostazione di questi parametri consente di individuare e segnalare un problema hardware pressoché nel momento stesso in cui si verifica e provvedere quindi alla sua gestione prima che il problema impatti sul livello superiore, quello su cui operano i servizi.  Va detto che i sistemi sono usualmente progettati con un livello interno di ridondanza, che consente di gestire il singolo guasto senza impatto sul funzionamento del sistema stesso: l’importante qui è intercettare il problema e gestirlo immediatamente, spesso con la sostituzione della parte guasta, prima che l’eventuale aggiunta di un secondo problema possa a quel punto avere un impatto percettibile sul funzionamento. A questo livello il filtraggio degli eventi non è così importante: un problema hardware è un problema hardware e quando si manifesta va gestito tout court.

Una volta inventariato e coperto lo strato ‘basso’, si sale di livello e si arriva allo strato di infrastruttura; di questo strato fanno parte i sistemi di virtualizzazione (gli host facenti parte di una farm VMware ad esempio), i sistemi storage (cluster di sistemi dischi come IBM Hyperswap, infrastrutture Hyperconverged, cluster Netapp etc), l’infrastruttura di rete interna ed esterna (switch, collegamenti da/con l’esterno etc); anche in questo caso le varie console di gestione, dal VCenter Server per la farm VMware al software ONTAP per i sistemi NetApp per citare un paio di esempi, hanno ampia possibilità di segnalare eventuali anomalie e sono quindi in grado di riportare problemi ed eventi di varia natura ed importanza. A questo livello comincia a diventare importante il filtraggio degli avvisi: ad esempio VCenter consente di segnalare molteplici eventi sull’infrastruttura virtuale (tra questi: datastores saturi, perdita di ridondanza del collegamento di rete o verso lo storage, utilizzo anomalo di memoria o processore etc), ma solo una parte di essi sono davvero significativi e l’abilità di chi configura sta proprio nel scegliere i parametri importanti nel “mare magnum” di avvisi disponibili.

Salendo ancora di livello, si arriva finalmente allo strato dove operano i sistemi, ovvero lo strato dei sistemi operativi e dei servizi; qui il tema si fa più complicato perché a questo livello il filtraggio diventa la parte più importante del lavoro di configurazione: è infatti tutto sommato semplice mettere sotto controllo “tutto” di un server: spazi disco e carichi su memoria e processore, raggiungibilità, porte di comunicazione, servizi presenti sul server… più difficile, proprio perché bisogna scendere nel merito delle attività che un server gestisce, è però scegliere tra tutti questi parametri quello che davvero è importante monitorare.

Infatti, parlando nello specifico di server su piattaforma MS Windows, su ogni server solitamente è attivo un numero relativamente elevato di servizi, parecchi dei quali sono servizi standard di sistema operativo; ma solo una piccola parte di questi servizi sono fondamentali per le attività che quel server deve gestire, ed è molto importante concentrare l’attenzione su quei servizi critici, proprio per evitare di confondere avvisi importanti con avvisi trascurabili e, in caso di anomalia, essere subito guidati in modo il più possibile diretto ad individuare cause e correlazioni ed arrivare così ad una gestione rapida ed efficiente dei problemi.

Molto spesso presso vari clienti sento la fatidica frase “con il software x faccio una scansione della rete e in 10 minuti ho il sistema di monitoraggio up&running che mi controlla tutto”; sicuramente molto comodo, questo controllo totale fa però perdere di vista la necessità di individuare i servizi fondamentali di un server (e oltretutto non richiede nemmeno di avere conoscenza di ciò che si sta controllando, il che collide con la seconda regola con cui ho iniziato l’articolo), e inonda l’IT di messaggi di errore rendendo difficile, e sicuramente poco efficiente, individuare cause e correlazioni.

Ecco quindi che su questo terzo strato l’esperienza diventa importante: il consulente esperto sa bene dove si possono annidare i problemi e, accanto ad un “nocciolo duro” di controlli obbligatori su ogni server indipendentemente dalla sua funzione, sa inserire i controlli più opportuni.  Alcuni dei quali, va detto, possono anche essere controlli esterni al server stesso, come le simulazioni di attività utente: per fare un esempio concreto, è plausibile che un server che eroga servizi web vada controllato nei confronti della risposta su determinate porte di comunicazione (http/s tipicamente), ma questo non è sufficiente a garantire che il servizio erogato stia funzionando correttamente: è necessario simulare un’operazione di prelievo della pagina web, che sarà quindi in grado di avvisarci non solo se la porta di comunicazione non risponde, ma soprattutto se l’applicazione che genera la pagina sta funzionando correttamente.

Altro aspetto fondamentale è la gestione post-attivazione del sistema di monitoraggio, sia dal punto di vista della pulizia degli eventi ricorrenti, sia per il successivo adeguamento in caso di modifiche all’infrastruttura: è infatti del tutto normale che quando si mette un’infrastruttura sotto controllo si rivelino contestualmente, specialmente per quanto riguarda il terzo strato, tutta una serie di “comportamenti” della nostra infrastruttura di cui probabilmente nessuno era del tutto consapevole: servizi che si stoppano e ripartono a causa di processi di manutenzione programmata, carichi di processore dovuti ad elaborazioni notturne, spazi disco che si riempiono e poi si svuotano per operazioni di varia natura… sono tutti esempi concreti di cosa può emergere durante le prime settimane di vita di un sistema di monitoraggio. Alcuni eventi riveleranno anomalie, che andranno quindi gestite e risolte, altri eventi invece risulteranno normali e come tali andranno gestiti, configurando il sistema di monitoraggio in modo che non riporti all’IT quegli eventi ricorrenti.  Questo affinamento del sistema di monitoraggio è un lavoro che può durare settimane ma è importante che sia gestito tenendo sempre a mente la regola di base che gli avvisi devono essere pochi e mirati, altrimenti un sistema di controllo diventa di fatto inutile.  Analogamente, è fondamentale che a fronte di una modifica all’infrastruttura (un nuovo server introdotto in rete, nuovi servizi o nuovo hardware) il sistema sia subito adeguato con le opportune modifiche: non c’è nulla di peggio di un sistema di monitoraggio abbandonato dove mancano parte dei sistemi e che ci fa quindi serenamente ritenere di essere perfettamente a posto quando invece dietro di noi si sta preparando a nostra insaputa la tempesta perfetta.

Ultime due osservazioni: dove è opportuno posizionare il sistema di monitoraggio e come fare arrivare gli avvisi a destinazione.

E’ chiaro che il posizionamento ottimale per un sistema di monitoraggio non è all’interno del sistema che si sta monitorando, sarebbe come tagliare il ramo su cui si è seduti. Il sistema di monitoraggio dovrebbe sempre trovarsi all’esterno dei sistemi che controlla, magari in una sala server separata, sicuramente su hardware separato rispetto ai sistemi oggetto dei controlli, in modo che in caso di caduta generale dei sistemi non cada banalmente anche il sistema di monitoraggio stesso. Solitamente allo scopo viene utile un hardware anche di recupero su cui installare il sistema di controllo: normalmente i sistemi di monitoraggio non richiedono risorse importanti ed anche un vecchio server può così ritrovare una nuova giovinezza.  Riguardo la modalità di recapito degli avvisi, è chiaro che la forma della email è quella preferita: le email si possono gestire, categorizzare, filtrare, e solitamente vengono lette in tempo reale dato che via email gestiamo ormai il 90% delle comunicazioni con colleghi ed esterni.  Certamente se ad essere in crisi è proprio il sistema di posta elettronica la sola email può non essere sufficiente: ecco quindi che è assolutamente opportuno affiancare all’invio delle email anche sistemi di invio per vie alternative, ad esempio via SMS, che segnalino solo un sottoinsieme estremamente selezionato degli avvisi, ad esempio blocchi del sistema di posta o blocchi relativi alla rete, che impedirebbero alla email di essere correttamente recapitata, sia all’interno che verso fornitori esterni.

Riassumendo: l’implementazione di un sistema di monitoraggio è tutt’altro che banale, perché richiede una profonda conoscenza dell’infrastruttura oggetto di controllo e delle dinamiche in essa operanti. Tutto sommato la scelta di quale strumento usare diventa secondaria rispetto all’importanza di costruire filtri efficaci e soprattutto di individuare cosa esattamente controllare, sicuramente è fondamentale che lo strumento sia adattabile proprio per poterlo plasmare nel modo più opportuno rispetto all’infrastruttura da controllare.

Alcuni nomi popolari sul mercato sono PRTG, Zabbix, Solarwinds, Nagios.  Quest’ultimo è lo strumento proposto da Surftech, che ne utilizza la versione open source e ha nel tempo e con l’esperienza costruito una solida base che consente di gestire pressoché la totalità delle situazioni che si possono presentare (tra queste interrogazioni di apparati via SNMP, gestione di query WMI, disponibilità di grafici di andamenti nel tempo dei vari parametri, disponibilità di plugin per interrogazioni su vari ambienti e apparati). La diffusione di Nagios, che ne fa uno degli strumenti di monitoraggio più utilizzati a livello mondiale, la disponibilità di codici open source e di una sterminata libreria pubblica di plugin, rende particolarmente agevole la gestione degli ambienti più disparati; ad oggi possiamo affermare che non ci si è ancora presentato un caso di “ambiente non monitorabile”.

 

VMworld 2017

VMworld 2017: novità e pareri sulle soluzioni VMware

VMWORLD 2017

Anche quest’anno Surftech ha partecipato al principale evento a livello europeo riguardante le tecnologie VMware: il VMworld Europe 2017, tenutosi a Barcellona dall’11 al 14 settembre.

E’ un appuntamento obbligato per tutti coloro che vogliono tenersi al corrente dello “stato dell’arte” delle soluzioni VMware e di tutto il mondo che gravita intorno ad esse: accanto alle sessioni plenarie (keynote) in cui il CEO Pat Gelsinger dà visibilità sull’evoluzione dei vari prodotti del marchio e del mondo informatico in generale, sono disponibili centinaia di sessioni a contenuto sia tecnico che commerciale che consentono di approfondire ogni argomento di proprio interesse.

All’interno del VMworld è possibile anche interagire direttamente con tecnici e sviluppatori, partecipare laboratori dove vedere in azione dal vivo le nuove tecnologie, visitare decine di stand di vendor per avere una visione a 360 gradi della galassia di proposte che corredano l’offerta già ampia di VMware.

In diverse sessioni si arriva anche a contenuti “deep dive”, dove è possibile andare in profondità sulla conoscenza e l’analisi di questi prodotti, informazioni preziose e insostituibili per chi vuole fornire ai propri clienti un valore aggiunto che vada oltre la semplice implementazione di base, e sia in grado di identificare gli scenari di evoluzione e configurazione più opportuni, le relative ottimizzazioni, analizzare le eventuali anomalie ed effettuare il troubleshooting delle stesse con la maggior efficienza ed efficacia possibile utilizzando tutti gli strumenti che VMware mette a disposizione.

Quest’anno molto spazio è stato dedicato alle caratteristiche della versione 6.5 di ESXi/VCenter, arrivata ora alla versione Update 1.

In particolare le novità che personalmente abbiamo più apprezzato sono:

VCSA e HA del servizio VCenter
Già dalla versione 5.5 di vSphere era disponibile l’appliance VCSA (VMware vCenter Server Virtual Appliance): si tratta di una virtual appliance su sistema operativo Linux, che può sostituire il tradizionale vCenter Server installato su piattaforma Windows; nonostante i vantaggi fossero tanti (pacchetto ‘ready-to-go’ fornito da VMWare e conseguente facilità di implementazione, risparmio di licenza Microsoft per il sistema operativo, gestione “appliance-style” senza necessità di applicare patch Microsoft, antivirus o altro) la VCSA ha faticato a prendere piede, vuoi per diffidenza nei confronti di una ‘scatola nera’ su cui sarebbe potuto risultare difficile intervenire in caso di problemi, vuoi per limitazioni oggettive importanti rispetto alla versione su Windows: basti pensare che nelle prime VCSA non era incluso il pacchetto di Update Manager, il che costringeva ad avere comunque un server Windows per gestire il servizio di Update Manager.
Con la versione 6.5 c’è stato un cambio radicale, a partire dal sistema operativo stesso che è passato dall’originale SLES11 a Photon OS (un sistema operativo di proprietà VMware e sempre su base Linux). Update Manager è stato incluso di default nell’appliance superando così la necessità di avere un server Windows dedicato a quella funzione. Il DB interno Postgres è stato potenziato consentendo di aumentare tutti i ‘maximum’ gestiti dalla singola VCSA (numero di host, numero di VM, memoria gestita etc). La procedura di backup dell’appliance (in pratica un semplice archivio compresso delle impostazioni dell’appliance) è stata semplificata e nella versione di prossima uscita sarà anche schedulabile direttamente dall’interfaccia web di gestione; la procedura di restore dell’appliance è immediata dato che è sufficiente deployare una nuova appliance e, dall’interfaccia web, eseguire un restore puntando all’archivio salvato dall’appliance perduta.
Ma la feature più interessante propria della versione 6.5 è la possibilità di ridondare il servizio vCenter attraverso una configurazione in HA, che prevede 3 VM (una attiva, una passiva e un witness) con switch automatico del servizio vCenter in caso di caduta del server vCenter principale. Si tratta di una feature a costo zero, non richiede licenze aggiuntive ed è di semplice implementazione; l’automatismo è tale che, in caso di caduta del vCenter primario a cui si è collegati con interfaccia web di amministrazione, il browser si ricollega da solo al vCenter secondario senza necessità di riapertura del browser o di ricollegamento manuale.
Considerando che è anche disponibile un tool di migrazione automatica da vCenter Windows a VCSA, che prende tutti i settaggi impostati sul vCenter originale e li trasferisce sulla VCSA scambiando poi alla fine gli IP e subentrando in modo trasparente al vCenter Windows, si può capire come ora non ci siano più alibi per non utilizzare VCSA al posto del tradizionale vCenter Windows (anche perché, tra gli annunci fatti al VMworld sulle caratteristiche delle future release, c’è anche quella della futura sparizione del pacchetto vCenter per Windows…).

vSphere Web Client HTML5
Alzi la mano chi non ha almeno una volta fatto i conti con il primo vSphere Web Client delle versioni 5.x: drammaticamente lento, basato su Flash Player, con un lunga serie di features mancanti, alla fine si può ben dire che uno era quasi costretto ad utilizzare il buon vecchio vSphere Client tradizionale, detto anche ‘fat client’; con la versione 6.0 si sono fatti sicuramente dei passi avanti sul Web Client ma, un po’ per abitudine un po’ per la presenza, ancora, della componente Flash, alla fine la tendenza era sempre quella di preferire il fat client; quando poi VMware ha annunciato che avrebbe dismesso il fat client per fornire solo l’interfaccia web c’è stata una levata di scudi generale unita a preoccupazione diffusa tra i vari amministratori VMware.
Con la 6.5 si è finalmente imboccata la strada giusta: il Web Client è ora molto più veloce ed efficiente, il fat client è stato mandato in pensione ma soprattutto si è iniziato a rendere disponibile una versione interamente scritta in HTML5 e senza più la presenza del ‘famigerato’ Flash.
La strada è ancora in parte da percorrere: nell’attuale versione il Web Client HTML5 non ha ancora tutte le features disponibili per cui al momento si è ancora costretti ad utilizzare un browser con Flash abilitato, ma al VMworld hanno garantito che già nel prossimo update il numero di features coperte dalla versione HTML5 arriverà al 90% ed hanno “giurato” che nell’ambito della versione 6.5 si arriverà al 100%. Questo renderà possibile amministrare una farm VMware avendo sostanzialmente solo un browser a disposizione, indipendentemente dal client utilizzato, cosa senz’altro molto comoda per ogni amministratore VMware.

vSAN 6.6
vSAN è un prodotto VMware per la gestione di storage iperconvergente; accanto ai vari prodotti commerciali presenti da tempo sul mercato (Atlantis, Nutanix, Datacore tra i nomi più noti) anche VMware ha deciso di mettere a disposizione un prodotto per la gestione di storage ibrido a partire dalla versione 6; senza scendere nel dettaglio tecnico sui vantaggi di questo genere di soluzioni, l’aspetto importante è che molto è stato investito da VMware nella preparazione di questa nuova versione di vSAN, arrivata oggi alla release 6.6, tanto da farla etichettare come la “biggest release” di vSAN alla data; questo fa capire come le infrastrutture iperconvergenti rappresentino di fatto un’evoluzione importante e ormai imprescindibile del modo di intendere e gestire lo storage, un’evoluzione che va quindi attentamente valutata come valida alternativa alle soluzioni storage “tradizionali” sia in termini di costo che in termini prestazionali.
Un numero davvero significativo di sessioni al VMworld è stato dedicato all’analisi “in deep” delle prestazioni e features della nuova versione di vSAN, sessioni che hanno visto una partecipazione molto folta con aule nella gran parte dei casi piene, segno dell’interesse che queste nuove tecnologie suscitano e prova tangibile di importanti investimenti fatti da VMware in questo campo.

VMFS 6
VMFS, acronimo ben noto non solo agli addetti ai lavori, è la versione di file system adottata nei datastore VMware, che è poi il luogo dove risiedono le nostre amate macchine virtuali. La versione 6.5 introduce una nuova versione di VMFS, la 6: a questo proposito bisogna dire che VMware non introduce spesso nuove versioni di VMFS, la versione 5 ad esempio era rimasta sostanzialmente la stessa sia su vSphere 5.x che su 6.0; la versione VMFS precedente era la 3 (la VMFS 4 non esiste), che era adottata su vSphere 3 e 4; questo fa capire che l’introduzione di un nuovo VMFS non è cosa di tutti i giorni ed è legata ad evoluzioni importanti nella gestione dei nostri datastore introducendo sempre nuove caratteristiche e importanti novità.
Non vi tedieremo con ogni dettaglio tecnico o miglioria ma vogliamo menzionarne una: l’Automatic Space Reclamation, ovvero quando una VM viene eliminata o spostata lo spazio lasciato libero dalla VM viene automaticamente smappato e restituito allo storage. Era una feature molto attesa, tra l’altro particolarmente significativa proprio in ambito iperconvergente.

Queste sono solo alcune delle novità introdotte dalla nuova versione di vSphere, e il VMworld è stato denso di contenuti che naturalmente hanno riguardato anche altri ambiti al di fuori dal prodotto di punta vSphere (tra i più “gettonati”: NSX, vCloud Director, Horizon …); il nostro team è sempre a disposizione per approfondire i vari contenuti e dare ulteriore visibilità sull’evoluzione delle tecnologie VMware.

Arcserve UDP Archiving

Arcserve annuncia un nuovo prodotto: Arcserve UDP Archiving

ARCSERVE UDP ARCHIVING

Venerdì 16 Giugno siamo stati ospiti al Grand Hotel Des Bains di Riccione per l’incontro Partner Arcserve, dove sono stati elencati i prodotti di punta e annunciata una novità.

Arcserve è un brand considerato “di nicchia” ma che punta molto sulla qualità del prodotto, tra i quali Arcserve UDP.
Arcserve UDP (Unified Data Protection) integra in un’unica soluzione tecnologie collaudate di backup di ripristino basato su immagini, nastro, replica, alta affidabilità e deduplica effettiva, un’architettura integrata e scalabile che offre Assured Recovery di semplice gestione.
Tra le varie caratteristiche e i vantaggi, Arcserve UDP offre supporto di cloud pubblico con funzionalità avanzate di copia e disaster recovery, supporto cloud privato e Arcserve Cloud DRaaS per clienti con software UDP o appliance, deduplica reale globale, supporto per nastri e protezione offsite.

Per quanto riguarda il nuovo prodotto si tratta di una soluzione per l’archiviazione della posta elettronica: Arcserve UDP Archiving.
Lo scopo è quello di proteggere l’e-mail aziendale e renderla accessibile in caso di audit e ricerche giudiziarie, una soluzione multi-tenant adatta a implementazioni on premise e su cloud privato e pubblico.
Gestisce tutti gli aspetti di protezione dati e soddisfa regole e normative attuali come la nuova GDPR.
Comprende funzionalità utili alla gestione e alla ricerca, conserva le mail in base alle regole decise, esporta e ricerca record per scopi legali, crea un repository per effettuare ricerche, e una volta inviate e ricevute le e-mail vengono conservate come non modificabili.

Tutte le soluzioni Arcserve sono disponibili con opzioni d’acquisto (licenze e pricing) adatte a qualsiasi tipo di azienda, dalla Small Business all’Enterprise.

Cos’è Industria 4.0

UNA NUOVA RIVOLUZIONE INDUSTRIALE 

Industria 4.0 è il nome dato all’innovativa manovra economica, il cui intento è quello di supportare le aziende industriali facendo rinascere macchinari di vecchia generazione grazie all’integrazione di nuove tecnologie.
Una trasformazione da azienda manifatturiera a Smart Factory tradotta in produzione agile e infrastrutture informatiche a completamento dei sistemi, con particolare riguardo alla sostenibilità.

Il punto centrale della Quarta Rivoluzione Industriale è, infatti, quello di fare collaborare sistemi fisici con sistemi informatici per ottimizzare e supportare i processi di produzione, diminuire gli sprechi e monitorare ogni passaggio.

Alcuni esempi? Tramite il cloud è possibile gestire ed elaborare una grande quantità di dati ed eseguirne il backup online, con il risultato di analisi dettagliate e immediate disponibili in ogni momento.
Oppure la realtà aumentata per la gestione delle macchine, la simulazione per ottimizzare ii processi senza disguidi e l’analisi dei Big Data per sfruttare i materiali il più possibile evitando scarti, l’interazione tra uomo e macchina attraverso tecnologie touch, passando per il vasto mondo dell’Internet of Things, della robotica e della stampa 3D. Questi argomenti aprono anche un grande tema, quello della cyber security, per garantire la sicurezza e la protezione di ogni dato presente all’interno dell’azienda.

Il futuro quindi è una produzione del tutto automatizzata e interconnessa.

Questa manovra non è arrivata solo a livello intellettuale: è previsto infatti un piano di ammortamento per le spese sostenute nella digitalizzazione dell’impresa a livello software.
Per capire meglio i finanziamenti attuabili e le competenze necessarie, il Ministero dello Sviluppo Economico ha divulgato un documento di sintesi che potete trovare qui.