CrowdStrike e l’effetto domino a livello Mondiale del 19 Luglio 2024

Il Caso CrowdStrike: Un confronto sui motivi.

Il 19 luglio 2024, CrowdStrike ha rilasciato un aggiornamento per il loro sensore Falcon, che ha causato un crash massivo su numerosi computer Windows, portando a disservizi globali in settori cruciali come aviazione, media, banche e sanità. L’incidente è stato causato da un errore logico in un file di configurazione aggiornato, che ha provocato un ciclo infinito di riavvii sui dispositivi interessati (CrowdStrike) (Morningstar) (Wikipedia).

In merito all’articolo

Questo è un articolo nato da una discussione ed interazione sociale sul social network professionale LinkedIn ( https://linkedin.com ) Quanto qui riportato riassume ed estende i contenuti, le opinioni ed i punti di vista discussi tra le varie persone citate all’epoca dei fatti, nei giorni successivi alla vicenda del down mondiale del prodotto commerciale, CrowdStrike Falcon (19 luglio 2024 ).

Responsabilità e Deontologia Professionale

 

Roberto Beneduci, CEO di CoreTech, ha espresso preoccupazione per la colpa erroneamente attribuita a Microsoft invece del reale responsabile, CrowdStrike. Beneduci ha paragonato la situazione a un escavatore che taglia cavi internet, mentre i media incolpano il provider di servizi internet per l’interruzione. Ha sottolineato l’importanza di attribuire correttamente le responsabilità e di assicurarsi che i prodotti software non causino danni.

Prospettive Tecniche e di Prodotto

 

Ivan Dorna, CEO di Anthilla, ha ampliato la discussione spiegando che il problema non risiede primariamente nel sistema operativo, pur riconoscendo lo stato attuale ed i suoi limiti, ma nella consapevolezza e delle scelte che vengono fatte nell’allestire un’infrastruttura che deve erogare un servizio e nell’erogazione di un servizio terzo che serve a tale infrastruttura e questo deriva dalla competenza dall’etica e dalla professionalità di chi le compie le scelte ma anche dai limiti (spesso imposti e non sempre compresi) legate alle attività da compiere. 

Ha evidenziato l’importanza della competenza tecnica per risolvere rapidamente i problemi, notando il ritardo, non tanto nella diffusione del workaround, che di fatto è quello standard per i problemi dei driver su Windows, ma sul fatto che sembra strano che tale procedura non sia stata applicata prima, che dovrebbe essere nota ed alla base della conoscenza tecnica per i sistemi microsoft.

Ha anche notato che incidenti simili potrebbero verificarsi anche su Linux in circostanze analoghe.

Non c’è mai la risposta giusta o corretta per definizione, per quello va analizzato il rischio effettivo di tutti i componenti nello scenario per lo scenario specifico.

Ivan Dorna: “La colpa non è del sistema operativo, ma di chi ha compiuto una serie di scelte in modo che si verificasse quella situazione ed in primis di chi ha premuto il grilletto. Come dire che chi ha sparato è CrowdStrike e la marca del fucile è Microsoft.”

Roberto Capancioni ha osservato che la robustezza di un sistema si misura dalla sua capacità di resistere ai malfunzionamenti esterni. Se un sistema non è abbastanza robusto, l’errore può essere attribuito anche ad esso.

Punto di vista assolutamente condivisibile quello di Capancioni, ma ci sono tantissimi sistemi operativi ognuno con propri limiti e funzionalità specifiche, sicuramente nel prossimo futuro, visto l’impatto che ha avuto l’aggiornamento di CrowdStrike, ci saranno, si spera dei cambiamenti nella gestione dei servizi all’interno dei vari sistemi operativi, ma le eccezioni e gli errori in memoria di un programma non possono essere sempre verificate e gestite dal sistema operativo, a meno che non si usino determinate modalità e tecnologie come Rust, che sta prendendo sempre più piede. Il primo livello di difesa rimane il controllo della qualità su i rilasci e la riduzione delle dipendenze da software. Essendo un aggiornamento rilasciato su un canali stabile di produzione, quell’aggiornamento, con quell’errore, non doveva essere distribuito.

Impatto della Struttura Gerarchica e delle Responsabilità e l’errata valutazione di Rischio

 

 

Debora Casaliniha sollevato domande ed un interessate punto di vista riguardante la gestione del rischio e le assicurazioni, evidenziando che CrowdStrike in modo specifico (vista la notorietà) e come tipologia software è stato “selezionato” e diffuso, come elemento abilitante (ovvero componente essenziale per validare una piattaforma dal punto di vista della sicurezza ed avere una copertura assicurativa) legando ancora di più l’onere dell’erogazione di servizio, ad uno o più prodotti commerciali e quindi non ad una effettiva analisi di rischio indipendente da questo, che valutasse tecnologie e politiche di mantenimento del prodotto.

Ivan Dorna, si è confrontato su questo punto ovvero l’identificazione di CrowdStrike come “Elemento Abilitante” sia come tipologia di software, che come Marca nota e famosa, per attivare coperture assicurative a livello globale, senza considerare adeguatamente i rischi reali.

Questo ha portato a una situazione in cui le aziende hanno imposto un prodotto per i suoi vantaggi percepiti, senza valutare l’impatto in caso di malfunzionamento e questo va in opposizione rispetto all’effettiva valutazione di fattori di rischio. Non permettendo di approfondire la reale situazione. 

“Il discorso di obbligatorietà per avere una copertura assicurativa è assurdo. La scelta del sistema per avere il fattore abilitante ha comportato una serie di rischi in più.”

Questo è sia vero dal punto di vista di “fattore abilitante” per le assicurazione sia per alcuni vincoli ed obblighi di leggere derivanti da best practices, come avverrà anche per NIS2 e DORA.

la notorietà di un prodotto, come in passato anche per altri marchi e prodotti, ad oggi non è più possibile che sia sufficiente a riconoscerli come “elementi abilitanti”. come per VMware non solo in merito ai cambi di direzione del 2023 e 2024, ma anche a fronte dei cambi di politica e strategie effettuate dal 2010 ad oggi.

Considerazioni Economiche e di Sicurezza

 

Andrea Campiotti ha menzionato che ci sono stati anche problemi con Azure AD e ha suggerito che ci potrebbe essere una colpa condivisa tra CrowdStrike e Microsoft.

Giulio Covassi ha sottolineato l’importanza della qualità prima delle nuove funzionalità, evidenziando come un software non testato possa causare danni significativi. Ha suggerito che l’approccio di platform engineering possa mitigare questi rischi.

Francesco Vollero ha ribadito che se il sistema operativo non permettesse lo sviluppo di moduli kernel eseguiti con privilegi elevati, il problema sarebbe stato meno grave. Ha criticato l’attuale struttura organizzativa che spesso porta a errori dovuti alla mancanza di test adeguati.

Luca Simoncini ha chiesto una Root Cause Analysis dettagliata da CrowdStrike per imparare dagli errori commessi.

Matei Busui ha suggerito una procedura per classificare i servizi critici e non critici e ha sottolineato l’importanza dei test di integrazione e delle procedure di rollback.

Matei Busui: “Se si eseguono servizi critici, bisogna assicurarsi che non si fermino per nessun motivo durante un aggiornamento. Inoltre, è fondamentale avere dei test di integrazione che validino che tutto funzioni come previsto dopo un aggiornamento.”

Ivan Dorna: “Applicare questo al mondo reale significa lavorare per rendere possibile tornare alla versione precedente in ogni caso, in pochi minuti.”

Discussione sul 1% e le Relazioni di Quantità

 

Nicola Vanin ha riportato che circa 8,5 milioni di dispositivi, meno dell’1% dei computer Windows a livello globale, sono stati colpiti dall’incidente.
Ha osservato che, nonostante la percentuale bassa, il caos generato è stato significativo.

Massimo Biagioli ha commentato che parlare in termini di percentuali può essere fuorviante, e che è più rilevante considerare i numeri assoluti per comprendere l’impatto reale.

Ivan Dorna:

“La percentuale deve essere messa in relazione al contesto e al problema specifico. L’1% di computer bloccati, equivalenti a 8,5 milioni di dispositivi, ha un impatto globale significativo, e questo dato non deve essere trascurato.”

Il mettere in relazione il valole dell’1%, non tanto con il valore assoluto ma come valore di soglia, per quello che ha rappresentato come problema il 19 Luglio 2024 è ormai importante e va tenuto in considerazione. 

Ormai sia per la diffusione di software l’uso di questi in installazioni anche complesse che erogano servizi, magari anche in cloud, non si può trascurare quello che può rappresentare come impatto un problema su una compoenente software anche secondaria ma che deve essere erogata e tenuta aggiornata per tutta una serie di motivazioni.

Considerazioni sulle Procedure e la Gestione dei Servizi

 

Ad oggi, 21 luglio 2024, la gestione dell’esecuzione dei programmi come servizi nei sistemi operativi non è ottimale, anzi è molto primitiva. Dato che questi devono essere aggiornati frequentemente per conformità alle disposizioni di legge e best practices aziendali, soprattutto per i servizi con privilegi amministrativi e di sistema, è fondamentale migliorare la solidità di questi software e del sistema di gestione degli stessi.

Il problema verificato con CrowdStrike è dovuto a tre motivi principali:

  1. L’update su un canale di Stable/Produzione non è stato testato a sufficienza, soprattutto per una componente che agisce a livello privilegiato.
  2. Un prodotto + servizio è stato usato come “elemento abilitante” per coperture assicurative, senza un’effettiva analisi del rischio e delle procedure di ripristino.
  3. Oggi, con la diffusione di ITIL e framework di certificazione per la compartimentazione dei ruoli e responsabilità, sembra che le competenze e la possibilità di agire dei tecnici siano limitate. Questo solleva la domanda: ha veramente più senso oggi dare la colpa piuttosto che tenere le cose in funzione e ripristinarle?

Conclusione

 

Questo incidente ha messo in luce l’importanza di una gestione consapevole e competente degli aggiornamenti software e delle responsabilità aziendali. La discussione tra esperti IT sottolinea la necessità di un approccio olistico alla sicurezza informatica, che includa non solo la qualità del software, ma anche la responsabilità di chi lo sviluppa e gestisce.

Vuoi confrontarti o dire la tua?

Fog Computing

FOG COMPUTING

IL FOG COMPUTING ED I SUOI VANTAGGI

Indice:

COSA SIGNIFICANO I TERMINI USATI PER LE DIVERSE TIPOLOGIE DI "COMPUTING"?

Fog Computing, come Cloud Computing e Edge Computing sono termini  che definiscono dei paradigmi ( modelli, esempi di scenari) in cui vengono specificati ruoli e dinamiche con cui  computer, reti, dispositivi e utenti si scambiano DATI ed eseguono il LAVORO.

La grossa distinzione tra questi paradigmi è:

  • cosa accade in locale e cosa accade in remoto;
  • con che priorità, con che peso, in quali tempi e quali modalità.

Questo determina in maniera chiara e logica, i PRO e i CONTRO, ogni scenario ha possibilità e limiti, Aldilà di ciò che viene detto dagli “slogan pubblicitari“.

Motivo per cui possono essere usati anche insieme per  vincere i limiti di uno o dell’altro se questo fosse necessario.

edge computing

CHE COS'É IL FOG COMPUTING?

Con il termine inglese edge computing (in lingua italiana elaborazione al margine) si indica l’elaborazione delle informazioni ai margini della rete, o dove i dati vengono prodotti.

 

Ai “margini della rete” sta ad indicare “in prossimità di dove il dato nasce” ovvero localmente o comunque “vicino”.

I BENEFICI DEL FOG COMPUTING

I benefici principali derivanti dall’utilizzo dell’edge computing, che è un paradigma opposto al concetto di Cloud, sono innanzitutto la riduzione della latenza di elaborazione,

permettendo risposte anche in tempo reale (ovvero ottenendo una risposta in un tempo utile) ed il risparmio di banda, inviando all’esterno (esterno: “in remoto”, o servizi esterni come il Cloud) informazioni già elaborate,

o solo di tipo statistico o di rendicontazione del lavoro svolto, perchè il lavoro viene svolto localmente quindi può potenzialmente essere inviata solo la risposta o il risultato che solitamente è di dimensioni inferiori.

nel dettaglio, i benefici che l’edge computing può assicurare sono diversi:

  • ha la capacità di elaborare i dati critici localmente, per inviarli in seguito ad un repository (archivio) centrale;
  • può aiutare gli utenti ad accedere ai dati di cui hanno bisogno rapidamente, con meno latenza e senza utilizzare gran parte della preziosa larghezza di banda;
  • può permettere alle aziende di fornire l’analisi dei dati quasi in tempo reale;
  • permette un’archiviazione dei dati, rendendoli sempre disponibili, immediatamente;
  • si basa (sia edge che fog computing) su una rete distribuita di infrastrutture che possono essere “interne” (locali) o in “prossimita” (esterne, remote ma localizzate), per questo è più “al riparo” da eventuali disservizi o comunque bilanciando i potenziali disservizi del Cloud;
  • riduzione della necessità di banda e delle caratteristiche legate a questa, non è più la linea a dover essere estremamente performante o avere bassa latenza, quindi è necessaria una connessione più economica. O più connessioni economiche.

Il modello dell’Edge Compuntig, può essere usato con qualunque tecnologia, per qualunque necessità, specie quelle che sono utilizzate per la creazione di “oggetti intelligenti” (Smart Object)

Proprio per questo, l’edge computing consente alle applicazioni e ai dispositivi intelligenti di rispondere quasi istantaneamente, eliminando i ritardi o permettendo qualità di servizio superiori offrendo notevoli vantaggi per le aziende.

fog computing

DIFFERENZE TRA FOG ED EDGE COMPUTING

Approfondendo un po’ di più, è da rilevare una differenza tra il concetto di fog computing e quello di edge computing, in molti casi considerati come la stessa cosa.

Anche se il termine edge computing è spesso erroneamente utilizzato per indicare le architetture di fog computing, in realtà vi sono differenze chiave:

diversamente dal fog computing, architettura limitata a dei ruoli ed azioni specifici prettamente legati alle operazioni di elaborazione,

il fog computing ha al suo interno un’organizzazione molto più strutturata e diversificata come un’architettura di rete più complessa, costituita da molteplici elementi (nodi fog) e in grado di gestire, oltre alle operazioni di elaborazione, anche funzionalità di network, storage, controllo e accelerazione.

di fatto il fog computing è strtturalmente simile al concetto di cloud computing (che è strutturato per avere un’enorme quantitativo di risorse utilizzabili da un elevatissimo numero di utenze, da remoto, con qualità di servizio non elevata e con una certa latenza) ma organizzato per essere più autonomo, più compatto, indipendente ed in prossimità dell’utilizzatore, per dare performace garantite e riservatezza rispetto al cloud.

La grande differenza tra le due soluzioni sta nel punto in cui l’intelligenza e la capacità di elaborazione viene collocata:

mentre nel fog computing essa viene portata localmente, a livello della rete LAN (local area network o rete interna dell’azienda, tanto quanto accade con l’avere i server in azienda) o comunque in una rete di zona comune a più strutture, dove i dati provenienti da sensori che vengono elaborati da un nodo fog o da un gateway IoT che possono essere dei normali computer che rivestono tale ruolo usando tecnologie software ad-hoc, nell’edge computing questa intelligenza e capacità computazionale viene integrata direttamente nei dispositivi e piattaforme di elaborazione, che si interfacciano con sensori e altri sistemi di controllo.

COME L’IoT UTILIZZA IL FOG COMPUTING

L’IoT negli ultimi anni sta utilizzando notevolmente l’Edge Computing portando l’elaborazione del dato sul campo.

Più vicino, quindi, a dove le informazioni vengono effettivamente raccolte: sensori, sistemi industriali, telecamere, POS (point of sale), controlli per elettricità, gas, acqua, e quanti altri dispositivi intelligenti e device si possono oggi immaginare connessi al cloud.

I dispositivi intelligenti sono meno adatti al modello Cloud convenzionale e spesso si trovano a fronteggiare problematiche di affidabilità, costi, vincoli, latenza e banda.

Grazie alle caratteristiche e alle semplificazioni dell’edge computing illustrate nel paragrafo precedente, l’edge si presenta come la soluzione vincente riuscendo a portare l’elaborazione dei dati vicino a dove vengono raccolti, eliminando i limiti e vincoli presenti con il Cloud Computing e permettendo un livello di servizio più alto.

PERCHE’ E’ NECESSARIO IL FOG COMPUTING?

L’edge computing è necessario per gestire i punti deboli delle applicazioni e dei servizi basati sul cloud in relazione alle performance.

Infatti il cloud computing non è sempre in grado di soddisfare i requisiti in termini tempi rapidi di risposta richiesti dalle applicazioni critiche.

Per le aziende soggette al rispetto di regolamenti governativi correlati alla posizione di archiviazione dei dati, il cloud computing potrebbe non essere in grado di fornire il tipo di archiviazione locale richiesto.

Le applicazioni IoT spesso richiedono una buona banda, una bassa latenza e performance affidabili, al tempo stesso devono rispettare requisiti normativi e di conformità, per cui rappresentano candidati ideali per l’edge computing, ma anche per il fog computing

EDGE SITO

COME ANTHILLA APPROCCIA IL FOG COMPUTING E IoT

L’evoluzione del cloud computing, ovvero l’edge computing e il fog computing consente di accorciare le distanze tra l’utente e il servizio e velocizzare tutte le operazioni interconnesse.

Con Hoplite , Anthilla riesce a sfruttare l’edge computing ed il fog computing per l’elaborazione dei dati rapida ed in grandi volumi in prossimità dell’origine: consentendo di ridurre l’utilizzo della larghezza di banda necessaria, eliminando i costi e garantendo un uso efficace delle applicazioni in posizioni remote.

Inoltre, la possibilità di elaborare i dati senza trasferirli nel cloud pubblico aggiunge un livello di sicurezza utile per la gestione dei dati e per la riservatezza, necessaria per aziende  e privati.

Per questo Hoplite usa i dispositivi esistenti permettendo di estendere l’intelligenza e la capacità di elaborazione nei device, nuovi o preesistenti, installati nell’ambiente IT locale.

Grazie ad Hoplite possiamo consentire ai nostri clienti e ai loro dipendenti, di sfruttare i dati per incrementare riservatezza, soddisfazione ed efficienza.

Aumenta al massimo la potenza dei dati per accelerare la traformazione digitale, dei processi dell’azienda, dal dispositivo al data center.

Fai il primo passo verso il futuro digitale.

RICHIEDI UNA CONSULENZA STRATEGICA!

Edge Computing

EDGE COMPUTING

L'EDGE COMPUTING ED I SUOI VANTAGGI

Indice:

COSA SIGNIFICANO I TERMINI USATI PER LE DIVERSE TIPOLOGIE DI "COMPUTING"?

Edge Computing, come Cloud Computing e Fog Computing sono termini  che definiscono dei paradigmi ( modelli, esempi di scenari). In questi paradigmi, vengono specificati ruoli e dinamiche con cui  computer, reti, dispositivi e utenti si scambiano DATI ed eseguono il LAVORO.

 

La grossa distinzione tra questi paradigmi è:

  • cosa accade in locale e cosa accade in remoto;
  • con che priorità, con che peso, in quali tempi e quali modalità.

 

COMPUTING

Questo determina in maniera chiara e logica, i PRO e i CONTRO.

Ogni scenario ha possibilità e limiti, aldilà di ciò che viene detto dagli “slogan pubblicitari“.

Motivo per cui possono essere usati anche insieme per  vincere i limiti di uno o dell’altro se questo fosse necessario.

CHE COS'É L’EDGE COMPUTING?

fog computing

Con il termine inglese edge computing (in lingua italiana elaborazione al margine) si indica l’elaborazione delle informazioni ai margini della rete, o dove i dati vengono prodotti.

Ai “margini della rete” sta ad indicare “in prossimità di dove il dato nasce” ovvero localmente o comunque “vicino”.

I BENEFICI DELL'EDGE COMPUTING

I benefici principali derivanti dall’utilizzo dell’edge computing, che è un paradigma opposto al concetto di Cloud, sono innanzitutto la riduzione della latenza di elaborazione. Questo permette risposte anche in tempo reale (ovvero ottenendo una risposta in un tempo utile) ed il risparmio di banda, inviando all’esterno (esterno: “in remoto”, o servizi esterni come il Cloud) informazioni già elaborate, o solo di tipo statistico o di rendicontazione del lavoro svolto. Infatti il lavoro viene svolto localmente e quindi può, potenzialmente, essere inviata solo la risposta o il risultato che solitamente è di dimensioni inferiori.

 

Il modello dell’Edge Compuntig, può essere usato con qualunque tecnologia, per qualunque necessità, specie quelle che sono utilizzate per la creazione di “oggetti intelligenti” (Smart Object).

 

Nel dettaglio, i benefici che l’edge computing può assicurare sono diversi:

  • ha la capacità di elaborare i dati critici localmente, per inviarli in seguito ad un repository (archivio) centrale;
  • può aiutare gli utenti ad accedere ai dati di cui hanno bisogno rapidamente, con meno latenza e senza utilizzare gran parte della preziosa larghezza di banda;
  • può permettere alle aziende di fornire l’analisi dei dati quasi in tempo reale;
  • permette un’archiviazione dei dati, rendendoli sempre disponibili, immediatamente;
  • si basa (sia edge che fog computing) su una rete distribuita di infrastrutture che possono essere “interne” (locali) o in “prossimita” (esterne, remote ma localizzate), per questo è più “al riparo” da eventuali disservizi o comunque bilanciando i potenziali disservizi del Cloud;
  • riduzione della necessità di banda e delle caratteristiche legate a questa, non è più la linea a dover essere estremamente performante o avere bassa latenza, quindi è necessaria una connessione più economica. O più connessioni economiche.

Proprio per questo, l’edge computing consente, alle applicazioni e ai dispositivi intelligenti, di rispondere quasi istantaneamente, eliminando i ritardi o permettendo qualità di servizio superiori offrendo notevoli vantaggi per le aziende.

EDGE

DIFFERENZE TRA EDGE E FOG COMPUTING

Approfondendo un po’ di più, è da rilevare una differenza tra il concetto di edge computing e quello di fog computing, in molti casi considerati come la stessa cosa.

Anche se il termine fog computing è spesso erroneamente utilizzato per indicare le architetture di edge computing, in realtà vi sono differenze chiave:

diversamente dall’edge computing, architettura limitata a dei ruoli ed azioni specifici prettamente legati alle operazioni di elaborazione,

il fog computing ha al suo interno un’organizzazione molto più strutturata e diversificata come un’architettura di rete più complessa, costituita da molteplici elementi (nodi fog) e in grado di gestire, oltre alle operazioni di elaborazione, anche funzionalità di network, storage, controllo e accelerazione.

di fatto il fog computing è strtturalmente simile al concetto di cloud computing (che è strutturato per avere un’enorme quantitativo di risorse utilizzabili da un elevatissimo numero di utenze, da remoto, con qualità di servizio non elevata e con una certa latenza) ma organizzato per essere più autonomo, più compatto, indipendente ed in prossimità dell’utilizzatore, per dare performace garantite e riservatezza rispetto al cloud.

La grande differenza tra le due soluzioni sta nel punto in cui l’intelligenza e la capacità di elaborazione viene collocata:

mentre nel fog computing essa viene portata localmente, a livello della rete LAN (local area network o rete interna dell’azienda, tanto quanto accade con l’avere i server in azienda) o comunque in una rete di zona comune a più strutture, dove i dati provenienti da sensori che vengono elaborati da un nodo fog o da un gateway IoT che possono essere dei normali computer che rivestono tale ruolo usando tecnologie software ad-hoc, nell’edge computing questa intelligenza e capacità computazionale viene integrata direttamente nei dispositivi e piattaforme di elaborazione, che si interfacciano con sensori e altri sistemi di controllo.

COME L’IoT UTILIZZA L’EDGE COMPUTING

L’IoT negli ultimi anni sta utilizzando notevolmente l’Edge Computing portando l’elaborazione del dato sul campo.

 

Più vicino, quindi, a dove le informazioni vengono effettivamente raccolte: sensori, sistemi industriali, telecamere, POS (point of sale), controlli per elettricità, gas, acqua, e quanti altri dispositivi intelligenti e device si possono oggi immaginare connessi al cloud.

I dispositivi intelligenti sono meno adatti al modello Cloud convenzionale e spesso si trovano a fronteggiare problematiche di affidabilità, costi, vincoli, latenza e banda.

Grazie alle caratteristiche e alle semplificazioni dell’edge computing illustrate nel paragrafo precedente, l’edge si presenta come la soluzione vincente riuscendo a portare l’elaborazione dei dati vicino a dove vengono raccolti, eliminando i limiti e vincoli presenti con il Cloud Computing e permettendo un livello di servizio più alto.

PERCHE’ E’ NECESSARIO L’EDGE COMPUTING?

L’edge computing è necessario per gestire i punti deboli delle applicazioni e dei servizi basati sul cloud in relazione alle performance.

 

Infatti il cloud computing non è sempre in grado di soddisfare i requisiti in termini tempi rapidi di risposta richiesti dalle applicazioni critiche.

Per le aziende soggette al rispetto di regolamenti governativi correlati alla posizione di archiviazione dei dati, il cloud computing potrebbe non essere in grado di fornire il tipo di archiviazione locale richiesto.

 

FOG COMPUTING

Le applicazioni IoT spesso richiedono una buona banda, una bassa latenza e performance affidabili, al tempo stesso devono rispettare requisiti normativi e di conformità, per cui rappresentano candidati ideali per l’edge computing, ma anche per il fog computing

COME ANTHILLA APPROCCIA EDGE COMPUTING E IoT

L’evoluzione del cloud computing, ovvero l’edge computing e il fog computing consente di accorciare le distanze tra l’utente e il servizio e velocizzare tutte le operazioni interconnesse.

Con Hoplite , Anthilla riesce a sfruttare l’edge computing ed il fog computing per l’elaborazione dei dati rapida ed in grandi volumi in prossimità dell’origine: consentendo di ridurre l’utilizzo della larghezza di banda necessaria, eliminando i costi e garantendo un uso efficace delle applicazioni in posizioni remote.

Inoltre, la possibilità di elaborare i dati senza trasferirli nel cloud pubblico aggiunge un livello di sicurezza utile per la gestione dei dati e per la riservatezza, necessaria per aziende  e privati.

Per questo Hoplite usa i dispositivi esistenti permettendo di estendere l’intelligenza e la capacità di elaborazione nei device, nuovi o preesistenti, installati nell’ambiente IT locale.

Grazie ad Hoplite possiamo consentire ai nostri clienti e ai loro dipendenti, di sfruttare i dati per incrementare riservatezza, soddisfazione ed efficienza.

Aumenta al massimo la potenza dei dati per accelerare la traformazione digitale, dei processi dell’azienda, dal dispositivo al data center.

Fai il primo passo verso il futuro digitale.

RICHIEDI UNA CONSULENZA STRATEGICA!