Amazon-EC2

Amazon EC2: cos'è e come funziona - istanze ed AMI

Il cloud computing è la tecnologia che ci permette di acquistare risorse hardware a consumo, esattamente allo stesso modo in cui acquistiamo acqua ed elettricità. In questo articolo parleremo di uno dei servizi cloud più diffusi ed apprezzati in ambito business per lo sviluppo e la distribuzione di applicazioni e siti web resilienti: Amazon EC2.

Cos'è Amazon EC2? Come funziona Amazon EC2?

Cos'è Amazon EC2

Amazon EC2 è un servizio di cloud computing che permette di eseguire server virtuali per far girare applicazioni e servizi web come in un tradizionale data center.

A differenza di quest'ultimo però, offre il vantaggio di poter effettuare il provisioning di server e risorse immediatamente in base alle proprie esigenze. Ed è proprio a quest'ultimo vantaggio che fa riferimento il nome EC2, acronimo imperfetto di Elastic Compute Cloud

Scopriamo in quali occasioni si rende utile prima di concentrarci sul funzionamento della sua tecnologia.

Un esempio concreto: on-premise vs cloud computing

on-premise

on-premise servers
On Premise servers

Poniamo il caso che tua abbia un e-commerce di abbigliamento per la neve e che il tuo sito sia tradizionalmente installato su un data center locale. Arriva il periodo invernale e, dato che hai investito molto in pubblicità, moltissimi utenti fanno tanti ordini contemporaneamente.

  • Questa non è una situazione favorevole, nonostante possa sembrare il contrario.

Il tuo data center locale non è predisposto per sostenere picchi improvvisi di crescita, ed il risultato è che molti utenti del tuo e-commerce avranno una pessima esperienza sul sito. Alcuni di loro non riusciranno a completare neanche un acquisto ed alla fine avrai perso tanti soldi e reputazione rallentando la tua crescita.

cloud computing

Cloud Computing con Amazon EC2
Cloud Computing

Adesso invece poniamo il caso che il tuo e-commerce sia installato su AWS e che sfrutti la tecnologia di Amazon EC2. Arriva il periodo invernale, hai investito molto in pubblicità, e moltissimi utenti fanno tanti ordini contemporaneamente.

  • Questa è una situazione favorevole!

Con Amazon EC2 puoi gestire senza problemi i picchi improvvisi di crescita: la struttura informatica su cui poggia il tuo sito si adegua automaticamente al numero di utenti che lo visitano e che fanno acquisti. Tutti gli utenti avranno un'esperienza senza rallentamenti e riusciranno a completare normalmente gli acquisti. Alla fine, avrai guadagnato soldi e reputazione e sperimenterai una crescita continua.

Adesso continuiamo approfondendo la tecnologia che sta dietro ad Amazon EC2.

Come funziona Amazon EC2

Nonostante la breve spiegazione e l'esempio soddisfino in linea di massima la prima domanda che abbiamo posto nell'introduzione, entrambe non sono sufficienti a descrivere in modo adeguato Amazon EC2. Questo servizio infatti introduce una serie di concetti che vanno approfonditi per comprenderne il funzionamento complessivo, in primo luogo istanze ed AMI.

Cosa sono le AMI?

Scopriamolo.

Cosa sono le AMI

AMI sta per Amazon Machine Image, e si tratta di template che contengono il software necessario per dare vita ad un server virtuale. Nello specifico, ogni template contiene:

  • un sistema operativo
  • un application server
  • altre applicazioni

In altre parole, è un pacchetto software pronto a far girare applicazioni e siti web nell'ambiente cloud di AWS ed averne tutti i vantaggi in termini di scalabilità e resilienza. Ma le AMI non sono tutte uguali.

Tipi di AMI

Trattandosi di configurazioni software pronte all'uso, ovvero di template preconfigurati, esistono diversi tipi di AMI e possiamo distinguerle utilizzando diversi criteri. Ad esempio, una AMI può essere:

  • Pubblica
  • Condivisa
  • A pagamento
AMI pubbliche

Le AMI pubbliche vengono messe a disposizione da Amazon, sono le uniche ad essere taggate con l'alias amazon e prevedono il solo costo dell'infrastruttura AWS, calcolato sul tipo di istanza selezionata (parleremo delle istanze a breve).

Un esempio di AMI fornita da Amazon è la Red Hat Enterprise Linux.

AMI condivise e a pagamento

Per quanto riguarda gli altri due tipi di AMI, si tratta di template messi a disposizione dalla community di AWS Partner. L'unica differenza tra le due sta nel fatto che, come puoi ben immaginare, le AMI a pagamento prevedono un costo stabilito dallo sviluppatore oltre al costo del servizio AWS, ed alcune prevedono contratti di servizio.

Ad ogni modo, è possibile modificare una AMI a seconda delle proprie specifiche necessità. In questo modo possiamo avere la nostra AMI personalizzata con la nostra configurazione software, salvarla e lanciarla in qualsiasi momento.

Ma il concetto di AMI va necessariamente collegato a quello di istanza per essere compreso appieno.

Cos'è un'istanza?

Definiamo il concetto di istanza su AWS.

Cosa sono le istanze

Le istanze EC2 sono copie di una AMI eseguite su una determinata configurazione hardware. In altre parole, l'istanza è il vero e proprio ambiente virtuale fatto di CPU, memoria, storage e banda internet che esegue il nostro pacchetto software, ovvero la nostra AMI. 

Non è strano pensare alle istanze ed alle AMI come entità complementari, perché si tratta molto banalmente dell'unione di hardware e software.

Al momento esistono ben 275 tipi di istanze diversi.

Tipi di istanze

Ogni tipo di istanza ha delle specifiche hardware differenti (cpu, gpu, memoria, storage, scheda di rete) adatte a diversi casi d'uso. AWS organizza le istanze all'interno di cinque grandi macro categorie descrittive del tipo di uso a cui sono destinate, ovvero:

  • Uso generale
    • ad esempio microservizi o server web
  • Calcolo ottimizzato
    • ad esempio creazione di modelli scientifici
  • Memoria ottimizzata
    • ad esempio database ad alte prestazioni o data mining
  • Calcolo accelerato
  • Storage ottimizzato
    • ad esempio database nosql o data warehousing

Ognuna di queste macro categorie contiene all'interno diverse famiglie di istanze. Ad esempio, nella categoria "uso generico" troviamo, tra le altre, la famiglia di istanze A1, che al suo interno contiene diversi tipi di istanza con diverse caratteristiche hardware. Per fare chiarezza, vediamo nel dettaglio le istanze della famiglia A1:

  • a1.media, 1 vCPU e 2 GiB di memoria
  • a1.larga, 2 vCPU e 4 GiB di memoria
  • a1.xlarga, 4 vCPU e 8 GiB di memoria
  • a1.2xlarga, 8 vCPU e 16 GiB di memoria
  • a1.4xlarga, 16 vCPU e 32 GiB di memoria
  • a1.metal, 16 CPU e 32 GiB di memoria

Per conoscere tutti i dettagli hardware di ogni singola istanza puoi leggere la documentazione ufficiale cliccando qui. Per il resto, bisogna ora approfondire un'importante distinzione che ci permette di scontornare meglio il concetto stesso di istanza da un punto di vista diverso, ovvero le opzioni di pagamento.

Opzioni di pagamento

Amazon EC2 offre diverse opzioni di pagamento per le istanze, e tra queste dobbiamo necessariamente menzionarne almeno due per continuare il nostro viaggio nella comprensione di questo servizio:

  • Istanze on-demand
  • Istanze spot

La distinzione tra queste due opzioni di pagamento ci rende le idee più chiare sul funzionamento di un sistema di cloud pubblico in generale. Vediamo perché.

Istanze on-demand

Le istanze on-demand sono istanze che paghi ad un prezzo fisso al secondo e che puoi:

  • avviare
  • ibernare
  • arrestare
  • riavviare
  • terminare

in qualsiasi momento, pagando solo per l'effettivo tempo di utilizzo.

Se te lo stessi chiedendo, sì: in questo caso arrestare è diverso da terminare, perché su Amazon EC2 non puoi riavviare un'istanza terminata.

Durante la fase di arresto puoi apportare delle modifiche all'istanza e l'istanza rimane sempre a tua disposizione, a differenza delle istanze spot.

Istanze spot

Le istanze spot sono istanze che possono essere avviate solo quando c'è disponibilità di istanze inutilizzate e quando il prezzo massimo che sei disposto a pagare è superiore al "prezzo Spot".  Possono essere terminate automaticamente da AWS quando questa disponibilità viene a mancare o quando il prezzo Spot supera il prezzo massimo che hai stabilito (di default, il limite coincide con il prezzo delle istanze on-demand). Rispetto alle istanze on-demand hanno un costo inferiore e sono indicate per operazioni che possono essere interrotte senza gravi perdite, ad esempio analisi di dati o elaborazioni in background.

Sebbene si tratti di istanze che potremmo definire temporanee, anche le istanze spot possono essere ibernate o arrestate, ma solo a patto che utilizzino EBS come volume di root. E qui possiamo infine introdurre la questione dello storage delle istanze.

Storage delle istanze

Dal punto di vista dello storage, esistono due tipi diversi di istanze:

  • istanze con storage locale temporaneo, ovvero instance store volume con volume root massimo di 10 GiB.
  • istanze che utilizzano EBS, ovvero Elastic Block Storage (EBS) con volume root massimo di 16 TiB.

La differenza principale tra questi due tipi di istanze sta nel fatto che non è possibile arrestare o ibernare le istanze con instance store volume, queste istanze possono esclusivamente essere avviate e terminate. Ma non solo, perché la questione dello storage incide anche sulla persistenza dei dati: per impostazione predefinita, Amazon EC2 cancella il volume root delle istanze nel momento in cui vengono arrestate o terminate, ma questa impostazione può essere modificata nelle istanze che utilizzano EBS come volume root.

Quest'ultima distinzione ci permette anche di avere una visione più ampia della filosofia modulare del cloud computing. È proprio questa sua caratteristica infatti, quella di integrare componenti indipendenti nella forma di servizi diversi, che rende il cloud scalabile, performante e resiliente.

L'integrazione tra EC2 ed EBS che abbiamo appena visto è esemplare in questo senso: utilizzare EBS come storage di un'istanza EC2 vuol dire avere un volume root indipendente dalla memoria "fisica" dell'istanza stessa.

Conclusioni

Con il cloud possiamo dunque gestire tutti i componenti della nostra infrastruttura senza temere l'effetto castello di carte, perché a differenza di un data center on-premise, nel cloud ogni componente è un pezzo del puzzle che disegna la nostra infrastruttura.

CTMobi è AWS Partner

Costruiamo insieme il tuo successo



Wubtitle - Fare SEO con i video

Sono moltissime le categorie di professionisti che quotidianamente creano contenuti per il web, mettendosi in competizione tra di loro per posizionare i loro asset sui motori di ricerca. Articoli, interviste, white paper: il content marketing è ormai parte integrante dell’esperienza di qualsiasi utente della rete. Tuttavia, da qualche anno a questa parte il video ha cambiato le regole del gioco, imponendosi come principale strumento per attirare nuovi visitatori e coinvolgerli maggiormente nello storytelling dei brand. Ma come fare SEO con i video?

In questo articolo parleremo di Wubtitle e di come questo plugin semplifichi gli sforzi di marketing dei professionisti che lavorano con contenuti video.

Problema: i motori di ricerca non capiscono i video

I web crawler non capiscono le informazioni contenute nei videoSe è vero che sono più efficaci e più coinvolgenti di un semplice blog post, è anche vero che i video hanno un grande limite: non possono essere “capiti” dai motori di ricerca. In altre parole, un motore di ricerca non ascolta e non comprende i discorsi presenti all'interno dei video, si limita a leggerne il testo alternativo e la sua eventuale descrizione. Risultano dunque poco utili a fini SEO. Interviste, presentazioni di prodotti, contenuti educativi: tutto questo rischia di rimanere in fondo ai risultati di ricerca e di non essere mai visto dai nostri potenziali clienti.

In quanto partner tecnologici di numerose testate editoriali, a CTMobi ci siamo posti l’obiettivo di trovare finalmente una soluzione a questo annoso problema.

Obiettivo: fare SEO con i video

Proviamo a fare un semplice ragionamento: se i motori di ricerca hanno lo scopo di fornire la migliore risposta per una precisa query, basterà fornirgli più informazioni possibili sui nostri video, e così saranno in grado di contestualizzarli ed indicizzare adeguatamente le nostre pagine web. Ma il video è già un contenitore di informazioni, dobbiamo solo riuscire a renderle "digeribili" ai motori di ricerca. Perché non usare la trascrizione e i sottotitoli dei video allora?

Sembra un’ottima idea, ma sappiamo bene che trascrivere ogni singolo video prodotto da una testata editoriale è un'impresa titanica. Sbobinare 10 minuti di intervista richiede circa 40 minuti di lavoro, e se applichiamo questo calcolo a tutte le ore di video prodotte da una testata editoriale media comprendiamo immediatamente l'enorme difficoltà a cui vanno incontro i professionisti. Per questo motivo non sempre troviamo i video opportunamente sottotitolati e/o con la dovuta trascrizione. E se così da un lato si riducono i costi di produzione, dall'altro si penalizza il rendimento SEO delle pagine

Come possiamo allora mantenere bassi i costi di produzione e raggiungere i nostri obiettivi SEO con i video?

Soluzione: Wubtitle

La nostra soluzione si concentra su questi aspetti: Wubtitle permette ai professionisti di contenere i costi di produzione migliorando contemporaneamente le performance SEO delle pagine web trascrivendo e sottotitolando automaticamente i video. Vediamo nel dettaglio di cosa si tratta.

 

Logo Wubtitle

 

Cos’è Wubtitle

Wubtitle è un plugin per WordPress che permette la conversione automatica da video a testo, ed è pensato per le numerose categorie di professionisti che quotidianamente hanno a che fare con le noiose e dispendiose trascrizioni video, o per chi semplicemente fino ad ora ci aveva rinunciato. Questi professionisti potranno adesso ottenere facilmente trascrizioni automatiche ed aggiungere i sottotitoli ai loro video con un semplice click, risparmiando tempo e denaro da poter impiegare in attività più importanti.

Come funziona Wubtitle

Wubtitle sfrutta la potenza degli algoritmi di Machine Learning di Amazon Transcribe per generare delle trascrizioni video che hanno una precisione quasi umana. Se il video contiene diversi parlanti (ad esempio un'intervista), li individua, inserisce dei tag nel testo per differenziarli, e semplifica moltissimo il lavoro di editing della trascrizione. Ma come si usa Wubtitle?

Tutorial: come si usa Wubtitle

Per utilizzare Wubtitle è sufficiente caricare un video sulla media library di WordPress o linkare un video YouTube. A questo punto sarà possibile:

  • Generare automaticamente i sottotitoli del video
  • Generare automaticamente la trascrizione del video e modificarla
  • Estrarre i sottotitoli del video YouTube e convertirli in testo

Ecco una breve guida illustrata che mostra tutti gli step per ottenere sottotitoli e trascrizioni.

1. Carica il tuo video su WordPress o incolla l'url del video YouTube

Wubtitle video-to-text tutorial - Step 1: carica il tuo video

2. Genera i sottotitoli del video

 

Wubtitle video-to-text tutorial - Step 2: genera i sottotitoli

3. Attiva i sottotitoli e genera la trascrizione

Wubtitle video-to-text tutorial - Step 3: attiva i sottotitoli e genera la trascrizione

4. Modifica la trascrizione o pubblica direttamente il post

Wubtitle video-to-text tutorial - Step 4: modifica la trascrizione o pubblica direttamente il post

Perché dovresti usare Wubtitle

Se osserviamo l'andamento del mercato dei contenuti video scopriamo che il video si è definitivamente affermato come strumento di marketing e con ottime probabilità verrà utilizzato sempre di più con il passare del tempo.  In effetti sarebbe assurdo pensare il contrario: il progresso tecnologico in campo di connettività è inarrestabile e la velocità di download è destinata a crescere. Risultato? Scaricare video in alta definizione diventerà sempre più facile, e questo non potrà che incoraggiarne un uso sempre più ampio.

Il grafico in basso sembra confermare le nostre argomentazioni: secondo una recente indagine di Wyzowl 

  • L'85% delle imprese utilizza i video come uno strumento di marketing. Nel 2019 era l'87%, nel 2018 l'81%, nel 2017 il 61% e nel 2016 il 61%.
  • Il 99% dei professionisti che usano i video afferma che continuerà ad utilizzarli nel 2020
  • Il 92% dei professionisti che usano i video sostiene che siano un importante parte della loro strategia di marketing.

Grafico - trend del mercato video 2016-2020

Il video continua a essere uno strumento straordinariamente popolare tra gli esperti di marketing, nonostante un leggero calo nell'utilizzo dal 2019. Ci aspettiamo di vedere un rimbalzo nell'utilizzo dei video nel 2021, dato il numero quasi unanime di esperti di marketing che intendono continuare a utilizzarlo (99%) e che lo ritengono una parte "importante" della loro strategia di marketing (92%).

Wyzowl - The State of Video Marketing 2020

I video sono dunque un elemento essenziale per le strategie di Lead Generation e Content Marketing e continueranno ad esserlo in futuro. Da questo punto di vista, Wubtitle si presenta dunque come uno strumento imprescindibile per chiunque segua un modello di business fondato sul marketing dei contenuti e sull'editoria digitale. E nel percorso che porta i nostri contenuti ai nostri utenti, la SEO è una necessaria compagna di viaggio.

Scarica Wubtitle

Per saperne di più e scaricare Wubtitle vai al sito ufficiale.

CTMobi è AWS Partner

Costruiamo insieme il tuo successo


Smart Working: 5 servizi AWS per vincere il lockdown

Oggi più che mai il digitale si sta rivelando un'ancora di salvezza per il mondo del lavoro, oltre che importante veicolo di innovazione. In questo inedito scenario pandemico infatti, lo Smart Working ha aiutato e sta aiutando le imprese a limitare i danni economici derivanti dal lockdown di inizio marzo, ed è plausibile che l'adozione di massa di questo modello organizzativo produca effetti permanenti nell'assetto dei futuri rapporti di lavoro.

Come prepararsi dunque al cambiamento?

In questo articolo parleremo di Smart Working, dei suoi punti di forza e delle sue debolezze, e dei principali servizi cloud AWS che permettono di affrontare con semplicità e sicurezza la virtualizzazione dell’ambiente lavorativo.

Smart Working: un fenomeno inarrestabile

“Lo Smart Working non è solo una moda, è un cambiamento che risponde alle esigenze delle persone, delle organizzazioni e della società nel suo complesso, e come tale è un fenomeno inarrestabile. La dinamica con cui sta crescendo nel nostro Paese tuttavia, non è abbastanza veloce”.

-Mariano Corso, Responsabile Scientifico dell’Osservatorio Smart Working del Politecnico di Milano.

Quando sono state messe nero su bianco queste parole nell'ottobre 2019, nessuno poteva certo prevedere l’attuale pandemia. Il Coronavirus sta infatti cambiando le nostre abitudini lavorative ad un ritmo che non pensavamo possibile fino a pochi mesi fa. Ed il lessico militare utilizzato oggi per descrivere lo scenario pandemico può estendersi fino alla corsa agli armamenti, in questo caso una vera e propria corsa agli strumenti dello smart working.

Come in tempi di guerra infatti, questa corsa sta coinvolgendo la totalità degli attori economici ed istituzionali del paese, con conseguenze direttamente calcolabili anche dall'impatto che sta già avendo sulla banda internet.

Ma cos’è esattamente lo Smart Working?

Facciamo qualche precisazione prima di procedere oltre.

Cos’è lo Smart Working

Lo Smart Working è la possibilità di lavorare:

  • da qualsiasi posizione;
  • ad orari flessibili;
  • con degli obiettivi.

L'ultimo punto fa la differenza e lo distingue dal remote working o telelavoro, ma entrambi i modelli organizzativi richiedono strumenti simili: un pc ed una connessione ad internet come minimo indispensabile.

Ma quali sono i vantaggi dello Smart Working?

Lavorare in Smart Working
Lavorare in Smart Working

Vantaggi e criticità per manager e lavoratori

Come possiamo facilmente intuire, la capacità di convertire i rapporti di lavoro tradizionali in questo modello più flessibile si sta rivelando cruciale per le imprese e per la loro business continuity. Ma questa conversione non è necessariamente semplice ed immediata, come ci mostrano alcuni dati da un report dell'Osservatorio Smart Working del Politecnico di Milano.

Se da un lato lo Smart Working presenta dei chiari vantaggi

Per le organizzazioni
  • il miglioramento dell’equilibrio fra vita professionale e privata (46%)
  • la crescita della motivazione e del coinvolgimento dei dipendenti (35%).
Per i lavoratori
  • il 76% degli smart worker si dice soddisfatto della sua professione, contro il 55% degli altri dipendenti;
  • uno smart worker su tre si sente pienamente coinvolto nella realtà in cui opera e ne condivide valori, obiettivi e priorità, contro il 21% dei colleghi;

Dall'altro troviamo anche alcune criticità

Per i manager
  • difficoltà nel gestire le urgenze (per il 34% dei responsabili);
  • nell'utilizzare le tecnologie (32%);
  • nel pianificare le attività (26%).
Per i lavoratori
  • la percezione di isolamento (35%);
  • le distrazioni esterne (21%);
  • i problemi di comunicazione e collaborazione virtuale (11%);
  • la barriera tecnologica (11%).

Come superare dunque queste criticità e sfidare la pandemia?

5 servizi AWS per lo Smart Working

Amazon Web Services, leader mondiale nella fornitura di servizi di cloud computing, non poteva certo tenersi fuori dall'offerta di servizi per lo Smart Working. Nel suo ventaglio di soluzioni cloud troviamo dei servizi innovativi ed efficaci che possono aiutarci a superare molte delle criticità viste sopra e costruire il nostro ambiente di lavoro remoto in sicurezza. È Amazon stessa ad utilizzare alcuni di questi servizi, inizialmente sviluppati per esigenze interne e commercializzati soltanto dopo.

Ma passiamo ad analizzarli singolarmente per comprendere cosa sono e come possono aiutarci.

WorkSpaces

Il primo servizio AWS per lo Smart Working che analizzeremo è Amazon WorkSpaces, un servizio di Desktop-as-a-Service che permette lo streaming di desktop virtuali Windows o Linux su:

  • PC;
  • Mac;
  • iPad;
  • Kindle Fire;
  • Tablet Android;
  • Chromebook;
  • Browser web (Firefox e Chrome).

Come funziona

Basta installare sul proprio dispositivo il client di WorkSpaces (o in alternativa un browser supportato) per iniziare ad utilizzare il desktop remoto. Questo verrà dunque trasmesso tramite il protocollo streaming PC-over-IP, o in alternativa tramite il nuovo protocollo (ancora in beta) WSP, che a differenza del primo sceglie i codec più adatti al caso analizzando la qualità della rete ed il dispositivo utilizzato per lo streaming. Per quanto riguarda lo storage, qualsiasi dato viene memorizzato direttamente sul cloud o nell'ambiente aziendale, caratteristica che permette di avere un livello di sicurezza maggiore specialmente quando si tratta di lavorare con dati sensibili.

Prezzi

Ma veniamo ai prezzi. WorkSpaces prevede due metodi di pagamento:

  • Tariffa oraria;
  • Tariffa mensile.

Mentre la tariffa oraria è orientata a casi d'uso che riguardano collaborazioni part time o a progetto, la tariffa mensile è ideale per le situazioni di lavoro continuativo e per giornate di lavoro intere.

A titolo d'esempio, i prezzi per un pacchetto Windows Standard sono di 34 dollari al mese nel caso della tariffa mensile e 0,32 dollari l'ora (più 8 dollari fissi per lo storage) nel caso della tariffa oraria.

In questa tabella vengono riassunti i prezzi per le diverse configurazioni Standard nella Region Irlanda:

StandardVolume rootVolume utentePrezzo mensilePrezzo orario
2 vCPU, 4 GiB di memoria80 GB10 GB34 USD 8 USD/mese +
0,32 USD/ora
2 vCPU, 4 GiB di memoria80 GB50 GB37 USD 11 USD/mese +
0,32 USD/ora
2 vCPU, 4 GiB di memoria80 GB100 GB42 USD 13 USD/mese +
0,32 USD/ora
2 vCPU, 4 GiB di memoria175 GB100 GB48 USD 19 USD/mese +
0,32 USD/ora

AppStream 2.0

Mentre WorkSpaces virtualizza un desktop nel cloud, AppStream 2.0 virtualizza singole applicazioni seguendo un meccanismo simile, si tratta infatti di un servizio che permette lo streaming di applicazioni desktop in modo completamente gestito.

Come funziona

Dal punto di vista dell'utilizzatore finale il funzionamento è simile a WorkSpaces. Dal punto di vista dei manager invece rappresenta una soluzione semplicissima per la distribuzione in cloud di applicazioni aziendali ai propri dipendenti Smart. Infatti, AppStream non richiede di riscrivere le proprie applicazioni, basterà semplicemente:

  • scegliere un'istanza streaming adatta;
  • installare l'applicazione su AppStream 2.0;
  • Impostare i parametri di autoscaling;
  • definire i permessi di accesso;
  • pubblicare l'applicazione.

Una volta pubblicata, l'applicazione potrà essere utilizzata dai nostri utenti tramite qualsiasi browser web o utilizzando il client di AppStream. Anche in questo caso valgono le medesime considerazioni su storage e sicurezza: utilizzando AppStream nulla viene conservato nel desktop locale.

Prezzi

Ad ogni utente viene associata un'istanza ed esistono due diversi "parchi istanze" da considerare per comprendere il pricing di AppStream:

  • parchi istanze sempre attive;
  • parchi istanze on demand.

Nel primo caso, avremo delle istanze sempre pronte a far partire la nostra applicazione in streaming, ma pagheremo per tutto il tempo in cui le istanze sono attive a prescindere dall'effettivo uso che se ne farà. Nel secondo caso, dovremo attendere qualche minuto (generalmente 1-2) per poter iniziare ad utilizzare l'applicazione in streaming, ma pagheremo solo quando l'istanza viene utilizzata.

In questa tabella vengono riassunti i prezzi in base al tipo di istanza per la famiglia Standard nella Region Irlanda:

Tipo di istanza streamingvCPUMemoria (GiB)Prezzo orario*
stream.standard medium240,11 USD
stream.standard large280,22 USD

Su AppStream 2.0 è anche possibile utilizzare delle tariffe per utente pagando la tariffa Microsoft RDS SAL di 4,19 USD per ogni utente che avvia una sessione di streaming nel corso del mese.

Connect

Se fino ad ora abbiamo parlato di servizi di virtualizzazione per desktop o singole applicazioni, con Amazon Connect cambiamo decisamente genere. Si tratta infatti di un sistema di Customer Care basato interamente sul cloud AWS. Connect è lo stesso sistema utilizzato da Amazon, dunque se anche voi siete clienti del noto e-commerce potreste già avere un'idea di come funziona dal punto di vista di un cliente finale.

Come funziona

Essendo un sistema di gestione omnichannel per clienti ed agenti, permette di avere un'unica cronologia delle interazioni per i differenti canali (voce e chat ad esempio) in una singola interfaccia. Rispetto a quanto detto sopra, probabilmente vi sarà capitato di richiedere assistenza per un articolo su Amazon e di interagire prima per telefono, poi per email, magari con agenti diversi ed avere un'esperienza lineare: non avete dovuto ripetere tutto ad ognuno di loro.

Su Connect è possibile inoltre implementare dei chatbot che sfruttano la stessa tecnologia di comprensione del linguaggio naturale che utilizza Alexa, e questo rende molto più semplice la gestione delle conversazioni perché il chatbot è in grado di dedurre la richiesta del cliente, togliendoci il peso di analizzare singolarmente ogni messaggio.

Prezzi

Oltre alla tariffa base per il servizio Connect di 0,018 dollari al minuto e 0,004 dollari a messaggio per la chat, dobbiamo tenere in considerazione:

  • Numeri di selezione passante;
  • Numeri verdi.

Per questi numeri, pagheremo un costo fisso giornaliero ed un costo al minuto differente per chiamate in entrata/uscita ed in base al paese da cui/in cui si riceve/effettua la chiamata.

Per semplicità, riporto qui lo stesso esempio presente nella pagina dei prezzi di Connect:

Esempio vocale

Un utente finale effettua una chiamata con un numero di selezione passante tedesco nella Region Francoforte, alla quale risponde un agente sul softphone Amazon Connect. La chiamata dura 7 minuti.

A questa chiamata si applicano 3 tariffe differenti:

  1. il costo di utilizzo del servizio Amazon Connect, in base alla durata della chiamata con il cliente finale: 0,018 dollari al minuto per 7 minuti = 0,126 dollari
  2. la tariffa giornaliera per l'utilizzo di un numero di selezione passante in Germania: 0,10 dollari al giorno per 1 giorno = 0,10 dollari
  3. infine la tariffa al minuto per una chiamata in entrata su numeri di selezione passante in Germania: 0,0040 dollari al minuto per 7 minuti = 0,0280 dollari

Il costo totale fatturato per la chiamata sarà quindi di 0,25 dollari (a cui si aggiungono eventuali tasse, tariffe e costi aggiuntivi).

Chime

Arriviamo adesso al servizio dedicato alla collaborazione dei professionisti, Amazon Chime. Si tratta di un sistema di comunicazione unificato che permette di chattare, fare meeting voce e videoconferenze all'interno di una singola applicazione multipiattaforma.

Come funziona

Parliamo di "sistema di comunicazione unificato" perché oltre ai tradizionali canali di comunicazione basati su internet come la chat e le videoconferenze, grazie alla funzione Business Calling è possibile effettuare/ricevere telefonate ed sms anche da/verso la rete telefonica pubblica. Chime diventa così un sistema centralizzato in cui gestire tutta la comunicazione aziendale, sbarazzandoci della confusione che viene generata dal moltiplicarsi dei canali comunicativi, oltre che dall'inefficienza di alcuni di questi.

Prezzi

Anche in questo caso le tariffe sono basate sul consumo effettivo e le attuali licenze prevedono soltanto due tier:

  • Basic;
  • Pro.

Mentre gli utenti Basic possono:

  1. Partecipare ai meeting;
  2. Fare videoconferenze 1 to 1;
  3. Condividere lo schermo;
  4. Usare la chat.

Gli utenti Pro, oltre ad avere le feature del Basic tier possono anche:

  1. Programmare ed ospitare meeting;
  2. Registrare i meeting;
  3. Fare videoconferenze con più partecipanti.

Il pagamento è previsto soltanto per gli utenti Pro e solo per i giorni in cui utilizzano effettivamente la piattaforma, per un totale di 3 dollari al giorno ed un massimo di 15 dollari al mese. Telefonate ed sms a numeri sulla rete pubblica vengono poi fatturati a parte con tariffe a consumo che puoi trovare sulla pagina dei prezzi del servizio.

Client VPN

Infine, parliamo di Client VPN, un servizio che permette l'accesso alle risorse aziendali in locale o ospitate sul cloud AWS in modo sicuro ed affidabile.

Come funziona

Client VPN gestisce in cloud le connessioni alle risorse aziendali, non ha quindi le limitazioni di una soluzione hardware. In poche parole, la sua capacità si adatta elasticamente in base al numero di connessioni richieste dagli utenti. Proprio in virtù di questa sua caratteristica, Client VPN è la soluzione ideale per situazioni di Smart Working in cui il numero di connessioni VPN può crescere rapidamente ed in modo imprevedibile, e garantisce dunque l'accesso alle risorse anche in condizioni di stress.

Prezzi

Il pricing di Client VPN è molto semplice: prevede il pagamento di 0,10 dollari l'ora per ogni endpoint assegnato e 0,05 dollari l'ora per ogni connessione tramite il Client.

Ti riporto qui un esempio prendendo spunto dalla relativa pagina dei prezzi.

Esempio prezzo Client VPN

Crei un endpoint negli Stati Uniti orientali e gli associ una sottorete. Si creano 10 connessioni Client all'endpoint attive per un'ora.

Il costo totale sarà pari a 0,60 USD:

  • 0,10 USD per l'endpoint;
  • 0,50 per le 10 connessioni stabilite tramite Client.

Conclusioni

Gestire le urgenze, pianificare le attività, problemi di comunicazione e barriere tecnologiche: AWS ti permette di superare tutte queste difficoltà ed implementare un ambiente di Smart Working semplice, sicuro ed all'avanguardia. Sbarazzati degli obsoleti sistemi on-premise e goditi il meglio del cloud ad un prezzo accessibile ed a misura delle tue esigenze.

Hai bisogno di una consulenza sullo Smart Working? Compila il form e contattaci.

 

CTMobi è AWS Partner

Costruiamo insieme il tuo successo


Costi AWS: come tenerli sotto controllo ed evitare sprechi

Il cloud computing ci offre la possibilità di acquistare risorse hardware a consumo, esattamente come il servizio elettrico o quello idrico. Ma cosa succede se dimentichiamo il rubinetto aperto? Un’attenta gestione delle risorse cloud è fondamentale per evitare brutte sorprese alla fine del mese. In questo articolo parleremo dei principali modelli di pagamento e degli errori più comuni da evitare per tenere sotto controllo i costi AWS.

Gestire i costi AWS

A differenza dei tradizionali metodi di approvvigionamento di risorse informatiche, il cloud è dinamico e si adatta al tipo di utilizzo di cui hai bisogno in tempo reale. A questo proposito si parla di on-demand: paghi solo per le risorse che utilizzi, quando le utilizzi, senza contratti a lungo termine ed impegni iniziali. Questo self-service di risorse è la prima delle cinque caratteristiche essenziali del cloud computing.

Nonostante questo, anche il cloud ci permette di rinunciare ad un pizzico di flessibilità in cambio di un minore costo. La pratica di "acquisto in blocco" è la soluzione ideale per tutte quelle imprese con bisogni di risorse fissi o prevedibili che mirino ad una precisa certezza di costo oltre che a risparmiare.

Ma come gestire i costi con il cloud computing?

Diversi modelli di pagamento

A questo scopo, Amazon ci mette a disposizione diversi modelli di pagamento per le istanze EC2 che ci permettono di gestire al meglio i costi AWS in funzione delle più disparate necessità aziendali. Attraverso un mix di soluzioni a breve e lungo termine possiamo gestire ogni tipo di workload nel modo più flessibile e dinamico possibile. La risposta alla nostra domanda precedente risulta quindi semplice: per gestire i costi cloud bisogna prima di tutto conoscerli. Partiamo dalle basi allora.

Esistono 5 diversi modelli di pagamento per le istanze EC2:

  • On-demand;
  • Istanze riservate;
  • Istanze spot;
  • Host dedicati;
  • Saving Plans.

Ma quali sono le differenze?

Nel resto dell'articolo li analizzeremo singolarmente per capire come funzionano e se possono aiutarci a contenere i costi AWS. Prima di tutto però, è bene precisare che nonostante i nomi sembrino suggerire il contrario, quelli che seguono sono concetti di fatturazione, e non tipi di istanza.

Detto questo, iniziamo a parlare del modello on-demand.

Istanze on-demand

  • Adatte a workload imprevedibili
  • Paghi solo quello che usi
  • Nessun impegno a lungo termine
  • Zero costi iniziali

Grafico istanze on-demand

 

 

 

 

 

 

È il modello di pagamento di cui abbiamo già accennato, comporta zero costi iniziali e nessun impegno a lungo termine. Con l'on-demand AWS ti addebita la capacità di calcolo su base oraria, e puoi sempre aumentare o diminuire la potenza in base alle necessità della tua applicazione.

Questo modello di pagamento, oltre ad essere un ottimo modo di testare le istanze EC2 per la prima volta, è particolarmente indicato per quelle applicazioni che non richiedono carichi di lavoro fissi. In questi casi infatti l'on-demand rappresenta la soluzione ideale per usufruire di un'infrastruttura resiliente mantenendo contemporaneamente costi bassi e zero impegni a lungo termine.

Ma come abbiamo detto poco sopra, possiamo contenere i costi AWS rinunciando ad un pizzico di questa flessibilità.

Scopriamo dunque le istanze riservate.

Istanze riservate

  • Adatte a workload fissi
  • Risparmi fino al 75%
  • Ti impegni per 1 o 3 anni
  • Puoi anticipare il pagamento

Grafico istanze riservate

A differenza delle istanze on-demand, le istanze riservate permettono di risparmiare fino al 75% sui costi AWS con l'impegno di utilizzare una determinata configurazione hardware per periodi di uno o tre anni. Queste istanze, o meglio questo modello di pagamento, offre diverse opzioni adatte a diversi casi d'uso.

Più precisamente, con le istanze riservate possiamo scegliere:

  • Pagamento - senza anticipo, con anticipo parziale, con anticipo totale;
  • Termine - un anno, tre anni;
  • Attributi - piattaforma, tenancy, famiglia di istanza, tipo di istanza;
  • Portata - regionale, zonale;
  • Classe - standard, convertibile.

Istanze riservate Standard

Relativamente alla classe, le istanze riservate standard offrono il maggior livello di sconto al minor livello di flessibilità. Una volta acquistata un'istanza riservata standard infatti non potrai apportare grandi modifiche, ma sarai comunque flessibile sulla sua dimensione e sulla sua portata. Potrai quindi modificarla scegliendone una più grande o più piccola all'interno della stessa famiglia, e cambiare la portata da regionale a zonale. Inoltre, nel caso in cui non avessi più bisogno dell'istanza, potrai sempre rivenderla all'interno di un apposito Marketplace.

Istanze riservate Convertibili

Rispetto alle Standard invece, le istanze riservate Convertibili permettono una maggiore flessibilità: risparmiando qualcosa in meno, hai la possibilità di cambiare l'istanza con una diversa a livello di dimensione, famiglia, piattaforma e tenancy. Se non ti senti a tuo agio con il lock in delle Standard e vuoi comunque contenere i costi aws, questa è la scelta che fa per te. A differenza delle Standard però, le Convertibili non possono essere rivendute nel Marketplace, quindi valuta attentamente prima di scegliere questo modello di pagamento.

Concentriamoci adesso su quello che più ci interessa, ovvero contenere i costi AWS. La tabella che segue confronta i prezzi tra le istanze riservate standard e le istanze on-demand. In questo modo possiamo valutare nel dettaglio il livello di sconto offerto dalle istanze riservate.

On-demand vs Istanze Riservate Standard

Tipo di istanzaModello di pagamentoTipo di anticipo1 hr/$*AnticipoCosti mensiliCosti totali
t3a.largeOn-demand-0,0816-59,57714,82
Riservata Standard
1 anno
-0,0581-42,41508,92
Parziale0,055324220,22484,64
Totale0,0542475-475

*i prezzi si riferiscono alla Region EU Ireland

Come è evidente dalla tabella, il prezzo per le istanze riservate è significativamente più basso rispetto al prezzo on-demand. Nel caso del pagamento anticipato totale, parliamo di un risparmio del 33,5%.

Inoltre, se volessimo allungare l'impegno fino a tre anni potremmo risparmiare ulteriormente:

Tipo di istanzaModello di pagamentoTipo di anticipo1 hr/$*AnticipoCosti mensiliCosti totali
t3a.largeOn-demand-0,0816-59,572144,45
Riservata Standard 3 anni-0,0411-301080
Parziale0,038050013,87999,32
Totale0,0357393-939

*i prezzi si riferiscono alla Region EU Ireland

In questo caso, scegliendo l'anticipo totale il risparmio diventa addirittura di oltre il 56,2%.

In sintesi: maggiore è l'impegno, maggiore è lo sconto che viene applicato, quindi se fai un uso costante di risorse non puoi non valutare l'acquisto un'istanza riservata. Ad ogni modo, scegliere un'istanza riservata non ti impedirà di acquistare istanze on-demand per altri carichi di lavoro, tieni a mente che le possibilità di mix tra i diversi modelli di pagamento sono infinite.

Passiamo ora ad analizzare le istanze Spot.

Istanze Spot

  • Adatte a workload non critici
  • Risparmi fino al 90%
  • AWS può spegnerle senza preavviso
  • Decidi un prezzo massimo

Grafico istanze spot

Le istanze Spot sono un caso particolare: si tratta di istanze EC2 inutilizzate che AWS può spegnere in qualsiasi momento e senza preavviso, ma che ti permettono di risparmiare fino al 90% rispetto alle istanze on-demand.

Sono indicate per casi d'uso specifici, ad esempio per esigenze di elaborazione urgenti o per workload non critici. In questi casi, le istanze spot possono essere un ottimo modo di tagliare i costi AWS pagando soltanto una frazione del prezzo on-demand.

Il prezzo delle istanze spot viene definito "prezzo spot", ed è stabilito da AWS sulla base di diversi criteri, tra cui la disponibilità di istanze in una specifica Availability Zone. Ma sei tu a stabilire quanto sei disposto a pagare per una di queste istanze, impostando un'offerta di prezzo massimo. Solo se la tua offerta supera il prezzo spot -e se c'è disponibilità- puoi aggiudicarti queste istanze.

Come puoi immaginare, il prezzo spot è costantemente variabile. Ad esempio, nel momento in cui scrivo, il prezzo spot per un'istanza t3a.large è di $0.0245 all'ora, con uno sconto del 69,9% rispetto al prezzo on-demand di $0,0816.

Al contrario della volatilità delle Spot troviamo gli Host dedicati.

Host dedicati

Gli host dedicati si differenziano dagli altri modelli di pagamento perché sono basati su server EC2 fisici in cui puoi utilizzare le tue licenze software.

Puoi acquistarli pagandoli al prezzo on-demand, su prenotazione o come Saving Plans, di cui parleremo tra poco. Quando si acquista in modalità di prenotazione, viene fatturata ogni ora dell’intero periodo selezionato -uno o tre anni- indipendentemente dall'uso effettivo delle istanze all'interno dell'host.

Arriviamo infine ai Saving Plans.

Saving Plans

  • Adatte a workload fissi
  • Risparmi fino al 72%
  • Semplificano le istanze riservate
  • Si applicano anche a Fargate e Lambda

Grafico Saving Plans

Saving Plans è un modello di prezzi flessibile che si pone l'obiettivo di semplificare l'acquisto di istanze riservate. È stato introdotto di recente, e sembra che AWS spinga gli utenti verso l'uso di questo nuovo modello di pagamento nonostante le istanze riservate restino ancora disponibili.

Con i Saving Plans, anziché impegnarti per preciso un consumo di risorse ti impegni per una precisa spesa oraria, sempre in termini di uno o tre anni. Le risorse che utilizzi e che ricadono entro i parametri del tuo Saving Plan vengono automaticamente fatturate al prezzo scontato, mentre quelle che superano la soglia vengono fatturate al normale prezzo on-demand.

Esistono due tipi di Saving Plans:

  • EC2 Saving Plans;
  • Compute Saving Plans.

Vediamo quali sono le differenze.

EC2 Saving Plans

Offrono sconti fino al 72% rispetto al prezzo on-demand e possono essere paragonati alle istanze riservate Standard. Rispetto a queste però, con gli EC2 Saving Plans puoi modificare le istanze a livello di sistema operativo e tenancy, oltre che di grandezza dell'istanza. 

Compute Saving Plans

Offrono sconti fino al 66% e possono essere paragonati alle istanze riservate Convertibili, trovando qui importanti differenze. Con i Compute Saving Plans possiamo infatti modificare le nostre istanze a livello di grandezza, famiglia, sistema operativo, tenancy e soprattutto Region. Ad esempio, puoi cambiare la tua istanza da una famiglia ad un'altra e spostarla da una Region ad un'altra continuando ad usufruire dello stesso sconto. Oltretutto, i Compute Saving Plans si applicano anche ad AWS Fargate ed AWS Lambda.

Proviamo ora a vedere nel dettaglio quanto incidono gli EC2 Saving Plans sui costi AWS.

On-demand vs EC2 Saving Plans

Tipo di istanzaModello di pagamentoTipo di anticipo1 hr/$*AnticipoCosti mensiliCosti totali
t3a.largeOn-demand-0,0816-59,57714,82
EC2 Saving Plans 1 anno-0,0581-42,41508,92
Parziale0,0553242,2120,22484,85
Totale0,0542474,79-474,79

*i prezzi si riferiscono alla Region EU Ireland

È facile notare come gli sconti su EC2 Saving Plans siano molto simili a quelli delle istanze riservate Standard. E con un impegno triennale la situazione non cambia.

Tipo di istanzaModello di pagamentoTipo di anticipo1 hr/$*AnticipoCosti mensiliCosti totali
t3a.largeOn-demand-0,0816-59,57714,82
EC2 Saving Plans 3 anni-0,0411-301080
Parziale0,0380499,3213,87998,64
Totale0,1071938,2-938,2

*i prezzi si riferiscono alla Region EU Ireland

Anche in questo caso infatti gli sconti sono pressoché identici.

Sta dunque all'utente, dopo un'attenta valutazione o con la consulenza di un AWS Partner, stabilire quale sia la migliore strategia di contenimento dei costi AWS in base alle proprie necessità.

Dopo aver analizzato i diversi modelli di pagamento, vediamo quali sono gli errori più comuni su AWS

Errori comuni da evitare

Oltre ad un'attenta gestione dei modelli di pagamento, esistono diversi errori comuni che possiamo evitare per contenere i costi AWS. Qui riprendiamo parte dell'articolo di CloudAcademy escludendo i modelli di pagamento, che abbiamo già dettagliatamente trattato.

Overprovisioning

Grafico Overprovisioning

Ogni infrastruttura ha le sue specifiche caratteristiche, e solo tu e la tua organizzazione sapete di quante e quali istanze avete bisogno. Le istanze ottimizzate per il compute, per la memoria o lo storage costano necessariamente di più di quelle per scopi generici. Assicurati di non sovradimensionare le risorse per il tuo specifico progetto. E ricorda: utilizzare istanze sovradimensionate ti costerà caro; usare troppe istanze ti costerà caro; lasciare in esecuzione delle istanze inutilizzate ti costerà caro.

Fare troppi snapshot

Fare troppi snapshot - illustrazioneFare il backup dei dati non è solo una cosa intelligente da fare, molto spesso è una necessità. Ma gli snapshot EBS dovrebbero essere fatti con moderazione, o rischi di trovarti con un numero di snapshot tale da far lievitare esponenzialmente i costi per lo storage. Assicurati di avere una strategia di backup degli snapshot che utilizzi le regole di ciclo vita di Amazon S3 e che sia adatta ai tuoi bisogni.

Elastic IP non allocati

AWS fornisce gratuitamente un Elastic IP per istanza, ma ti vengono addebitati tutti gli Elastic IP aggiuntivi ad un prezzo orario. Per assicurare un uso efficiente degli Elastic IP -che sono una risorsa limitata- AWS impone un piccolo pagamento orario anche sugli Elastic IP non associati ad un’istanza o quando sono associati ad un’istanza inattiva o ad un network interface scollegato. Quindi assicurati di non mantenere, e pagare, questi Elastic IP inutilmente.

Non usare CloudWatch

CloudWatch è un servizio di monitoraggio delle risorse AWS. Puoi usare CloudWatch per raccogliere e tracciare metriche, monitorare log ed impostare allarmi. Puoi impostare allarmi su ognuna delle metriche tracciate per ricevere notifiche o eseguire automaticamente altre azioni, ad esempio spegnere istanze EC2 sottoutilizzate o non utilizzate, quando la metrica supera la soglia che hai specificato. Se hai un’infrastruttura complessa di qualsiasi genere su AWS, devi assolutamente utilizzare CloudWatch per gestirla.

 

CTMobi è AWS Partner

Contattaci e scopri quanto puoi risparmiare sul conto AWS



AWS Milano

AWS Milano: una nuova region per ripartire in cloud

AWS ha finalmente aperto la sua Region in Italia (Milano), nome in codice eu-south-1, che conta ben tre data center (eu-south-1a, eu-south-1b, eu-south-1c) che si aggiungono alle cinque edge location già presenti da qualche anno sul nostro territorio. Aziende ed utenti italiani potranno adesso godere di migliori performance in termini di banda e latenza per tutti i servizi che sfruttano il cloud computing di AWS. In questo articolo parleremo di VOIP, Gaming e Streaming e di come la nuova region AWS Milano può migliorarne le prestazioni.

AWS Milano: sicurezza, conformità, latenza

“Amazon Web Services (AWS) annuncia la disponibilità immediata della regione AWS Europa (Milano), prima regione in Italia lanciata da un provider di cloud principale”.

Con queste parole si apre il comunicato che annuncia l’apertura della region AWS Milano, pubblicato il 27 aprile scorso sul blog ufficiale di AWS. Nel comunicato scopriamo anche che la Region comprende tre zone di disponibilità, il che la rende idonea ai requisiti di ridondanza previsti dalla maggior parte dei servizi AWS. Questa nuova apertura porta il colosso del cloud ad avere un totale di 76 zone di disponibilità distribuite in 24 aree geografiche nel mondo.

Miguel Alava, managing director di Amazon Web Services
Miguel Alava, managing director di Amazon Web Services

"Abbiamo deciso di venire in Italia anche su spinta dei clienti stessi. Ci sono diverse motivazioni per cui abbiamo deciso di costruire il data center. La prima sembra una cosa irrazionale, ma i nostri utenti avevano bisogno di sentire Amazon Web Services più vicina. È un fattore psicologico, le persone si sentono più a loro agio se sanno che i loro dati non sono archiviati lontano".

-Miguel Alava, managing director di Amazon Web Services

Secondo Miguel Alava, sono tre i motivi che avrebbero spinto l’azienda ad installare un data center nel Belpaese.

  1. Psicologico, sapere che i dati sono archiviati più vicino mette le persone a proprio agio;
  2. Normativo, permettere alle aziende di rispettare i certificati di conformità che prevedono la presenza dei dati sul suolo nazionale;
  3. Tecnico, diminuire ulteriormente la latenza.

Concentriamoci su quest'ultimo motivo e vediamo cos'è la latenza e perché è importante per le nostre applicazioni.

Cos'è la latenza

Uno schema che evidenzia la differenza tra banda e latenza ed i componenti che le influenzano.
Banda, latenza ed i componenti che le influenzano.

Introduciamo il concetto di latenza riportando la definizione data da Wikipedia:

"La latenza (o tempo di latenza, in inglese latency), in informatica e telecomunicazioni, indica in un sistema di elaborazione dati e o di telecomunicazioni, l'intervallo di tempo che intercorre fra il momento in cui viene inviato l'input/segnale al sistema e il momento in cui è disponibile il suo output. In altre parole, la latenza non è altro che una misura della velocità di risposta di un sistema".

Si tratta dunque di una misura che calcola la velocità con cui due sistemi (ad esempio un PC ed un server) riescono a comunicare tra di loro tramite internet. La latenza viene misurata in millisecondi, ed è possibile misurarla utilizzando ad esempio il programma "ping" dal prompt dei comandi di Windows o da qualunque altro sistema operativo.

Ping su www.google.it

Ping Google
Ping Google

In questo esempio ho misurato la latenza tra il mio computer ed il motore di ricerca Google, che si attesta mediamente a 34 millisecondi. In sintesi, più due sistemi sono distanti e più sarà alta la latenza, perché il segnale dovrà percorrere tanta più strada quanta più è la distanza che li separa.

Un esempio particolarmente efficace nel mostrare l'impatto positivo di una bassa latenza lo troviamo nel video che segue, in cui possiamo vedere alcuni musicisti suonare contemporaneamente da Londra, Bristol e Birmingham come se si trovassero sullo stesso palco. Questa esperienza "quasi dal vivo" è possibile grazie ai bassi livelli di latenza ottenuti dalla convergenza di 5G e fibra ottica.

Ma quali sono gli ambiti in cui è cruciale avere una bassa latenza?

Quando la latenza fa la differenza

Esistono alcuni casi in cui una bassa latenza è di fondamentale importanza perché influisce direttamente sulla user experience del servizio che utilizziamo: chiamate VOIP e Gaming sono i casi più comuni. Vediamo perché.

VOIP

Skype, Meet, Amazon Chime ed altri strumenti di Smart Working sfruttano il protocollo VOIP (Voice-over-Internet-Protocol). In altre parole, il segnale voce passa in forma di pacchetti tramite la rete internet.

Latenza nel VOIP

Capita spesso di sovrapporsi durante una chiamata Skype, molto meno spesso in una conversazione faccia a faccia. Ma perché succede? Perché un alto livello di latenza impedisce alla nostra voce di arrivare "nel momento giusto", così come farebbe nelle conversazioni dal vivo, generando così confusione nel turn-taking dei parlanti. Un basso livello di latenza rende invece la comunicazione VOIP molto più fluida e simile ad una discussione faccia a faccia, o come nel video sopra, permette ai musicisti di suonare insieme da città diverse.

Gaming

Un altro importante settore in cui è importante avere una latenza bassa è il Gaming. Il termine "laggare" è ormai entrato di diritto nel nostro vocabolario come un prestito linguistico, e deriva dal termine inglese "lag" che vuol dire "ritardo".

Latenza nel Gaming

Basti pensare che "lag" può anche coincidere con "latency gap" per capire che si tratta di questioni strettamente collegate. Immaginiamo di aprire un gioco online in cui più giocatori sono presenti all'interno di una stessa stanza virtuale. Una connessione con una latenza alta ci farà vedere gli altri giocatori "teletrasportarsi" da un punto ad un altro improvvisamente. E non in virtù di qualche super potere, ma a causa del ritardo con cui la nostra connessione segue i movimenti degli altri giocatori nella mappa virtuale. Oltre al fenomeno del "teletrasporto", questo simpatico video ci mostra i più comuni effetti del lag evidenziando il ritardo tra la nostra azione e la reazione del gioco in una parodia della vita reale.

Si può dire quindi che la latenza è tanto più importante quanto più il servizio che usiamo serve a simulare aspetti della vita offline, in cui non ci aspettiamo ritardi ed in cui quei pochi millisecondi fanno la differenza.

Quando la banda fa la differenza

In altri casi, la vicinanza fisica di un data center comporta una maggiore stabilità e qualità del servizio perché permette di usufruire di una larghezza di banda maggiore. Come si evince dallo schema utilizzato per introdurre il concetto di latenza, la larghezza di banda viene influenzata dalla quantità di nodi che un segnale deve attraversare per arrivare al destinatario. Il caso più comune in questo senso è sicuramente lo Streaming, servizio a cui siamo ormai molto affezionati.

Streaming

Lo Streaming è la trasmissione continua di un file audio/video da un server ad un client, ad esempio il nostro PC o una Smart TV. Il file in questione rimane però nella memoria del server, che ne invia solo pochi pacchetti alla volta al nostro dispositivo, permettendoci di riprodurre il contenuto come se lo avessimo per intero nella nostra memoria.

Banda e Streaming

La distanza fisica tra il nostro client ed il server in cui è contenuto il file audio/video fa una grande differenza. Se ci trovassimo a Milano e volessimo riprodurre un video che sta su un server negli USA, il file dovrebbe percorrere più di seimila chilometri per arrivare a destinazione, con maggiori possibilità di trovare "traffico", ovvero intasamenti della rete. Anche i file quindi odiano rimanere bloccati nel traffico! Al contrario, se ci trovassimo a Milano e volessimo riprodurre un video che sta su un server della region AWS Milano, saremmo a chilometro zero, con molte meno probabilità di trovare "confusione" e quindi una maggiore larghezza di banda ed una riproduzione senza interruzioni.

Speedtest
Speedtest

Conclusioni

Con l'apertura della region AWS Milano i nostri servizi web potranno godere di prestazioni migliori sia in termini di latenza che di banda, permettendoci di avere un'esperienza molto più coinvolgente ed efficace. Le aziende che si affidano a soluzioni di collaborazione per comunicare internamente e con i clienti potranno sperimentare videoconferenze e presentazioni senza interruzioni; chi opera nel campo del gaming godrà di prestazioni sensibilmente migliori e potrà offrire ai propri utenti un'esperienza molto più reattiva; chi offre servizi in streaming potrà usufruire di una piattaforma che permette ai propri utenti di avere un'esperienza fluida e senza interruzioni.

 

CTMobi è AWS Partner

CTMobi AWS Partner
CTMobi AWS Partner

Costruiamo insieme il tuo successo

Hai bisogno di aiuto con il cloud di AWS? Contattaci.


Disaster Recovery CTMobi

Disaster Recovery: cos'è e quali soluzioni adottare

Il digitale ha rivoluzionato il nostro modo di vivere e di lavorare, ma a queste grandi novità corrispondono anche nuove sfide che non possono essere ignorate. Imparare a prevenire incidenti ed essere in grado di ritornare velocemente ad una situazione di normalità operativa in casi di errore umano, furto o catastrofe è di fondamentale importanza per le aziende. In questo senso, il cloud computing è il nostro miglior alleato nella definizione di un Disaster Recovery Plan, un piano B che ci mette al riparo da situazioni eccezionali.

Ma cos'è un Disaster Recovery Plan?

Cos'è il Disaster Recovery

Per Disaster Recovery si intende quell'insieme di procedure che ha l'obiettivo di rimettere in moto nel più breve tempo possibile la continuità aziendale, nel caso in cui un evento disastroso la interrompa.

Queste procedure vengono generalmente definite all'interno di un Disaster Recovery Plan (DRP), un documento programmatico che prevede un livello decisionale e di interazione umana soltanto minimo e che è contenuto nel più ampio Business Continuity Plan (BCP).

Qual è la differenza tra Business Continuity e Disaster Recovery?

Differenza tra Business Continuity e Disaster Recovery

La differenza tra i due termini è il risultato di un'evoluzione avvenuta nel corso del tempo.

Nei primi anni settanta, in seguito all'adozione delle tecnologie digitali da parte delle grandi organizzazioni, emerse la necessità di mettere al riparo i data center da danni accidentali e disastri. In questo periodo, il termine Disaster Recovery indicava quindi la possibilità di ritornare ad una situazione di normale operatività dopo un'improvvisa interruzione, ed in questo senso era un sinonimo di Business Continuity.

Col passare degli anni ed in seguito alle rapide evoluzioni degli anni novanta, la disciplina della Business Continuity si è differenziata dal Disaster Recovery nel senso di aver ampliato il suo ambito di adozione anche ad imprese non strettamente legate al digitale. Business Continuity significava adesso ripristinare interi processi aziendali e non più soltanto sistemi informatici e data center.

Precisato questo, possiamo definire meglio i due termini in relazione all'attuale panorama.

Business Continuity

La Business Continuity è un insieme di procedure atte a gestire eventi di qualsiasi dimensione in grado influenzare negativamente la normale continuità aziendale, ad esempio, la sostituzione di figure chiave all'interno dell'azienda. Spesso capita infatti che alcuni ruoli chiave vengano coperti da personale difficilmente sostituibile e la cui improvvisa assenza può causare interruzioni o rallentamenti nell'operatività aziendale.

Gli executive delle aziende devono dunque tenere conto anche di eventi di questo livello, ed a questo proposito il Business Continuity Plan è un documento ormai divenuto essenziale, quando non obbligatorio, per le imprese.

Disaster Recovery

Il Disaster Recovery è un insieme di procedure atte a gestire eventi ad altissimo impatto che rischiano di soffocare il motore aziendale e di comprometterne gravemente la situazione economica, ad esempio, furti, errori umani o catastrofi naturali. In quest'ultima categoria rientrano eventi come l'attentato alle Twin Towers o il terremoto del marzo 2011, che indusse le imprese giapponesi a ripensare le loro tradizionali strategie di protezione in locale portandole in cloud.

Come anticipato sopra, in un Disaster Recovery Plan il livello di interazione umana deve essere il più possibile vicino allo zero, in modo che anche personale non qualificato possa eseguire in tranquillità la procedura prevista dal piano.

Le minacce alla continuità aziendale da prevenire con un Disaster Recovery Plan
Minacce alla continuità aziendale

La redazione di questi piani prevede scrupolose analisi e valutazione dei rischi ed è definita da uno standard internazionale: l'ISO 22301.

Lo standard internazionale per la Business Continuity

Lo standard internazionale ISO 22301 descrive i requisiti che un'impresa deve soddisfare per garantire la continuità aziendale anche in seguito ad eventi in grado di minarla o interromperla. Questa norma definisce in sostanza un sistema di gestione della continuità aziendale, che nello specifico, prende il nome di Business Continuity Management System.

Possiamo sintetizzare lo standard analizzando tre dei suoi componenti:

  • La Business Impact Analysis;
  • Il Risk Assessment;
  • Il Risk Treatment.

La Business Impact Analysis stabilisce quali sono le priorità da tutelare per preservare la continuità aziendale; il Risk Assessment valuta quali sono gli eventi in grado di turbarla; il Risk Treatment definisce cosa fare per evitare le situazioni in grado di comprometterla e come agire per recuperarla nel minor tempo possibile.

Una griglia di valutazione del rischio
Una griglia di valutazione del rischio

Per una più precisa definizione dei nostri piani di Business Continuity e Disaster Recovery possiamo utilizzare alcuni indici quantitativi:

  • il Recovery Point Objective (RPO);
  • il Recovery Time Objective (RTO);
  • il Total Cost of Owenership (TCO).

È qui che, come vedremo tra poco, il cloud computing fa la differenza con i tradizionali sistemi di disaster recovery in locale.

Ma cosa sono RPO, RTO e TCO?

Cosa sono RPO, RTO e TCO

Alcuni indici che ci aiutano a definire la nostra strategia di recupero:

  • Per Recovery Point Objective si intende il "punto di ripristino" della situazione aziendale. Un momento congelato nel tempo in cui l'operatività aziendale è ad un livello standard ed in cui poter ritornare in sicurezza in caso di incidenti.
  • Per Recovery Time Objective si intende il tempo necessario affinché questa situazione venga effettivamente ripristinata.

Possiamo stabilire questi due parametri in funzione delle nostre esigenze aziendali e dei relativi costi, calcolati con il parametro TCO:

  • Per Total Cost Of Ownership si intende il costo totale dell'infrastruttura adibita al mantenimento del punto di ripristino, ovvero la duplicazione dei dati.

Per essere precisi, quest'ultimo parametro aumenta o diminuisce al variare:

  • Della vicinanza nel tempo del punto di ripristino (RPO);
  • Della velocità con cui si ha bisogno di ripristinare l'operatività (RTO).

Allo scopo di stabilire un TCO funzionale alle nostre esigenze possiamo valutare tre ulteriori parametri: MAO, MTPD ed MBCO.

Cosa sono MAO, MTPD, MBCO

Questi tre parametri ci permettono di definire il nostro piano in funzione di livelli minimi di operatività o assenza di operatività ritenuta accettabile o tollerabile. Nello specifico:

  • Il Maximum Acceptable Outage (MAO) definisce il periodo di tempo massimo ritenuto accettabile che può trascorrere in assenza di operatività aziendale.
  • Il Maximum Tolerable Period of Disruption (MTPD) definisce il tempo massimo ritenuto tollerabile che può trascorrere in assenza di operatività aziendale in caso di incidenti.
  • Il Minimum Business Continuity Objective (MBCO) definisce il livello minimo di servizio ritenuto accettabile durante un incidente per il raggiungimento degli obiettivi aziendali.

Quali sono allora i servizi che permettono un efficace piano di disaster recovery?

Disaster Recovery on-premise e in cloud

Possiamo distinguere due tipi di disaster recovery: on-premise e in cloud.

Disaster Recovery on-premise

Le soluzioni di Disaster Recovery on-premise prevedono costose repliche dei nostri server su macchine locali geograficamente distanti, che comportano costi per l'acquisto, la manutenzione e la gestione dell'hardware.

Tenendo in considerazione gli indici di cui abbiamo parlato poco sopra, possiamo dunque affermare che a fronte di RPO vicini nel tempo ed RTO contenuti, le soluzioni on-premise comportano TCO molto elevati.

Infatti, nelle soluzioni on-premise, la replica dell'ambiente di produzione viene fatta catturando degli snapshot ad intervalli regolari, "fotografie" che catturano il sistema in un dato momento.

Al fine di ridurre i costi si ricorre quindi a soluzioni con RPO distanti nel tempo, ad esempio catturando uno snapshot ogni 24, 12 o 6 ore, rinunciando a porzioni significative di dati in caso di incidenti.

Questo sistema, ormai obsoleto, è stato superato dalla tecnologia cloud.

Confronto tra Disaster Recovery on-premise ed in cloud
Confronto tra Disaster Recovery on-premise ed in cloud

Disaster Recovery in cloud

A differenza delle soluzioni on-premise, il cloud computing ci permette di configurare un sistema di Disaster Recovery con RPO vicinissimi nel tempo, RTO minimi ed un TCO molto basso.

Nello specifico, il servizio che permette di ottenere questo genere di prestazioni è CloudEndure, un servizio AWS fornito con l'aiuto di AWS Partner.

Scopriamo cos'è e come funziona.

Cos'è CloudEndure

CloudEndure è un servizio che crea una replica in tempo reale del nostro ambiente di produzione, garantendo RPO inferiori al secondo, RTO di pochi minuti e TCO inferiori del 95% rispetto alle soluzioni on-premise.

Questo vuol dire che se un guasto dovesse mettere fuori uso il nostro sito potremmo recuperarlo nello stato in cui si trovava meno di un secondo prima dell'interruzione e tornare online senza gravi danni in pochissimo tempo.

Ma come funziona CloudEndure?

Come funziona CloudEndure

Uno scherma dell'architettura Disaster Recovery di CloudEndure
L'architettura Disaster Recovery di CloudEndure

Come si evince dall'infografica, la gerarchia di CloudEndure prevede due aree:

  • Sorgente;
  • Target.

Quest'ultima viene poi suddivisa in due ambienti:

  • Staging;
  • Produzione.

Il servizio che si occupa di far comunicare le due aree è il CloudEndure Agent.

Il CloudEndure Agent

Il CloudEndure Agent è il software che replica i dati tra l'area Sorgente e l'ambiente di Staging nell'area Target.

Come abbiamo anticipato, l'Agent garantisce un RPO inferiore al secondo. Infatti, a differenza di sistemi basati su snapshot, CloudEndure utilizza un sistema di replica continua ed in tempo reale che non influisce sulle prestazioni della struttura Sorgente.

L'ambiente di Staging

Arriviamo quindi al segreto del successo di CloudEndure, l'ambiente di Staging.

L'ambiente di Staging utilizza istanze EC2 a basso costo ed è localizzato idealmente in una Region diversa dalla Sorgente per garantire il recupero anche in situazioni catastrofiche.

Come abbiamo anticipato sopra, rispetto ad una replica fisica dei server, lo Staging di CloudEndure ci permette di risparmiare fino al 95% dei costi.

L'area di Staging infatti non è pensata per reggere i carichi di lavoro dell'area Sorgente: è a tutti gli effetti una replica a basse prestazioni dell'infrastruttura originale. Utilizza risorse a basso costo per mantenersi costantemente pronta, in attesa di passare il testimone al più performante ambiente di Produzione in caso di incidenti.

Confronto tra Staging e Produzione in CloudEndure
Confronto tra Staging e Produzione in CloudEndure

L'ambiente di Produzione

Nel caso in cui un errore umano, un furto, un disastro o qualsiasi altro guasto interrompa il normale funzionamento del nostro sito o della nostra applicazione, l'ambiente di Produzione diventa interamente operativo in pochi minuti.

Come possiamo capire dal grafico, a differenza dell'ambiente di Staging, l'ambiente di Produzione utilizza risorse ad alte prestazioni stabilite da noi in grado di gestire gli stessi carichi dell'area Sorgente.

Ma la caratteristica principale di questo ambiente è che non incide sui costi, perché rimane spento fino al momento esatto in cui si verifica il guasto.

In sostanza, utilizziamo un ambiente (Staging) sottodimensionato a basso costo per replicare il nostro ambiente, ma possiamo mettere in produzione quasi istantaneamente  un ambiente (Produzione) ad alte prestazioni capace di reggere i carichi di produzione.

Conclusioni

Grazie ad AWS CloudEndure è possibile mettere in piedi un piano di disaster recovery veloce, automatizzato e conveniente.

Hai bisogno di un AWS Partner  per il setup di CloudEndure? Riempi il form, siamo ansiosi di aiutarti!

CTMobi è AWS Partner

CTMobi AWS Partner

Costruiamo insieme il tuo successo

 


AWS Lambda

Lambda: come Netflix usa il serverless computing

In questo articolo parleremo del paradigma serverless e del servizio AWS Lambda. Scopriremo come un colosso del calibro di Netflix serve centinaia di milioni di utenti in tutto il mondo in modo scalabile e sicuro usando dei microservizi.

Cosa vuol dire il serverless? Cos'è una funzione Lambda? Come usa Netflix il servizio AWS Lambda? 

Serverless computing

Quando parliamo di cloud computing parliamo a tutti gli effetti di paradigma serverless.

Partiamo dalle basi: il termine Serverless deriva dall'unione delle parole "server" e "less", e letteralmente vuol dire "senza server". Il "senza server" ha cambiato non solo il modo in cui utilizziamo applicazioni e servizi web, ma soprattutto, il nostro modo di pensare e progettare gli stessi.

È per questo motivo che parliamo di un vero e proprio paradigma, perché il serverless si è imposto come la nuova base da cui partire nello sviluppo di applicazioni e servizi web resilienti.

Scopriamo quindi cos'è il paradigma serverless e come funziona.

Cos'è il serverless

Il paradigma serverless può essere sintetizzato in quattro concetti chiave:

  1. Nessun server da gestire e mantenere
  2. Allocamento dinamico delle risorse calcolato sull'uso
  3. Alta disponibilità e continuità di servizio integrate
  4. Sistema di pagamento on demand

Questo modo rivoluzionario di approcciarsi alle risorse informatiche permette alle imprese di concentrare gli sforzi sul cuore della loro attività: lo sviluppo.

Avere l'opportunità di servirsi di un'infrastruttura solida e flessibile senza impegnarsi in onerosi investimenti iniziali è un vantaggio competitivo ormai imprescindibile per le imprese, perché, ad esempio, dà spazio a quegli imprenditori innovativi che altrimenti avrebbero la strada sbarrata a causa degli elevati costi dell'hardware.

Il serverless permette inoltre di ridurre il time-to-market dei prodotti digitali e migliorare continuamente il prodotto utilizzando il tempo risparmiato dalle attività non creative come il provisioning, la ricerca di finanziamenti e la manutenzione.

Per questi ed altri motivi il serverless è un forte incentivo verso le startup ad alto tasso tecnologico, sempre più bisognose di irrompere nel mercato in modo rapido e sorprendente per soddisfare le crescenti esigenze degli "utenti 2.0".

Ma startup a parte, moltissimi player internazionali si avvantaggiano di questo nuovo paradigma per distribuire applicazioni e servizi nel modo più semplice, veloce ed affidabile possibile.

Netflix e Lambda

Ad esempio Netflix, che non ha bisogno di presentazioni, poggia gran parte della sua imponente infrastruttura informatica sul servizio di cloud computing Amazon Web Services.

A sinistra, Neil Hunt - ex Chief Product Officer di Netflix

"I sistemi operativi hanno permesso l'astrazione della gestione dell'hardware, e grazie alle API di AWS, per la prima volta siamo in grado di controllare in modo programmatico l'intera infrastruttura dei sistemi attraverso un nuovo livello di astrazione"

-Neil Hunt, ex Chief Product Officer di Netflix

Il colosso statunitense dello streaming ci fornisce un importante esempio di come il serverless computing possa fare la differenza in termini di scalabilità dell'infrastruttura informatica.

Netflix usa dei microservizi progettati su AWS Lambda per gestire una serie di attività in modo automatico, tra le quali:

  • La gestione dei backup
  • La codifica dei video
  • Il controllo delle istanze AWS
  • La creazione di dashboard riepilogative

E se visti così possono sembrare solo quattro piccoli punti in una lista, possiamo affidarci ai numeri per contestualizzare la grandezza ed il peso di queste operazioni in termini di potenza di calcolo.

Netflix vanta 167 milioni di utenti in tutto il mondo e nel solo 2014 il suo catalogo conteneva già 7 miliardi di ore di video. 

Se questo non bastasse ad impressionarvi, secondo un recente report, Netflix consuma circa il 12,6% della banda mondiale. Niente male per un servizio di streaming nato soltanto 12 anni fa.

Ma cos’è AWS Lambda? 

Scopriamo di cosa si tratta per capire come funziona e come semplifica la vita di colossi del calibro di Netflix.

Cos’è AWS Lambda

AWS Lambda è un servizio di cloud computing che permette l’esecuzione di codice in risposta ad eventi senza la necessità di configurare server o componenti di rete. Si parla infatti di Event-driven compute o code on demand.

Le principali caratteristiche di AWS Lambda sono:

  • Autoscaling - Il servizio scala le risorse in modo automatico in base alle richieste.
  • On Demand - Si paga per il tempo di esecuzione del codice, solo quando il codice viene eseguito.
  • Serverless - Basta caricare il codice da eseguire all'interno della console AWS ed il gioco è fatto.

Adesso proviamo a capire come funziona utilizzando un esempio pratico.

Come funziona AWS Lambda

Per spiegare il funzionamento di Lambda utilizzerò un esempio molto basilare.

Abbiamo già detto che Lambda è l'esecuzione di codice in risposta ad eventi. Il più semplice ciclo di funzionamento di Lambda può quindi svilupparsi in questo modo:

Ciclo di funzionamento

  1. Evento
  2. Esecuzione
  3. Risposta

Nell'esempio che segue, la mia funzione Lambda avrà il compito di creare le anteprime delle foto che vengono caricate sulla mia app.

Cominciamo con la prima fase: l'evento.

Prima fase

L'evento che aziona la mia funzione Lambda, il cosidetto trigger, è l'upload della foto all'interno di un bucket S3.

  1. Evento - Un utente fa l'upload di una foto sulla mia app
  2. Esecuzione
  3. Risposta

Quindi, ogni volta che un utente carica una foto sulla mia app, la mia funzione Lambda viene azionata.

L'utente fa l'upload di una foto sulla mia app azionando la funzione Lambda

Seconda fase

Nella seconda fase del ciclo, Lambda esegue il mio codice su una macchina gestita da AWS creando l'anteprima della foto.

  1. Evento
  2. Esecuzione - Lambda esegue il mio codice e crea l'anteprima
  3. Risposta
Lambda esegue il codice che crea l'anteprima della foto

Terza fase

Non appena l'operazione viene conclusa, Lambda mi restituisce una risposta:

  • Affermativa, se l'operazione è andata a buon fine
  • Negativa, se l'operazione non è andata a buon fine

In questo modo si conclude il ciclo di funzionamento e la mia funzione Lambda termina.

  1. Evento
  2. Esecuzione
  3. Risposta - Affermativa o negativa
Lambda mi restituisce una risposta positiva o negativa

Fine del ciclo

Cos'è successo dunque?

Ho ottenuto le anteprime per la mia applicazione, ma è stato Lambda a gestire cpu, banda e sistemi operativi per conto mio.

E grazie alle caratteristiche di cui abbiamo parlato sopra, ad esempio l'autoscaling, non devo preoccuparmi se la mia applicazione raggiunge i migliaia di utenti che caricano migliaia di foto. Sarà AWS a gestire automaticamente la quantità di risorse da allocare alla mia funzione Lambda in base al numero di eventi che la azionano.

Quindi, posso gestire i picchi di traffico senza preoccuparmi di fare il provisioning delle risorse e senza rischiare sovraccarichi.

Ma attenzione, Lambda non è pensato per ogni tipo di applicazione.

I limiti del servizio Lambda

ll servizio Lambda è progettato per contesti in cui non viene richiesta una grande potenza di calcolo ed un uso intensivo di memoria. L'esempio della creazione delle anteprime è infatti un caso d'uso comune proprio perché si tratta di un'operazione "leggera" in termini di potenza di calcolo.

Tra i limiti di default del servizio Lambda troviamo infatti:

  • 1.000 esecuzioni simultanee
  • 3gb di memoria
  • Timeout di 15 minuti

In pratica, non posso utilizzare Lambda per eseguire un algoritmo di Machine Learning, perché in genere queste operazioni comportano l'analisi di grandi quantità di dati e richiedono un tempo di esecuzione molto lungo.

Lambda risulta essere infatti il miglior sistema per l'esecuzione di "codice intermedio", e nell'architettura di un'applicazione serverless è praticamente indispensabile per un'efficace comunicazione tra i diversi servizi cloud AWS.

Leggi il Case Study per approfondire il funzionamento di Lambda e dei microservizi serverless.

Case Study: il connettore Hubspot - Zoho

CTMobi è AWS Partner

Costruiamo insieme il tuo successo


Amazon S3: cos'è, come funziona e quali vantaggi ha

La crescente comunità di persone collegate ad internet impone sfide via via più grandi agli addetti ai lavori del digitale. Il boom dei dispositivi connessi alla rete ci permette ormai di accedere a servizi web in modi sempre diversi, generando una quantità di dati destinata a crescere con il tempo. Per le tech company che lavorano con i dati, non si tratta soltanto di un problema di storage, ma anche sicurezza e di continuità di servizio.

Quali sono le soluzioni aziendali per rimanere a galla in questo mare di file? 

In questo articolo parleremo di Amazon S3 e di come questo servizio cloud riesca a semplificare la gestione dello storage di grandi quantità di dati in modo scalabile e ad un costo ridotto rispetto a qualsiasi altra soluzione di storage tradizionale.

Cos'è Amazon S3? Come funziona Amazon S3?

Partiamo dalle basi: S3 sta per Simple Storage Service.

Cos'è Amazon S3

Amazon S3 è un servizio di cloud computing che offre storage di oggetti scalabile, senza limiti di quantità e con una durevolezza del dato garantita al 99,999999999%.

Questa sorprendente percentuale ad undici nove viene rispettata grazie alla ridondanza dei data center tra diverse "Availability Zone" all'interno di varie "Region" del servizio AWS.

Ma cosa sono le Region? Cosa sono le Availability Zone?

Per svelare i segreti di Amazon S3 dobbiamo prima scoprire come funziona AWS.

Come funziona AWS

Sbarazzandoci dei tecnicismi, possiamo dire che l'infrastruttura di AWS è una grande catena di data center distribuiti in tutto il globo che comunicano tra di loro attraverso internet.

Possiamo analizzare la gerarchia dei vari componenti di AWS partendo dal livello più alto: le Region.

Cosa sono le Region

Una Region rappresenta un insieme di data center localizzati in una specifica regione geografica del mondo, ed ognuna di loro è totalmente indipendente dalle altre.

Ecco una mappa delle Region di AWS:

Region e Availability Zone di Amazon S3
La rete mondiale di data center di AWS

I cerchi arancioni indicano le Region attualmente attive, tra cui la nuova Region italiana AWS Milano, mentre i verdi rappresentano le Region in fase di attivazione.

I numeri all'interno di ogni cerchio rappresentano invece il numero di "Availability Zone" all'interno di quella specifica Region.

Cosa sono le Availability Zone

Le Availability Zone sono i veri e propri data center, il cuore pulsante di AWS.

Si tratta di data center isolati ma connessi tra di loro attraverso dei collegamenti in fibra ottica a bassa latenza. Nella maggior parte delle Region sono presenti due o più Availability Zone, ed è qui che risiede il segreto dell'efficienza dei servizi AWS.

Availability Zone di Amazon S3
Le availability Zone all'interno delle Region

S3, per impostazione predefinita, replica i dati all'interno di almeno tre Availability Zone di una stessa Region, in modo che se anche un'intera Availability Zone venisse compromessa, ad esempio a causa di una calamità naturale, gli utenti della nostra applicazione non noterebbero alcun disservizio. Tutte la applicazioni ed i servizi web poggiati su S3 continuerebbero a funzionare come al solito.

E per completare il quadro della gerarchia, parliamo infine delle Edge Location.

Cosa sono le Edge Location

Le Edge Location sono dei data center più piccoli rispetto alle Availability Zone, pensate per la distribuzione di contenuti a bassa latenza. Al momento esistono ben 205 edge location ed 11 cache edge regionali in 84 città e in 42 paesi.

Sebbene non facciano direttamente parte di Amazon S3, sono completamente integrate con il servizio e possiamo sfruttarle attivando la distribuzione CloudFront, il Content Delivery Network (CDN) di AWS.

Mappa delle Edge Location di CloudFront, servizio integrato in Amazon s3.
Regional Edge Cache ed Edge Location

Come abbiamo visto poco sopra e nella mappa, a loro volta le Edge Location si suddividono in due distinte unità:

  1. Regional Edge Cache
  2. Edge Location

La principale differenza tra le due unità è che le prime mantengono i file in memoria per un periodo di tempo maggiore rispetto alle seconde, fungendo come da "archivio" per le più piccole edge location.

Quindi, facendo il punto della situazione, possiamo riassumere la gerarchia di AWS in questo modo:

Gerarchia dei componenti AWS
La gerarchia dei componenti di AWS

Adesso possiamo finalmente concentrarci sul funzionamento di Amazon S3 e sulle sue caratteristiche.

Come funziona Amazon S3

Più in alto abbiamo parlato di "storage di oggetti", perché in Amazon S3 i nostri file vengono definiti oggetti e vengono memorizzati all'interno di contenitori definiti bucket. Vediamo di cosa si tratta.

Cos'è un Bucket

Un bucket è un contenitore di oggetti in Amazon S3. È come se fosse una cartella nel nostro account AWS ed è necessario crearne uno prima di poter procedere con l'upload dei dati.

Dato che è possibile accedere ai nostri oggetti via web, il nome di ogni bucket è univoco per tutte le Region di AWS: non esistono due bucket con lo stesso nome.

I file caricati all'interno di un bucket vengono quindi definiti oggetti.

Cos'è un Oggetto

Su Amazon S3 un oggetto è un insieme di dati e metadati che viene identificato in modo univoco da una chiave e, nel caso in cui attivassimo la funzione Versioni Multiple (di cui parleremo tra poco), da una chiave e dal suo suo Version ID.

La struttura di un oggetto all'interno di un bucket è quindi la seguente:

  • (Dati + Metadati) + Chiave + Version ID

Cos'è una Chiave

Una chiave in Amazon S3 è una stringa che identifica un oggetto in modo univoco all'interno di un bucket e coincide con il nome dell'oggetto o con il suo "percorso".

Le virgolette sono d'obbligo perché S3 usa un modello di storage piatto in cui non esistono cartelle e sottocartelle, ma possiamo comunque utilizzare prefissi e delimitatori per simulare la gerarchia di un file system tradizionale.

Ad esempio, se volessi archiviare la mia foto.jpg nella "cartella" delle foto ad alta risoluzione e la mia anteprima.jpg nella "cartella" delle foto a bassa risoluzione, potrei utilizzare questi percorsi:

  • altarisoluzione/foto.jpg
  • bassarisoluzione/anteprima.jpg

Oltre a ricreare una gerarchia fittizia all'interno del bucket S3, questi percorsi rappresentano le chiavi dei miei due oggetti.

Riassumendo, ogni oggetto all'interno di un bucket può quindi essere identificato e raggiunto in questo modo:

  • Bucket + Chiave + Version ID

Parliamo infine di alcune caratteristiche di Amazon S3.

Funzioni e classi di storage di Amazon S3

Nonostante il nome suggerisca una grande semplicità, le diverse classi di storage e le funzioni di Amazon S3 lo rendono un prodotto versatile e adatto ad un'ampia gamma di casi d'uso. In basso riassumo tre importanti funzioni: la cross-region replication, il Versioning e le lifecycle policy, per affrontare immediatamente dopo le diverse classi di storage.

Cross-Region replication

Ho già specificato che S3 per impostazione predefinita replica i dati tra diverse Availability Zone. Ma come funziona per le varie Region? È possibile replicare i dati anche tra Region diverse? La risposta è sì, e la funzione che lo permette prende il nome di Cross-Region Replication.

La Cross-Region Replication è la possibilità di replicare i nostri dati non solo tra le diverse Availability Zone, ma anche tra le varie Region, per questioni di latenza o di sicurezza.

La funzione cross-region replication di Amazon S3
La Cross-Region Replication

Amazon ci tiene a specificare che i dati all'interno di una Region non vengono mai replicati tra le altre Region a meno che non venga esplicitamente richiesto dall'utente. Questo perché ogni paese ha una legislazione differente in materia di dati a cui sono sottoposti -ovviamente- anche i data center di AWS.

Detto questo, possiamo scegliere di replicare i nostri dati in una o più Region ad esempio per:

  • diminuire la distanza fisica tra utente e servizio riducendo in questo modo la latenza.
  • mantenere copie di dati a grandi distanze per motivi di sicurezza o compliance.

E sempre in materia di sicurezza introduciamo un ulteriore vantaggio di Amazon S3, il Versioning o Versioni Multiple.

Versioni multiple

Versioni Multiple è una funzione di S3, non attiva di default, che ci dà la possibilità di archiviare oggetti in più versioni, utile per:

  • proteggersi da cancellazioni o sovrascritture di oggetti accidentali.
  • accedere alle versioni precedenti di un oggetto avendo una sorta di cronologia delle modifiche.
  • configurare un piano di backup basato su regole di ciclo vita.

Quindi, cosa succede se attivo la funzione Versioni Multiple?

Facciamo un esempio:

Attivo la funzione e carico la mia foto.jpg sul mio bucket S3.

In questo caso, al mio Oggetto verrà associata non solo una Chiave univoca, ma anche un Version ID.

Nel momento in cui sovrascrivo l'oggetto in questione, questo non viene eliminato: all'oggetto "sovrascritto" viene assegnato un diverso Version ID e la mia foto.jpg viene quindi archiviata con due Version ID differenti:

  • foto.jpg
    1. Version ID 02
    2. Version ID 01
La funzione Versioning di Amazon S3 - operazione put
Il versioning in un'operazione di sovrascrittura

A questo punto, posso conservare ed avere accesso ad entrambe le versioni dello stesso oggetto all'interno dello stesso bucket s3.

Il meccanismo è simile in caso di eliminazione del file.

Quando elimino un oggetto in un bucket con il Versioning attivo, questo non viene realmente eliminato. All'oggetto viene assegnato un "delete marker", e la versione "cancellata" dell'oggetto diventa la sua "versione corrente".

La funzione Versioning di Amazon S3 - operazione delete
La funzione delete con Versioning attivo

In questo modo non corro il rischio di cancellare o sovrascrivere dati importanti perché posso accedere alle loro versioni meno recenti, e con le regole di ciclo vita posso associargli delle scadenze.

Regole di ciclo vita

Le regole di ciclo vita permettono di gestire il ciclo vitale degli oggetti all'interno di un bucket seguendo delle regole da noi stabilite che vengono eseguite in automatico da S3. Nello specifico, possiamo definire due tipi di azioni:

  • Transizioni: ad esempio, spostare gli oggetti ad una classe di storage più economica dopo 30 giorni dalla loro creazione.
  • Scadenze: possiamo stabilire dopo quanto tempo un oggetto deve essere eliminato.

Come anticipato sopra, possiamo utilizzare le regole di ciclo vita anche per spostare versioni meno recenti di un oggetto ad una classe di storage più economica dopo un determinato periodo di tempo. Infatti, esistono diverse classi di storage per diversi casi d'uso.

Classi di storage

Le classi di storage in Amazon S3 sono state ideate con in mente diversi casi d'uso per una vasta varietà di settori. Attualmente esistono sei diverse classi, ognuna con costi e caratteristiche diverse. Ne riassumo qui le caratteristiche principali.

S3 Standard

S3 Standard è la classe di storage per uso generico, ed ha tutte le caratteristiche di cui abbiamo discusso: ridondanza tra le Availability Zone, alta disponibilità e durevolezza del dato garantita al 99,999999999. È la classe più indicata per siti web, applicazioni o qualsiasi altro servizio che necessiti di storage ad accesso frequente.

S3 Intelligent Tiering

Questa classe di storage è simile ad S3 Standard ma è indicata per i casi in cui non siamo sicuri della frequenza con cui accederemo ai nostri oggetti. Con Intelligent Tiering, Amazon S3 si occupa di monitorare per conto nostro la frequenza di accesso agli oggetti, spostando in automatico quelli ad accesso meno frequente in una classe di storage meno costosa, ovvero S3 Standard Infrequent Access.

S3 Standard Infrequent Access

Pensata per lo storage a lungo termine e ad accesso sporadico, ad esempio backup e disaster recovery, S3 Standard Infrequent Access mantiene le stesse prestazioni delle classi di storage di cui abbiamo parlato sopra ad un costo inferiore.

Amazon S3 One Zone-Infrequent Access

A differenza della precedente classe e delle altre, in questa classe di storage i dati vengono archiviati esclusivamente all'interno di una singola Availability Zone. S3 One Zone costa il 20% in meno di S3 Standard IA ed è pensato per l'archiviazione di file facilmente ricreabili o copie di backup secondarie.

S3 Glacier

S3 Glacier è una classe di storage economica pensata per l'archiviazione a lungo termine e ad accesso sporadico in cui, oltre allo storage, si paga una commissione per il recupero dei dati archiviati. In Glacier esistono tre diverse opzioni per il recupero dei dati:

  • Expedited: tempi di recupero da 1 a 5 minuti
  • Standard: tempi di recupero da 3 a 5 ore
  • Bulk: tempi di recupero da 5 a 12 ore

S3 Glacier Deep Archive

Come S3 Glacier, quest'ultima classe di storage è pensata per l'accesso sporadico ma per tempi di archiviazione molto lunghi (7-10 anni) ed accessi meno frequenti (1-2 volte l'anno). S3 Glacier Deep Archive costa fino al 75% in meno rispetto ad S3 Glacier ed offre due opzioni per il recupero dei dati:

  • Standard: tempi di recupero entro le 12 ore
  • Bulk: tempi di recupero entro le 48 ore

 

CTMobi è AWS Partner

Costruiamo insieme il tuo successo



Cloud Computing: cos’è e come funziona

Non ci sono dubbi: la parola cloud fa ormai parte della nostra vita. La sentiamo in radio, in TV, la leggiamo sui banner pubblicitari e sui social network. Come una vera nuvola, la rivoluzione cloud è pronta a pioverci gentilmente addosso rinfrescandoci le idee. Ma cos’è esattamente il cloud computing? 

Ecco una breve panoramica per capire cos'è, come funziona e perché conviene.

Un pò di storia

Utility Computing

“L'idea centrale è che ogni larga area metropolitana avrebbe uno o più super computer. Questi computer gestirebbero numerosi problemi contemporaneamente. Le organizzazioni avrebbero dispositivi di input/output installati in locale e comprerebbero il tempo sui computer esattamente allo stesso modo in cui un proprietario di casa acquista acqua e luce da una società di servizi. Infatti, il prezzo dipenderebbe dal tipo di servizio offerto.”

-W. F. Bauer, Computer Design from the Programmer's Viewpoint

Uno schema congetturale di super computer, una prima idea del cloud computing.
"Ultradatic" system schematic: uno schema congetturale di super computer, da "Computer Design from the Programmer's Viewpoint" di W. F. Bauer

Il cloud computing deriva dall’utility computing, un modello di provisioning che permette l'approvvigionamento di risorse informatiche su richiesta attraverso un sistema di pricing on-demand: si paga quello che si consuma. Deriva proprio da questo il termine "utility", generalmente utilizzato in riferimento ad aziende pubbliche di servizi come il servizio idrico o quello elettrico.

In informatica, questo modello viene reso possibile dalla capacità dei computer di suddividere le risorse su base temporale: il cosiddetto time sharing system, in cui un computer dedica potenza di calcolo a più operazioni contemporaneamente.

Batch processing e time sharing

Per farti avere un’idea più precisa del perché il time sharing ha rappresentato una rivoluzione, qui in basso trovi un utile confronto tra il sistema time sharing ed il batch processing, sistema precedentemente utilizzato da tutti i primi computer.

Batch processing

Oggi forse ci sembra assurdo, ma i primi computer potevano eseguire esclusivamente un'operazione alla volta. I programmi venivano caricati usando delle schede perforate ed al termine di ogni operazione, un operatore doveva inserire manualmente un nuovo programma attraverso uno switch.

Il Batch processing fu quindi inventato per risparmiare tempo: permetteva di eseguire diverse operazioni sequenzialmente, dando in pasto al computer più schede perforate alla volta.

Queste schede venivano programmate con una perforatrice, perché scrivere i programmi direttamente al computer sarebbe stato una perdita di tempo ed uno spreco di CPU. Il computer infatti poteva essere utilizzato da un solo utente alla volta, ed un solo utente che scrive un programma al computer fa diverse pause durante le quali la CPU rimane inattiva.

Time sharing

Il time sharing fu quindi una rivoluzione perché permetteva l’uso del computer a più utenti contemporaneamente. In questo modo si riuscì a massimizzare l’uso della CPU minimizzando il tempo di risposta tra computer e utente.

Adesso ogni utente poteva scrivere direttamente al computer perché durante le pause, la CPU si dedicava ad un altro utente, rimanendo costantemente attiva.

L'esecuzione di più operazioni contemporaneamente era comunque un'illusione. Il processore passava da un'operazione all'altra ad una velocità tale che l'utente aveva solo la percezione di essere l'unico collegato al computer.

John McCarthy

Ma adesso ritorniamo a noi. L'idea dell'utility computing nasce dalla brillante mente dello scienziato John McCarthy, padre dell’Intelligenza Artificiale e dei primissimi sistemi di time sharing. La sua influenza nel campo dell’informatica fu tale che Lester Earnest, suo collega e scienziato, intervistato dal Los Angeles Times in occasione della sua morte disse:

"L'evoluzione di internet non sarebbe avvenuta così rapidamente senza i sistemi di time sharing sviluppati da John. Continuiamo ad inventare nuovi nomi per questi sistemi. Li abbiamo chiamati server ... adesso li chiamiamo cloud computing. Tutto ciò non è altro che time sharing. È stato John a dargli il via."

-Lester Earnest per il Los Angeles times

McCarthy conobbe Lester Earnerst mentre lavorava ai modelli di time sharing durante la progettazione del Semi-Automatic Ground Environment (SAGE), un sistema di difesa antimissilistico che permetteva l’accesso a più utenti contemporaneamente. Il padre dell'IA intuì subito che il time sharing avrebbe portato in futuro ad un sistema di utility computing su larga scala per scopi diversi, e rese la prima dichiarazione pubblica a riguardo durante un discorso al centennale del MIT nel 1961.

“Se questi computer diventano i computer del futuro, un giorno potrebbero essere organizzati come un'utilità pubblica, esattamente come il sistema telefonico... L'utility computing potrebbe diventare la base di un nuovo ed importante settore.”

-cit John McCarthy al centennale del MIT, 1961

John McCarthy, informatico statunitense, padre dell'IA e del cloud computing.
John McCarthy, padre dell'IA e vincitore del Premio Turing nel 1971.

Tuttavia, l’idea venne accantonata per qualche decennio in quanto le tecnologie dell’epoca non permettevano ancora la diffusione di questo modello su larga scala. Fu infatti a partire dagli anni 2000 che il nuovo paradigma gettò le basi del futuro dell’informatica: il Cloud Computing adesso era pronto a rivoluzionare il modo in cui usiamo i computer.

Cos’è il cloud computing in 2 righe

il Cloud Computing è un modello di provisioning che permette l’utilizzo di risorse informatiche su richiesta, in qualsiasi quantità, in qualsiasi momento, da qualsiasi posizione e senza l’intervento umano.

Per una definizione più approfondita, in basso ti riporto quanto scritto dal National Institute of Standards and Technology.

La definizione del NIST

Il cloud computing è un modello che permette un accesso ubiquo, conveniente ed on-demand ad un set condiviso di risorse di computing configurabili (reti, server, storage, applicazioni e servizi) che può essere fornito rapidamente e rilasciato con il minimo sforzo di gestione o interazione dal provider. Questo modello di Cloud si compone di

  • 5 caratteristiche essenziali;
  • 3 modelli di servizio;
  • 4 modelli di distribuzione.

Le cinque caratteristiche essenziali del Cloud Computing.

1. Self-service su richiesta

Un utente può unilateralmente fare il provisioning delle risorse, come il tempo di uso di server e storage di rete, sulla base di quanto a lui necessario, automaticamente e senza avere bisogno di interazione umana con i provider.

2. Ampio accesso alla rete

le risorse sono disponibili sulla rete ed accessibili tramite meccanismi standard che ne promuovono l’uso da thin o thick client (dispositivi mobili, tablet, laptop e workstation).

3. Raggruppamento delle risorse

Le risorse informatiche del provider sono raggruppate per servire più utenti utilizzando un modello multi-tenant, con diverse risorse fisiche e virtuali assegnate e riassegnate dinamicamente in base alla domanda. Vi è un senso di indipendenza dalla posizione in quanto l’utente generalmente non ha alcun controllo o conoscenza sulla posizione esatta delle risorse ma può essere in grado di specificare la posizione ad un livello di astrazione superiore (ad esempio a livello di paese, stato o datacenter). Esempi di risorse includono archiviazione, elaborazione, memoria e larghezza di banda della rete.

4. Elasticità rapida

Le risorse possono essere approvvigionate e rilasciate elasticamente, in alcuni casi automaticamente, per scalare rapidamente ridimensionando in base alla domanda. Per l’utente, le capacità disponibili spesso appaiono illimitate e possono essere richieste in qualsiasi quantità in qualsiasi momento.

5. Servizio misurato

I sistemi cloud controllano ed ottimizzano automaticamente l'utilizzo delle risorse sfruttando una capacità di misurazione ad un livello di astrazione adeguato al tipo di servizio (ad es. archiviazione, elaborazione, larghezza di banda e account utenti attivi). L'utilizzo delle risorse può essere monitorato, controllato e segnalato, garantendo trasparenza sia per il fornitore che per il consumatore del servizio utilizzato.

I tre modelli di servizio

1. Software as a service (SaaS)

In questo modello di servizio l’utente utilizza applicazioni che vengono eseguite su un'infrastruttura cloud. Le applicazioni sono accessibili da diversi client attraverso una thin client interface come un browser web o attraverso l’interfaccia grafica di un programma. L’utente non gestisce o controlla l’infrastruttura cloud sottostante che include le reti, i server, i sistemi operativi, lo storage, e neanche le capacità delle singole applicazioni, con la possibile eccezione di alcune configurazioni utente specifiche (esempi si SaaS: Google Docs, FileCloud).

2. Platform as a service (PaaS)

In questo modello di servizio l’utente può distribuire all’interno dell’infrastruttura cloud applicazioni create o acquistate che utilizzano linguaggi di programmazione, librerie e strumenti supportati dal provider. L’utente non gestisce o controlla l’infrastruttura cloud sottostante che include le reti, i server, i sistemi operativi, lo storage ma ha controllo sulle applicazioni distribuite e sulle possibilità di configurazione per l’ambiente che le ospita (esempi di PaaS: Google App Engine).

3. Infrastructure as a Service (IaaS)

In questo modello di servizio l’utente fa il provisioning di potenza di calcolo, storage, reti ed altre fondamentali risorse in cui è in grado di distribuire ed eseguire software, che può includere sistemi operativi ed applicazioni. L’utente non gestisce o controlla l’infrastruttura cloud sottostante ma ha il controllo sui sistemi operativi, sullo storage, sulle applicazioni distribuite e possibilmente ha il controllo limitato su alcuni specifici componenti di rete (esempi di IaaS: Amazon Web Services).

I quattro modelli di distribuzione

1. Cloud privato

L’infrastruttura cloud è predisposta ad uso esclusivo di una singola organizzazione che comprende molteplici utenti. Può essere di proprietà, gestita ed operata dall’organizzazione, da una terza parte o da una loro combinazione, e può essere posizionata in locale o non in locale (on premises/off premises).

2. Community cloud

L'infrastruttura cloud è predisposta per l'uso esclusivo di una specifica comunità di utenti da parte di organizzazioni che hanno preoccupazioni condivise (ad es. mission, requisiti di sicurezza, politica e considerazioni sulla conformità). Può essere di proprietà, gestita ed operata da una o più delle organizzazioni della comunità, da una terza parte o da una combinazione di esse e può essere posizionata in locale o non in locale.

3. Cloud pubblico

L'infrastruttura cloud è predisposta per un uso aperto da parte del pubblico. Può essere di proprietà, gestita ed operata da un'organizzazione aziendale, accademica o governativa o da una combinazione di queste. È posizionata in locale presso il provider del servizio cloud.

4. Cloud ibrido

L'infrastruttura cloud si compone di due o più infrastrutture cloud distinte (privata, community o pubblica) che rimangono entità univoche, ma sono unite da una tecnologia standardizzata o proprietaria che consente la portabilità dei dati e delle applicazioni (ad esempio, il cloud bursting per il bilanciamento del carico tra le infrastrutture cloud).

Come e perché nasce il Cloud Computing

Dopo aver letto la breve panoramica storica e le definizioni di cloud, ti sarai fatto un’idea di cosa sia e di come funzioni. Questo comunque potrebbe non bastare a farti avere il quadro completo, ed immagino ti stia chiedendo come nasce e soprattutto perché. Facciamo un piccolo esempio parlando della nascita di AWS.

Perché nasce AWS

Uno dei motivi che portarono all'adozione di un primo sistema di cloud computing fu la necessità di alleggerire i carichi di lavoro dei data center. Come puoi immaginare, all'aumentare degli utenti connessi ad internet, sovraccarichi e down divennero un problema piuttosto comune per le aziende di grandi dimensioni e Jeff Bezos per primo fece i conti con questo problema ad Amazon.

Come nasce AWS

Quando i picchi di traffico del suo e-commerce raggiunsero soglie insostenibili, il CEO di Amazon decise di trovare una soluzione scalabile che gli avrebbe permesso di continuare a crescere senza rischiare di perdere reputazione a causa di malfunzionamenti e guasti. Messa a punto un'imponente infrastruttura cloud per le sue esigenze, decise poi di sfruttarla appieno mettendola sul mercato secondo il modello IaaS. E fu così che nacque AWS, ovvero gli Amazon Web Services, servizi di cloud computing oggi distribuiti globalmente grazie ad una rete di AWS Partner, un network di società certificate da Amazon.

Cosa puoi fare con il cloud: una sintesi

Prima di proseguire facciamo una breve sintesi di quanto detto sopra.

Con il cloud puoi:

  • Gestire risorse - reti, server, storage, applicazioni e servizi;
  • Illimitate - si ha una percezione di quantità infinita;
  • In modo scalabile- aumentare o diminuire la quantità di risorse in base alle esigenze;
  • In qualsiasi momento - modificare la quantità di risorse con un click;
  • Da qualsiasi posizione - accedere alle risorse da qualunque dispositivo connesso alla rete;
  • Senza intervento del provider - in totale autonomia senza dover interloquire con alcun operatore.

Perché il cloud computing conviene

Sovrastimare o sottostimare le risorse può significare perdere importanti occasioni di crescita, un rischio che il cloud elimina alla radice. Ma anche se tu fossi in grado di gestire un enorme data center locale, il cloud continuerebbe ad essere la migliore scelta.

Ecco alcuni dei principali vantaggi del cloud computing:

Tolleranza ai guasti

A differenza di un data center tradizionale, le infrastrutture cloud garantiscono il funzionamento dei tuoi servizi digitali anche in caso disastri naturali. Un grande vantaggio del cloud è infatti la ridondanza dei server su diverse zone geografiche. Questo meccanismo garantisce una perfetta continuità di servizio agli utenti, riducendo drasticamente i danni derivanti da malfunzionamenti di qualsiasi tipo.

Gestione semplice

Una delle caratteristiche essenziali del Cloud è la possibilità di essere gestito in modo autonomo. Nessun sistemista: puoi gestire la tua infrastruttura cloud con pochi semplici click dalla tua console dedicata o tramite API. Inoltre hai accesso alle tue risorse da qualsiasi posizione, ti basta avere un dispositivo connesso alla rete ed il gioco è fatto.

Provisioning dinamico

Fare un corretto provisioning è sempre una scommessa rischiosa, e perderla può costare caro. Grazie al cloud questo diventa un problema del passato. Le infrastrutture cloud prevedono la scalabilità elastica delle risorse: niente più previsioni sbagliate sugli investimenti in potenza o storage. Avrai sempre a disposizione la quantità di risorse di cui hai bisogno e pagherai esclusivamente per le risorse utilizzate.

Costi accessibili

Startup, piccola o media impresa: il cloud è accessibile in ogni fase della vita aziendale. Grazie al modello di pricing on-demand puoi partire in piccolo e scalare la tua infrastruttura al crescere del tuo business. In questo modo non dovrai più preoccuparti di risorse sprecate o di picchi improvvisi di crescita. Avrai la possibilità di scalare le capacità della tua infrastruttura in ogni momento avendo sempre le idee chiare sui costi delle tue risorse.

CTMobi è AWS partner

Costruiamo insieme il tuo successo