Seleziona una pagina
venerdì, Ott 14

Come cambia Akamai dopo l’acquisizione di Linode: il futuro delle infrastrutture (e delle applicazioni) è in arrivo

da Hardware Upgrade :

Akamai, azienda nota soprattutto per i suoi servizi di CDN, ha recentemente concluso l’acquisizione di Linode, realtà statunitense specializzata nel fornire servizi di cloud computing basati su Linux. Considerando che Akamai è specializzata nei servizi di edge computing, perché acquisire un’azienda che si occupa di cloud? C’è un cambiamento di prospettiva e strategia? Ne abbiamo parlato con Shawn Michels, Vice President of Product Management, Compute and Apps di Akamai, per capirne di più.

Cloud ed edge, due modelli sempre più vicini

Edge9: in che modo le offerte di Akamai e Linode si completano a vicenda? Quale valore dà l’acquisizione di Linode ai clienti di Akamai (e viceversa)?

Michels (in foto qui sotto): Se pensiamo a come abbiamo cominciato, alla prima fase di vita dell’azienda, eravamo una realtà cui le altre aziende si rivolgevano una volta che avevano sviluppato un’applicazione e volevano portare quest’applicazione ai propri utenti – che fossero aziende che si occupano di streaming, di giochi, di e-commerce, se volevano che scaricassi dei contenuti, Akamai era quella che si occupava di portare tali contenuti agli utenti. Come probabilmente avrete visto nel corso degli ultimi 5 anni circa, abbiamo avviato una transizione nella nostra strategia per diventare non solo il riferimento per le aziende che vogliono portare le proprie applicazioni agli utenti, ma anche per renderle sicure: abbiamo cominciato con cose semplici che si possono collegare a una CDN, come la protezione dai DDoS, ma ora stiamo andando oltre fornendo ai nostri clienti soluzioni di sicurezza più complete come microsegmentazione, autenticazione a più fattori e così via. L’area dove non avevamo fatto progressi, e questa è l’area in cui si può vedere la transizione che Akamai sta iniziando a compiere, era quella della creazione di applicazioni: non eravamo il riferimento per lo sviluppo. Ci siamo chiesti: se democratizziamo la nostra rete, se rendiamo disponibili ai nostri clienti gli oltre 300.000 server che abbiamo nel mondo, che innovazioni possono creare? Il nostro percorso è cominciato dunque con gli edge worker: script leggeri in JavaScript eseguiti nell’edge e progettati per casi d’uso effimeri. Ad esempio, per i test A/B per i proprietari di siti Web. Alcuni dei nostri clienti di grandi dimensioni avevano dei casi d’uso che ci hanno portato a valutare un modello a infrastruttura maggiormente distribuita: i loro casi d’uso richiedevano la distribuzione degli edge worker, ma con più potenza di calcolo.

Uno dei primi clienti a portarci in questa direzione è stata Apple con Private Relay, un’applicazione che protegge gli utenti dal tracciamento pubblicitario. Una volta che un cliente ha scoperto che offrivamo questo servizio, altri si sono aggiunti; Apple è stata la prima, ma poi si è aggiunto un hyperscaler. Quest’ultimo aveva un’applicazione con requisiti di traffico in entrata e in uscita davvero significativi e non era in grado con la propria piattaforma di gestire la distribuzione a livello globale e il traffico in uscita che erano necessari, quindi si sono rivolti ad Akamai per sopperire ai propri servizi. È poi arrivato un terzo cliente di recente, un gigante dei social network che fa transcodifica in tempo reale e voleva spostare tale processo più vicino agli utenti, così da rendere l’esperienza di caricamento del video in cloud e di transcodifica più veloce.

Abbiamo visto questi tre casi d’uso e ci siamo resi conto che c’era un’esigenza da parte del mercato di un modo diverso di affrontare il calcolo. Con Linode abbiamo visto la possibilità non solo di accelerare la nostra roadmap, ma anche di fornire uno strato di virtualizzazione che i nostri clienti ricercavano. Pensando a cosa rende Linode unica, storicamente si è rivolta a sviluppatori e piccole aziende, ma dalla nostra prospettiva quello che fa realmente è fornire soluzioni di calcolo specializzate: macchine virtuali, GPU, archiviazione a blocchi, il tutto reso disponibile in maniera semplice. In altri termini quello che i nostri clienti chiedevano: non soluzioni SaaS complesse, ma un’infrastruttura “nuda e cruda” distribuita su una rete a livello globale. Questo è il valore aggiunto dato dall’acquisizione di Linode, almeno dal punto di vista dell’infrastruttura di calcolo. È quest’idea di “mattoncini” di calcolo molto specializzati, pensati per sviluppatori e facili da usare, disponibili su una delle reti più distribuite al mondo. Pensiamo che questa combinazione apra a casi d’uso significativi e dia valore significativo ai nostri clienti.

Prenderemo il modello esistente di Linode per costruire i data center e lo applicheremo alla rete di Akamai. Come si può immaginare, gli 11 data center di Linode saranno collegati alla nostra rete, in altri casi verranno fatte aggiunte ai nostri data center esistenti, in altri casi ancora verranno aggiunti al nostro fabric, ovvero alla nostra rete, per cui i sistemi saranno parte della rete ma non necessariamente all’interno di un nostro data center. Ci sarà dunque proprio questa combinazione di una rete con risorse di calcolo, di trasmissione dei contenuti e di sicurezza, anche se tali risorse potrebbero non essere disponibili in ogni singolo data center che possediamo.

Edge9: la crescita del calcolo distribuito è un’enorme opportunità per offrire servizi migliori, ma pone anche delle sfide: ad esempio, la sicurezza è una delle principali preoccupazioni. Quali sono le soluzioni e le raccomandazioni di Akamai per gli sviluppatori e le aziende che vogliono offrire le proprie applicazioni tramite l’edge?

Michels: una delle cose interessanti cui stiamo assistendo è che il mercato del calcolo distribuito è nuovo in quanto tale, e le aziende che cercano di sfruttarlo stanno incontrando una serie di sfide, tra cui la sicurezza. A questo punto non credo che nessuno abbia una soluzione dettagliata, ma quello che stiamo consigliando ai nostri clienti è di fare ciò che fanno già negli ambienti di cloud centralizzato, ovvero di iniziare dalle basi: assicurarsi di avere protezione dagli attacchi DDoS, di filtrare il traffico malevolo e di impedire che arrivi ai server principali. Insomma, quei passi di base per assicurarsi di bloccare gli attacchi. Consigliamo poi di guardare più in là e di cominciare a vedere Akamai in pratica come una rete privata. Se pensiamo a ciò che viene fornito dalla combinazione di Akamai come fornitore di servizi edge e di servizi da cui si origina il contenuto stesso, ciò consente al cliente di offrire un servizio senza mai esporre un IP o dove risiede l’infrastruttura. Akamai può quindi filtrare il traffico per eliminare gli attachi DDoS, i bot, le aree dove risiedono i malfattori e poi inviare le richieste già filtrate e convalidate all’origine [ovvero i server da cui viene erogato il servizio del cliente, NdR] che viene nascosta dai servizi edge sulla dorsale di Akamai. So che è un termine un po’ abusato, ma c’è davvero l’opportunità per i clienti di creare un cloud privato – non nel senso di una serie di server privati, ma di avere servizi cloud privati in una modalità che riteniamo decisamente unica.

Edge9: qual è la relazione tra cloud ed edge? Sono spesso dipinti come opposti, con il cloud centralizzato e l’edge distribuito, ma è davvero così?

Michels: crediamo che l’edge e il cloud siano in realtà complementari e che la nostra prospettiva è quella di chi offre una CDN. Spesso, quando si descrive una CDN, tutto quello di cui si parla è l’edge. Ma se si va a scavare nei vari strati, un’architettura di CDN è più complessa: c’è un punto di origine, dove vengono archiviati gli oggetti di grandi dimensioni, e, vista la densità di risorse che serve per archiviare tali oggetti, tipicamente questi punti di origine non sono altamente distribuiti – ce n’è magari qualche dozzina in tutto il mondo. Il passo successivo è questo: i contenuti non vengono trasmessi dal punto di origine, perché altrimenti non si portano i dati sufficientemente vicini agli utenti, ma dall’altro lato non si vuole nemmeno portare l’intero catalogo nell’edge, ma solo un sottoinsieme con i contenuti richiesti più frequentemente. Si crea dunque uno strato di cache, che è più distribuito dei punti di origine, ma non quanto l’edge. C’è poi l’edge, per l’appunto, che si occupa della trasmissione dei contenuti ed è composto di migliaia di punti nel mondo.

Ma se prendi tutto questo e ne guardi l’architettura più nell’insieme, come una combinazione di punti di origine non molto distribuiti, uno strato di cache più distribuito e uno strato edge molto più distribuito, vediamo la stessa analogia dei computer. Stiamo infatti separando i nostri dispositivi di calcolo in tre insiemi separati: i servizi “centrali”, i punti di origine, dove c’è un insieme di tutti i servizi di Linode (CPU, GPU, block storage, object storage, database…), al momento in 11 data center ma è facile immaginare che espanderemo tale numero a oltre 20 nel prossimo anno; c’è poi lo strato di calcolo distribuito, usando la virtualizzazione di Linode, che ha un po’ meno risorse di calcolo rispetto ai punti di origine ed è pensato per eseguire macchine virtuali con applicazioni “con poco stato”. Questo è lo strato a cui sono interessati i tre clienti di cui parlavo prima ed è dove immaginiamo che le applicazioni a microservizi verranno eseguite in futuro, assieme a IA e machine learning; è uno strato che si può immaginare distribuito in più di un centinaio di luoghi nel mondo.

C’è poi l’edge computing, che è quello di cui ci siamo occupati finora, e lo vediamo come il luogo dove eseguire gli script in JavaScript e dove fare manipolazione “leggera” dei dati; secondo noi, quando le aziende cominciano a spezzettare le applicazioni e a passare da monoliti ai microservizi, cercano l’infrastruttura più adatta al microservizio che devono eseguire. Per fare un esempio, stiamo trattando con un’azienda che si occupa di e-commerce, che vuole creare un sistema di raccomandazioni in tempo reale basate sui dati che l’utente ha acconsentito a condividere. Tale applicazione è fatta di un data warehouse, che rimarrà sul cloud di Amazon (è l’unico posto dove possa stare); quando hanno provato a realizzare questo sistema di personalizzazione, però, gli sviluppatori di questo e-commerce si sono resi conto che non era possibile usare gli edge worker per raccogliere i dati sul comportamento dell’utente, inviare tali dati al punto d’origine, elaborarli e poi inviarli nuovamente agli edge worker. C’era troppa latenza per l’utente.Questo nostro cliente sta usando dunque il nostro strato di elaborazione distribuita sia per la cache, sia per un’elaborazione “leggera” dei dati. Gli edge worker si possono rivolgere a tale strato, ottenendo così la personalizzazione ma riducendo al minimo la latenza.

Ciò che ritengo interessante di questo caso d’uso è che penso permetta di uno sguardo al futuro delle applicazioni in due modi: il primo è questo concetto di singola applicazione, singolo negozio di e-commerce, fatto di tanti servizi che vengono eseguiti con metodi diversi, con il data warehouse in un luogo centrale, la cache in uno strato distribuito, e poi l’edge per la manipolazione dei dati e per farli andare avanti e indietro rispetto all’utente. Chiamiamo questo concetto “la continuità del calcolo” [“continuum of compute” in inglese], che le applicazioni potranno attraversare nella sua interezza. Il secondo punto è quello delle applicazioni multi-cloud: riprendendo l’esempio di prima, Amazon continuerà a fornire il data warehouse, Akamai fornirà lo strato di elaborazione distribuita e quello edge, ma immaginiamo assolutamente un futuro in cui Akamai fornisce l’edge e il luogo centrale, ma qualcun altro si occupa dello strato intermedio. Vediamo che i nostri clienti stanno spezzettando le proprie architetture e le stanno distribuendo su più fornitori, e questo è uno dei motivi per cui ci stiamo buttando nella mischia, ma vediamo questa spinta verso il multicloud come una tendenza complessiva. Secondo noi, il futuro dello sviluppo di applicazioni includerà più cloud e più forme di calcolo.

Edge9: con l’acquisizione di Linode, Akamai sembra pronta a entrare in competizione con gli hyperscaler, in particolare per quanto riguarda il calcolo e l’archiviazione. È così o Akamai si rivolge a un mercato diverso?

Michels: penso che ci sia una certa sovrapposizione tra i nostri servizi, in particolare per quanto riguarda il calcolo, l’archiviazione e il networking, ma non vediamo necessariamente le nostre soluzioni come competizione per gli hyperscaler. Non ci rivolgiamo necessariamente allo stesso mercato. Per definizione, se guardiamo a cosa fanno gli hyperscaler, oltre all’infrastructure as a service offrono anche PaaS e SaaS, offrono moltissimi servizi e componenti all’interno dei rispettivi ecosistemi. Akamai non intende seguire questo approccio. Vogliamo offrire sistemi di calcolo specializzati, altamente distribuiti. Ci sono alcuni casi in cui finiremo per competere con gli hyperscaler, ma penso che attrarremo più clienti che sono interessati a realizzare applicazioni con un alto traffico in uscita, con una distribuzione molto ampia. Penso che attrarremo clienti che sono già avanti nel percorso verso il multicloud e l’adozione dell’infrastructure as code, così come clienti che non vogliono fare lift and shift delle proprie applicazioni, ma che vogliono diversificare la propria presenza nel cloud. Insomma, vedo Akamai come collegata agli hyperscaler, ma non necessariamente in competizione con essi. Riprendendo l’esempio dell’e-commerce, usano Amazon e non intendiamo far sì che ciò cambi. L’altro caso è quello in cui un hyperscaler si è reso conto che la sua infrastruttura non gestisce gli stessi casi d’uso e ha deciso di usare i nostri servizi.

Edge9: il nome di Linode è una parola macedonia ottenuta dall’insieme di “Linux” e “node”. L’open source è dunque una parte fondamentale della società. Qual è la posizione di Akamai sull’open source?

Michels: penso ci siano due cose da dire. La prima è che una delle ragioni che hanno portato all’acquisizione di Linode è il loro coinvolgimento nel mondo open source. È una delle cose che ci siamo impegnati a continuare post-acquisizione e non intendiamo dunque apportare cambiamenti. L’altra cosa è che credo Akamai faccia più nel mondo open source di quanto diciamo. Non ne parliamo molto, ma siamo in realtà piuttosto aperti. Nel nostro repository GitHub potete trovare una serie di progetti in cui abbiamo reso open source tecnologie sviluppate internamente. Abbiamo poi partecipato a lungo in comunità per gli standard aperti, ad esempio siamo contributori del Dash Industry Forum. Se qualcosa cambierà, sarà che cominceremo a parlare di più del nostro impegno verso l’open source dopo questa acquisizione.

Source link