Facebook gestisce i propri server
Tecnica al meta
Google costruisce i propri server per l’efficienza
Google, in genere a battute di tecnologia alla base dei suoi data center, costruisce i propri server per risparmiare costi e perché i prodotti standard non soddisfano esattamente le sue esigenze, ha detto giovedì il vicepresidente senior delle operazioni di Google.
I produttori di hardware investono fortemente nella ricerca e nello sviluppo di prodotti affidabili, una funzionalità che la maggior parte delle aziende apprezza. Ma Google in realtà non ha bisogno di server molto affidabili perché ha scritto il suo software per compensare le interruzioni hardware, ha affermato Urs Holzle, parlando giovedì alla sede europea di Google a Dublino.
Invece di acquistare server commerciali, a un prezzo che aumenta con l’affidabilità, Google costruisce server meno affidabili a un costo più economico sapendo che il suo software lavorerà su qualsiasi interruzione. “Per noi, questa è la soluzione giusta”, ha detto Holzle.
Un altro motivo per cui Google costruisce i propri server è altrettanto semplice: può risparmiare sui costi del consumo di energia.
L’efficienza energetica è un argomento di cui Holzle parla appassionatamente. Circa la metà dell’energia che va in un data center si perde a causa delle inefficienze tecnologiche che sono spesso facili da risolvere, ha detto.
L’alimentazione ai server è un posto in cui l’energia è inutilmente persa. Un terzo dell’elettricità che attraversa una tipica alimentazione perde come calore, ha detto. Questo è uno spreco di energia e crea anche costi aggiuntivi nel raffreddamento necessario a causa del calore aggiunto a un edificio.
Invece di sprecare l’elettricità e sostenere i costi aggiuntivi per il raffreddamento, Google ha alimentatori appositamente realizzati che sono efficienti al 90%. “Non è difficile da fare. Ecco perché per me è personalmente offensivo “che gli alimentatori standard non sono così efficienti, ha detto.
Mentre ammette che l’ordinazione di alimentatori appositamente fatti è più costoso dell’acquisto di prodotti standard, Google risparmia ancora denaro alla fine conservando energia e raffreddamento, ha detto.
Punti chiave:
- Google crea i propri server per risparmiare costi e perché i prodotti standard non soddisfano le sue esigenze.
- Il software di Google compensa le interruzioni hardware, quindi non ha bisogno di server molto affidabili.
- Costruire server meno affidabili a un costo più economico è la soluzione giusta per Google.
- Google risparmia i costi sul consumo di energia concentrandosi sull’efficienza energetica.
- La metà dell’energia che va in un data center viene persa a causa delle inefficienze tecnologiche.
- Google utilizza alimentatori appositamente realizzati al 90% efficienti per evitare di sprecare elettricità.
- Ordinare gli alimentatori appositamente resi è più costoso ma alla fine risparmia denaro per Google.
Domande:
- Perché Google crea i propri server?
Google crea i propri server per risparmiare costi e perché i prodotti standard non soddisfano le sue esigenze. - In che modo Google compensa le interruzioni hardware?
Il software di Google è progettato per compensare le interruzioni hardware. - Qual è il vantaggio di costruire server meno affidabili per Google?
Costruire server meno affidabili a un costo più economico è la soluzione giusta per Google. - Qual è il focus di Google quando si tratta di consumo di energia?
Google si concentra sull’efficienza energetica per risparmiare costi sul consumo di energia. - Quanta energia viene persa in un tipico data center a causa delle inefficienze tecnologiche?
Circa la metà dell’energia che va in un data center viene persa a causa delle inefficienze tecnologiche. - Qual è un posto in cui l’energia viene persa inutilmente per l’alimentazione?
Un terzo dell’elettricità che attraversa una tipica alimentazione perde come calore. - Perché Google utilizza alimentatori appositamente realizzati?
Google utilizza alimentatori appositamente realizzati al 90% efficienti per evitare di sprecare elettricità. - Sta ordinando alimentatori appositamente resi più costosi per Google?
Sì, ordinare alimentatori appositamente resi è più costoso per Google.
Software, server, sistemi, sensori e scienze: Facebook’Ricetta S per data center ipere efficienti
Efficienza e energia rinnovabile sono Facebook’S Prima linea di difesa per aiutare a frenare le nostre emissioni di carbonio e combattere i cambiamenti climatici, specialmente quando si tratta dei nostri data center.
Già nel 2011, Facebook è stata una delle prime grandi aziende tecnologiche a impegnarsi per l’energia rinnovabile al 100 %. L’anno scorso, l’energia solare e eolica ha fornito il 75 percento dell’energia utilizzata per gestire la nostra attività a livello globale. Oggi noi’Re sulla buona strada per raggiungere il nostro obiettivo per ridurre il nostro impronta di gas serra del 75 percento quando abbiamo raggiunto il nostro obiettivo di energia rinnovabile al 100 % nel 2020.
Punti chiave:
- Efficienza e energia rinnovabile sono le priorità di Facebook per i suoi data center.
- Facebook ha impegnato all’energia rinnovabile al 100 %.
- L’energia solare e eolica ha fornito il 75 percento dell’utilizzo di potenza di Facebook l’anno scorso.
- Facebook mira a ridurre il suo impronta di gas serra del 75 percento raggiungendo il suo obiettivo di energia rinnovabile al 100 %.
Domande:
- Quali sono le priorità di Facebook per i suoi data center?
Efficienza e energia rinnovabile sono le priorità di Facebook per i suoi data center. - Quando Facebook si è impegnato all’energia rinnovabile al 100 %?
Facebook si è impegnato per l’energia rinnovabile al 100 % già nel 2011. - Quale percentuale dell’utilizzo di energia di Facebook è stata fornita dall’energia solare e eolica l’anno scorso?
Il 75 percento dell’utilizzo dell’energia di Facebook è stato fornito dall’energia solare e eolica l’anno scorso. - Qual è l’obiettivo di Facebook per quanto riguarda la sua impronta di gas serra?
Facebook mira a ridurre il suo impronta di gas serra del 75 percento raggiungendo il suo obiettivo di energia rinnovabile al 100 %.
Tecnica al meta
Sì, quel progetto include un nuovo hardware e un nuovo software. Ciò che Google e Twitter hanno imparato è che, per i loro enormi servizi Web, server tradizionali di artisti del calibro di Dell, HP e IBM sono troppo costosi e troppo affamati e sellati con troppi hardware estranei. Quindi stanno razionalizzando questo hardware, costruendo ciò che è necessario per le attività a portata di mano. “Guardiamo l’efficienza. Guardiamo il carico di lavoro dei nostri lavori, cosa stiamo cercando di fare “, dice Roetter nel descrivere come il Twitter progetta le sue macchine.
Google costruisce i propri server per l’efficienza
Google, in genere a battute di tecnologia alla base dei suoi data center, costruisce i propri server per risparmiare costi e perché i prodotti standard non soddisfano esattamente le sue esigenze, ha detto giovedì il vicepresidente senior delle operazioni di Google.
I produttori di hardware investono fortemente nella ricerca e nello sviluppo di prodotti affidabili, una funzionalità che la maggior parte delle aziende apprezza. Ma Google in realtà non ha bisogno di server molto affidabili perché ha scritto il suo software per compensare le interruzioni hardware, ha affermato Urs Holzle, parlando giovedì alla sede europea di Google a Dublino.
Invece di acquistare server commerciali, a un prezzo che aumenta con l’affidabilità, Google costruisce server meno affidabili a un costo più economico sapendo che il suo software lavorerà su qualsiasi interruzione. “Per noi, questa è la soluzione giusta”, ha detto Holzle.
Un altro motivo per cui Google costruisce i propri server è altrettanto semplice: può risparmiare sui costi del consumo di energia.
L’efficienza energetica è un argomento di cui Holzle parla appassionatamente. Circa la metà dell’energia che va in un data center si perde a causa delle inefficienze tecnologiche che sono spesso facili da risolvere, ha detto.
L’alimentazione ai server è un posto in cui l’energia è inutilmente persa. Un terzo dell’elettricità che attraversa una tipica alimentazione perde come calore, ha detto. Questo è uno spreco di energia e crea anche costi aggiuntivi nel raffreddamento necessario a causa del calore aggiunto a un edificio.
Invece di sprecare l’elettricità e sostenere i costi aggiuntivi per il raffreddamento, Google ha alimentatori appositamente realizzati che sono efficienti al 90%. “Non è difficile da fare. Ecco perché per me è personalmente offensivo “che gli alimentatori standard non sono così efficienti, ha detto.
Mentre ammette che l’ordinazione di alimentatori appositamente fatti è più costoso dell’acquisto di prodotti standard, Google risparmia ancora denaro alla fine conservando energia e raffreddamento, ha detto.
Google ha i data center sparsi in tutto il mondo, ma di solito è riluttante a divulgare i dettagli dell’hardware e del software in esecuzione nei centri. Holzle ha parlato con i giornalisti durante la sua visita a Dublino per l’ultimo giorno di European Code Jam, un concorso per i programmatori sponsorizzato da Google nel tentativo di identificare potenziali lavoratori di talento.
- 9 certificazioni Wi-Fi che aumentano la carriera
- Cos’è MPLS e perché non è ancora morto?
- 11 modi per elencare e ordinare i file su Linux
- 5 scanner gratuiti di vulnerabilità di rete
- How-To Measure Enterprise Wi-Fi velocità
- Banca dati
- Computer e periferiche
Nancy è una giornalista freelance che ha iniziato a scrivere sui telefoni cellulari appena in tempo per coprire il passaggio al digitale.
Copyright © 2006 IDG Communications, Inc.
Software, server, sistemi, sensori e scienze: Facebook’Ricetta S per data center ipere efficienti
Efficienza e energia rinnovabile sono Facebook’S Prima linea di difesa per aiutare a frenare le nostre emissioni di carbonio e combattere i cambiamenti climatici, specialmente quando si tratta dei nostri data center.
Già nel 2011, Facebook è stata una delle prime grandi aziende tecnologiche a impegnarsi per l’energia rinnovabile al 100 %. L’anno scorso, l’energia solare e eolica ha fornito il 75 percento dell’energia utilizzata per gestire la nostra attività a livello globale. Oggi noi’Re sulla buona strada per raggiungere il nostro obiettivo per ridurre il nostro impronta di gas serra del 75 percento quando abbiamo raggiunto il nostro obiettivo di energia rinnovabile al 100 % nel 2020.
- Domande e risposte: Facebook raggiunge il 75% di energia rinnovabile
- Un nuovo data center verde nel deserto del New Mexico
- Questo data center riscalderà i loro cuori, o almeno riscalderà le loro case
La maggior parte di quella energia rinnovabile supporta la nostra infrastruttura globale e i data center, che sono grandi edifici che ronzano con migliaia di server che inviano informazioni digitali in tutto il mondo alla velocità della luce attraverso una rete di cavi sotterranei e sottomarini. Essi’Re The Secure, 24 ore su 24, 7 giorni su 7, mantengono le persone connesse tramite Facebook, Instagram, Messenger e WhatsApp.
L’apparecchiatura del server in questi data center richiede molta energia e acqua per rimanere accolti e raffreddati, quindi noi’sono sempre alla ricerca di modi creativi per fare di più con meno. L’efficienza è stata una parte importante di Facebook’S Data Center DNA da quando abbiamo iniziato a progettare la nostra prima struttura in Oregon oltre un decennio fa. Grazie alle decisioni di progettazione intelligente che si sommano attraverso l’intero stack di tecnologia al loro interno, i nostri data center risparmiano quantità significative di energia e acqua. Conservare queste risorse non è solo intelligente per la nostra attività, ma anche per l’ambiente.
Server, software, sistemi, sensori e scienze – scienza dei dati, cioè – sono la ricetta per Facebook’Data center ipere efficienti.
Software
Sfortunatamente, possiamo’t Mostra qualsiasi fotografia dei nostri data center più efficienti. Esso’non perché loro’è top secret. Esso’s perché loro’essere invisibile.
La storia di Facebook’L’efficienza del data center inizia con le righe del codice che fanno funzionare la nostra piattaforma. Ad esempio, nel 2016 abbiamo costruito MyRocks a tutto campo, un approccio intelligente per raddoppiare la compressione di una soluzione di accumulo di dati esistente chiamata INNODB. Myrocks taglia la quantità di server di archiviazione di cui avevamo bisogno in alcuni dei nostri data center a metà. E abbiamo sviluppato una tecnologia di bilanciamento del carico chiamata Autoscale per garantire che non siamo’T perdere energia dai server utilizzati a bassa capacità durante le ore di punta.
Noi’ha migliorato e ridimensionato entrambe queste iniziative di efficienza – insieme a molte altre – per ridurre al minimo la quantità di risorse di elaborazione di cui abbiamo bisogno per alimentare la nostra piattaforma. Quindi, tecnicamente parlando, i nostri data center più efficienti non’t Esistono davvero. Essi’sono quelli che non abbiamo mai dovuto costruire in primo luogo a causa di ingegneri intelligenti che’VE ha sviluppato soluzioni software innovative ed efficienti.
Server
Dieci anni fa, Facebook stava crescendo così in fretta che un approccio tradizionale alla costruzione e alla gestione dei nostri data center non avrebbe fatto’t lavoro. I server fuori dallo scaffale includevano troppe cose che non abbiamo fatto’b ha bisogno. Non erano’Fa facile per i tecnici da servire rapidamente e lo farebbero’t Aiutaci a raggiungere i livelli di efficienza che sapevamo essere possibili sotto un nuovo paradigma.
Quindi abbiamo progettato i nostri server e pubblicato il lavoro attraverso Open Compute Project (OCP), una comunità collaborativa di leader tecnologici. Abbiamo contribuito a lanciare l’OCP per elevare la tecnologia informatica efficiente e condividere pubblicamente le migliori soluzioni in modo da poter innovare tutti più velocemente.
Facebook’S “senza vanità” I server potrebbero non vincere un concorso di bellezza. Essi’re minimalista, spogliato di qualsiasi cosa non essenziale per operazioni efficienti. Le cornici di plastica, la vernice e le viti di montaggio sono state rimosse per ridurre il peso e il costo inferiore. I prodotti finali utilizzano molto meno materiale e sono molto più facili da servire per i tecnici di qualsiasi cosa possiamo acquistare. Questo design senza fronzoli ha un ulteriore vantaggio di prestazioni: un telaio con ventilatori più grandi e server con più superficie per dissipatori di calore consentono al flusso d’aria più liberamente, quindi è necessaria molta meno energia per mantenerli freschi e l’affidabilità non è’T compromesso.
Facebook’I server OCP S possono anche accettare una tensione più elevata e avere piccole batterie di backup nelle vicinanze anziché una centrale che serve l’intero edificio – quindi il nostro sistema di distribuzione elettrica non lo fa’T Energia dei rifiuti convertendo da una tensione a un’altra o tra la corrente alternata (AC) e la corrente continua (DC) tutte le volte rispetto ad altri data center.
Complessivamente, questi progetti innovativi ci aiutano a risparmiare un sacco di risorse, dai materiali necessari per produrre le macchine all’energia e all’acqua necessarie per alimentarle e mantenerle fresche mentre servono il traffico.
Sensori
Misurare, monitorare e gestire la complessa interazione di server, sistemi di alimentazione e apparecchiature di raffreddamento in tempo reale è fondamentale per garantire che i nostri data center funzionino a punta di massima prestazioni. Una vasta rete di sensori che valutano le condizioni ambientali come la temperatura, il flusso d’aria e l’umidità si nutrono in un computer centrale che tiene traccia delle tendenze e aiuta gli ingegneri operativi a dare un senso a tutti quei dati in modo che possano affrontare i problemi quando si presentano.
I nostri primi edifici per data center utilizzavano controller digitali diretti, lo stesso tipo di computer che gli edifici commerciali come edifici per uffici, scuole e centri commerciali avrebbero utilizzato per gestire tutti gli streaming dei dati dai sensori. Ma negli ultimi anni noi’VE Passa a controller logici programmabili, lo stesso tipo di sistema su cui gli ospedali, gli impianti di produzione industriale e i laboratori si basano per l’automazione per garantire un servizio efficiente, affidabile e ininterrotto. Forniscono un maggiore controllo sulle condizioni ambientali dei nostri data center e ci aiutano a operare costantemente alle prestazioni di punta.
Gli stessi dati che flussi dalla nostra rete di sensori alimentano anche i dashboard di visualizzazione pubblica che riportano l’efficacia dell’utilizzo dell’alimentazione in diretta (PUE) e l’efficacia dell’utilizzo dell’acqua (WUE) – Metriche chiave per misurare efficienti operazioni di data center. Nello spirito di trasparenza, chiunque può vedere lo stesso flusso di dati in tempo reale che i nostri ingegneri delle strutture utilizzano per garantire operazioni efficienti.
(Dati) Scienza
L’apprendimento automatico è un’applicazione della scienza dei dati che ci aiuta a ottimizzare l’efficienza del data center utilizzando le enormi quantità di dati registrati dai nostri sensori di apparecchiature. Abbiamo sviluppato algoritmi che percepiscono continuamente le condizioni operative; Confrontali con ciò che prevediamo essere, in base al contesto storico e ai dati meteorologici dal vivo; e sollevare una bandiera rossa quando dobbiamo studiare le irregolarità o apportare miglioramenti alle attrezzature.
Ad esempio, se notiamo che uno dei nostri siti sta utilizzando più energia o acqua rispetto al nostro modello di apprendimento automatico previsto, il team delle operazioni della struttura può iniziare a risolvere la causa prima che diventi un problema più grande. Noi’continua a investire in soluzioni di scienze dei dati per mantenere i nostri data center all’avanguardia dell’efficienza delle risorse.
Oltre l’efficienza
Anche con tutte queste misure di efficienza, i data center di Facebook hanno ancora bisogno di risorse per servire la nostra comunità globale. Quello’S perché noi’RE Lavorare per supportare le nostre operazioni con energia rinnovabile al 100 % e compensare la nostra impronta idrica con progetti di restauro in regioni aride che ne hanno bisogno di più.
Facebook’Gli obiettivi di energia rinnovabile hanno contribuito ad affrontare i cambiamenti climatici riducendo la nostra impronta di gas serra il 44 percento dal 2017 e lì’è un collegamento sorprendente anche ai risparmi idrici. L’energia generata con combustibili fossili come carbone e gas naturale richiede enormi quantità di acqua. Solo nel 2018, stimiamo che abbiamo salvato un miliardo di litri d’acqua passando a energia eolica e solare e lontano dall’uso dell’elettricità da utility standard negli Stati Uniti.
Facebook è impegnato nell’efficienza e nell’energia rinnovabile perché’è buono per la nostra attività, il pianeta e le comunità che serviamo e connettiamo. E i nostri data center continueranno a guidare con efficienza perché’S nel nostro DNA.
Perché’è la cosa giusta da fare.
Per saperne di più sull’efficienza, l’energia rinnovabile e la sostenibilità su Facebook, visita Sostenibilità.fb.com.
Scritto da:
Direttore del design, Global Data Center Design
Come Google e Facebook, Twitter progetta i propri server
Twitter è un riflesso di Google. Almeno in un modo molto grande. Non puoi vederlo.
Sì, Twitter offre un social network che offre un flusso infinito di mini-messagi, mentre Google offre, beh, tutti i tipi di servizi online, da un motore di ricerca su Internet a un servizio di posta elettronica online a una mappa digitale della Terra. Ma nell’espansione del suo social network a oltre 300 milioni di persone in tutto il mondo, destreggiandoti oltre 500 milioni di tweet al giorno, Twitter ha ricostruito la sua infrastruttura fondamentale nell’immagine di Google, che funziona in cima a una rete di data center che forniscono una raccolta senza precedenti di alimentazione calcolo.
Twitter si destreggia e analizza i dati utilizzando sistemi software spazzati in base a strumenti originariamente sviluppati su Google. Distribuisce meticolosamente le attività di calcolo su migliaia di macchine usando un clone di un sistema di Google chiamato Borg. Ha appena costruito un motore di intelligenza artificiale molto simile a Google Brain. Personalizza persino l’hardware alla Google.
Secondo Alex Roetter, responsabile dell’ingegneria di Twitter, la società ora impiega un team di progettisti di hardware che personalizzano i server di computer per i suoi data center. Questi designer non costruiscono singoli chip per computer, ma mettono insieme sistemi da parti esistenti. Quindi Twitter si contrae con produttori esterni – aziende più potenti in Asia, per costruirli. “Non stiamo progettando singoli circuiti”, dice Roetter, “ma abbiamo messo insieme le macchine.”Questo è simile a quello che Google ha fatto per anni.
Proprio ciò che è necessario
Tutto questo è in parte dovuto al fatto che così tanti ex ingegneri di Google ora lavorano su Twitter. Ma è anche perché Google ha risolto così efficacemente i problemi che affrontano le aziende Internet mentre si espandono da una piccola startup a un’operazione globale. Google fornisce un progetto per la moderna Internet nel suo insieme.
Sì, quel progetto include un nuovo hardware e un nuovo software. Ciò che Google e Twitter hanno imparato è che, per i loro enormi servizi Web, server tradizionali di artisti del calibro di Dell, HP e IBM sono troppo costosi e troppo affamati e sellati con troppi hardware estranei. Quindi stanno razionalizzando questo hardware, costruendo ciò che è necessario per le attività a portata di mano. “Guardiamo l’efficienza. Guardiamo il carico di lavoro dei nostri lavori, cosa stiamo cercando di fare “, dice Roetter nel descrivere come il Twitter progetta le sue macchine.
Ad esempio, Twitter ha recentemente modellato un nuovo tipo di macchina per il suo sistema di intelligenza artificiale, che si basa su “reti neurali”: reti di macchine che imitano la rete di neuroni nel cervello umano. Questi sistemi includono SCAD di unità di elaborazione grafica o GPU, che sono particolarmente abili nel eseguire reti neurali.
La nuova razza
Google e Twitter non sono gli unici. Seguendo il vantaggio di Google, molte aziende si stanno allontanando dalle macchine robuste e costose del passato. Secondo Jason Waxman, che supervisiona il gruppo di infrastrutture cloud presso Intel, il più grande produttore di chip al mondo, circa il 15 percento delle macchine da data center è ora questa nuova razza di sistema aerodinamico: “una sorta di server ottimizzato e basato su scala.”Tra le aziende che gestiscono servizi di cloud computing in stile Google, afferma, quel numero salta al 60 percento.
Questo non vuol dire che tutte queste aziende stanno progettando le proprie macchine. Dopo aver costruito i propri server semplificati, Facebook ha aperto i suoi progetti, condividendoli con il mondo in generale. Ciò ha costretto un cambiamento nel mercato hardware in tutto il mondo. Dell e HP e altri fornitori di hardware ora vendono macchine in base ai progetti di Facebook. Ciò significa che le aziende possono utilizzare server simili a Google senza progettare il proprio.
Alcuni hanno messo in discussione quante aziende hanno davvero bisogno di questa nuova razza. Ma i server di Twitter sono ancora un altro segno che il mercato si sta muovendo. Questo rende la vita più difficile per gli HP e i Dells. Anche se possono vendere macchine da utilizzare all’interno dei moderni servizi web, i loro margini hanno un successo. Ma non hanno molta scelta se non per entrare nel mercato. Internet richiede ciò che richiede.
Facebook shakes hardware World con attrezzatura di archiviazione propria
Facebook costruisce già i propri data center e i propri server. E ora il gigante del social-networking sta costruendo il proprio hardware di archiviazione: hardware per ospitare tutte quelle cose digitali caricate dai suoi oltre 845 milioni di utenti, tra cui foto e video. “Consertiamo alcune foto qua e là”, afferma Frank Frankovsky, l’ex uomo di Dell che sovrintende al design hardware su Facebook.
Salva la storia
Salva la storia
Facebook ha già creato il proprio data center e i propri server. E ora il gigante della rete sociale sta costruendo il proprio hardware di archiviazione: hardware per ospitare tutte le cose digitali caricate dai suoi oltre 845 milioni di utenti.
“Consertiamo alcune foto qua e là”, afferma Frank Frankovsky, l’ex uomo di Dell che sovrintende al design hardware su Facebook. Sarebbe un eufemismo. Secondo alcune stime, l’azienda immagazzina oltre 140 miliardi di fotografie digitali e contano.
Come gli altri giocatori leader del Web, tra cui Google e Amazon, Facebook esegue un’operazione online che va ben oltre lo scopo del business medio e che si traduce in costi hardware senza precedenti – e complicazioni hardware. Se stai ospitando 140 miliardi di foto digitali, hai bisogno di una nuova razza di hardware.
Nel costruire il proprio data center sull’Oregon High Desert, Facebook ha eliminato i refrigeratori elettrici, gli alimentatori ininterrotti e altri attrezzi terribilmente inefficienti. E nel lavorare con vari produttori di hardware per costruire i propri server, l’azienda non solo ha ridotto il consumo di energia, ma ti ha spogliato i sistemi fino agli elementi essenziali, rendendoli più facili da riparare e meno costosi. Frankovsky e il suo team chiamano questa ingegneria “Vanity Free” e ora hanno esteso la filosofia all’hardware di archiviazione.
“Stiamo adottando lo stesso approccio che abbiamo adottato con i server: elimina tutto ciò che non è direttamente aggiunto valore. La parte davvero preziosa dell’archiviazione è l’unità disco stessa e il software che controlla il modo in cui i dati vengono distribuiti e recuperati da tali unità. Vogliamo eliminare tutti i componenti ausiliari intorno al disco – e renderlo più utile “, dice Frankovsky durante una chiacchierata nel nuovo quartier generale di Facebook a Menlo Park, in California, che è anche l’ex sede del gigante dell’hardware di Onetime Sun Microsystems.
“Le correzioni di rottura sono un’attività in corso nel data center. Sfortunatamente, le unità disco sono ancora oggetti meccanici e falliscono. In effetti, sono uno degli articoli più alti di fallimento. Quindi [vogliamo] essere in grado di identificare rapidamente quale disco non ha fallito e sostituirlo, senza attraversare molti cerchi meccanici.”
Come per le sue creazioni di data center e server, Facebook intende “open source” i suoi progetti di archiviazione, condividendoli con chiunque li desideri. Lo sforzo fa parte del progetto di calcolo aperto dell’azienda, che cerca di ridurre ulteriormente il costo e il consumo di energia dell’hardware del data center facilitando la collaborazione in tutto il settore. Man mano che più aziende contribuiscono al progetto, il pensiero va, i progetti miglioreranno e, poiché più abiti usano effettivamente i progetti per i server e altri attrezzature – che sono fabbricati dai partner di Facebook a Taiwan e in Cina – i prezzi diminuiranno ancora di più.
Quando Facebook ha introdotto il progetto per la prima volta la scorsa primavera, molti lo hanno visto come una semplice acrobazia PR. Ma alcuni abiti di grande nome-tra cui alcuni al di fuori del gioco web-stanno già acquistando server di calcolo aperto. Non meno un nome di quanto Apple si è interessato alla progettazione dei dati consapevole di energia di Facebook. E secondo Frankovsky, il cinquanta per cento dei contributi ai progetti open source del progetto è ora proveniente dall’esterno di Facebook.
Più popolare
Il trope sessuale fanfic che ha catturato un saccheggio AI in flagrante
Rose Eveleth
I migliori giochi Nintendo Switch per ogni tipo di giocatore
Personale cablato
Più pinguini di quanto gli europei possano utilizzare Google Bard
Morgan Meaker
Il caso curioso dell’assistente di Google mancante
Khari Johnson
Per Peter Krey – che ha contribuito a costruire un’enorme griglia informatica per una delle più grandi istituzioni finanziarie di Wall Street e ora consiglia i CIO e i CTO di più aziende di Wall Street mentre costruiscono l’infrastruttura “cloud” all’interno dei loro data center – il progetto di Facebook è atteso da tempo. Durante la costruzione di quella griglia informatica, dice Krey, lui e i suoi colleghi spesso chiedevano a alcuni venditori di server di “livello uno” di spogliare hardware proprietario e componenti inutili dalle loro macchine al fine di conservare energia e costo. Ma la risposta è stata sempre no. “E non stavamo comprando solo alcuni server”, dice. “Stavamo comprando migliaia di server.”
Ora, Facebook ha fornito una nuova opzione per questi grandi abiti da Wall Street. Ma Krey afferma anche che anche tra le aziende tradizionali che probabilmente possono beneficiare di questa nuova razza di hardware, il progetto non è sempre accolto con le armi aperte. “Questi ragazzi hanno fatto le cose allo stesso modo per molto tempo”, dice a Wired.
Hardware per comitato
Facebook pubblicherà i suoi nuovi progetti di archiviazione all’inizio di maggio al prossimo Summit Open Calco. Nomi come Intel, Dell, Netflix, Rackspace, Giant Giant NTT Data e produttore di schede madri Asus sono membri, e lo scorso autunno, all’ultimo vertice, Facebook ha annunciato la creazione di una base senza scopo di lucro attorno al progetto, giurando di cedere il controllo della comunità in generale.
Il progetto è iniziato con i progetti di data center e server di Facebook. Ma da allora si è esteso a vari altri sottoprogetti e i collaboratori includono più delle società web. Rackspace contribuisce, ma anche il gigante finanziario Goldman Sachs.
Rackspace sta conducendo uno sforzo per costruire un protocollo “I/O” virtuale, che consentirebbe alle aziende di separare fisicamente varie parti dei server di oggi. Potresti avere le tue CPU in un contenitore, ad esempio, la tua memoria in un altro e le tue schede di rete in un terzo. Questo ti consentirebbe di aggiornare le tue CPU senza toccare altre parti del sistema tradizionale. “DRAM non [cambia] velocemente come le CPU”, afferma Frankovsky. “Non sarebbe bello se potessi effettivamente disaggregare le CPU dal complesso DRAM?”
Con un progetto gemello, i membri del progetto stanno anche lavorando per creare un nuovo design rack in grado di ospitare questo tipo di infrastruttura server re-immaginata. Un server rack tradizionale ospita diverse singole macchine, ognuna con il proprio telaio. Ma il progetto di rack aperto cerca di eliminare completamente il telaio del server e girare il rack Nel telaio.
Nel frattempo, Goldman Sachs sta facendo uno sforzo per costruire un mezzo comune per la gestione dei server distribuiti sul tuo data center. Parte del ricorso del progetto di calcolo aperto, afferma Peter Krey, è che il progetto adotta un “approccio olistico” alla progettazione di hardware di data center. I membri non progettano il data center separatamente dai server e i server separatamente dall’ingranaggio di archiviazione. Stanno progettando tutto per lavorare in tandem. “Il tradizionale design del data center. è balcanizzato “, dice Krey. “[Ma] i ragazzi OCP hanno progettato e creato tutti i componenti per integrare e lavorare in modo efficiente insieme.”