Facebook gère-t-il leurs propres serveurs
Tech à Meta
Google construit ses propres serveurs pour l’efficacité
Google, généralement serré sur la technologie derrière ses centres de données, construit ses propres serveurs pour économiser les coûts et parce que les produits standard ne répondent pas exactement à ses besoins, a déclaré jeudi le vice-président principal des opérations de Google.
Les fabricants de matériel investissent massivement dans la recherche et le développement de produits fiables, une fonctionnalité que la plupart des entreprises apprécient. Mais Google n’a pas réellement besoin de serveurs très fiables car il a écrit son logiciel pour compenser les pannes matérielles, a déclaré Urs Holzle, s’exprimant jeudi au siège européen de Google à Dublin.
Au lieu d’acheter des serveurs commerciaux, à un prix qui augmente avec la fiabilité, Google construit des serveurs moins fiables à un coût moins cher sachant que son logiciel contribuera à des pannes. “Pour nous, c’est la bonne solution”, a déclaré Holzle.
Une autre raison pour laquelle Google construit ses propres serveurs est tout aussi simple: il peut réduire les coûts de consommation d’énergie.
L’efficacité énergétique est un sujet que Holzle parle passionnément. Environ la moitié de l’énergie qui va dans un centre de données se perd en raison des inefficacités technologiques qui sont souvent faciles à réparer, a-t-il dit.
L’alimentation des serveurs est un endroit où l’énergie est inutilement perdue. Un tiers de l’électricité qui traverse une alimentation typique s’échappe sous la chaleur, a-t-il dit. C’est un gaspillage d’énergie et crée également des coûts supplémentaires dans le refroidissement nécessaire en raison de la chaleur ajoutée à un bâtiment.
Plutôt que de gaspiller l’électricité et de subir les coûts supplémentaires pour le refroidissement, Google a des alimentations spécialement conçues qui sont efficaces à 90%. “Ce n’est pas difficile à faire. C’est pourquoi pour moi c’est personnellement offensant “que les aliments standard ne sont pas aussi efficaces, a-t-il dit.
Bien qu’il admet que commander des alimentations spécialement conçues est plus chère que l’achat de produits standard, Google économise toujours de l’argent en conservant l’énergie et le refroidissement, a-t-il dit.
Points clés:
- Google construit ses propres serveurs pour réduire les coûts et parce que les produits standard ne répondent pas à ses besoins.
- Le logiciel de Google compense les pannes matérielles, il n’a donc pas besoin de serveurs très fiables.
- Construire des serveurs moins fiables à un coût moins cher est la bonne solution pour Google.
- Google économise des coûts sur la consommation d’énergie en se concentrant sur l’efficacité énergétique.
- La moitié de l’énergie qui va dans un centre de données est perdue en raison des inefficacités technologiques.
- Google utilise des alimentations spécialement conçues qui sont efficaces à 90% pour éviter de gaspiller l’électricité.
- Commander des alimentations spécialement conçues est plus cher mais permet finalement d’économiser de l’argent pour Google.
Des questions:
- Pourquoi Google construit-il ses propres serveurs?
Google construit ses propres serveurs pour réduire les coûts et parce que les produits standard ne répondent pas à ses besoins. - Comment Google compense-t-il les pannes matérielles?
Le logiciel de Google est conçu pour compenser les pannes matérielles. - Quel est l’avantage de créer des serveurs moins fiables pour Google?
Construire des serveurs moins fiables à un coût moins cher est la bonne solution pour Google. - Quelle est l’orientation de Google en ce qui concerne la consommation d’énergie?
Google se concentre sur l’efficacité énergétique pour réduire les coûts sur la consommation d’énergie. - Combien d’énergie est perdue dans un centre de données typique en raison des inefficacités technologiques?
Environ la moitié de l’énergie qui va dans un centre de données est perdue en raison des inefficacités technologiques. - Quel est un endroit où l’énergie est inutilement perdue dans l’alimentation?
Un tiers de l’électricité qui traverse une alimentation typique s’échappe sous forme de chaleur. - Pourquoi Google utilise-t-il des alimentations spécialement conçues?
Google utilise des alimentations spécialement conçues qui sont efficaces à 90% pour éviter de gaspiller l’électricité. - La commande est-elle spécialement conçue pour les aliments plus chers pour Google?
Oui, commander des alimentations spécialement conçues est plus cher pour Google.
Logiciels, serveurs, systèmes, capteurs et science: Facebook’S Recette pour les centres de données hydratant
L’efficacité et les énergies renouvelables sont Facebook’s Première ligne de défense pour aider à freiner nos émissions de carbone et à combattre le changement climatique, surtout en ce qui concerne nos centres de données.
Dès 2011, Facebook a été l’une des premières grandes entreprises technologiques à s’engager à 100% d’énergie renouvelable. L’année dernière, l’énergie solaire et éolienne a fourni 75% de l’énergie utilisée pour exploiter notre entreprise à l’échelle mondiale. Aujourd’hui nous’RE sur la bonne voie pour atteindre notre objectif de réduire notre empreinte de gaz à effet de serre de 75% lorsque nous atteignons notre objectif d’énergie renouvelable à 100% en 2020.
Points clés:
- L’efficacité et les énergies renouvelables sont les priorités de Facebook pour ses centres de données.
- Facebook s’est engagé à 100% d’énergie renouvelable.
- L’énergie solaire et éolienne a fourni 75% de la consommation d’électricité de Facebook l’année dernière.
- Facebook vise à réduire son empreinte de gaz à effet de serre de 75% en atteignant son objectif d’énergie renouvelable à 100%.
Des questions:
- Quelles sont les priorités de Facebook pour ses centres de données?
L’efficacité et les énergies renouvelables sont les priorités de Facebook pour ses centres de données. - Quand Facebook s’est-il engagé à 100% d’énergie renouvelable?
Facebook s’est engagé à 100% d’énergie renouvelable dès 2011. - Quel pourcentage de la consommation d’énergie de Facebook a été fourni par l’énergie solaire et éolienne l’année dernière?
75% de la consommation d’énergie de Facebook a été fournie par l’énergie solaire et éolienne l’année dernière. - Quel est l’objectif de Facebook concernant son empreinte de gaz à effet de serre?
Facebook vise à réduire son empreinte de gaz à effet de serre de 75% en atteignant son objectif d’énergie renouvelable à 100%.
Tech à Meta
Oui, ce Blueprint comprend de nouveaux matériels ainsi que de nouveaux logiciels. Ce que Google et Twitter ont appris, c’est que, pour leurs énormes services Web, les serveurs traditionnels de Dell, HP et IBM sont trop chers et trop avertis et sellés avec un matériel trop étranger. Ils rationalisent donc ce matériel, construisant ce qui est nécessaire pour les tâches à portée de main. “Nous regardons l’efficacité. Nous regardons la charge de travail de nos emplois, ce que nous essayons de faire “, dit Roetter en décrivant comment Twitter conçoit ses machines.
Google construit ses propres serveurs pour l’efficacité
Google, généralement serré sur la technologie derrière ses centres de données, construit ses propres serveurs pour économiser les coûts et parce que les produits standard ne répondent pas exactement à ses besoins, a déclaré jeudi le vice-président principal des opérations de Google.
Les fabricants de matériel investissent massivement dans la recherche et le développement de produits fiables, une fonctionnalité que la plupart des entreprises apprécient. Mais Google n’a pas réellement besoin de serveurs très fiables car il a écrit son logiciel pour compenser les pannes matérielles, a déclaré Urs Holzle, s’exprimant jeudi au siège européen de Google à Dublin.
Au lieu d’acheter des serveurs commerciaux, à un prix qui augmente avec la fiabilité, Google construit des serveurs moins fiables à un coût moins cher sachant que son logiciel contribuera à des pannes. “Pour nous, c’est la bonne solution”, a déclaré Holzle.
Une autre raison pour laquelle Google construit ses propres serveurs est tout aussi simple: il peut réduire les coûts de consommation d’énergie.
L’efficacité énergétique est un sujet que Holzle parle passionnément. Environ la moitié de l’énergie qui va dans un centre de données se perd en raison des inefficacités technologiques qui sont souvent faciles à réparer, a-t-il dit.
L’alimentation des serveurs est un endroit où l’énergie est inutilement perdue. Un tiers de l’électricité qui traverse une alimentation typique s’échappe sous la chaleur, a-t-il dit. C’est un gaspillage d’énergie et crée également des coûts supplémentaires dans le refroidissement nécessaire en raison de la chaleur ajoutée à un bâtiment.
Plutôt que de gaspiller l’électricité et de subir les coûts supplémentaires pour le refroidissement, Google a des alimentations spécialement conçues qui sont efficaces à 90%. “Ce n’est pas difficile à faire. C’est pourquoi pour moi c’est personnellement offensant “que les aliments standard ne sont pas aussi efficaces, a-t-il dit.
Bien qu’il admet que commander des alimentations spécialement conçues est plus chère que l’achat de produits standard, Google économise toujours de l’argent en conservant l’énergie et le refroidissement, a-t-il dit.
Google a des centres de données dispersés dans le monde entier, mais hésite généralement à divulguer les détails du matériel et des logiciels en cours d’exécution dans les centres. Holzle s’est entretenu avec des journalistes lors de sa visite à Dublin pour la dernière journée du Code européen Jam, un concours de programmeurs parrainé par Google dans le but d’identifier les travailleurs potentiels talentueux.
- 9 Certifications Wi-Fi de la carrière
- Qu’est-ce que les MPL, et pourquoi n’est-il pas encore mort?
- 11 façons de répertorier et de trier les fichiers sur Linux
- 5 scanners de vulnérabilité réseau gratuits
- Mesure des vitesses Wi-Fi de l’entreprise
- Centre de données
- Ordinateurs et périphériques
Nancy est une journaliste indépendante qui a commencé à écrire sur les téléphones mobiles juste à temps pour couvrir la transition vers le numérique.
Copyright © 2006 IDG Communications, Inc.
Logiciels, serveurs, systèmes, capteurs et science: Facebook’S Recette pour les centres de données hydratant
L’efficacité et les énergies renouvelables sont Facebook’s Première ligne de défense pour aider à freiner nos émissions de carbone et à combattre le changement climatique, surtout en ce qui concerne nos centres de données.
Dès 2011, Facebook a été l’une des premières grandes entreprises technologiques à s’engager à 100% d’énergie renouvelable. L’année dernière, l’énergie solaire et éolienne a fourni 75% de l’énergie utilisée pour exploiter notre entreprise à l’échelle mondiale. Aujourd’hui nous’RE sur la bonne voie pour atteindre notre objectif de réduire notre empreinte de gaz à effet de serre de 75% lorsque nous atteignons notre objectif d’énergie renouvelable à 100% en 2020.
- Q&R: Facebook atteint 75% d’énergie renouvelable
- Un nouveau centre de données vert dans le désert du Nouveau-Mexique
- Ce centre de données réchauffera son cœur, ou du moins chauffer leur maison
La plupart de cette énergie renouvelable soutient nos centres d’infrastructure et de données mondiaux, qui sont de grands bâtiments qui bourdonnent de milliers de serveurs qui envoient des informations numériques à travers le monde à la vitesse de la lumière via un réseau de câbles souterrains et sous-marins. Ils’Re les installations sécurisées 24/7 gardant les gens connectés via Facebook, Instagram, Messenger et WhatsApp.
L’équipement du serveur dans ces centres de données nécessite beaucoup d’énergie et d’eau pour rester potentiel et refroidi, donc nous’re recherche toujours des moyens créatifs de faire plus avec moins. L’efficacité a été une grande partie de Facebook’S Data Center ADN depuis que nous avons commencé à concevoir notre première installation en Oregon il y a plus de dix ans. Grâce aux décisions de conception intelligente qui s’additionnent à travers la pile de technologie complète à l’intérieur, nos centres de données économisent des quantités importantes d’énergie et d’eau. La conservation de ces ressources est non seulement intelligente pour notre entreprise, mais aussi bonne pour l’environnement.
Les serveurs, les logiciels, les systèmes, les capteurs et la science – la science des données, c’est-à-dire – sont la recette de Facebook’s centres de données hyperfficants.
Logiciel
Malheureusement, nous pouvons’t Montre toutes les photographies de nos centres de données les plus efficaces. Il’n’est pas parce qu’ils’re-secret. Il’s parce qu’ils’être invisible.
L’histoire de Facebook’S l’efficacité du centre de données commence par les lignes de code qui font fonctionner notre plateforme. Par exemple, en 2016, nous avons construit et open source Myrocks, une approche intelligente pour doubler la compression d’une solution de stockage de données existante appelée InNODB. MyRocks a réduit la quantité de serveurs de stockage dont nous avions besoin dans certains de nos centres de données en deux. Et nous avons développé une technologie d’équilibrage de charge appelée Autoscale pour nous assurer que nous étions’t gaspillage de l’énergie des serveurs utilisés à faible capacité pendant les heures hors pointe.
Nous’J’ai amélioré et augmenté ces deux initiatives d’efficacité – ainsi que beaucoup d’autres – pour minimiser la quantité de ressources informatiques dont nous avons besoin pour alimenter notre plateforme. Donc, techniquement parlant, nos centres de données les plus efficaces’Il existe vraiment. Ils’ce que nous n’avons jamais eu à construire en premier lieu à cause des ingénieurs intelligents qui’ve a développé des solutions logicielles innovantes et efficaces.
Les serveurs
Il y a dix ans, Facebook grandissait si vite qu’une approche traditionnelle de la construction et de l’exploitation de nos centres de données ne serait pas’t. Les serveurs standard incluaient trop de choses que nous avons faites’t besoin. Ils étaient’t Facile pour les techniciens de servir rapidement et ne serait pas’Je nous aide à atteindre les niveaux d’efficacité que nous savions possibles sous un nouveau paradigme.
Nous avons donc conçu nos propres serveurs et publié le travail sur le projet Open Calcul (OCP), une communauté collaborative de leaders technologiques. Nous avons aidé à lancer l’OCP pour élever une technologie informatique efficace et partager publiquement les meilleures solutions afin que nous puissions tous innover plus rapidement.
Facebook’s “sans vanité” Les serveurs pourraient ne pas gagner un concours de beauté. Ils’re minimaliste, dépouillé de tout ce qui n’est pas essentiel pour des opérations efficaces. Des lunettes en plastique, de la peinture et des vis de montage ont été retirées pour réduire le poids et le coût inférieur. Les produits finaux utilisent beaucoup moins de matériel et sont beaucoup plus faciles à entretenir pour les techniciens que tout ce que nous pourrions acheter. Cette conception sans fioritures a un avantage de performance supplémentaire: un châssis avec des ventilateurs et des serveurs plus grands avec plus de surface pour les dissipateurs de chaleur laisse l’air plus librement, donc beaucoup moins d’énergie est nécessaire pour les garder frais et la fiabilité n’est pas’t compromis.
Facebook’Les serveurs OCP peuvent également accepter une tension plus élevée – et avoir de petites batteries de secours à proximité au lieu d’un bâtiment central servant tout le bâtiment – donc notre système de distribution électrique ne fait pas’t déchet l’énergie en convertissant d’une tension en une autre ou entre le courant alternatif (AC) et le courant direct (DC) autant de fois que les autres centres de données.
Dans l’ensemble, ces conceptions innovantes nous aident à économiser une tonne de ressources, des matériaux nécessaires pour fabriquer les machines à l’énergie et à l’eau qu’il faut pour les alimenter et les garder au frais pendant qu’ils servent le trafic.
Capteurs
La mesure, la surveillance et la gestion de l’interaction complexe des serveurs, des systèmes d’alimentation et des équipements de refroidissement en temps réel sont essentiels pour s’assurer que nos centres de données fonctionnent à des performances de pointe. Un vaste réseau de capteurs qui évaluent les conditions environnementales telles que la température, le flux d’air et l’humidité alimentent un ordinateur central qui maintient la trace des tendances et aide les ingénieurs de l’opération des installations à donner un sens à toutes ces données afin qu’ils puissent résoudre les problèmes lorsqu’ils surviennent.
Nos premiers bâtiments de centre de données ont utilisé des contrôleurs numériques directs, le même type d’ordinateur que les bâtiments commerciaux tels que les immeubles de bureaux, les écoles et les centres commerciaux utiliseraient pour gérer toutes les données en streaming à partir de capteurs. Mais au cours des dernières années, nous’VE est passé à des contrôleurs logiques programmables, le même type de système sur lequel les hôpitaux, les installations de fabrication industrielle et les laboratoires comptent pour l’automatisation pour assurer un service efficace, fiable et ininterrompu. Ils fournissent un plus grand contrôle sur les conditions environnementales de nos centres de données et nous aident à fonctionner de manière cohérente à des performances de pointe.
Les mêmes données qui diffusent de notre réseau de capteurs alimentent également les tableaux de bord d’affichage public qui rapportent l’efficacité de l’utilisation de la puissance en direct (PUE) et l’efficacité de l’utilisation de l’eau (WUE) – Métriques clés pour mesurer les opérations efficaces du centre de données de données. Dans un esprit de transparence, n’importe qui peut voir le même flux de données en temps réel que nos ingénieurs d’installation utilisent pour assurer des opérations efficaces.
(Données) science
L’apprentissage automatique est une application de la science des données qui nous aide à optimiser l’efficacité du centre de données en utilisant les quantités massives de données enregistrées à partir de nos capteurs d’équipement. Nous avons développé des algorithmes qui ressentent continuellement les conditions opérationnelles; Comparez-les avec ce que nous prédisons être, en fonction du contexte historique et des données météorologiques en direct; et élever un drapeau rouge lorsque nous devons étudier les irrégularités ou apporter des améliorations d’équipement.
Par exemple, si nous remarquons que l’un de nos sites utilise plus d’énergie ou d’eau que notre modèle d’apprentissage automatique prévu, l’équipe d’opérations de l’installation peut commencer à dépanner la cause avant de devenir un problème plus important. Nous’Réinvestir dans des solutions de science des données pour conserver nos centres de données sur le bord d’attaque de l’efficacité des ressources.
Au-delà de l’efficacité
Même avec toutes ces mesures d’efficacité, les centres de données Facebook ont encore besoin de ressources pour servir notre communauté mondiale. Ce’S pourquoi nous’Travaille pour soutenir nos opérations avec des énergies renouvelables à 100% et compenser notre empreinte d’eau avec des projets de restauration dans les régions arides qui en ont le plus besoin.
Facebook’Les objectifs de l’énergie renouvelable ont contribué à lutter contre le changement climatique en réduisant notre empreinte de gaz à effet de serre de 44% depuis 2017, et là’est un lien surprenant avec les économies d’eau aussi. L’énergie produite avec des combustibles fossiles tels que le charbon et le gaz naturel nécessite des quantités massives d’eau. Rien qu’en 2018, nous estimons que nous avons économisé un milliard de gallons d’eau en transitionnant vers l’énergie éolienne et solaire et loin de l’utilisation de l’électricité des services publics standard aux États-Unis.
Facebook s’engage à l’efficacité et aux énergies renouvelables car elle’est bon pour notre entreprise, la planète et les communautés que nous servons et connectons. Et nos centres de données continueront de mener avec l’efficacité parce qu’il’s dans notre ADN.
Parce qu’il’S la bonne chose à faire.
Pour en savoir plus sur l’efficacité, les énergies renouvelables et la durabilité sur Facebook, visitez Durabilité.fb.com.
Écrit par:
Directeur de conception, conception du centre de données mondiales
Comme Google et Facebook, Twitter conçoit ses propres serveurs
Twitter est le reflet de Google. Au moins d’une très grande manière. Tu ne peux pas le voir.
Oui, Twitter propose un réseau social qui offre un flux sans fin de mini-messages, tandis que Google propose, eh bien, toutes sortes de services en ligne, d’un moteur de recherche Internet à un service de messagerie en ligne à une carte numérique de la Terre. Mais en élargissant son réseau social à plus de 300 millions de personnes à travers le monde, jonglant avec plus de 500 millions de tweets par jour, Twitter a reconstruit son infrastructure fondamentale à l’image de Google, qui s’exécute au sommet d’un réseau de centres de données qui fournissent une collection sans précédent d’électricité informatique.
Twitter jongle et analyse les données à l’aide de systèmes logiciels de balayage basés sur des outils développés à l’origine chez Google. Il répartit méticuleusement les tâches informatiques sur des milliers de machines à l’aide d’un clone d’un système Google appelé Borg. Il vient de construire un moteur d’intelligence artificielle un peu comme le cerveau Google. Il personnalise même le matériel à la google.
Selon Alex Roetter, responsable de l’ingénierie de Twitter, la société utilise désormais une équipe de concepteurs de matériel qui personnalisent les serveurs informatiques pour ses centres de données. Ces concepteurs ne construisent pas de puces informatiques individuelles, mais ils rassemblent des systèmes à partir de pièces existantes. Ensuite, Twitter se contracte avec des fabricants externes – des sociétés vives en Asie – pour les construire. “Nous ne concevons pas de circuits individuels”, dit Roetter, “mais nous assemblons des machines ensemble.”C’est similaire à ce que Google a fait pendant des années.
Juste ce qui est nécessaire
Tout cela est en partie parce que tant d’anciens ingénieurs de google travaillent désormais sur Twitter. Mais c’est aussi parce que Google a si efficacement résolu les problèmes auxquels les sociétés Internet sont confrontées à une petite startup à une opération mondiale. Google fournit un plan pour l’Internet moderne dans son ensemble.
Oui, ce Blueprint comprend de nouveaux matériels ainsi que de nouveaux logiciels. Ce que Google et Twitter ont appris, c’est que, pour leurs énormes services Web, les serveurs traditionnels de Dell, HP et IBM sont trop chers et trop avertis et sellés avec un matériel trop étranger. Ils rationalisent donc ce matériel, construisant ce qui est nécessaire pour les tâches à portée de main. “Nous regardons l’efficacité. Nous regardons la charge de travail de nos emplois, ce que nous essayons de faire “, dit Roetter en décrivant comment Twitter conçoit ses machines.
Par exemple, Twitter a récemment façonné un nouveau type de machine pour son système d’IA, qui est basé sur des “réseaux de neurones” – des réseaux de machines qui imitent le réseau des neurones dans le cerveau humain. Ces systèmes comprennent des SCAD des unités de traitement des graphiques, ou GPU, qui sont particulièrement aptes à gérer les réseaux neuronaux.
La nouvelle race
Google et Twitter ne sont pas les seuls. Suivant l’exemple de Google, de nombreuses entreprises s’éloignent maintenant des machines costaud et coûteuses du passé. Selon Jason Waxman, qui supervise le groupe d’infrastructure cloud chez Intel, le plus grand fabricant de puces du monde, environ 15% des machines de centre de données sont maintenant cette nouvelle race de système rationalisé – “une sorte de serveur optimisé et basé sur l’échelle.”Parmi les entreprises qui gèrent des services de cloud computing de style Google, dit-il, ce nombre passe à 60%.
Cela ne veut pas dire que toutes ces entreprises conçoivent leurs propres machines. Après avoir construit ses propres serveurs rationalisés, Facebook a ouvert ses conceptions, les partageant avec le monde en général. Cela a forcé un changement sur le marché du matériel mondial. Dell et HP et d’autres fournisseurs de matériel vendent désormais des machines en fonction des conceptions de Facebook. Ce que cela signifie que les entreprises peuvent utiliser des serveurs de type Google sans concevoir le leur.
Certains ont demandé combien d’entreprises ont vraiment besoin de cette nouvelle race. Mais les serveurs de Twitter sont encore un autre signe que le marché change. Cela rend la vie plus difficile au HPS et aux Dells. Même s’ils peuvent vendre des machines à utiliser dans les services Web modernes, leurs marges prennent un coup. Mais ils n’ont pas beaucoup de choix mais pour entrer sur le marché. Internet demande ce qu’il demande.
Facebook secoue le monde matériel avec propre équipement de stockage
Facebook construit déjà ses propres centres de données et ses propres serveurs. Et maintenant, le géant des réseaux sociaux construit son propre matériel de stockage – matériel pour abriter tous ces trucs numériques téléchargés par ses plus de 845 millions d’utilisateurs, y compris des photos et des vidéos. “Nous stockons quelques photos ici et là”, explique Frank Frankovsky, l’ex-Dell Man qui supervise la conception matérielle sur Facebook.
Sauver l’histoire
Sauver l’histoire
Facebook a déjà construit son propre centre de données et ses propres serveurs. Et maintenant, le géant des réseaux sociaux construit son propre matériel de stockage – matériel pour loger tous les trucs numériques téléchargés par plus de 845 millions d’utilisateurs.
“Nous stockons quelques photos ici et là”, explique Frank Frankovsky, l’ex-Dell Man qui supervise la conception matérielle sur Facebook. Ce serait un euphémisme. Selon certaines estimations, la société stocke plus de 140 milliards de photographies numériques – et comptant.
Comme les autres joueurs de premier plan du Web – y compris Google et Amazon – Facebook gère une opération en ligne qui dépasse bien le champ d’application de l’entreprise moyenne, et qui se traduit par des coûts matériels sans précédent – et des complications matérielles. Si vous hébergez 140 milliards de photos numériques, vous avez besoin d’une nouvelle race de matériel.
En construisant son propre centre de données sur le désert élevé de l’Oregon, Facebook a supprimé des refroidisseurs électriques, des alimentations sans interruption et d’autres équipements terriblement inefficaces. Et en travaillant avec divers fabricants de matériel pour construire ses propres serveurs, la société a non seulement réduit la consommation d’énergie, mais il vous a dépouillé. Frankovsky et son équipe appelle cette ingénierie “sans vanité”, et maintenant, ils ont étendu la philosophie au matériel de stockage.
“Nous adoptons la même approche que nous avons adoptée avec les serveurs: éliminer tout ce qui n’ajoute pas directement de valeur. La partie vraiment précieuse du stockage est le lecteur de disque lui-même et le logiciel qui contrôle comment les données sont distribuées et récupérées de ces disques. Nous voulons éliminer tous les composants auxiliaires autour du trajet – et le rendre plus utilisable “, dit Frankovsky lors d’une conversation au nouveau siège social de Facebook à Menlo Park, en Californie, qui se trouve également être l’ancienne maison du géant du matériel Onetime Sun Microsystems.
“Les correctifs de pause sont une activité continue dans le centre de données. Malheureusement, les lecteurs de disque sont toujours des éléments mécaniques, et ils échouent. En fait, ils sont l’un des éléments de taux d’échec supérieur. Donc [nous voulons] être en mesure d’identifier rapidement quel disque a échoué et de le remplacer, sans passer par beaucoup de cerceaux mécaniques.”
Comme pour ses créations de centre de données et de serveur, Facebook a l’intention de “open source” ses conceptions de stockage, en les partageant avec quiconque les veut. L’effort fait partie du projet de calcul ouvert de l’entreprise, qui vise à réduire davantage le coût et la consommation d’énergie du matériel du centre de données en facilitant la collaboration à travers l’industrie. Alors que de plus en plus d’entreprises contribuent au projet, selon la pensée, les conceptions s’amélioreront et que davantage de tenues utilisent réellement les conceptions pour les serveurs et autres équipements – qui sont fabriqués par des partenaires Facebook à Taiwan et en Chine – les prix baisseront encore plus.
Lorsque Facebook a présenté le projet pour la première fois au printemps dernier, beaucoup l’ont vu comme un simple coup de relations publiques. Mais certaines grandes tenues – y compris certains en dehors du jeu Web – achètent déjà des serveurs de calcul ouverts. Pas moins un nom qu’Apple ne s’est intéressé à la conception du centre de données soucieux de Facebook. Et selon Frankovsky, cinquante pour cent des contributions aux conceptions open source du projet viennent désormais de l’extérieur de Facebook.
Le plus populaire
Le trope de sexe fanfic qui a attrapé un pillage AI en flagrant délit
Rose Eveleth
Les meilleurs jeux Nintendo Switch pour tous les types de joueurs
Personnel câblé
Plus de pingouins que les Européens peuvent utiliser Google Bard
Morgan Meaker
Le cas curieux de l’assistant Google manquant
Khari Johnson
Pour Peter Krey – qui a aidé à construire un réseau informatique massif pour l’une des plus grandes institutions financières de Wall Street et conseille désormais les DSI et les CTO de plusieurs entreprises de Wall Street alors qu’ils construisent une infrastructure de “cloud” dans leurs centres de données – le projet de Facebook est attendu depuis longtemps. Tout en construisant cette grille informatique, dit Krey, lui et ses collègues demandaient souvent à certains vendeurs de serveurs “Tier One” pour dépouiller le matériel propriétaire et les composants inutiles de leurs machines afin de conserver la puissance et le coût. Mais la réponse était toujours non. “Et nous n’achetons pas seulement quelques serveurs”, dit-il. “Nous achetions des milliers de serveurs.”
Maintenant, Facebook a fourni une nouvelle option pour ces tenues de Wall Street. Mais Krey dit également que même parmi les entreprises traditionnelles qui peuvent probablement bénéficier de cette nouvelle race de matériel, le projet n’est pas toujours rencontré à bras ouverts. “Ces gars-là ont fait les choses de la même manière depuis longtemps”, dit-il à Wired.
Matériel par comité
Facebook publiera ses nouvelles conceptions de stockage au début du mois de mai au prochain Open Compute Summit, une mini-conférence où les membres du projet se rassemblent pour discuter de cette expérience dans le matériel open source. Des noms tels que Intel, Dell, Netflix, Rackspace, le géant de la technologie japonaise NTT Data et le fabricant de cartes mère Asus sont membres, et l’automne dernier, lors du dernier sommet, Facebook a annoncé la création d’une fondation à but non lucratif autour du projet, promettant de céder le contrôle à la communauté dans son ensemble dans son ensemble.
Le projet a commencé avec le centre de données de Facebook et les conceptions de serveurs. Mais il s’est depuis étendu à divers autres sous-projets, et les contributeurs incluent plus que de simples sociétés Web. Rackspace contribue, mais le géant financier Goldman Sachs aussi.
Rackspace mène un effort pour construire un protocole “E / S virtuel”, qui permettrait aux entreprises de séparer physiquement diverses parties des serveurs d’aujourd’hui. Vous pourriez avoir vos processeurs dans une enceinte, par exemple, votre mémoire dans une autre et vos cartes réseau dans un troisième. Cela vous permettrait, par exemple, de mettre à niveau vos processeurs sans toucher d’autres parties du système traditionnel. “DRAM ne [change pas] aussi vite que les processeurs”, dit Frankovsky. “Ne serait-ce pas cool si vous pouviez réellement désagréger les CPU du complexe DRAM?”
Avec un projet soeur, les membres du projet travaillent également à créer une nouvelle conception de rack qui peut s’adapter à ce type d’infrastructure de serveur repensée. Un rack de serveur traditionnel abrite plusieurs machines individuelles, chacune avec son propre châssis. Mais le projet Open Rack cherche à supprimer complètement le châssis du serveur et à tourner le étagère dans le châssis.
Pendant ce temps, Goldman Sachs dirige un effort pour construire un moyen commun pour gérer les serveurs répartis dans votre centre de données. Une partie de l’attrait du projet Open Calcul, dit Peter Krey, est que le projet adopte une “approche holistique” de la conception du matériel du centre de données. Les membres ne conçoivent pas le centre de données séparément des serveurs et les serveurs séparément de l’équipement de stockage. Ils conçoivent tout pour travailler en tandem. “La conception du centre de données traditionnel. est balkanisé, “dit Krey. “[Mais] les gars de l’OCP ont conçu et créé tous les composants pour intégrer et travailler efficacement ensemble.”