Apakah Facebook menjalankan server mereka sendiri
Teknologi di Meta
Google membangun server sendiri untuk efisiensi
Google, biasanya tertutup tentang teknologi di balik pusat datanya, membangun servernya sendiri untuk menghemat biaya dan karena produk standar tidak benar-benar memenuhi kebutuhannya, wakil presiden senior operasi Google mengatakan pada hari Kamis pada hari Kamis.
Pembuat perangkat keras berinvestasi banyak dalam meneliti dan mengembangkan produk yang andal, fitur yang dinilai sebagian besar bisnis. Tetapi Google sebenarnya tidak membutuhkan server yang sangat andal karena telah menulis perangkat lunaknya untuk mengimbangi pemadaman perangkat keras, kata Urs Holzle, berbicara pada hari Kamis di markas Eropa Google di Dublin.
Alih -alih membeli server komersial, dengan harga yang meningkat dengan keandalan, Google membangun server yang kurang dapat diandalkan dengan biaya yang lebih murah mengetahui bahwa perangkat lunaknya akan bekerja di sekitar pemadaman apa pun. “Bagi kami, itu solusi yang tepat,” kata Holzle.
Alasan lain bahwa Google membangun servernya sendiri sama sederhana: ia dapat menghemat biaya konsumsi daya.
Efisiensi energi adalah subjek yang dibicarakan dengan penuh semangat Holzle. Sekitar setengah dari energi yang masuk ke pusat data hilang karena inefisiensi teknologi yang sering mudah diperbaiki, katanya.
Catu daya ke server adalah salah satu tempat bahwa energi tidak perlu hilang. Sepertiga dari listrik yang berjalan melalui catu daya yang khas bocor sebagai panas, katanya. Itu buang -buang energi dan juga menciptakan biaya tambahan dalam pendinginan yang diperlukan karena panas yang ditambahkan ke bangunan.
Daripada menyia -nyiakan listrik dan mengeluarkan biaya tambahan untuk pendinginan, Google memiliki catu daya yang dibuat khusus yang efisien 90%. “Tidak sulit untuk melakukannya. Itu sebabnya bagi saya itu secara pribadi menyinggung “bahwa catu daya standar tidak seefisien, katanya.
Sementara dia mengakui bahwa memesan catu daya yang dibuat khusus lebih mahal daripada membeli produk standar, Google masih menghemat uang pada akhirnya dengan menghemat energi dan pendinginan, katanya.
Poin -Poin Kunci:
- Google membangun servernya sendiri untuk menghemat biaya dan karena produk standar tidak memenuhi kebutuhannya.
- Perangkat lunak Google mengkompensasi pemadaman perangkat keras, jadi tidak perlu server yang sangat andal.
- Membangun server yang kurang dapat diandalkan dengan biaya yang lebih murah adalah solusi yang tepat untuk Google.
- Google menghemat biaya konsumsi daya dengan berfokus pada efisiensi energi.
- Setengah dari energi yang masuk ke pusat data hilang karena ketidakefisienan teknologi.
- Google menggunakan catu daya yang dibuat khusus yang 90% efisien untuk menghindari pemborosan listrik.
- Memesan catu daya yang dibuat khusus lebih mahal tetapi akhirnya menghemat uang untuk google.
Pertanyaan:
- Mengapa Google Membangun Servernya Sendiri?
Google membangun servernya sendiri untuk menghemat biaya dan karena produk standar tidak memenuhi kebutuhannya. - Bagaimana Google mengkompensasi pemadaman perangkat keras?
Perangkat lunak Google dirancang untuk mengimbangi pemadaman perangkat keras. - Apa keuntungan membangun server yang kurang dapat diandalkan untuk Google?
Membangun server yang kurang dapat diandalkan dengan biaya yang lebih murah adalah solusi yang tepat untuk Google. - Apa fokus Google dalam hal konsumsi daya?
Google berfokus pada efisiensi energi untuk menghemat biaya konsumsi daya. - Berapa banyak energi yang hilang di pusat data khas karena inefisiensi teknologi?
Sekitar setengah dari energi yang masuk ke pusat data hilang karena inefisiensi teknologi. - Apa satu tempat di mana energi tidak perlu hilang dalam catu daya?
Sepertiga dari listrik yang berjalan melalui catu daya yang khas bocor saat panas. - Mengapa Google menggunakan catu daya yang dibuat khusus?
Google menggunakan catu daya yang dibuat khusus yang 90% efisien untuk menghindari pemborosan listrik. - Memesan catu daya yang dibuat khusus lebih mahal untuk google?
Ya, memesan catu daya yang dibuat khusus lebih mahal untuk google.
Perangkat Lunak, Server, Sistem, Sensor, dan Sains: Facebook’Resep untuk pusat data yang hiper efisien
Efisiensi dan energi terbarukan adalah Facebook’S Line pertahanan pertama untuk membantu mengekang emisi karbon kita dan melawan perubahan iklim, terutama ketika datang ke pusat data kita.
Pada awal 2011, Facebook adalah salah satu perusahaan teknologi besar pertama yang membuat komitmen terhadap energi terbarukan 100 persen. Tahun lalu, energi matahari dan angin memasok 75 persen daya yang digunakan untuk mengoperasikan bisnis kami secara global. Hari ini kita’Re di jalur untuk mencapai tujuan kami untuk mengurangi jejak gas rumah kaca kami sebesar 75 persen ketika kami mencapai target energi terbarukan 100 persen kami pada tahun 2020.
Poin -Poin Kunci:
- Efisiensi dan energi terbarukan adalah prioritas Facebook untuk pusat datanya.
- Facebook telah membuat komitmen terhadap energi terbarukan 100 persen.
- Energi matahari dan angin memasok 75 persen penggunaan daya Facebook tahun lalu.
- Facebook bertujuan untuk mengurangi jejak gas rumah kaca sebesar 75 persen dengan mencapai target energi terbarukan 100 persennya.
Pertanyaan:
- Apa prioritas Facebook untuk pusat datanya?
Efisiensi dan energi terbarukan adalah prioritas Facebook untuk pusat datanya. - Kapan Facebook membuat komitmen terhadap energi terbarukan 100 persen?
Facebook membuat komitmen terhadap energi terbarukan 100 persen pada awal 2011. - Berapa persentase penggunaan daya Facebook yang dipasok oleh energi matahari dan angin tahun lalu?
75 persen penggunaan daya Facebook dipasok oleh energi surya dan angin tahun lalu. - Apa tujuan Facebook mengenai jejak gas rumah kaca?
Facebook bertujuan untuk mengurangi jejak gas rumah kaca sebesar 75 persen dengan mencapai target energi terbarukan 100 persennya.
Teknologi di Meta
Ya, cetak biru itu termasuk perangkat keras baru serta perangkat lunak baru. Apa yang telah dipelajari Google dan Twitter adalah bahwa, untuk layanan web mereka yang sangat besar, server tradisional dari orang-orang seperti Dell, HP, dan IBM terlalu mahal dan terlalu haus kekuatan dan dibebani dengan terlalu banyak perangkat keras asing. Jadi mereka merampingkan perangkat keras ini, membangun apa yang dibutuhkan untuk tugas yang ada. “Kami melihat efisiensi. Kami melihat beban kerja pekerjaan kami, apa yang kami coba lakukan, “kata Roetter dalam menggambarkan bagaimana Twitter merancang mesinnya.
Google membangun server sendiri untuk efisiensi
Google, biasanya tertutup tentang teknologi di balik pusat datanya, membangun servernya sendiri untuk menghemat biaya dan karena produk standar tidak benar-benar memenuhi kebutuhannya, wakil presiden senior operasi Google mengatakan pada hari Kamis pada hari Kamis.
Pembuat perangkat keras berinvestasi banyak dalam meneliti dan mengembangkan produk yang andal, fitur yang dinilai sebagian besar bisnis. Tetapi Google sebenarnya tidak membutuhkan server yang sangat andal karena telah menulis perangkat lunaknya untuk mengimbangi pemadaman perangkat keras, kata Urs Holzle, berbicara pada hari Kamis di markas Eropa Google di Dublin.
Alih -alih membeli server komersial, dengan harga yang meningkat dengan keandalan, Google membangun server yang kurang dapat diandalkan dengan biaya yang lebih murah mengetahui bahwa perangkat lunaknya akan bekerja di sekitar pemadaman apa pun. “Bagi kami, itu solusi yang tepat,” kata Holzle.
Alasan lain bahwa Google membangun servernya sendiri sama sederhana: ia dapat menghemat biaya konsumsi daya.
Efisiensi energi adalah subjek yang dibicarakan dengan penuh semangat Holzle. Sekitar setengah dari energi yang masuk ke pusat data hilang karena inefisiensi teknologi yang sering mudah diperbaiki, katanya.
Catu daya ke server adalah salah satu tempat bahwa energi tidak perlu hilang. Sepertiga dari listrik yang berjalan melalui catu daya yang khas bocor sebagai panas, katanya. Itu buang -buang energi dan juga menciptakan biaya tambahan dalam pendinginan yang diperlukan karena panas yang ditambahkan ke bangunan.
Daripada menyia -nyiakan listrik dan mengeluarkan biaya tambahan untuk pendinginan, Google memiliki catu daya yang dibuat khusus yang efisien 90%. “Tidak sulit untuk melakukannya. Itu sebabnya bagi saya itu secara pribadi menyinggung “bahwa catu daya standar tidak seefisien, katanya.
Sementara dia mengakui bahwa memesan catu daya yang dibuat khusus lebih mahal daripada membeli produk standar, Google masih menghemat uang pada akhirnya dengan menghemat energi dan pendinginan, katanya.
Google memiliki pusat data yang tersebar di seluruh dunia tetapi biasanya enggan untuk membocorkan detail perangkat keras dan perangkat lunak yang berjalan di pusat. Holzle berbicara dengan jurnalis selama kunjungannya ke Dublin untuk hari terakhir Code Jam, sebuah kontes untuk pemrogram yang disponsori oleh Google dalam upaya mengidentifikasi pekerja potensial yang berbakat.
- 9 sertifikasi Wi-Fi yang meningkatkan karir
- Apa itu mpls, dan mengapa belum mati?
- 11 cara untuk mendaftar dan mengurutkan file di Linux
- 5 Pemindai Ketidakmampuan Jaringan Gratis
- Cara mengukur kecepatan wi-fi perusahaan
- Pusat Data
- Komputer dan periferal
Nancy adalah jurnalis lepas yang mulai menulis tentang ponsel tepat pada waktunya untuk meliput transisi ke digital.
Hak Cipta © 2006 IDG Communications, Inc.
Perangkat Lunak, Server, Sistem, Sensor, dan Sains: Facebook’Resep untuk pusat data yang hiper efisien
Efisiensi dan energi terbarukan adalah Facebook’S Line pertahanan pertama untuk membantu mengekang emisi karbon kita dan melawan perubahan iklim, terutama ketika datang ke pusat data kita.
Pada awal 2011, Facebook adalah salah satu perusahaan teknologi besar pertama yang membuat komitmen terhadap energi terbarukan 100 persen. Tahun lalu, energi matahari dan angin memasok 75 persen daya yang digunakan untuk mengoperasikan bisnis kami secara global. Hari ini kita’Re di jalur untuk mencapai tujuan kami untuk mengurangi jejak gas rumah kaca kami sebesar 75 persen ketika kami mencapai target energi terbarukan 100 persen kami pada tahun 2020.
- T&J: Facebook mencapai 75% energi terbarukan
- Pusat Data Baru Hijau di Gurun New Mexico
- Pusat data ini akan menghangatkan hati mereka, atau setidaknya memanaskan rumah mereka
Sebagian besar energi terbarukan itu mendukung infrastruktur dan pusat data global kami, yang merupakan bangunan besar yang penuh dengan ribuan server yang mengirim informasi digital di seluruh dunia dengan kecepatan cahaya melalui jaringan kabel bawah tanah dan bawah laut. Mereka’Re yang aman, fasilitas 24/7 membuat orang terhubung melalui Facebook, Instagram, Messenger, dan WhatsApp.
Peralatan server di pusat data ini membutuhkan banyak energi dan air untuk tetap bertenaga dan didinginkan, jadi kami’selalu mencari cara kreatif untuk berbuat lebih banyak dengan lebih sedikit. Efisiensi telah menjadi bagian besar dari Facebook’DNA pusat data sejak kami mulai merancang fasilitas pertama kami di Oregon lebih dari satu dekade yang lalu. Berkat keputusan desain pintar yang menambah tumpukan teknologi lengkap di dalamnya, pusat data kami menghemat sejumlah besar energi dan air. Melestarikan sumber daya ini tidak hanya pintar untuk bisnis kami tetapi juga baik untuk lingkungan.
Server, Perangkat Lunak, Sistem, Sensor, dan Sains – Ilmu Data, yaitu – adalah resep untuk Facebook’S Pusat Data yang Hiperektai.
Perangkat lunak
Sayangnya, kami bisa’t menunjukkan foto -foto pusat data kami yang paling efisien. Dia’S bukan karena mereka’Rahasia teratas. Dia’S karena mereka’re tak terlihat.
Kisah Facebook’Efisiensi pusat data dimulai dengan baris kode yang membuat platform kami berfungsi. Misalnya, pada tahun 2016 kami membangun dan myrocks bersumber terbuka, pendekatan yang cerdas untuk menggandakan kompresi solusi penyimpanan data yang ada yang disebut InnodB. Myrock memotong jumlah server penyimpanan yang kami butuhkan di beberapa pusat data kami menjadi dua. Dan kami mengembangkan teknologi penyeimbangan beban yang disebut AutoScale untuk memastikan bahwa kami tidak’T membuang-buang energi dari server yang digunakan pada kapasitas rendah selama jam-jam di luar puncak.
Kami’telah meningkatkan dan meningkatkan kedua inisiatif efisiensi ini – bersama dengan banyak lainnya – untuk meminimalkan jumlah sumber daya komputasi yang kita butuhkan untuk memberi daya pada platform kita. Jadi, secara teknis, pusat data kami yang paling efisien tidak’T benar -benar ada. Mereka’kembali yang tidak pernah kita bangun di tempat pertama karena insinyur pintar yang’Solusi perangkat lunak yang inovatif dan efisien.
Server
Sepuluh tahun yang lalu, Facebook tumbuh sangat cepat sehingga pendekatan tradisional untuk membangun dan mengoperasikan pusat data kami’T bekerja. Server di luar rak termasuk terlalu banyak barang yang kami tidak’t perlu. Mereka tidak’t Mudah bagi teknisi untuk melayani dengan cepat dan tidak akan’t membantu kami mencapai tingkat efisiensi yang kami tahu mungkin di bawah paradigma baru.
Jadi kami merancang server kami sendiri dan merilis karya melalui Open Compute Project (OCP), komunitas kolaboratif pemimpin teknologi. Kami membantu meluncurkan OCP untuk meningkatkan teknologi komputasi yang efisien dan berbagi solusi terbaik secara publik sehingga kami semua dapat berinovasi lebih cepat.
Facebook’S “bebas kesombongan” Server mungkin tidak memenangkan kontes kecantikan. Mereka’Re minimalis, dilucuti dari apa pun yang tidak penting untuk operasi yang efisien. Bezel plastik, cat, dan sekrup pemasangan dilepas untuk mengurangi berat dan biaya lebih rendah. Produk akhir menggunakan bahan yang jauh lebih sedikit dan jauh lebih mudah bagi teknisi untuk melayani daripada apa pun yang bisa kami beli. Desain tanpa embel-embel ini memiliki manfaat kinerja tambahan: sasis dengan kipas dan server yang lebih besar dengan lebih banyak area permukaan untuk heat sink membiarkan udara mengalir lebih bebas, jauh lebih sedikit energi yang diperlukan untuk membuatnya tetap dingin dan keandalan ISN’t dikompromikan.
Facebook’Server S OCP juga dapat menerima tegangan yang lebih tinggi – dan memiliki baterai cadangan kecil di dekatnya, bukan yang pusat melayani seluruh bangunan – sehingga sistem distribusi listrik kami tidak’t limbah energi dengan mengonversi dari satu tegangan ke tegangan lainnya atau antara arus bolak -balik (AC) dan arus searah (DC) sebanyak pusat data lainnya.
Secara keseluruhan, desain inovatif ini membantu kami menghemat banyak sumber daya, dari bahan yang diperlukan untuk memproduksi mesin ke energi dan air yang diperlukan untuk memberi daya dan membuatnya tetap dingin saat mereka melayani lalu lintas.
Sensor
Mengukur, memantau, dan mengelola interaksi yang kompleks dari server, sistem daya, dan peralatan pendingin secara real time sangat penting untuk memastikan bahwa pusat data kami beroperasi pada kinerja puncak. Jaringan sensor yang luas yang mengevaluasi kondisi lingkungan seperti suhu, aliran udara, dan pakan kelembaban ke komputer pusat yang melacak tren dan membantu insinyur operasi fasilitas memahami semua data itu sehingga mereka dapat mengatasi masalah ketika mereka muncul.
Bangunan pusat data kami yang paling awal menggunakan pengontrol digital langsung, jenis komputer yang sama dengan bangunan komersial seperti gedung perkantoran, sekolah, dan mal akan digunakan untuk mengelola semua streaming data dari sensor. Tapi selama beberapa tahun terakhir kami’VE beralih ke pengontrol logika yang dapat diprogram, jenis sistem yang sama dengan rumah sakit, fasilitas manufaktur industri, dan laboratorium mengandalkan otomatisasi untuk memastikan layanan yang efisien, andal, dan tidak terputus. Mereka memberikan kontrol yang lebih besar atas kondisi lingkungan pusat data kami dan membantu kami beroperasi secara konsisten pada kinerja puncak.
Data yang sama yang mengalir dari jaringan sensor kami juga dimasukkan ke dasbor tampilan publik yang melaporkan efektivitas penggunaan daya langsung (PUE) dan efektivitas penggunaan air (WUE) – metrik utama untuk mengukur operasi pusat data yang efisien. Dalam semangat transparansi, siapa pun dapat melihat aliran data real-time yang sama dengan yang digunakan oleh insinyur fasilitas kami untuk memastikan operasi yang efisien.
(Data) Sains
Pembelajaran mesin adalah aplikasi ilmu data yang membantu kami mengoptimalkan efisiensi pusat data menggunakan sejumlah besar data yang dicatat dari sensor peralatan kami. Kami mengembangkan algoritma yang terus merasakan kondisi operasional; Bandingkan mereka dengan apa yang kita prediksi, berdasarkan konteks historis dan data cuaca hidup; dan angkat bendera merah saat kita perlu menyelidiki penyimpangan atau membuat perbaikan peralatan.
Misalnya, jika kami melihat bahwa salah satu situs kami menggunakan lebih banyak energi atau air daripada model pembelajaran mesin kami yang diprediksi, tim operasi fasilitas dapat mulai memecahkan masalah penyebabnya sebelum menjadi masalah yang lebih besar. Kami’terus berinvestasi dalam solusi sains data untuk menjaga pusat data kami di ujung tombak efisiensi sumber daya.
Di luar efisiensi
Bahkan dengan semua langkah efisiensi ini, pusat data Facebook masih membutuhkan sumber daya untuk melayani komunitas global kami. Itu’S mengapa kami’bekerja untuk mendukung operasi kami dengan 100 persen energi terbarukan dan mengimbangi jejak air kami dengan proyek restorasi di daerah kering yang paling membutuhkannya.
Facebook’Sasaran energi terbarukan telah membantu mengatasi perubahan iklim dengan mengurangi jejak gas rumah kaca kami 44 persen sejak 2017, dan di sana’S Link yang mengejutkan untuk penghematan air juga. Energi yang dihasilkan dengan bahan bakar fosil seperti batubara dan gas alam membutuhkan air dalam jumlah besar. Pada tahun 2018 saja, kami memperkirakan kami menyelamatkan satu miliar galon air dengan beralih ke energi angin dan matahari dan jauh dari menggunakan listrik dari utilitas standar di Amerika Serikat.
Facebook berkomitmen untuk efisiensi dan energi terbarukan karena itu’baik untuk bisnis kami, planet dan komunitas yang kami layani dan terhubung. Dan pusat data kami akan terus memimpin dengan efisiensi karena itu’s di DNA kami.
Karena itu’s hal yang benar untuk dilakukan.
Untuk mempelajari lebih lanjut tentang efisiensi, energi terbarukan, dan keberlanjutan di Facebook, kunjungi Keberlanjutan.fb.com.
Ditulis oleh:
Direktur Desain, Desain Pusat Data Global
Seperti Google dan Facebook, Twitter mendesain servernya sendiri
Twitter adalah cerminan dari Google. Setidaknya dalam satu cara yang sangat besar. Anda tidak bisa melihatnya.
Ya, Twitter menawarkan jejaring sosial yang memberikan aliran pesan mini yang tak ada habisnya, sementara Google menawarkan, yah, segala macam layanan online, dari mesin pencari internet hingga layanan email online hingga peta digital bumi. Tetapi dalam memperluas jejaring sosialnya ke lebih dari 300 juta orang di seluruh dunia, menyulap lebih dari 500 juta tweet sehari, Twitter telah membangun kembali infrastruktur dasarnya dalam citra Google, yang berjalan di atas jaringan pusat data yang menyediakan koleksi kekuatan komputasi yang belum pernah terjadi sebelumnya yang belum pernah terjadi sebelumnya sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya sebelumnya telah sebelumnya telah sebelumnya telah sebelumnya sebelumnya telah sebelumnya telah sebelumnya sebelumnya telah sebelumnya telah sebelumnya sebelumnya telah menyediakan koleksi komputasi daya komputasi.
Twitter Juggles dan Menganalisis Data Menggunakan Sistem Perangkat Lunak Menyapu Berdasarkan Alat yang Dikembangkan Di Google. Ini dengan cermat menyebarkan tugas komputasi di ribuan mesin menggunakan klon sistem Google yang disebut Borg. Itu baru saja membangun mesin kecerdasan buatan seperti otak google. Bahkan menyesuaikan perangkat keras ala google.
Menurut Alex Roetter, kepala teknik Twitter, perusahaan sekarang mempekerjakan tim desainer perangkat keras yang menyesuaikan server komputer untuk pusat datanya. Desainer ini tidak membangun chip komputer individual, tetapi mereka melakukan bagian bersama -sama sistem dari bagian yang ada. Kemudian Twitter berkontraksi dengan produsen luar – kemungkinan perusahaan di Asia – untuk membangunnya. “Kami tidak merancang sirkuit individu,” kata Roetter, “tapi kami telah menyatukan mesin.”Ini mirip dengan apa yang telah dilakukan Google selama bertahun -tahun.
Apa yang dibutuhkan
Semua ini sebagian karena begitu banyak mantan insinyur Google sekarang bekerja di Twitter. Tapi itu juga karena Google telah secara efektif memecahkan masalah yang dihadapi perusahaan internet saat mereka berkembang dari startup kecil ke operasi global. Google memberikan cetak biru untuk internet modern secara keseluruhan.
Ya, cetak biru itu termasuk perangkat keras baru serta perangkat lunak baru. Apa yang telah dipelajari Google dan Twitter adalah bahwa, untuk layanan web mereka yang sangat besar, server tradisional dari orang-orang seperti Dell, HP, dan IBM terlalu mahal dan terlalu haus kekuatan dan dibebani dengan terlalu banyak perangkat keras asing. Jadi mereka merampingkan perangkat keras ini, membangun apa yang dibutuhkan untuk tugas yang ada. “Kami melihat efisiensi. Kami melihat beban kerja pekerjaan kami, apa yang kami coba lakukan, “kata Roetter dalam menggambarkan bagaimana Twitter merancang mesinnya.
Misalnya, Twitter baru -baru ini membuat jenis mesin baru untuk sistem AI -nya, yang didasarkan pada “jaringan saraf” —networks mesin yang meniru jaringan neuron di otak manusia. Sistem ini termasuk SCAD unit pemrosesan grafis, atau GPU, yang sangat mahir dalam menjalankan jaring saraf.
Ras baru
Google dan Twitter bukan satu -satunya. Mengikuti petunjuk Google, banyak perusahaan sekarang menjauh dari mesin yang gemuk dan mahal di masa lalu. Menurut Jason Waxman, yang mengawasi kelompok infrastruktur cloud di Intel, pembuat chip terbesar di dunia, sekitar 15 persen mesin pusat data sekarang menjadi jenis baru sistem ramping ini— “semacam server yang dioptimalkan dan berbasis skala skala ini ini.”Di antara perusahaan yang menjalankan layanan komputasi awan gaya Google, katanya, jumlah itu melonjak menjadi 60 persen.
Ini bukan untuk mengatakan bahwa semua perusahaan ini merancang mesin mereka sendiri. Setelah membangun servernya yang ramping, Facebook Open mengambil desainnya, membagikannya dengan dunia pada umumnya. Ini memaksa pergeseran di pasar perangkat keras di seluruh dunia. Dell dan HP dan vendor perangkat keras lainnya sekarang menjual mesin berdasarkan desain Facebook. Apa artinya bisnis dapat menggunakan server seperti Google tanpa merancang sendiri.
Beberapa telah mempertanyakan berapa banyak perusahaan yang benar -benar membutuhkan trah baru ini. Tapi server Twitter adalah tanda lain bahwa pasar bergeser. Ini membuat hidup lebih sulit bagi HPS dan Dells. Bahkan jika mereka dapat menjual mesin untuk digunakan di dalam layanan web modern, margin mereka terpukul. Tetapi mereka tidak punya banyak pilihan selain masuk ke pasar. Internet menuntut apa yang dituntutnya.
Facebook Shakes Hardware World dengan Perlengkapan Penyimpanan Sendiri
Facebook sudah membangun pusat datanya sendiri dan servernya sendiri. Dan sekarang raksasa jaringan sosial sedang membangun perangkat keras penyimpanannya sendiri-perangkat keras untuk perumahan semua hal digital yang diunggah oleh lebih dari 845 juta penggunanya, termasuk foto dan video. “Kami menyimpan beberapa foto di sana-sini,” kata Frank Frankovsky, mantan lelaki yang mengawasi desain perangkat keras di Facebook.
Simpan cerita
Simpan cerita
Facebook sudah membangun pusat datanya sendiri dan servernya sendiri. Dan sekarang raksasa jaringan sosial sedang membangun perangkat keras penyimpanannya sendiri-perangkat keras untuk perumahan semua barang digital yang diunggah oleh lebih dari 845 juta penggunanya.
“Kami menyimpan beberapa foto di sana-sini,” kata Frank Frankovsky, mantan lelaki yang mengawasi desain perangkat keras di Facebook. Itu akan meremehkan. Menurut beberapa perkiraan, perusahaan menyimpan lebih dari 140 miliar foto digital – dan menghitung.
Seperti pemain terkemuka lainnya yang lain – termasuk Google dan Amazon – Facebook menjalankan operasi online yang jauh di luar ruang lingkup rata -rata bisnis, dan itu diterjemahkan menjadi biaya perangkat keras yang belum pernah terjadi sebelumnya – dan komplikasi perangkat keras. Jika Anda memiliki 140 miliar foto digital, Anda memerlukan jenis perangkat keras baru.
Dalam membangun pusat datanya sendiri di Gurun Tinggi Oregon, Facebook menyingkirkan pendingin listrik, catu daya yang tidak terputus, dan gigi yang sangat tidak efisien lainnya. Dan dalam bekerja dengan berbagai produsen perangkat keras untuk membangun servernya sendiri, perusahaan tidak hanya mengurangi konsumsi daya, tetapi juga melucuti sistem Anda ke hal -hal penting, membuatnya lebih mudah untuk diperbaiki dan lebih murah mahal dan lebih murah. Frankovsky dan timnya menyebut rekayasa “bebas kesombongan” ini, dan sekarang, mereka telah memperluas filosofi ke perangkat keras penyimpanan.
“Kami mengambil pendekatan yang sama dengan yang kami ambil dengan server: menghilangkan apa pun yang tidak secara langsung menambah nilai. Bagian penyimpanan yang sangat berharga adalah drive disk itu sendiri dan perangkat lunak yang mengontrol bagaimana data didistribusikan dan dipulihkan dari drive tersebut. Kami ingin menghilangkan komponen tambahan di sekitar drive – dan membuatnya lebih mudah diservis, “kata Frankovsky saat obrolan di markas Facebook baru di Menlo Park, California, yang juga merupakan bekas rumah raksasa perangkat keras sekali pakai, Sun Microsystemstemstems.
“Perbaikan istirahat adalah aktivitas yang berkelanjutan di pusat data. Sayangnya, drive disk masih merupakan barang mekanis, dan mereka gagal. Faktanya, mereka adalah salah satu item tingkat kegagalan yang lebih tinggi. Jadi [kami ingin] dapat dengan cepat mengidentifikasi disk mana yang gagal dan menggantinya, tanpa melalui banyak lingkaran mekanis.”
Seperti halnya pusat data dan kreasi server, Facebook bermaksud untuk “open source” desain penyimpanannya, membaginya dengan siapa saja yang menginginkannya. Upaya ini merupakan bagian dari proyek komputasi terbuka perusahaan, yang berupaya mengurangi biaya dan konsumsi daya perangkat keras pusat data dengan memfasilitasi kolaborasi di seluruh industri. Karena semakin banyak perusahaan berkontribusi pada proyek, pemikiran berjalan, desain akan meningkat, dan karena lebih banyak pakaian benar -benar menggunakan desain untuk server dan peralatan lainnya – yang diproduksi oleh mitra Facebook di Taiwan dan Cina – harga akan turun lebih banyak lagi.
Ketika Facebook pertama kali memperkenalkan proyek musim semi lalu, banyak yang melihatnya sebagai aksi PR belaka. Tapi beberapa pakaian terkenal-termasuk beberapa di luar permainan web-sudah membeli server komputasi terbuka. Nama yang tidak kurang dari Apple telah tertarik pada desain pusat data yang sadar energi Facebook. Dan menurut Frankovsky, lima puluh persen dari kontribusi untuk desain open source proyek sekarang berasal dari luar Facebook.
Paling Populer
Kiasan seks fanfik yang menangkap perampasan ai-tangan
Rose Eveleth
Game Nintendo Switch terbaik untuk setiap jenis pemain
Staf kabel
Lebih banyak penguin daripada orang Eropa dapat menggunakan Google Bard
Morgan Meaker
Kasus penasaran dari Google Assistant yang hilang
Khari Johnson
Untuk Peter Krey – yang membantu membangun jaringan komputasi besar -besaran untuk salah satu lembaga keuangan terbesar di Wall Street dan sekarang menyarankan CIO dan CTO dari beberapa perusahaan Wall Street saat mereka membangun infrastruktur “cloud” di dalam pusat data mereka – proyek Facebook sudah lama overdue overdue overdue overdue cloud ovrase. Saat membangun jaringan komputasi itu, kata Krey, dia dan rekan -rekannya sering meminta penjual server “Tier One” tertentu untuk melucuti perangkat keras hak milik dan komponen yang tidak perlu dari mesin mereka untuk menghemat daya dan biaya. Tapi jawabannya selalu tidak. “Dan kami tidak membeli hanya beberapa server,” katanya. “Kami membeli ribuan server.”
Sekarang, Facebook telah memberikan opsi baru untuk pakaian Wall Street nama besar ini. Tetapi Krey juga mengatakan bahwa bahkan di antara perusahaan tradisional yang mungkin dapat memperoleh manfaat dari jenis perangkat keras baru ini, proyek ini tidak selalu bertemu dengan senjata terbuka. “Orang -orang ini telah melakukan hal -hal dengan cara yang sama untuk waktu yang lama,” katanya pada kabel.
Perangkat keras oleh komite
Facebook akan merilis desain penyimpanan barunya di awal Mei di KTT Komputasi Terbuka berikutnya, konferensi mini di mana anggota proyek berkumpul untuk membahas percobaan ini dalam perangkat keras open source. Nama-nama seperti Intel, Dell, Netflix, Rackspace, data raksasa teknologi Jepang NTT, dan pembuat motherboard Asus adalah anggota, dan musim gugur yang lalu, pada KTT terakhir, Facebook mengumumkan penciptaan yayasan nirlaba di sekitar proyek, bersumpah untuk menyerahkan kendali kepada masyarakat pada umumnya pada umumnya pada umumnya pada umumnya.
Proyek dimulai dengan pusat data dan desain server Facebook. Tetapi sejak itu telah diperluas ke berbagai sub-proyek lainnya, dan para kontributor mencakup lebih dari sekedar perusahaan web. Rackspace berkontribusi, tetapi begitu juga raksasa keuangan Goldman Sachs.
Rackspace memimpin upaya untuk membangun protokol “Virtual I/O”, yang akan memungkinkan perusahaan untuk secara fisik memisahkan berbagai bagian server saat ini. Anda dapat memiliki CPU Anda di satu kandang, misalnya, memori Anda di yang lain, dan kartu jaringan Anda di yang ketiga. Ini akan memungkinkan Anda, katakanlah, meningkatkan CPU Anda tanpa menyentuh bagian lain dari sistem tradisional. “DRAM tidak [berubah] secepat CPU,” kata Frankovsky. “Bukankah itu keren jika Anda benar -benar bisa memisahkan CPU dari kompleks DRAM?”
Dengan proyek Sister, anggota proyek juga bekerja untuk membuat desain rak baru yang dapat mengakomodasi infrastruktur server yang dibayangkan kembali semacam ini. Rak server tradisional menampung beberapa mesin individu, masing -masing dengan sasisnya sendiri. Tetapi proyek Rack Open berupaya menghilangkan sasis server sepenuhnya dan memutar rak ke sasis.
Sementara itu, Goldman Sachs menjalankan upaya untuk membangun sarana umum untuk mengelola server yang tersebar di seluruh pusat data Anda. Bagian dari daya tarik proyek komputasi terbuka, kata Peter Krey, adalah bahwa proyek tersebut mengambil “pendekatan holistik” untuk desain perangkat keras pusat data. Anggota tidak merancang pusat data secara terpisah dari server, dan server secara terpisah dari gigi penyimpanan. Mereka merancang segalanya untuk bekerja bersama -sama. “Desain Pusat Data Tradisional. Balkanzed, “kata Krey. “[Tapi] orang -orang OCP telah merancang dan menciptakan semua komponen untuk mengintegrasikan dan bekerja bersama secara efisien.”