Bazinul raului
Interesant este ca viziunea de la care se pare ca Sun a plecat apartine tocmai lui Eric Schmidt (pe atunci seful partii de software la Sun, acum manager general la Google), care in 1993 spunea: Cand reteaua va deveni la fel de rapida ca procesorul, computerele se vor raspandi in retea.
Dar profetia sa mergea mai departe, prevazand ca de aceasta transformare nu vor profita producatorii celor mai rapide procesoare sau ai celor mai bune sisteme de operare, ci companiile cu cele mai bune retele si cei mai buni algoritmi de cautare si sortare. Si intr-adevar, primii care par sa reuseasca sa puna in practica conceptul sunt cei de la Google. Acelasi Google – de data aceasta prin motorul de cautare – care m-a ajutat sa gasesc cateva cifre ametitoare. Se pare ca Google dispune la ora actuala de circa o jumatate de milion de servere. Daca le-ar cumpara, ar insemna sume imense. Insa cum ele sunt asamblate de companie din componente absolut obisnuite, costul pe un server nu depaseste 1.000 de dolari. In privinta capacitatii de stocare pe discuri, estimarile vorbesc de circa 200 de petabytes, in vreme ce memoria activa (RAM) utilizata se situeaza la vreo 4 petabytes. Putina lume este obisnuita cu aceste ordine de marime, asa ca o mica precizare este utila: un petabyte (PB) inseamna un milion de miliarde de octeti. Toate aceste resurse sunt menite sa deserveasca circa 100 de milioane de cautari pe zi, plus uzul diverselor alte servicii, ceea ce inseamna ca fluxurile de intrare/iesire manevrate de centrele de date ale companiei americane insumeaza acum un trafic de 3 petabytes pe secunda.
Morala pe care o trag analistii este ca o buna parte din succesul lui Google se datoreaza faptului ca urmeaza cu strictete un principiu vechi de cand lumea: sa risipesti ceea ce exista din abundenta pentru a economisi resursele limitate. Pentru a ilustra abundenta, am gasit cateva calcule de interes. In 1991, pentru 500 $ se puteau cumpara 100 MB de spatiu de disc sau un procesor la 5 MHz. Astazi, cu aceeasi suma, se pot cumpara 750 GB de spatiu pe disc sau un procesor la 3 GHz, de unde putem trage concluzia ca discurile s-au ieftinit de 7.500 de ori, iar puterea de procesare doar de 60 de ori. Care este insa resursa limitata? Rabdarea utilizatorului sau, mai prozaic spus, viteza de raspuns. Aici mai e loc pentru alte cateva calcule. Un GB de memorie activa este de 100 de ori mai scump decat un GB de disc, in schimb accesul este de 10.000 de ori mai rapid, asa ca din perspectiva vitezei se poate spune ca memoria RAM este de 100 de ori mai… ieftina (de unde si raportul de 1/50 intre RAM si disc).
Insa mai este un calcul, facut de Dayne Sampson – vicepresedinte la Ask.com. Socotind doar principalele cinci motoare de cautare din internet, vorbim de un total de minimum doua milioane de servere. Daca fiecare dintre acestea disipa caldura de 300 de wati pe an, avem deja 600 de megawati, la care discurile mai adauga un gigawatt. Jumatate din echivalentul acestei energii este folosit pentru racire, iar daca se adauga pierderile diverse, se ajunge la un total de circa 5 gigawati. Se pare ca analistii care au prevazut in 1999 ca peste un deceniu jumatate din productia de energie electrica a planetei va fi consumata de computere au avut dreptate. La fel si cei care au prevazut ca ne apropiem de momentul cand hardware-ul va fi mai ieftin decat curentul pe care-l consuma. Energia mai adauga un element in ecuatia abundentei si penuriei. Este cu siguranta motivul pentru care Google a ales sa-si plaseze centrul de date in vecinatatea bazinului raului
Leave a Reply