Tag: weboscop

  • Infrastructura pentru toti

    Pentru utilizatorul obisnuit al internetului, motorul de cautare Google este o banalitate. Introduci cateva cuvinte cheie, apesi butonul “Cautare” si in secunda urmatoare apar rezultatele, in ordinea relevantei. Pentru cei care au scris macar odata o aplicatie informatica aceasta banalitate este o uriasa si perpetua mirare. Cum face? Poate ca mii de oameni au introdus cereri de cautare in aceeasi secunda si toti primesc raspunsul cu aceeasi promptitudine. Chiar daca ar fi vorba doar de a servi pagini statice si tot ar fi uluitor, insa rezultatele sunt calculate dinamic pe baza unor algoritmi complecsi, care exploreaza volume de date gigantice (aproape tot web-ul este indexat de motorul de cautare). Daca vom cauta “Google BigTable cloud computing” vom obtine imediat 13.800 de pagini si vom afla din prima pagina afisata ca masinaria infernala a gasit raspunsurile intr-un sfert de secunda! Si nu doar raspunsurile, ci si anunturile potrivite contextului.

    In spatele simplitatii sta insa complexitatea unei colosale infrastructuri de calcul. In urma cu doi ani se vorbea de circa o jumatate de milion de servere (asamblate de Google din componente absolut obisnuite) si o capacitate de stocare pe care miliardele cu greu o pot exprima, chiar daca folosim ca unitate gigabyte-ul. Modelul de calcul distribuit MapReduce, dezvoltat si implementat de Google, a fost recent prezentat intr-o comunicare sustinuta la ACM, impreuna cu niste statistici ametitoare: un job MapReduce ruleaza in medie pe circa 400 de computere, iar Google efectueaza circa 100.000 de astfel de joburi in fiecare zi, procesand 20 PB (adica 20 de milioane de GB) de date pentru a deservi mai mult de 100 de milioane de cautari precum si alte numeroase servicii. Comunicarea dintre Google si restul lumii inseamna trei milioane de GB in fiecare secunda. Este cu siguranta unul dintre cele mai elocvente exemple de “cloud computing” la momentul actual.

    Cum ar fi sa avem la dispozitie o farama din aceasta infrastructura? De fapt o avem deja, prin diversele servicii furnizate de Google. De exemplu, cei peste 6 GB alocati unui cont GMail pot fi utilizati ca spatiu aditional de stocare folosind o extensie Firefox numita Gspace. Insa de multa vreme se zvoneste ca Google intentioneaza sa ofere publicului spatiu de stocare practic nelimitat (zvon niciodata infirmat). Un zvon ceva mai recent prevestea ca Google nu va oferi spatiu de stocare “brut”, ci chiar accesul la propria infrastructura de baze de date (BigTable), sub forma unui serviciu web. S-a dovedit insa mult mai mult de atat: zilele trecute Google a anuntat lansarea platformei aplicative Google App Engine, care va permite proiectantilor sa dezvolte si sa gazduiasca aplicatii web folosind chiar infrastructura pe care Google o foloseste pentru GMail, Docs si alte servicii web. In prima faza (preview) nu exista decat conturi gratuite, fiecare oferind 500 MB de spatiu persistent de stocare, accesul la servere de aplicatie programabile in Python, interfetele de programare pentru BigTable si sistemul distribuit de fisiere GFS precum si suficienta putere de calcul si largime de banda pentru ca aplicatia sa poata sa deserveasca pana la 5 milioane de pagini pe luna. Cand serviciul va fi complet functional, Google va oferi clientilor si posibilitatea de a cumpara resurse suplimentare.

    Este evident ca Google raspunde astfel miscarii facute de Amazon, care a lansat o platforma de “cloud computing” compusa din serviciile ECC (Elastic Compute Cloud), S3 (stocare) si SimpleDB (baze de date). Desi asemanatoare, ofertele difera in multe aspecte. In primul rand, pretul – in buna traditie a Google, serviciul pe care-l ofera este gratuit la nivel de baza (desi n-ar fi exclus ca Google sa-si rezerve dreptul de a insera publicitate), in vreme ce la Amazon totul costa. Mai importanta este insa abordarea de ansamblu: in vreme ce Amazon ofera, in esenta, putere de calcul “pura”, pe care clientul o poate folosi la orice, Google ofera putere de calcul “specializata”, de fapt o infrastructura pentru un anume tip de aplicatii. Este cert insa ca ambele variante ofera o caracteristica esentiala – scalabilitatea – si sunt extrem de atractive pentru start-up-uri cu idei interesante, dar fara resursele necesare unei infrastructuri proprii.

    Avand in vedere ca si IBM pregateste niste servicii similare, iar o infrastructura open source pentru cloud computing a aparut deja (se cheama Enormalism), se pare ca o noua directie de business IT e pe cale de consacrare.

  • Stuparul, albinutele si mierea

    Daca o prisaca poate ilustra modelul firmelor bazate pe soft liber, nu ne ramane decat sa admitem ca Linux-ul a fost creat de viespi. Pentru multa lume, chestiunea open source software (OSS) pare simpla: niste amatori pasionati se apuca sa dezvolte un program, se organizeaza si colaboreaza prin internet, permit oricui doreste sa se implice, iar rezultatul acestui efort este oferit gratuit oricui. Pare un hobby nevinovat si oarecum naiv, din care participantii – de obicei tineri programatori – se aleg cu niste foloase imateriale, dar valoroase. Invata sa colaboreze la proiecte de mai mari dimensiuni, socializeaza si invata din experienta altora si eventual obtin o oarecare notorietate si bune recomandari in CV. Plus ceva mandrie profesionala si civica. La urma urmei, e vorba doar de o investitie de munca in timpul liber, fara riscuri majore.

    Aceasta imagine poate fi relativ corecta daca ne referim la anumite proiecte, mai ales in perioada de inceput al fenomenului (nucleul Linux e un bun exemplu). S-au cautat modele care sa incadreze pe cat posibil intr-o logica economica, s-a vorbit despre “economia darului”, despre “peer production” si s-au identificat precedente istorice – de pilda traditionala claca a fost practicata in mai toate economiile rurale. Imaginea insa s-a schimbat intre timp, deoarece marile companii au inteles ca softul open source e o buna modalitate de a “comodiza” complementele produselor lor (de exemplu, pentru producatorul de softuri specializate e convenabil ca sistemul de operare sa devina un soi de infrastructura publica) si s-au implicat in multe proiecte, astfel incat astazi o buna parte din proiectantii de soft open source sunt salariati platiti, iar unele fundatii create pentru sustinerea logistica a unor proiecte de succes (de pilda Mozilla Foundation) se bucura de finantari generoase. Altfel spus, modelul open source a mai pierdut din exotism, facandu-si loc in economia mainstream. Desigur ca mai exista pasiune, altruism si hobby, dar acestea nu mai sunt suficiente pentru o caracterizare. Lumea a inceput sa inteleaga ca softul liber nu e chiar gratuit si ca exista costuri – uneori semnificative – pe care adoptarea sa in companii le implica. Plus anumite riscuri.

    Asa au aparut notiunea de “professional open source” (POSS): companii orientate spre dezvoltarea, intretinerea si comercializarea unor softuri open source. Acest model de business este mai greu de descris, deoarece induce un nou paradox: de ce ar dori o comunitate (obligatorie pentru un proiect open source) sa contribuie voluntar la niste produse din care o companie castiga bani? Standardul pentru acest gen de model este MySQL, dar exista tot mai multe companii similare ca afacere (eZ Systems, Pentaho etc.). Ca mai totdeauna, o metafora poate fi mai sugestiva decat o teorie, iar James Dixon – “Chief Geek” (adica CTO) la Pentaho – a gasit-o poate pe cea mai potrivita: prisaca. Asadar, stuparul este compania POSS, albinele sunt comunitatea, iar cumparatorii de miere si ceara sunt, desigur, clientii.

    Stuparul furnizeaza infrastructura (stupii, adica sistemele tehnice de colaborare, repozitorul de cod etc.) si are tot interesul sa creeze cele mai bune conditii pentru albine (de exemplu sa le duca in zonele potrivite, in functie de sezon), pentru ca daca acestea sunt nemultumite, nimic nu le impiedica “s-o roiasca”. In termenii softului open source, acest fenomen corespunde ramificarii unui proiect (fork), adesea cu consecinte nefaste pentru proiectul original. Albinele fac ce stiu ele mai bine: miere si ceara – adica discuta directiile proiectului, contribuie cu idei si cod, semnaleaza sau corecteaza erori si asa mai departe. Stuparul vinde mierea si ceara pe diverse canale, iar cu banii obtinuti isi recupereaza costurile de distributie si isi poate permite sa mai cumpere stupi si sa-si extinda ferma. Pentru asta are neaparata nevoie sa atraga “regine”, adica sefi de proiect de varf, cu experienta si autoritate, capabili sa coaguleze sau sa extinda comunitatea. Un amanunt interesant: cumparatorul nu prea vrea sa aiba de-a face cu albinele si, evident, nu agreeaza perspectiva de a-si lua singur mierea din faguri. El vrea sa aiba de-a face cu un semen (company-to-company) si cu un produs complet (adica un soft cu garantii, suport, manuale).

    Desigur ca se poate broda in continuare pe aceasta analogie, dar ideile sunt clare. Pe de-o parte e o strategie din care toate partile au de castigat. Pe de alta parte, se poate observa ca in varianta POSS toate avantajele softului liber se pastreaza si, in plus, se amelioreaza punctele slabe (mai ales in zona serviciilor si a marketingului).

  • Cum arata Generatia Y

    Dar daca ritmul noilor tehnologii depaseste capacitatea de adaptare a unei generatii?

    Se pare ca tot ce stiam despre creierul nostru erau mituri. Se spunea ca ne nastem cu un numar de neuroni si ca acestia mor, unul cate unul, pe parcursul vietii. De fapt, se regenereaza. Se spunea ca tiparele gandirii se formeaza in primii trei ani de viata, dar in realitate creierul se “reorganizeaza” permanent in functie de stimulii pe care ii primeste. Se spunea ca tot ce tine de activitatea creierului se exprima in termeni de neuroni si sinapse, dar de fapt creierul se modeleaza chiar si la modul fizic. Este plastic. Creierul unui muzician, de exemplu, devine la modul fizic diferit de cel al unui om obisnuit (cerebelul este cu circa 5% mai mare). Pana si mitul conform caruia toti oamenii gandesc in acelasi fel se darama in fata evidentei ca experiente si culturi diferite dezvolta procese cognitive diferite. Pe de alta parte, s-a descoperit ca o limba straina este “stocata” intr-o alta zona a creierului decat limba nativa, ceea ce sugereaza ca stimulii primiti la varste fragede au un rol special.

    Pana acum, o provocare majora pentru mintea noastra o reprezenta deprinderea scrisului si cititului, care implica o reorganizare majora a intregului creier, obtinuta printr-un antrenament asiduu menit sa ne “reprogrameze” o deprindere nativa (comunicarea orala) astfel incat sa poata cuprinde una artificiala. Liniaritatea textului se propaga si ne modeleaza procesele cognitive intr-un mod care favorizeaza secventa, succesiunea pasilor, ordinea liniara. Se poate si altfel? E suficient sa ne privim copiii, care asculta muzica in casti, schimba mesaje cu cativa prieteni deodata, surfeaza pe web si in timpul acesta isi fac lectiile. Estimari statistice din 2001 ne spun ca pana la majorat, copiii americani petrec peste 10.000 de ore cu jocuri video, trimit si primesc peste 200.000 de mesaje instant sau e-mail, stau mai mult de 20.000 de ore in fata televizorului (cel mai adesea pe posturi cu un ritm vizual ametitor) si vad o jumatate de milion de reclame. Insa foarte putini dedica 5.000 de ore lecturii. Un astfel de antrenament favorizeaza accesul direct in fata secventei, paralelismul in fata succesiunii, atentia distribuita aparent aleator in fata concentrarii, imaginea in fata textului.

    Avem in fata prima generatie de “nativi” ai erei digitale. In termenii unui articol publicat de Mark Prensky in 2001 (Digital Natives, Digital Immigrants), toti cei care am crescut in cultura tiparului si a televiziunii clasice suntem doar imigranti aici si nu ne ramane decat sa ne adaptam. Oricat de bine o vom face, mereu ne vom pastra acel “accent strain”. Pe unii ii vor trada obiceiuri vechi (telefonul cu care unii verifica receptionarea unui e-mail), pe altii preocuparea obsesiva pentru tehnologie. Pentru nativi, tehnologia digitala face parte din natura. Au crescut cu ea, iar aceasta le-a modelat un mod de a gandi si de a procesa informatia fundamental diferit de al nostru. Prensky presupune ca insasi natura fizica a creierului s-a schimbat. Problema este ca sistemul educational actual nu a fost conceput pentru aceasta generatie, iar educatorii nu mai vorbesc aceeasi limba cu cei educati. Profesorii reclama cuanta extrem de redusa de atentie a elevilor, ignorand ca aceiasi elevi sunt capabili sa se concentreze 10 ore intr-un joc video. Adevarul este ca liniaritatea si succesiunea pasilor le este straina, iar ritmurile lente ale scolii ii plictisesc. Pentru ei e firesc sa faca mai multe lucruri deodata, iar hipertextul este calea directa spre informatia punctuala, spre recompensa imediata. Google in locul bibliotecii.

    In ciuda lipsei de sistem, printr-un proces pe care noi nu-l putem intelege, informatia disparata ajunge totusi sa se structureze si sa devina cunoastere. In experimentele lui Prensky, viteza, renuntarea la prezentarea sistematica si inglobarea informatiei in jocuri de genul “first person shooter” au dat rezultate spectaculoase.

    Intr-un articol recent, Bob Cringely ataca aceeasi tema din alt unghi. In viziunea sa, o tehnologie noua are nevoie de 30 de ani (o generatie) pentru a fi complet asimilata cultural, iar inexorabila lege a progresului exponential enuntata de Moore ne-a adus in punctul in care viteza schimbarii pune sub asalt un intreg sistem institutional, cu scoala in linia frontului. Se apropie vremea cand va aparea prima generatie de parinti care n-au cunoscut viata fara computere personale si telefoane mobile. Aici va fi punctul de cotitura.

  • Yahoo! contraataca

    Pentru cei mai multi analisti, situatia lui Yahoo! parea fara iesire: fie accepta miliardele oferite de Microsoft, fie colaboreaza cu Google (ceea ce s-ar traduce prin externalizarea serviciului de cautare catre acesta din urma). Ambele variante ar insemna, implicit, acceptarea infrangerii. Si chiar mai mult decat atat, oricare varianta ar scadea valoarea brandului si, la limita, ar insemna sfarsitul unei minunate povesti de succes. Dar Yahoo! se pare ca a ales o a treia optiune, cea mai eroica: sa lupte cu Google chiar pe terenul si cu armele acestuia, adica in domeniul cautarii pe web.
     
    Merita sa privim putin de la inaltime situatia. Atat pentru Yahoo!, cat si pentru Google sursa majora de venituri o reprezinta publicitatea. Aparent paradoxal, Google valorifica mai bine aceasta sursa decat Yahoo!, desi acesta are mai multi utilizatori, deci un numar mai mare de potentiali consumatori de reclama. Sa nu uitam ca Yahoo! Mail este cel mai popular serviciu de acest tip din web, Yahoo! Messenger este aproape sinonim cu mesageria instant, Flickr si Del.icio.us sunt lideri pe segmentele lor, iar in ansamblu, cele circa 50 de servicii si situri web detinute genereaza un trafic fabulos (Alexa si comScore plaseaza siturile Yahoo! pe prima pozitie in SUA, cu circa 130 de milioane de vizitatori unici pe luna). Google, in schimb, este lider autoritar in domeniul cautarii si al serviciilor aplicative on-line, abordand piete noi prin adoptarea (sau impunerea) de standarde deschise, capabile sa disloce monopoluri solid instaurate (exemplul recent il reprezinta initiativa OpenSocial).
     
    Desi asemanatoare, modelele de business practicate de cele doua companii difera prin nuante. In vreme ce Yahoo! se orienteaza spre “display advertising” (adica afisarea de bannere sau imagini in paginile de continut), bazandu-se pe baza sa imensa de vizitatori, Google este puternic orientat spre publicitatea contextuala, bazandu-se pe indexarea a miliarde de pagini de web si pe algoritmul sau de ordonare a rezultatelor. Avantajul Google provine din faptul ca piata de publicitate contextuala (circa 40%) e mai mare decat cea de display advertising (putin peste 30%) si, in plus, Google isi domina autoritar felia, in vreme ce Yahoo! trebuie s-o imparta cu alti competitori. In fine, mai putem pune la socoteala si dinamica: Google continua sa creasca in piata pe care o domina, iar prin achizitia companiei DoubleClick ataca si piata de display advertising. Pentru Yahoo! singura varianta ramasa era sa atace exact nucleul Google, motorul de cautare.
     
    Strategiile de atac alese de Yahoo! sunt spectaculoase: deschiderea si orientarea spre asa-numitul “web semantic”. Platforma Open Search va permite proprietarilor de situri web sa controleze ei insisi modul in care paginile lor vor fi listate printre rezultatele cautarilor si, mai mult chiar, va permite unor terti proiectanti sa construiasca noi aplicatii pe baza rezultatelor furnizate de Yahoo! Search. Desi are reputatia unei companii mai “deschise”, Google ofera optiuni limitate prin interfetele publicate pentru motorul sau de cautare – de pilda nu se poate modifica ordinea rezultatelor si nu se pot elimina anunturile AdSense (adica tocmai combinatia magica din care se nasc miliardele). Yahoo! insa nu are nimic de pierdut, asa ca depaseste aceste restrictii. Ceea ce este insa mai interesant este ca Yahoo! a anuntat ca va oferi suport pentru diferite standarde specifice web-ului semantic, imaginat de lumea academica, dar cu foarte slaba sustinere din partea industriei. Iar de aici incepe aventura.
     
    In esenta, web-ul semantic se bazeaza pe descrieri formale ale continutului paginii, invizibile la suprafata, dar accesibile programelor. De pilda, RDF (Resource Description Framework) este un astfel de formalism, dar exista si unele mai simple, cum ar fi “microformatele”. In loc sa se bazeze exclusiv pe indexarea cuvintelor (asa cum face Google), Yahoo! vrea sa utilizeze la maximum aceste descrieri, ceea ce-i va permite sa afiseze descrieri consistente ale rezultatelor.

    De exemplu, in cazul unui persoane poate fi afisata o poza, pozitia actuala intr-o organizatie si alte informatii relevante. Este de asteptat ca aceia care elaboreaza pagini web sa utilizeze intens aceste descrieri, pentru a genera informatii consistente in rezultatele cautarii, dand astfel un impuls nesperat ideii de web semantic promovata de Tim Berners-Lee. 
  • Putere din nori

    Suntem, desigur, foarte incantati de noile noastre computere, echipate cu procesoare dual-core, cativa GB de memorie si discuri de mare capacitate. Pare suficient de puternic pentru orice, nu-i asa? Nu trebuie sa uitam insa ca acestea sunt simple computere personale si ca de fapt adevarata nevoie de putere de calcul apare la servere – niste mici monstri care stau ascunsi de obicei in spatele unor usi pe care scrie „Accesul interzis“ si care deservesc aplicatiile vitale ale unei intregi intreprinderi sau tin in viata servicii web disponibile intregii lumi. Acolo lucrurile se complica. Dincolo de cerintele specifice pentru rularea neintrerupta a aplicatiilor, apare o problema care se numeste „scalabilitate“, adica posibilitatea de a dimensiona puterea de calcul in concordanta cu nevoile.

    Nu pare complicat. Cand serverele nu mai fac fata, cumparam unele mai puternice. Strategia aceasta poate fi destul de paguboasa, mai ales in situatia in care ritmul de crestere este rapid, pentru ca vom ajunge sa scoatem din uz un hardware relativ nou. Paguboasa este si in situatia in care activitatea nu este constanta: va trebui sa dimensionam puterea de calcul astfel incat sa deserveasca varfurile de sarcina, dar in rest vom avea o incarcare sub-optima. De fapt costurile se distribuie pe durata de viata a echipamentelor si vom constata ca platim prea mult pentru prea putin. Acesta a fost de altfel motivul pentru care epoca marilor computere a apus: lipsa de flexibilitate.

    Una dintre solutiile cele mai eficiente consta astazi din asocierea mai multor computere conventionale (deci ieftine) intr-un asa numit „grid“, avantajul evident fiind ca sporirea capacitatii se reduce la adaugarea unor computere suplimentare, iar o pana a unui computer nu antreneaza caderea intregului sistem. Dezavantajul este ca administrarea este mai dificila decat in cazul serverelor conventionale. Partea interesanta incepe insa odata cu virtualizarea: puterea de calcul cumulata poate fi utilizata pentru a construi din software echivalentul unor computere conventionale, care insa nu dispun de propriile resurse, ci utilizeaza puterea de calcul comuna.

    De aici se mai poate face un pas: anumite companii specializate ar putea sa ofere prin retea putere de calcul si capacitate de stocare la cerere. Altfel spus, puterea de calcul devine o utilitate, la fel ca si energia electrica. Interesant este ca aceasta paradigma reediteaza intr-un fel epoca de inceput a informaticii, cand computerele erau putine si foarte scumpe, iar clientii „inchiriau“ timp de calcul, platind la ora. Diferenta este ca, in noua intrupare, clientul nu mai are nici o legatura cu echipamentele pe care le foloseste, ele sunt difuze, poate raspandite pe glob. Sunt ca un nor, de unde si denumirea – tot mai in voga – de „cloud computing“. Asemanarea cu reteaua electrica este clara: nu stiu (si nici nu ma intereseaza) cine pune energie in retea, platesc cat consum. Desi oarecum asemanatoare, „cloud computing“ difera de serviciile web sau de aplicatiile rulate de furnizorii de aplicatii prin internet: in vreme ce acestia din urma ofera doar anumite aplicatii, intr-un „nor de calcul“ clienti isi ruleaza propriile aplicatii. De fapt, este un nou mod de externalizare.

    Pe masura ce costul conectivitatii scade, avantajele noi paradigme devin evidente. Pentru client, primul beneficiu este scalabilitatea, deoarece poate cumpara exact atata putere de calcul (si capacitate de stocare) cat are nevoie, scazand si costurile administrarii si intretinerii unui hardware pretentios. Pentru companii incepatoare care furnizeaza, de pilda, un serviciu web inovator, aceasta varianta este salutara, deoarece le scuteste de investitia initiala masiva in infrastructura si reduce riscurile unui eventual esec. Furnizorul poate, la randul lui, sa-si plaseze serverele in zone unde energia si spatiul sunt mai ieftine sau poate sa evite varfurile de sarcina prin distribuire geografica.

    Poate parea SF, dar asa ceva chiar exista. Poate parea surprinzator, dar prima companie care ofera un astfel de serviciu este Amazon. Desi inca in faza beta, Amazon ECC (Elastic Compute Cloud) este functional si, in conjunctie cu serviciul de stocare Amazon S3, ofera oricui posibilitatea sa-si creeze servere virtuale pe care sa-si ruleze aplicatiile pentru tarife care variaza intre 10 si 80 de centi pe ora, in functie de configuratia dorita. IBM se pregateste sa intre in competitie.

  • Inca o revolutie

    Am fost o singura data la CeBIT, in urma cu vreo zece ani, si cred ca a fost suficient. Dupa o prima zi de nauceala, am ajuns la concluzia ca in cele 50 de hectare de spatii expozitionale tehnologia nu poate fi vazuta, pentru simplul motiv ca nu poate fi aratata. Ce s-ar putea vedea intr-un stand legat de – sa luam un termen in voga – „cloud computing“? Probabil ca mai putin decat dintr-o scurta vizita la Wikipedia. Asa ca am preferat zilele urmatoare sa stau cat mai aproape de centrul de conferinte si, intr-adevar, acolo s-au petrecut lucrurile cele mai interesante.

    Daca as fi fost prezent anul acesta la Hanovra, n-as fi ratat discursul lui Steve Ballmer, CEO al Microsoft. Din fericire l-am avut la dispozitie in doar cateva ore, transcris pe situl oficial al expozitiei, si am aflat astfel ca suntem in pragul celei de-a cincea revolutii in lumea informaticii. Socoteala lui Ballmer se bazeaza pe un ciclu de sapte ani (are sens in corelatie cu legea lui Moore) si pe cateva evolutii tehnologice cat se poate de vizibile: sporirea puterii de calcul si a capacitatii de stocare, precum si raspandirea retelelor wireless de mare capacitate. Este totusi interesant ca Ballmer vorbeste de o revolutie, in conditiile in care Microsoft nu a fost protagonista nici uneia dintre precedentele patru. Raspandirea computerelor personale li se datoreaza mai curand lui Apple si IBM. Impunerea interfetelor grafice este opera lui Xerox (care le-a inventat) si Apple (care le-a popularizat). Cresterea internetului este o opera colectiva, in vreme ce a patra revolutie, Web 2.0, are ca figuri centrale nume precum Google sau Yahoo!. Indiscutabil, Microsoft nu si-a asumat niciodata riscurile deschizatorilor de drum, preferand mereu sa atace in forta piete stabile, create de altii. Asa s-a intamplat cu interfetele grafice (victima fiind Apple) si cu internetul (marele invins fiind Netscape), dar schema pare ca nu prea functioneaza in cazul Web 2.0, unde Google pare de nestavilit, iar Yahoo! nu se arata incantat de mariajul propus de Microsoft.

    Se vrea oare Microsoft eroul principal al acestei a cincea revolutii? Ballmer considera ca mai e nevoie de doua ingrediente pentru ca lucrurile sa se lege: display-uri omniprezente si interfete mai „naturale“ cu computerele. De aici incolo, sunt trei sfere in care revolutia se va manifesta pregnant: puterea individuala a utilizatorilor de a accesa si controla informatia, interactiunea sociala si, in fine, probleme globale cum ar fi educatia, sanatatea sau ecologia. Merita sa trecem putin in revista imaginea IT&C a anului 2015 pe care Microsoft ne-o ofera prin vocea lui Ballmer, macar pentru a vedea in ce masura tendintele actuale confirma viziunea.

    Mai intai, ar fi vorba de ceva ce s-ar putea numi „punctul central de acces la informatii“, legat in mod direct de nevoia de mobilitate. Avem acum datele raspandite de sistemele desktop de la serviciu si de acasa, pe laptop-ul pentru deplasari, pe PDA-uri, pe telefoane mobile, pe diverse playere portabile si, in fine, pe web. Problema actuala este sincronizarea acestora, insa pasul urmator ar fi ca aceasta diversitate de informatii sa capete o forma, o interfata unitara pe care sa o putem accesa oricand, oriunde, cu orice aparat. Mai mult, si sursele publice de date (fluxuri de stiri, televiziune etc.) trebuie sa se integreze in acest conglomerat informational personalizat. Mie imi pare evident ca asta inseamna stocare pe web si aplicatii online compatibile cu cele locale, iar o combinatie formata din pagina de start personala NetVibes, serviciile web de la Google si componente aditionale pentru browserul Firefox ma apropie destul de mult de acest punct central.

    Ballmer subliniaza nevoia unui sistem de identitati digitale pentru ca acest scenariu sa fie functional si iata ca deja OpenID deschide calea, iar un set de standarde deschise (i-names) ne promite tocmai aceasta identitate unica si portabila. Intr-adevar, „nu vom avea nevoie decat de un nume“ – cum bine spune Ballmer.

    Se poate continua mult in felul acesta, cautand radacinile tehnologice reale si actuale din care a crescut viziunea lui Ballmer. Numai ca acestea par sa ne conduca mereu spre nume precum Apple sau Google, ceea ce-mi intareste impresia ca pana si atunci cand imagineaza revolutii, Microsoft se gandeste de fapt la evolutii. Iar pentru a se afla inca de pe acum in centrul acestora, Microsoft are nevoie de o aripa revolutionara. Numele ei incepe cu Y si se termina cu un semn de exclamare.

  • Al treilea loc

    Pentru cei mai multi dintre noi, viata se se imparte intre doua locuri distincte: la serviciu si acasa.

    Chiar daca nu-mi lipseste nimic ca sa lucrez acasa, prefer sa vin in fiecare zi in spatiul oarecum auster al biroului, pentru simplul motiv ca simt nevoia sa delimitez cat mai clar cele doua sfere majore ale vietii, carora le corespund stari diferite, atmosfere diferite, preocupari diferite.

    Mai exista insa o sfera, care le intersecteaza pe cele doua amintite pana acum: cea a socializarii. Este interesant cum oamenii au incercat sa marcheze aceasta zona, atribuindu-i un spatiu diferit.

    Clubul englezesc clasic, pub-ul irlandez, cafeneaua urbana sau carciuma rurala s-au constituit mereu in acel „al treilea loc“. Vocatia sociala a internetului a fost evidenta inca de la inceputuri. Alaturi de e-mail, una dintre primele aplicatii care a castigat popularitate a fost Usenet News, formata dintr-o ierarhie de „grupuri de stiri“ tematice (newsgroups).

    Initial orientate spre domenii tehnice si stiintifice, reteaua s-a diversificat si a devenit un spatiu de socializare tot mai popular. Modelul exista insa dinainte: sistemele BBS gazduiau inca din anii ’70 comunitati formate din utilizatori care se conectau prin linii telefonice (dial-up) si socializau pe diverse teme de interes comun.

    Insa aparitia si raspandirea web-ului a democratizat spatiul socializarii, oferind interfete mai prietenoase si mai intuitive, astfel incat asa-numitele „retele sociale“ au venit in intampinarea unei clientele numeroase si se bucura de o popularitate uriasa – e suficient sa ne gandim ca MySpace, Facebook, LiveJournal, Bebo si Hi5 au impreuna circa o jumatate de miliard de utilizatori.

    Asadar, poate fi considerat web-ul un echivalent virtual al celui de-al treilea loc? Exista o intreaga biblioteca de studii de sociologie si antropologie a internetului care trateaza tema, iar concluzia pare sa fie „nu inca“.
    Ideea este ca modelele de relationare pe care platformele de social networking le ofera sunt rudimentare fata de bogatia de nuante pe care o folosim pentru a echilibra sistemul nostru de relationare (ceea ce se cheama „graf social“).

    Notiunea de „prieten“ si modelul FOAF (friend of a friend) sunt grosiere, deci controlul caracterului public al unui mesaj se poticneste intr-un set limitat de optiuni, omitand dimensiuni importante precum gradul de intimitate, zona de specializare, raportul de varsta sau de situare intr-o ierarhie si inca multe altele.

    Retelele de socializare incearca sa rafineze definirea relatiilor diversificand descriptorii, dar nu pot urma dinamica fireasca a acestora. In realitate, nu ne facem mereu doar noi prieteni. De unii ne indepartam treptat, dar nu avem cum sa exprimam asta in logica discreta a sistemului de prieteni. FOAF asigura caracterul „viral“ al unei retele de socializare, dar implica si riscuri.

    Danah Boyd povesteste cazul unei tinere profesoare care a fost invitata sa se inscrie in retea Friendster de niste amici pe care-i cunoscuse la festivalul Burning Man.

    Dand curs invitatiei, a intrat automat in respectivul cerc de prieteni, dar a constatat ca paginile acestora nu duceau lipsa de obscenitati. Elevii ei i-au urmarit cu mult interes conexiunile, iar cand directoarea scolii s-a inscris la randul ei si i-a solicitat „imprietenirea“ (imposibil de refuzat) lucrurile s-au complicat, pentru ca sefa a fost luata drept „membra a tribului“ si tratata ca atare.

    Gail Williams – multa vreme manager al comunitati The WELL – insista pe importanta contextului, facand interesante analogii cu cafeneaua de cartier, unde localnicii au un cod nescris al lucrurilor despre care se poate sau nu se poate barfi, despre nivelul de incredere atribuita personajelor si despre memoria grupului.

    Tehnologia este inca tanara si poate nu am avut ocazia sa realizam ca odata cu varsta e posibil sa ne dezicem de unele dintre ideile pe care le clamam acum. Grupul informal din cafenea va urma contextul in schimbare, dar memoria retelei este inflexibila. Deci inca nu.

    Dar viitorul este promitator. Google a facut publice o serie de interfete (OpenSocial) care vor face accesibile proiectantilor rafinarea dinamica a grafului social si interconectarea profilurilor din retele diferite. Standardizarea identitatilor digitale si adaugarea contextului geografic ne vor apropia si mai mult de un web mai social, mai aproape de modelul socializarii reale. Poate atunci reteaua va deveni „al treilea loc“.

  • Notarii virtuali

    Chestiunea identitatii electronice (sau, daca doriti, digitale) este fascinanta si a starnit adesea polemici aprinse. Perceptia unor practici comune precum utilizarea pseudonimelor sau a identitatilor multiple difera foarte mult in functie de gradul de familiarizare cu lumea digitala si cu perspectiva aleasa (etica, legala, tehnica etc.).

    O constatare empirica este ca aceia pentru care navigarea in web nu este o practica cotidiana prefera perspectiva etica si condamna orice abatere de la o perfecta congruenta intre identitatea digitala si cea consemnata in actele starii civile.

    Dimpotriva, cei care isi petrec o parte de viata in virtual accepta relaxati jocul identitatilor digitale. Admit ca fac parte din a doua categorie, dar acum voi aborda problema dintr-un punct de vedere ceva mai pragmatic. Iar de aici se vad si partile intunecate.

    Prima ar fi ca se intampla adesea sa ne incurcam in propriile identitati digitale. Desigur, e vorba aici de sensul banal, de combinatia identificator-parola cu care accesam diversele servicii la care ne inscriem. Nu imi doresc acest gen de multiplicare a identitatilor, dar adesea se intampla ca numele de utilizator pe care vreau sa-l folosesc sa fie deja alocat sau parola uzuala sa nu fie acceptata (fiecare sistem are regulile sale), asa ca ma aleg cu o noua identitate.

    Browser-ul poate sa memoreze aceste combinatii, dar pe un alt calculator sunt pierdut. Am uitat parola, asa ca incerc o noua inscriere, dar numele este deja ocupat (chiar de mine uneori), asa ca aleg altul si iata-ma cu inca o identitate. Pe de alta parte, uneori chiar am nevoie de o identitate care sa corespunda fara echivoc identitatii mele civile. Este vorba despre servicii web foarte confidentiale, care implica valori (de pilda internet banking) sau relatii oficiale cu institutiile administratiei publice.

    Aici binomul identificator-parola (sau „secretul impartasit“) nu mai este suficient, pentru ca o autentificare „tare“ implica cel putin inca un factor: ceva unic care imi apartine – poate fi un obiect (de pilda un smartcard) sau o caracteristica fizica (asa cum este amprenta). Din fericire, sunt in plina afirmare cateva tehnologii care incearca sa rezolve aceste probleme.

    Prima se numeste OpenID si este un protocol imaginat de americanul Brad Fitzpatrick, cel ce a conceput reteaua LiveJournal. Ideea este simpla si implica trei personaje: un utilizator, un furnizor de identitati digitale si un serviciu bazat pe inregistrarea utilizatorilor. Utilizatorul se inscrie la un furnizor de identitati, isi creeaza un profil cu date personale si primeste un identificator OpenID, care este de fapt un URL (o adresa web).

    Acest identificator poate fi utilizat apoi in orice serviciu care accepta OpenID, deoarece serviciul va prelua datele personale de la furnizorul OpenID (desigur, cu acordul utilizatorului). Mai mult, cu ajutorul protocolului pot foarte simplu si sa stabilesc o legatura intre o pagina web personala si furnizorul meu de OpenID, astfel incat sa-mi folosesc propria adresa pe post de identificator OpenID. Exista numerosi furnizori de identitati OpenID, iar numarul siturilor care accepta aceste identitati creste exponential, asa ca problema se reduce la o singura identitate.

    Problema relatiei cu identitatea civila este rezolvabila in diverse moduri, insa pentru administrat ia publica lucrurile sunt mai complicate. Daca ar urma exemplul bancilor, ar trebui sa distribuie milioane de dispozitive unice de genul DigiPass si sa introduca proceduri complexe de acces. Scump. Din fericire, Ministerul Comunicatiilor si Tehnologiei Informatiei a venit cu o idee (va mira?) foarte interesanta: delegarea functiilor de autentificare unor companii ce dispun de mecanisme tari de autentificare si care sa furnizeze garantii de identitate digitala pentru clientii lor.

    Un soi de notari virtuali. Practic, protocolul folosit ar fi tot OpenID, dar accesul la garantul de identitate va fi obligatoriu pentru fiecare accesare a serviciilor protejate (nu exista inscriere). Operatorii de telefonie mobila sunt cei mai bine plasati pentru a furniza astfel de servicii, deoarece clientii lor (foarte multi) dispun deja de un dispozitiv unic (telefonul), iar introducerea celui de-al doilea factor de autentificare este simpla: e suficient sa genereze la cerere o parola de unica folosinta pe care s-o comunice securizat serviciului si prin SMS utilizatorului. Simplu, eficient si ieftin.

  • Povestea laptopului

    In fine, celebrul „laptop de 100 $“ (modelul XO, mai precis) a intrat in productie la uzinele companiei taiwaneze Quanta – cel mai mare producator de portabile din lume – pentru a onora o prima comanda de 100.000 de unitati din partea Laboratorio Tecnológico del Uruguay, o organizatie guvernamentala care desfasoara un proiect de mare amploare in domeniul educatiei si comunicatiilor. Mai mult, oficialitatile din Uruguay s-au angajat sa mai cumpere inca 300.000 de bucati pana in 2009, astfel incat toti elevii sa dispuna de aceste unelte educationale.

    Poate ca aceasta stire o sa para modesta, daca tinem seama ca profesorul Nicholas Negroponte – initiatorul proiectului OLPC (One Laptop Per Child) – estima in urma cu cativa ani o productie de ordinul sutelor de milioane. In plus, pentru a beneficia de avantajele productiei de masa, intrarea in fabricatie ar fi trebuit sa porneasca de la un nivel de circa 3 milioane de unitati. Faptul ca o astfel de comanda nu a venit este una dintre cauzele care au determinat cresterea pretului la 188 de dolari, celelalte fiind scumpirea unor materiale si decizia de a utiliza componente mai puternice. Totusi, realizarea este remarcabila, salvand un proiect exceptional din perspectiva tehnologica prin posibilitatea de a-si demonstra potentialul in conditiile unui proiect de anvergura.

    Cum se explica diferenta de cateva ordine de marime dintre estimari si realizari? Prima cauza este mai degraba de ordin politic, iar Negroponte si colegii sai au avut ocazia sa constate ca de la „angajamentele solemne“ ale politicienilor (care nu costa nimic) si pana la comenzi concrete e o cale foarte lunga. Teama de schimbare este un alt factor important, impartasit de birocratiile de pretutindeni. Schimbarea (mai ales una la scara mare) implica si un risc, pe care foarte putini functionari sunt dispusi sa si-l asume. Asa sa face ca dintre cele sase „intelegeri ferme“ pentru cate un milion de XO cu Argentina, Brazilia, Libia, Nigeria, Pakistan si Thailanda nu s-a materializat nici una (Thailanda are insa scuza unei lovituri de stat ce a indepartat guvernul care s-a angajat in proiect).

    A doua cauza a relativului insucces al proiectului OLPC este de ordin comercial – ceea ce poate parea ciudat, avand in vedere ca este vorba de o initiativa non-profit. Istoria este interesanta si porneste chiar de la primul e-mail pe care l-a trimis Negroponte dupa ce i-a incoltit ideea: adresantul era vechiul sau prieten Hector Ruiz, CEO la Advanced Micro Devices, pe care ideea l-a entuziasmat, iar rezultatul a fost ca AMD a fost primul partener al OLPC si furnizorul procesoarelor. S-au adaugat apoi Google si RedHat, aceasta din urma croind o distributie speciala de Linux ce echipeaza laptop-urile. S-au adaugat si alte companii importante, dar este cert ca o asociere AMD-Google-RedHat reprezenta o amenintare directa pentru Intel si Microsoft, care au devenit imediat cei mai mari adversari ai proiectului. Primele reactii au vizat ridiculizarea proiectului si intoxicarea presei, insa lucrurile nu s-au oprit aici. Intel – care nu este un producator de computere – a lansat un produs concurent, Classmate, pe care l-a echipat cu propriul procesor Celeron M, capabil sa ruleze nu doar Linux, ci si o versiune redusa de Windows XP furnizata de Microsoft. Desi mai scump (cca. 250$) si mai putin adaptat pentru educatie, Intel l-a promovat agresiv ca alternativa „serioasa“ la XO, adesea chiar in tarile deja angajate in proiectul OLPC (de pilda in Nigeria si Libia). Negroponte s-a infuriat si a acuzat pe Intel ca vinde Classmate sub pretul de productie pentru a submina proiectul OLPC, iar pozitiile pareau sa fie ireconciliabile. Microsoft a inceput sa distribuie in tarile in curs de dezvoltare vizate de OLPC un pachet cuprinzand Windows, MS Office (Student Edition) si programe educationale la pretul de 3 dolari, creand astfel o presiune suplimentara. In plus, diversi alti producatori au inceput sa fie interesati de aceasta imensa piata potentiala, lansand noi modele cu preturi atractive (Asus Eee PC fiind un bun exemplu).

    Si totusi, in iulie 2007 apele s-au linistit, iar Intel s-a alaturat coalitiei care sustine OLPC. Schimbarea de atitudine provine din initiativa OLPC de a produce si servere de back-up si suport pentru XO care sa fie distribuite scolilor, iar acestea vor fi bazate, desigur, pe componente Intel. In plus, intelegerea prevede ca softurile pentru Classmate sa ruleze si pe XO si viceversa, de unde se poate deduce ca Intel va merge pe Linux. Cineva nu prea se va bucura…

  • Hotii si vardistii

    Saptamana trecuta am revenit la LonelyGirl15 si replica ei britanica Kate Modern, pentru ca sunt manifestari specifice internetului social care avanseaza pretentia de a reprezenta o noua forma de arta. Curajoasa pretentie, daca tinem seama ca celelalte arte au avut nevoie de mii de ani pentru a se cristaliza iar toate artele „noi“ nu sunt de fapt decat combinari ale celor ancestrale. Opera, de pilda, aduce naratiune, muzica, teatru si dans intr-un scenografie care adauga mixturii arhitectura si artele vizuale. Peste toate acestea troneaza insa o intelegere intre creatori si spectatori, o anumita conventie care delimiteaza lumea reala de lumea reprezentata. Aceasta conventie este cea asupra careia pun presiune toate noile manifestari care aspira la statutul de arta, pentru ca ea este magia care-l transpune pe bizonul pictat in grota de la Altamira in lumea vanatorii, iar pe noi, modernii, in tragedia Antigonei sau in lumea imposibila a lui Magritte.

    Argumentele care indreptatesc povestea lui LonelyGirl15 sa se pretinda o forma de arta sunt aceleasi care neaga aceasta pretentie si se leaga de limitele in care s-a jonglat cu conventia. Cel putin in prima faza, conventia a fost abolita, „spectatorii“ – utilizatorii MySpace si YouTube – considerand filmele postate ca fiind „adevarate“ (adica nicidecum o reprezentare) si s-au simtit indreptatiti sa comunice cu personajul si astfel sa influenteze involuntar povestea. Apoi au aparut suspiciunile, in baza unor indicii care prefer sa cred ca au fost plantate de catre „creatori“, si de-aici a inceput partea interesanta: spectatorii au inceput sa caute limita intre realitate si reprezentare, inducand astfel o conventie specifica mai degraba jocurilor de genul hotii si vardistii, asumandu-si roluri de detectivi, cu diferenta ca regulile lipsesc iar spatiul jocului nu este marginit decat de referintele povestii. In fine, cand cautatorii s-au apropiat de raspuns, creatorii aveau deja publicul implicat suficient in poveste pentru a fi dispus sa accepte o conventie propriu-zisa: ceea ce vedeti este o reprezentare.

    Intrebarea persista: e un joc? Da si nu: happening-ul s-ar incadra mai degraba in ceea ce se cheama „alternate reality game“ (ARG), o specie cu oarecare traditie in lumea retelei. Este greu de definit ce este un astfel de joc al realitatii alternative, deoarece este de fiecare data altfel. In toate cazurile insa, ideea este de a dezvolta interactiv o poveste care-i cuprinde pe participanti („fictiune imersiva“) si care se intinde pe diverse medii (in special cele suportate de internet, dar spatiul jocului nu este limitat la lumea virtuala). Spre deosebire de alte jocuri din internet, ARG nu implica o instanta bazata pe inteligenta artificiala care sa construiasca scenarii, nu pretinde jucatorilor sa-si asume roluri si nu necesita o interfata speciala. Exista totusi un „Papusar“ (Puppetmaster) care conduce jocul si care lanseaza misterele pe care participantii trebuie sa le dezlege pe baza unor indicii pentru a duce mai departe povestea. Exista si aici o conventie, reprezentata de „cortina“ – o metafora a limitei dintre jucatori si papusar.

    Totul pare sa se inscrie in tiparele jocului, dar diferentele ies repede la iveala. In primul rand, jucatorii nu cunosc regulile (instituite de papusar si redefinite mereu pe baza precedentelor), astfel incat mare parte din farmec vine tocmai din descoperirea acestora si a „marginilor“ spatiului fictiunii prin incercari repetate. Pe de alta parte, un joc fara reguli si fara margini prestabilite nu mai este un joc, iar mantra definitorie a ARG, principiul de baza, este tocmai TINAG: „This Is Not A Game“ (acesta un este joc). Aproape nimic nu este prestabilit: Papusarul lanseaza ideile scenariului si indiciile, dar participantii (care se organizeaza liber in comunitati) sunt cei care le descopera, le combina si completeaza zonele albe. Povestea rezultata este mai degraba povestea constructiei povestii, un soi de „mise en abime“ in termenii literaturii.

    Fie ca e o forma de arta sau un simplu joc, este cert ca ARG poate fi un extraordinar instrument de marketing viral. Capodopera genului, The Beast (care a adunat peste 3 milioane de participanti), a fost de fapt o forma de promovare a filmului „A.I.“ realizat de Steven Spielberg. Ultima idee in domeniu: daca participantii intr-un ARG pot rezolva dificile probleme fictive, de ce n-ar putea rezolva si probleme ale lumii reale? Un nou proiect numit „World Without Oil“ va cauta scenariile supravietuirii intr-o lume fara petrol.