Tag: mircea sarbu

  • Urmează Cloud 2.0

    În naivitatea tinereţii, am căzut victimă unei înşelătorii: am fost ademenit de o facultate care promitea să mă înveţe informatică, dar s-a dovedit că scopul ascuns mişeleşte era să mă ucidă cu matematici superioare. Până şi cursurile care sugerau tematici informatice începeau cu sigma-algebre, treceau prin leme şi teoreme şi se terminau cu inevitabilul QED. Marea mea realizare este că am supravieţuit. Nu cred că îmi va folosi vreodată ceva din ce-am învăţat pe-atunci, dar astăzi mi-am propus să mai acord o şansă educaţiei mele academice, pornind de la teorema care spune că dacă ceva se poate calcula, se poate calcula folosind doar trei operaţii elementare: incrementarea unui număr întreg, decrementarea (până la zero) şi comparaţia cu zero (pentru un matematician, presupunerea că memoria este infinită este absolut rezonabilă). Să vedem acum până unde putem ajunge pornind de aici.

    Dată fiind simplitatea operaţiilor, n-ar fi greu de construit un procesor care să le implementeze. Sigur că ar fi ineficient, dar mă folosesc de acest formalism ca să evit diversitatea procesoarelor şi să ajung repede la nivelul la care am un procesor şi un limbaj de programare de nivel jos (low level). Cum nimeni nu e atât de nebun încât să programeze într-un astfel limbaj, au fost concepute limbaje de nivel mai înalt, mai apropiate de limbajul uman. Dar cum procesorul nostru nu ştie decât trei operaţii, programele trebuie traduse în ceva ce poate fi executat de procesor, iar de treaba asta se ocupă alte programe, zise compilatoare.

    E chiar atât de simplu? Nu chiar, pentru că un computer trebuie să facă o mulţime lucruri aparent mărunte (de exemplu să citească şi să scrie nişte date de pe un disc hard, să administreze memoria şi procesele etc.), aşa că pe fiecare computer rulează un program numit sistem de operare, care furnizează servicii de nivel jos programelor. Dar aici lucrurile se complică, pentru că există diverse sisteme de operare, fiecare cu altă organizare a serviciilor, aşa că programele dezvoltate pentru un sistem de operare nu rulează pe altul, chiar dacă în final tot la cele trei operaţii simple se ajunge.

    Există diverse soluţii pentru a rezolva această problemă, dar cea mai radicală este virtualizarea: un întreg sistem de operare poate fi rulat de un alt sistem de operare (numit gazdă). De fapt, programul de virtualizare “păcăleşte” sistemul oaspete, făcându-l să creadă că are la dispoziţie toate resursele hardware. Gazda interceptează toate apelurile de nivel jos ale oaspetelui şi le execută cu propriile mecanisme. Astfel se pot rula mai multe sisteme de operare pe acelaşi computer. Această tehnologie a fost perfecţionată astfel încât un întreg computer poate fi virtualizat: de fapt, totul se execută pe un server, iar computerul nu face decât să trimită şi să primească date, dar se comportă ca şi cum totul se petrece local. Cloud computing-ul a dus lucrule şi mai departe: un întreg centru de date poate fi virtualizat, comunicarea făcându-se prin internet.

    Pe baza unui algoritm extrem de eficient de compresie, OnLive a dezvoltat o tehnologie prin care jocuri (sau mai nou, programe Windows) sunt rulate în cloud, computerului client rămânâdu-i doar rolul de a decompresa şi afişa imagini şi de a trimite intrările. Însă abia cu vreo două săptămâni în urmă, un startup numit Numecent a prezentat o tehnologie care are şanse să revoluţioneze şi să bulverseze totul.

    Se numeşte “cloud paging”, se bazează tot pe virtualizare şi ca idee pare simplă. Un software oarecare (chiar un sistem de operare) este “pre-virtualizat” (sau “cloudificat”) de un program numit Application Jukebox Studio, imaginea rezultată fiind descompusă în pagini. Pe computerele locale rulează un player, care creează un mediu virtual (sandbox) pe discul local, unde paginile vor fi executate. Când un player solicită o aplicaţie (de exemplu Photoshop), serverul îi va trimite doar acele pagini care asigură pornirea programului, pe celelalte urmând să le trimită doar când sunt necesare pentru executarea unor funcţionalităţi ale programului. Esenţial este că programul nu este executat în cloud, ci local, fără instalare. Mai mult, paginile descărcate sunt păstrate, astfel încât programul poate funcţiona chiar şi offline. Mai adăugăm un algoritm care prevede care pagini urmează să fie solicitate, un nou sistem de licenţiere şi toată paradigma se răstoarnă: computerul local revine la putere.

    Şi teorema cu cele trei operaţii? M-a ajutat doar să arăt cât de simplă e informatica în teorie şi cât de complicată este în practică.

  • Zmeură aproape gratis

    Am fost printre pionierii presei informatice din România şi am asistat din postura de “insider” la ascensiunea, apogeul şi decăderea revistelor de IT. Este o poveste interesantă privită retrospectiv, pentru că proiectează o perspectivă relevantă asupra atitudinii publicului în privinţa tehnologiei.Prima fază a fost cea a interesului major pentru “dedesubturi”. Oamenii erau interesaţi de arhitectura şi funcţionarea procesoarelor, a discurilor hard sau optice, de facilităţile diverselor sisteme de operare şi, nu în ultimul rând, de programare.

    Toţi vroiau să programeze şi mulţi chiar o făceau. Cred că am învăţat vreo zece limbaje de programare în acea perioadă, fie pentru că le prezentam, fie pentru că le editam pe ale colaboratorilor şi era obligatoriu să înţeleg şi să verific cu mâna mea. Pe măsură însă ce computerele au devenit mai accesibile – atât ca preţ, cât şi ca utilizare – s-a trecut într-o altă fază, cea a bricolajului. Cititorii “veterani” erau în continuare interesaţi de noile tehnologii, dar oarecum mai mult pentru cultura generală. În schimb, pentru noile generaţii întrebarea nu mai era “cum funcţionează”, ci “cum să fac cutare sau cutare lucru”. Orice, de la overclocking sau înlocuirea unui disc hard până la asamblarea unui întreg computer din componente (metoda zisă “pe genunchi”). Cam aceeaşi problematică şi în partea de software.

    Evident, revistele au urmat tendinţa şi au devenit din ce în ce mai practice, având acum concurenţa (dar şi beneficiile) internetului. În această perioadă, PC-urile au continuat să se “comodizeze”, aşa că interesul pentru bricolaj a scăzut, la fel cum s-a întâmplat cu bricolajul electronic acum câteva decenii. Aşa că faza următoare a fost cea a testelor de performanţă şi a sfaturilor privind achiziţiile. Orice produs era trecut prin diverse benchmark-uri, se făceau comparaţii şi topuri, se recomandau pentru anumite utilizări în funcţie de rezultate. Dar interesul pentru tehnologia în sine a scăzut atât de mult, încât revista BYTE (etalonul în domeniu) a ieşit din business, urmată în scurt timp şi de ediţia românească (pe care am avut cinstea să o conduc la începuturi). Ultima fază a fost cea a business-ului IT.

    În această privinţă am fost sincroni cu lumea: aşa s-a întâmplat peste tot. Este interesant că şi învăţământul informatic din şcoli a mutat, cu timpul, accentul de la însuşirea tehnologiilor spre utilizarea lor, din păcate limitându-se adesea la programele de birotică. Aşa se face că, deşi mult mai familiarizaţi cu noile tehnologii, printre liceenii de astăzi sunt mult mai puţini cei capabili să scrie un program util decât erau printre liceenii anilor ’90. Desigur, nu toată lumea va avea de-a face cu programarea, dar din ce în ce mai multe aparate sunt computerizate şi puţin scripting nu strică.

    Cei mai nemulţumiţi sunt însă profesorii din mediul universitar (nu doar din zona IT), care se aşteaptă ca studenţii să aibă deja o oarecare dexteritate în programare, dar cel mai adesea bobocii au doar ceva deprinderi de web design şi eventual ceva macro-uri în suitele de birotică. Dacă cel puţin un an de studiu este consumat cu deprinderea programării, rămâne mult mai puţin timp pentru inginerie software şi tehnici avansate. Dar nevoia de buni programatori nu scade, ci creşte în toate domeniile. Nu doar informaticienii vor avea de-a face cu softul, ci şi inginerii, economiştii şi chiar medicii.

    Acesta este contextul în care Eben Upton şi câţiva colegi de la Universitatea Cambridge s-au gândit că ar trebui să încerce să facă ceva pentru a resuscita programarea ca hobby printre elevii de nivel preuniversitar. Era în 2006 şi computerele deveniseră tot mai scumpe şi mai complexe, cu adevărat mai uşor de utilizat, dar mult mai puţin “prietenoase” cu programatorul. Ca să scrii un program care să arate ceva în Windows e nevoie de o mulţime de abilităţi şi cunoştinţe despre sistemul de operare, ceea ce nu este la îndemâna unui începător şi poate fi chiar riscant. Ideea lor a fost un computer foarte ieftin şi prietenos cu programatorii amatori, care să-i încurajeze să experimenteze.

    A durat 6 ani, dar au reuşit, iar zilele trecute au fost lansate pe piaţă primele computere într-un cip, sub numele Raspberry Pi. Sunt două modele, unul la 25 de dolari şi celalalt la 35, au dimensiunea unei cărţi de credit şi n-au periferie şi nici carcasă (deocamdată). Procesor ARM la 700 MHz, sistem de operare Linux redus, mediu de programare Python, ieşire HDMI, porturi USB. Iată deci că, după ce telefoanele s-au inspirat din computere, a venit timpul ca şi telefoanele să inspire computerele.

  • Înţelepciunea mulţimii

    “Proşti, dar mulţi”, îi răspunde Lăpuşneanu vornicului Moţoc, care a pus în balanţă stupizenia gloatei cu calitatea sa de mare boier şi poziţia de “tehnocrat”. E vorba deci de o ecuaţie în care intră calitatea şi cantitatea. Nu ne interesează rezolvarea pe care i-a dat-o Negruzzi, ci faptul că, în general, mulţimea este considerată proastă. Dacă nu vă place Negruzzi, vin cu o altă referinţă: agentul K din filmul “Men in Black” exprimă cam aceeaşi idee: “A person is smart. People are dumb”. Să recunoaştem că ne plac indivizii inteligenţi, experţii adevăraţi, elitele şi, deşi nu e tocmai corect politic, dispreţuim “mulţimea”. Cei dintâi par mult mai abilitaţi să conducă societatea, iar mulţimea face numai boacăne.

    Cam aceasta era şi viziunea lui Sir Francis Galton, un om de ştiinţă polivalent de la sfârşitul secolului 19, care s-a ocupat printre altele de statistică şi studiul eredităţii. Una dintre ideile sale era încrucişarea controlată (breeding) care să producă indivizii inteligenţi ce vor forma elitele capabile să conducă societatea. Dar curiozitatea sa pentru ereditate şi firea umană l-au purtat într-o zi la un târg de animale din apropierea oraşului în care locuia (Plymouth, în vestul Angliei). Printre atracţiile târgului era un concurs în care participanţii trebuiau să estimeze greutatea unui bou după tăiere şi tranşare. Cel care era cel mai aproape de rezultatul exact primea ca premiu toată carnea. Fiindcă s-au strâns vreo 800 de participanţi (fermieri, măcelari şi mulţi gură-cască), Galton a împrumutat biletele după terminarea concursului, în ideea de a face nişte calcule statistice. Printre altele, a calculat şi media estimărilor, iar rezultatul l-a uimit: se potrivea perfect cu greutatea cântărită în concurs.

    Într-unul din episoadele seriei de popularizare a ştiinţei realizată de BBC (“The Code”), matematicianul Marcus du Sautoy prezintă un experiment asemănător. A îndesat 4.510 bombonele într-un borcan mare, după care a purtat borcanul prin diverse locuri şi a obţinut 160 de estimări privind numărul bomboanelor. Estimările variau între 400 şi 50.000, dar media lor a fost incredibil de apropiată de rezultatul corect: 4.514,89. Sautoy recunoaşte în aceste rezultate “înţelepciunea mulţimii” (the wisdom of the crowd), cea pe care prea adesea o dispreţuim.

    Există însă şi exemple mai complexe din lumea reală, cum este cazul submarinului american Scorpion, care a dispărut în apele Atlanticului de nord în anul 1968. Pentru a afla ce s-a întâmplat cu submarinul, un ofiţer al marinei (John Craven) a preferat o abordare mai specială. În loc să adune câţiva experţi care să evalueze toate datele şi să aproximeze o poziţie, a adunat o echipă mai largă compusă din oameni cu specializări diferite (matematicieni, specialişti în submarine, oameni de pe vase de salvare) şi le-a furnizat un set de scenarii posibile. În loc să le ceară să se consulte şi să furnizeze un rezultat, a cerut fiecăruia în parte să se exprime asupra scenariului cel mai plauzibil. Ba chiar a şi stabilit pariuri, cu sticle de Chivas Regal ca premii. De data aceasta nu se mai putea aplica o simplă medie, aşa că Craven a aplicat asupra rezultatelor nişte formule matematice mai sofisticate (bazate pe teorema lui Bayes) şi a agregat un scenariu nou, care nu mai corespundea niciunuia dintre cele iniţiale. Scorpion a fost găsit la mai puţin de 200 de metri de locul indicat de scenariul final.

    Sigur că nu-i atât de simplu. Inteligenţa mulţimii se manifestă doar în anumite condiţii, iar studiile actuale încearcă să le identifice. În exemplele pe care le-am prezentat, nivelurile de expertiză sunt fie irelevante (ca în cazul borcanului cu bomboane), fie diverse (ca în celelalte). Comunicarea în cadrul grupului nu apare în niciun caz, dar se consideră că poate fi benefică doar dacă este limitată. În primele cazuri e vorba de estimări cantitative relativ simple, dar cazul submarinului este mai interesant, pentru că scenariile furnizau extrem de puţine date (nimic despre adâncime şi viteza de deplasare), aşa că s-a mers tot pe ghicite. Oricum, în toate cazurile rezultatul grupului a fost mai exact decât oricare rezultat individual.

    S-ar părea că este vorba de excepţii, dar de fapt e mai degrabă regula. Înţelepciunea mulţimii face bursa să funcţioneze, societatea se bazează pe ea, iar internetul a valorificat-o la maximum: motoarele de căutare o folosesc, Wikipedia i se datorează, ştirile din Digg.com sunt ordonate de public, iar exemplele sunt nenumărate. Se pare că Vodă Lăpuşneanu a făcut oleacă de crowdsourcing.

  • 350 de cuvinte pe minut

    Peste tot în lume se vorbeşte enorm despre sistemul educaţional. Avizaţi sau nu, direct interesaţi sau doar chibiţi, toţi au convingeri ferme şi par să deţină reţetele cele mai bune. Întotdeauna un sistem dintr-o anumită ţară este considerat “performant” şi, în consecinţă, un model demn de adoptat, pentru ca în scurt timp să se constate că respectivul sistem este contestat chiar în ţara de origine. De exemplu, sistemul american, care cuprinde multe dintre cele mai prestigioase universităţi din lume. Iar cum o mare parte dintre studenţii acestora provin din liceele americane, se poate presupune că sistemul este bun în ansamblu. Când crezi că ai găsit modelul ideal, găseşti în YouTube un interviu în care Frank Zappa zice cam aşa: “Şcolile (americane) antrenează oamenii ca să devină ignoranţi cu stil. Îţi oferă echipamentul necesar ca să ajungi un ignorant funcţional”. Toată lumea îl aprobă, iar un comentator notează că afirmaţiile sunt valabile pentru orice sistem de învăţământ din oricare parte a “civilizaţiei industriale”.

    Aici însă se ridică două probleme. Prima este de ordin general şi voi reveni asupra ei: mai trăim astăzi într-o civilizaţie industrială? A doua este mai specifică: în prea mare măsură şcoala românească produce ignoranţi nefuncţionali, cu un bagaj de cunoştinţe sărac, cu abilităţi de comunicare precare şi, cel mai adesea, fără nici o aderenţă la problematica societăţii în care trăiesc. În această privinţă, avem într-adevăr de învăţat de la şcoala anglo-saxonă, iar primul lucru la care mă gândesc este practica dezbaterii (“debate”), care, cel puţin în America, este un sport naţional cu rezultate vizibile. Un american de pe stradă poate să emită fără probleme câteva fraze coerente despre un subiect oarecare, iar unul educat poate susţine o prezentare publică interesantă, în vreme ce la noi auzim cel mai adesea nişte păreri alături de subiect într-o română aproximativă în primul caz şi expuneri adormitoare în al doilea. Diferenţa nu este de inteligenţă, ci strict de educaţie şi antrenament: în şcolile noastre, elevul pur şi simplu nu are ocazia să se exprime. M-am bucurat cu naivitate când în programa de liceu a apărut o materie numită “Logică şi argumentare”, imaginându-mi că va aduce şi exerciţiul practic. M-am înşelat.

    În şcolile din Statele Unite, dezbaterile sunt o practică uzuală, cu dublu scop. Pe de-o parte, elevii sunt încurajaţi să se documenteze din surse diverse pe subiecte interesante şi cel mai adesea de actualitate, iar pe de altă parte să susţină argumentat un punct de vedere (adesea se trage la sorţi care echipă susţine pro şi care contra). La o scurtă privire peste tematică, am găsit subiecte precum “Guvernul federal trebuie să-şi sporească substanţial eforturile de explorare şi/sau dezvoltare dincolo de mezosferă” sau “Impactul căderii bursei de valori asupra economiei”, dar şi unele precum “Football or Soccer” sau “Pro şi contra uniformelor şcolare”. Nu îndrăznesc să-mi imaginez cum s-ar desfăşura (dacă, prin minune, s-ar desfăşura) la noi o dezbatere la nivel de liceu despre o oarecare politică guvernamentală, iar o dezbatere despre uniformele şcolare pe care am urmărit-o pe un forum web românesc a reuşit să mă uluiască prin absenţa aproape deplină a argumentaţiei şi abundenţa frazelor imperative.

    Un recent articol din Wired relatează că la un concurs de “policy debate” pentru liceeni (există şi campionate), elevii au vorbit la o viteză de 350 de cuvinte pe minut. Iar în acest punct revenim la prima problemă. Dacă acum 10-20 de ani documentarea implica lungi vizite la bibliotecă, zeci de cărţi măcar răsfoite şi căutări prin colecţii de ziare şi reviste, astăzi internetul oferă informaţii abundente, din toate sursele, începând cu tratate academice şi terminând cu bloguri sau chiar mesaje de pe Twitter. Problema s-a mutat, deci, de la “căutarea informaţiilor” la “selecţia informaţiei”, iar informaţia în exces trebuie expusă într-un timp limitat, motiv pentru care un concurs de argumentaţie elegantă devine un absurd concurs de “cine apucă să expună mai multe argumente”. Performaţa nu mai e să găseşti informaţii despre ceva, ci să-ţi copleşeşti cantitativ adversarul. Bun venit în civilizaţia informaţională!

    A venit vremea ca profesorul să înţeleagă că internetul a schimbat totul şi rolul său de transmiţător de informaţii s-a încheiat. De-acum va avea unul mult mai greu: de antrenor al spiritului critic şi al argumentaţiei, adică al capacităţii de a selecta informaţia şi de a o transforma în cunoaştere. Poate că lumea de mâine va aparţine autodidacţilor bine antrenaţi.

  • Făuritorii de imperii

    Nu ştiam că, atunci când devin publice, companiile ataşează dosarului o “scrisoare a fondatorilor”. Nu ştiu nici dacă este o cerinţă sau o tradiţie, dar se pare că e un mesaj important pentru posibilii investitori, care află astfel cam care este “viziunea de ansamblu” din perspectiva companiei. Nu am citit decât trei astfel de scrisori, dintre care prima a fost cea a lui Warren Buffett pentru Berkshire Hathaway (numită “An Owner’s Manual”, 1999), din care admit că nu prea am înţeles mare lucru. Însă scrisoarea care a marcat o schimbare substanţială de stil este cea semnată de Larry Page şi Sergey Brin în 2004, cu ocazia primei oferte publice lansate de Google.

    Deşi se admite că este inspirată din scrisoarea lui Buffett, fondatorii Google îşi avertizează investitorii că e vorba de o companie neconvenţională, iar obiectivele sunt pe termen lung. Mai nimic despre profituri şi socoteli financiare, însă accentul cade pe cultura organizaţională – în esenţă, fondatorii îşi doreau o corporaţie cu spiritul unei firme mici, bazată pe inovaţie – şi pe misiunea măreaţă (aproape mesianică) pe care şi-o asumă: să facă o lume mai bună prin facilitarea accesului gratuit al oamenilor la informaţie. Aici apare şi motto-ul “Don’t be evil”.

    În fine, a treia scrisoare îi aparţine lui Mark Zuckerberg (fondatorul Facebook) şi este chiar surprinzătoare, pentru că merge în linia celor de la Google, fixând o misiune măreaţă (a reinventa modul cum oamenii răspândesc şi consumă informaţia) şi accentuând că nu profitul în sine constituie obiectivul. Steven Levy consemnează în Wired că mesajul lui Zuckenberg pare acompaniat mai degrabă de trilurile îngerilor decât de zgomotul casei de marcat, în vreme ce, în Washington Post, Allan Sloan îl acuză pe fondatorul Facebook de aroganţă şi ipocrizie, pornind de la afirmaţia acestuia (devenită fulgerător celebră) că “nu construim servicii ca să facem bani, ci facem bani ca să construim servicii mai bune”.

    Desigur, e periculos să afirmi că nu te interesează profitul când ai o avere de peste 20 de miliarde de dolari, mai ales în condiţiile în care oferi spre vânzare doar 5% din companie şi îţi păstrezi 57% din acţiunile cu drept de vot. Practic, la Facebook nu se schimbă nimic în afară de modul de raportare, care oricum urma să fie schimbat. Să reţinem totuşi o altă frază interesantă din scrisoarea lui Zuckerberg: “În zilele noastre tot mai mulţi oameni vor să utilizeze servicii de la companii care cred în ceva dincolo de simpla maximizare a profitului”. Adică se introduce o dimensiune etică, care rimează oarecum cu “don’t be evil”.

    Însă partea cea mai interesantă din scrisoare este cea legată de cultura organizaţională, care o depăşeşte în amploare pe cea de la Google şi se constituie într-un document în sine, purtând un titlu care cu siguranţă i-a luat prin surprindere pe eventualii investitori: The Hacker Way. Desigur, Zuckerberg se grăbeşte să restabilească sensul originar a termenului “hacker”, fără conotaţiile negative pe care presa le-a introdus, dar împreună cu aspectele meritocratice pe care le implică şi cu subcultura aferentă, documentată cu ani în urmă de Steven Levy. Este de notat că se fac referiri extinse chiar la metodologiile de dezvoltare software, care merg în linia celor denumite acum “agile”, bazate pe iteraţii scurte şi pe ediţii foarte dese. Astfel, perfecţiunea unui produs soft este mai puţin importantă decât faptul că funcţionează (“done is better than perfect”), pentru că în cultura hackerilor totul poate fi perfecţionat şi nimic nu este “încheiat”. Este loc pentru inovaţie. Iarăşi e de notat paralela cu Google, care, deşi nu se referă în mod specific la hackeri, preferă să-şi păstreze multe produse într-o perpetuă stare “beta”.

    Până la urmă, Google şi Facebook spun aceleaşi lucruri în stiluri diferite: obiective pe termen lung, maximizarea imediată a profiturilor nu este esenţială, cultură organizaţională care să încurajeze inovaţia, metodologii de dezvoltare “radicale” şi stiluri de conducere mai degrabă inginereşti decât corporatiste, plus o dimensiune etică. Să fie oare acestea ingredientele succesului? Din întâmplare, am citit de curând un amplu articol în Forbes care se cheamă “Why Amazon Can’t Make a Kindle In the USA?”, în care Steve Denning constată că întregi industrii dispar din Statele Unite datorită “maximizării profitului” prin externalizare şi, odată cu ele, dispare capacitatea de inovaţie. Soluţiile propuse de autor seamănă izbitor cu ceea ce implementează Google şi Facebook.

  • Interfaţa centrată pe intenţii

    Povestea interfeţelor grafice este relativ lungă (peste o jumătate de secol) şi cu siguranţă interesantă. Începe cu un tânăr cercetător pe nume Alan Kay, care, într-o vreme când computerul personal încă nu apăruse (1968), îşi imaginează un computer portabil “pentru copiii de toate vârstele”. Îl numeşte Dynabook, iar desenul prin care îşi prezenta conceptul ne arată ceva ce astăzi începe să ne pară familiar: e o tabletă. Desigur, Kay nu voia să-i pună pe copii să programeze, ci doar să se joace, să deseneze, să citească, să înveţe, să-şi aducă resurse dintr-o “bibliotecă digitală” (internetul încă nu se născuse) şi diverse alte activităţi educative. Aşadar, avea nevoie de o modalitate simplă prin care copiii să interacţioneze cu computerul.

    Părerea lui Kay (rămasă celebră) era că metoda cea mai bună de a prezice viitorul este să-l inventezi, aşa că începe să-şi pună în practică ideea împreună cu cercetătorii de la Xerox PARC, unde reuşeşte să implementeze o paradigmă în care interacţiunea cu calculatorul se realiza cu ajutorul unor meniuri şi al unor simboluri grafice (iconuri) acţionate cu ajutorul unui maus (altă noutate). Aşa s-a născut interfaţa grafică, însă cel ce i-a intuit potenţialul (şi a furat ideea) a fost Steve Jobs, care a popularizat-o prin Macintosh, pentru ca apoi să fie din nou furată de Microsoft, care a răspândit-o în lumea întreagă.

    Aşadar, utilizăm o interfaţă concepută pentru copii şi nici nu ne imaginăm că se poate altfel. Şi totuşi, proiectanţii de la firma Canonical – cea care dezvoltă sistemul de operare Linux Ubuntu – vor să ne deranjeze această obişnuinţă. Primul pas a fost înlocuirea tradiţionalei interfeţe cu meniuri în partea de sus a ecranului cu una nouă, numită Unity, unde aplicaţiile cele mai uzuale sunt aşezate pe o bară de iconuri în stânga ecranului, iar celelalte trebuie căutate (ca într-un motor de căutare din web). M-am lovit de această interfaţă când am instalat Ubuntu pe noul laptop al fiicei mele şi recunosc că mi s-a părut foarte incomod. Puterea obişnuinţei, cu siguranţă. Dar după două zile, când am venit cu soluţia pentru instalarea interfeţei clasice, am fost întâmpinat cu un refuz: “Las-o aşa, că-i foarte bine. M-am obişnuit deja”. Se pare deci că se poate şi altfel, însă m-a intrigat schimbarea. Am aflat că ideea era de a economisi “desktop real estate” şi are sens: bara cu iconuri se autoascunde şi o aplicaţie are tot ecranul la dispoziţie.

    Desigur, aplicaţiile în sine au în continuare meniuri şi eventual bare de instrumente (toolbars), dar cei de la Ubuntu le-au pus gând rău şi acestora. Zilele trecute, Mark Shuttleworth – miliardarul sud-african care finanţează proiectul Ubuntu – a postat pe blogul său un articol în care prezenta conceptul unei noi modalităţi de interfaţă cu aplicaţiile, numită HUD (Head-Up Display), care îşi propune să înlăture meniurile şi să le înlocuiască prin căutări de genul celor din Unity. Mai mult, următoarea versiune majoră de Ubuntu (12.04, cu lansarea în aprilie) va implementa deja noul concept. Tot web-ul vuieşte deja (chiar şi revistele de IT care nu prea promovează sistemele Linux), iar părerile sunt împărţite.

    Shuttleworth explică avantajele meniurilor din aplicaţii (care sunt evidente), dar se concentrează asupra dezavantajelor. Meniurile devin adesea întortocheate şi utilizatorul trebuie să le parcurgă, deşi el ştie deja foarte clar ce-şi doreşte. Tastatura are un rol limitat, pentru că utilizatorul reţine puţine “scurtături”, iar denumirile comenzilor sunt adesea arbitrare şi nu respectă reguli de amplasare (de exemplu, uneori avem “Settings”, alteori “Preferences”). Căutarea poate fi mai eficientă, deoarece va utiliza potriviri vagi (fuzzy) şi va învăţa care sunt comenzile cele mai utilizate. Totuşi, meniurile mai au un rol important: permit utilizatorului să “exploreze” aplicaţia, să vadă funcţionalităţile, iar HUD încă nu are un înlocuitor.

    De fapt, ce vor cei de la Ubuntu? E destul de simplu dacă punem lucrurile în ordine. Urmează vocea (recunoaşterea vorbirii), care într-adevăr poate pune HUD în valoare şi, mai ales, se va potrivi perfect pe telefoane mobile şi tablete, unde spaţiul este important. Ubuntu rulează de mult timp pe procesoare ARM şi recunoaşte interfeţe touch, iar la CES 2012 Canonical a prezentat Ubuntu TV, pentru televizoarele inteligente. Cei de la Canonical ştiu în ce parte bate vântul schimbării şi încearcă să se poziţioneze în mijlocul evenimentelor. Preţul este imbatabil şi, în definitiv, Android e tot un Linux.

  • Ce va aduce 2012?

    Am plănuit să încep anul cu câteva previziuni despre industria IT în 2012, dar când am încercat să le formulez am constatat că sarcina nu-i chiar aşa de uşoară cum mi-am imaginat. Aşa că am căutat cu Google “2012 tech predictions” şi am primit cam 150 de milioane de rezultate. După ce am citit vreo câteva zeci m-am lămurit că sunt câteva teme care se repetă frecvent, dar scenariile urmează căi divergente şi foarte adesea se bat cap în cap. Totuşi, o bună bază de plecare ar fi evoluţiile majore din anul precedent, adică migrarea dinspre platforma PC spre platforme mobile şi adoptarea pe scară largă a modelului “cloud computing”. Evident, cele două mişcări sunt recurente, pentru că pe măsură ce procesarea se centralizează în “nori” scade necesarul de putere la terminale. Pe lângă aceste evoluţii se poate adăuga dispariţia lui Steve Jobs, deoarece poziţia sa de figură centrală a lumii IT din ultimii ani va trebui ocupată de un alt personaj de acelaşi calibru, iar cel care se va impune va avea o influenţă semnificativă.

    Mai întâi (nu neapărat în ordinea importanţei) sunt semne că ultraportabilele botezate de Intel “Ultrabook” vor avea succes şi că vor deveni cele mai populare laptopuri. De fapt, Intel speră să prelungească viaţa PC-urilor care i-au adus supremaţia ducând mai departe ceea ce Apple a anticipat cu ani în urmă cu modelul Air: foarte subţire şi uşor, fără componente în mişcare, fără “grăsime”. Acum Intel profită de platforma sa CULV (Consumer Ultra-Low Voltage) şi s-ar părea că vom vedea portabile care chiar pot să funcţioneze pe baterii! Dar… Intel nu poate miza lungă vreme pe acest (eventual) succes, pentru că epoca PC-urilor e pe sfârşite, iar pe zona mobilă a pierdut partida. După Bob Cringely, soluţia este unică: să cumpere Qualcomm. Numai că valorile de piaţă ale celor două companii sunt destul de apropiate (124 şi 92 miliarde de dolari) aşa că mai degrabă s-ar putea vorbi despre o fuziune, iar Qualcomm are acum vântul din pupa şi nu-i sigur că ar accepta.

    Toată lumea e de acord că Apple fără Jobs îşi va pierde strălucirea, iar amânarea modelului iPhone 5 a fost un prim motiv de decepţie şi a generat deja o glumă nu lipsită de miez: la Apple după anul 2011 nu urmează 2012, ci 2011S. Oricum, Apple va fi un jucător important pe zona smartphone-urilor şi a tabletelor încă multă vreme, dar atenţia pe care compania o arată pieţei de business poate să marcheze o schimbare de strategie. Probabil că, după Jobs, executivii nu mai au curaj suficient pentru mişcări îndrăzneţe pe piaţa de consum şi caută o zonă mai liniştită. Majoritatea comentatorilor cred că presupusul atac pe zona televizoarelor inteligente nu va avea loc, iar cei care vor avea de câştigat vor fi Samsung, Sony şi Toshiba.

    Microsoft va fi fără îndoială un protagonist al anului 2012. În primul rând prin platforma Windows Phone, care n-a obţinut anul trecut succesul măreţ pe care compania îl anticipa, aşa că aşteptările se mută spre prima parte a acestui an. Şi s-ar putea să obţină o victorie de palmares, atingând poziţia a treia în topul platformelor mobile. Spun “de palmares” pentru că se va datora mai degrabă abandonului competitorului principal, RIM, aflat într-o situaţie considerată fără ieşire chiar şi de către publicul loial gamei BlackBerry. Însă distanţa faţă de Apple iOS şi Android s-ar putea să crească. Aşteptări mari se pun şi în Windows 8, prima versiune care va rula şi pe procesoare ARM şi va dispune de o interfaţă special croită pentru tablete. Mulţi analişti se arată însă sceptici şi cred că pentru utilizatorii de PC-uri aceste îmbunătăţiri nu sunt sensibile (“lipstick on a pig”, zic cei de la The Verge), iar ce este dedesubt s-ar putea să nu justifice o migrare de la versiunea 7. Ar rămâne varianta unei lovituri câştigătoare pe piaţa tabletelor, însă succesul tabletelor ieftine de la Amazon şi B&N pare să sugereze că preţul va avea un cuvânt greu de spus.

    O altă tendinţă care s-ar putea să însemne mult în acest an este convergenţa mediilor, în principal video distribuit fără discriminare. Un subiect care va fi extrem de controversat va fi reglementarea internetului, cu semne că propunerea SOPA (Stop Online Piracy Act din SUA) va fi respinsă. Speculaţii multe referitoare la o lansare pe bursă a Facebook, dar cele mai mari şanse le are varianta “încă nu”.
    În fine, cine îi va lua locul lui Jobs în calitate de far călăuzitor al întregii industrii? Condiţiile sunt simple: să fie fondatorul şi conducătorul activ al unei companii de succes, cu mişcări îndrăzneţe, calităţi de vizionar şi influenţă. Pariul meu: Jeff Bezos.

  • Vedetele anului 2011

    Nu mai e nicio surpriză că Google se numără printre protagoniştii anului informatic. De data aceasta sunt mai multe motive, iar primul se referă la uriaşa achiziţie pe care a făcut-o cumpărând Motorola Mobility. Aprobările europene se lasă încă aşteptate, însă mi-e greu să cred că Google va scăpa “prada” din mâini, pentru că strategia de apărare în războiul patentelor se bazează pe brevetele de la Motorola. Al doilea motiv se referă la reţeaua de socializare Google Plus, care, deşi nu are încă o bază de utilizatori semnificativă, a reuşit să valorifice mai multe tehnologii şi resurse care până acum păreau disparate şi astfel să pună presiune asupra Facebook, care a trebuit să-şi îmbunătăţească serviciul. Ca de obicei, primii ce au aderat la noua platformă sunt cei din lumea IT, mereu în căutare de nou, dar începe să se adune şi publicul larg.
    Însă vedeta incontestabilă a anului 2011 se cheamă Android şi cifrele aduc cele mai convingătoare argumente.

    În luna noiembrie, Gartner estima că în lume sunt circa 218 milioane de dispozitive active care folosesc platforma software de la Google, iar ritmul de creştere pare exponenţial. În fiecare zi se activează mai mult de o jumătate de milion de aparate Android, iar jurnaliştii de la ZD Net se aşteaptă ca în 2012 ritmul activărilor să depăşească un milion pe zi. Dat fiind că Android este open source, unii ar putea să creadă că succesul sistemului de operare este doar o victorie de palmares, însă lucrurile nu stau chiar aşa dacă luăm în calcul cele 2,5 miliarde de dolari pe care Google le-a câştigat din publicitate (doar zona mobilă) în anul financiar trecut, cu perspectiva dublării în acest an. Un alt număr impresionant: de pe Android Market au fost descărcate până acum 10 miliarde de aplicaţii, ritmul de creştere în ultimul an fiind ameţitor (primul miliard a fost atins în iulie 2010, iar pragul de trei miliarde a fost depăşit în martie 2011). Poate că Google nu câştigă mare lucru din aceste aplicaţii, dar ele reprezintă un “cârlig” esenţial pentru a aduce noi şi noi clienţi.

    Succesul “stratosferic” (cum îl denumesc comentatorii) al platformei Android a avut o influenţă importantă şi în vânzările de telefoane inteligente, unde Samsung a devenit liderul pieţei, cu 24 de milioane de unităţi vândute în trimestrul al treilea. Apple a crescut la 17,3 milioane de unităţi şi cota sa de piaţă s-a redus la 15%, însă modelul 4S şi vânzările din perioada sărbătorilor nu au fost luate în calcul. Chiar şi aşa, Apple rămâne printre vedetele incontestabile ale anului, cele mai notabile realizări fiind lansarea platformei iCloud şi a “asistentului inteligent” Siri (încă tânăr, adesea ironizat, dar foarte promiţător). Este aproape sigur că Apple va fi în top şi anul viitor, când este aşteptat iPhone 5 şi (zvonurile spun) iPad 3.

    Am ajuns astfel şi la înfierbântata piaţă a tabletelor, în care noi şi noi modele apar în fiecare săptămână, numitorul comun fiind sistemul de operare Android. În mod oarecum surprinzător, vedeta pare să fie aici Amazon Kindle Fire, tableta de 200 de dolari din care se estimează că se vor vinde în ultimul trimestru peste 500 de milioane de unităţi, ceea ce poate să însemne un succes comparabil cu iPad la sfârşitul anului trecut – dar nu vom afla niciodată adevărul, pentru că Amazon are prostul obicei de a nu publica date privind vânzările. Succesul lui Kindle Fire se trage nu atât din calităţile sale tehnice (pe mine, cel puţin, nu m-a impresionat), cât din faptul că reprezintă o nouă abordare: aparatul vrea să-şi ascundă aspectele “computeristice” (de altfel, Amazon evită să-i spună tabletă). Se vrea doar un aparat de consumat media (cărţi, filme, muzică, web). Se pare că există un mare număr de potenţiali cumpărători care nu sunt dispuşi să dea 500 de dolari pe un iPad sau o tabletă echivalentă, dar ar încerca ceva mai simplu şi mai ieftin. Interesant este că statisticile realizate de Appcelerator şi IDC constată că şi interesul dezvoltatorilor de aplicaţii Android se îndreaptă tot spre Kindle Fire, o explicaţie fiind probabil dorinţa de a migra aplicaţii Android pe versiunea modificată pe care o foloseşte Amazon.

    În fine, premiul pentru o carieră de peste 40 de ani îl acord unui personaj nevăzut: sistemul de operare Unix. Considerat într-o vreme o relicvă în pragul extincţiei, astăzi susţine (în diverse întrupări) cele mai efervescente zone ale informaticii, de la cloud computing până la smartphones şi tablete, unde Linux stă sub Android, iar BSD sub iOS

  • Date pentru tot poporul

    Este interesant cum cuvântul “transparent” a ajuns să capete înţelesuri multiple. Sensul primar este “prin care se poate vedea clar”, dar în lumea tehnologiilor pare să însemne tocmai opusul, ceva de genul “blackbox”, o componentă sau un mecanism care oferă o funcţionalitate bine definită, deşi nu vedem cum se petrec lucrurile. Şi poate nici nu ne interesează. De exemplu, introduceţi o adresă web în browser şi vi se afişează pagina, dar în spatele acestei interacţiuni simple stă un mecanism complex (rezolvarea adresei prin sistemul DNS, dialogul cu serverul, transportul informaţiei şi randarea, ca să amintesc doar câteva). Tot acest mecanism este “transparent” pentru utilizator, în sensul că nu se vede. Şi acum, ghicitoarea: care sens se aplică în sintagma “transparenţa guvernării”? Noi ne-am dori să se aplice sensul primar, dar cel mai adesea ne lovim de o “cutie neagră”.

    Recunosc că am trişat puţin. De fapt, cel mai adesea, întregul mecanism care asigură funcţionarea web-ului este transparent în sensul primar, fiindcă toate protocoalele de comunicare sunt standarde publice, iar majoritatea pieselor software sunt open source (de pildă browserul Firefox, serverul Apache, BIND pentru DNS etc.), aşa încât oricine este interesat şi suficient de priceput poate să vadă şi să înţeleagă ce şi cum se petrece. Se poate verifica şi măsura, adică este “accountable”. Se luminează astfel puţin perspectiva asupra transparenţei guvernării, pentru că în teorie ar trebui să vedem ce se petrece în “cutia neagră”, măcar prin perspectiva datelor de intrare şi de ieşire, care sunt în general publice. E posibil ca pentru omul obişnuit aceste date să nu fie interesante sau inteligibile (ca în cazul funcţionării web-ului), dar există specialişti care pot să le interpreteze şi mass-media care să le facă inteligibile – adică să transforme datele în informaţie. Dacă nu avem încredere în ce ni se spune, ar trebui să putem verifica.

    De ce la noi teoria nu se potriveşte cu practica e o poveste lungă, dar una dintre scuzele invocate de cei care deţin datele este că publicarea lor implică investiţii masive în tehnologie. M-ar mira ca un snop de servere care să susţină un portal cu date publice să fie o investiţie prea costisitoare, dar se ridică problema softului, iar măreţul proiect (retrogradat la nivel de portal) numit e-România pare cu adevărat foarte scump. Poate merită să vedem şi cum au procedat prietenii noştri de peste ocean, pentru că portalul lor de date (Data.gov) chiar funcţionează şi furnizează nenumărate seturi de date atât pentru descărcare, cât şi prin servicii web, alături de câteva instrumente interactive de explorare şi analiză. De fapt, “părintele moral” al acestui portal este chiar preşedintele Obama, care de la bun început şi-a exprimat angajamentul de a ridica nivelul de transparenţă al guvernării şi de a furniza tehnologie care să permită implicarea publică. O mişcare importantă a fost înfiinţarea postului de Chief Information Officer la nivel federal şi numirea lui Vivek Kundra în această poziţie (supranumit “ţarul tehnologiei”). Kundra a stat doar doi ani şi jumătate în acest post, însă realizările şi reformele sale au fost vizibile şi au fost continuate de succesorul său Steven VanRoekel şi de Aneesh Chopra (din postura de Chief Technology Officer la nivel federal).

    Sigur că noi nu avem resursele şi know-how-ul de care dispun Statele Unite. Dar americanii, imperialişti cum îi ştim, s-au gândit să dea o dimensiune internaţională eforturilor depuse în această direcţie şi au început o colaborare cu India, care dispune şi ea de un portal cu date publice. Mai mult, au iniţiat un parteneriat internaţional numit Open Government Partnership, la care au aderat numeroase ţări printre care şi – surpriză! – România. Efortul americanilor şi indienilor s-a concentrat pe elaborarea unei platforme software care este descrisă ca fiind “Data.gov-in-a-Box”, adică o versiune open source a portalului Data.gov combinată cu portalul indian de documente publice. Proiectul constă din două părţi, dintre care prima se referă la un sistem de administrare al datelor şi codul sursă a fost deja publicat pe GitHub sub licenţă GPL. Partea care asigură accesul web vine de la indieni şi va fi publicată la începutul lui 2012.

    În curând guvernanţii noştri de la nivel local şi central vor pierde şi cea mai importantă scuză pentru opacitatea de care dau dovadă. Softul există, este gratuit şi deschis, poate fi auditat şi eventual adaptat, instalat pe servere şi folosit. Trebuie doar bunăvoinţă, dar mă tem că aceasta nu este open source.

  • Facebook, spaima vampirilor

    Nu cred că există vreo industrie la fel de secretoasă cum e cea informatică. Urmarea firească este că zvonurile sunt cele care domină lumea ştirilor din domeniu, iar tiparul este mereu acelaşi: nimeni nu vrea să recunoască nimic, dar nici nu neagă categoric. Dacă ar fi să facem o retrospectivă, am constata că multe dintre cele mai fanteziste zvonuri s-au confirmat într-o formă sau alta. Intenţia lui Microsoft de a cumpăra Yahoo! a fost un zvon îndelung negat până în ziua în care a fost confirmat. Telefoanele sub brand Google au fost o ipoteză aparent fără nicio bază până când au fost lansate pe piaţă. Şi exemplele ar putea continua cu toată zvonistica legată de Apple, de tableta de la Amazon şi multe altele.

    Dacă mâine un blog obscur ar pretinde că ştie din surse sigure că Boeing se lansează în industria de biscuiţi, nimeni nu l-ar băga în seamă. În schimb, un zvon conform căruia Facebook intenţionează să producă un smartphone bântuie lumea IT de vreo doi ani şi nu dă semne că s-ar stinge. De curând, pe situl AllThingsD – editat de Walt Mossberg şi patronat de Wall Stret Journal – a apărut o serie de articole care pretind că zvonul a devenit certitudine. Telefonul de la Facebook poartă numele de cod Buffy şi va include nativ (şi adânc) toată funcţionalităţile imensei reţele sociale. Mai mult chiar, se dau şi detalii despre platforma tehnologică – bazată pe o variantă modificată de Android şi folosind HTML5 ca bază pentru aplicaţii – şi chiar detalii despre negocierile cu producătorii: se pare că s-au purtat discuţii cu Samsung şi HTC, iar cel din urmă a fost cel ales. Bineînţeles, HTC a refuzat să comenteze (nu e clar dacă a negat), iar un oficial de la Facebook a refuzat să discute despre Buffy. Dar a expus pe scurt concepţia companiei: orice dispozitiv mobil este mai valoros dacă cuprinde în adâncime caracteristici sociale, iar Facebook colaborează cu operatori, cu fabricanţi, cu proiectanţi de sisteme de operare şi aplicaţii pentru a aduce cât mai multe aspecte sociale către cât mai mulţi utilizatori. În romgleză s-ar zice că “face sens”, având în vedere că Facebook pretinde că are 350 de milioane de utilizatori activi care se conectează de pe dispozitive mobile şi că are relaţii cu 475 de operatori din întreaga lume.

    De fapt, Facebook este prezent de multă vreme pe telefoane, pentru că pe toate platformele există aplicaţii pentru acces la reţeaua socială. Mai mult, HTC şi Motorola au lansat telefoane care au butoane dedicate pentru Facebook, iar unii operatori (în frunte cu Orange) au anunţat deja o serie de telefoane centrate pe Facebook. Însă toate aceste aparate oferă doar o parte din ceea ce este Facebook în browser, iar Buffy ar fi cel care va aduce totul. Un motiv în plus ar putea să fie concurenţa: Google Plus este deja mult mai bine integrat pe telefoanele bazate pe Android şi este clar că Google mizează mult pe zona mobilă. Cum previziunile spun că într-un viitor apropiat internetul va fi accesat mai mult de pe telefoane inteligente şi tablete, Facebook nu-şi permite să rămână în urmă. Pare convingător, nu-i aşa?

    Dar lucrurile nu sunt atât de simple. Deşi un telefon cu Facebook integrat ar putea aduce unele funcţionalităţi interesante (de pildă integrarea prietenilor din reţea în lista de adrese şi în mesagerie), planul are câteva slăbiciuni şi prima se referă la timp: o eventuală lansare nu poate veni mai repede de un an (dar cel mai probabil 18 luni), iar asta în zona mobilă este o eternitate. Mai important mi se pare însă un alt aspect: Facebook nu prea este iubită de utilizatori (deşi se zice că are peste 800 de milioane) şi problemele legate de “privacy” ar putea fi mult mai acute în zona mobilă. Dar mai sunt în joc şi Apple şi Google, care nu vor aplauda apariţia unui concurent. Google chiar poate face ceva în această privinţă, deoarece controlează Android şi ar putea să limiteze funcţiile non-Facebook livrate ramurii respective, punând potenţialii utilizatori într-o grea dilemă: doar Facebook sau tot ce poate oferi Android? Şi ultima, dar cea mai importantă: chiar vă trebuie un telefon Facebook sau funcţiile oferite de alte platforme sunt suficiente când sunteţi pe drum?
    Eu cred că dacă Facebook se vrea pe mobile, un telefon propriu nu-i de mare ajutor şi nici n-ar ajuta la prima listare la bursă. Varianta lui Roger McNamee este că Facebook ar trebui doar să livreze un toolkit software care să-i ajute pe fabricanţi să integreze funcţiile reţelei în propriile telefoane. Probabil că aşa va face, iar Buffy rămâne doar spaima vampirilor. Dar era mai ieftin cu usturoi.