Tag: anthropic

  • Anthropic caută expert în arme pentru a opri „utilizarea abuzivă catastrofală” a programului lor

    Cu alte cuvinte, se teme că instrumentele sale de IA ar putea indica cuiva cum să fabrice arme chimice sau radioactive şi doreşte ca un expert să se asigure că măsurile de protecţie sunt suficient de solide, potrivit BBC.

    În anunţul de recrutare de pe LinkedIn, firma precizează că candidaţii trebuie să aibă o experienţă de cel puţin cinci ani în „apărarea împotriva armelor chimice şi/sau a explozivilor”, precum şi cunoştinţe despre „dispozitive de dispersie radiologică”, cunoscute şi sub denumirea de bombe murdare.

    Firma a declarat pentru BBC că rolul este similar cu posturile din alte domenii sensibile pe care le-a creat deja.

    Anthropic nu este singura firmă de IA care adoptă această strategie.

    Un post similar a fost publicat de OpenAI, dezvoltatorul ChatGPT. Pe site-ul său de recrutare, compania listează un post vacant pentru un cercetător în „riscuri biologice şi chimice”, cu un salariu de până la 455.000 de dolari, aproape dublu faţă de cel oferit de Anthropic.

    Însă unii experţi sunt îngrijoraţi de riscurile acestei abordări, avertizând că aceasta oferă instrumentelor de IA informaţii despre arme, chiar dacă li s-a cerut să nu le folosească.

    Industria IA a avertizat în mod continuu cu privire la potenţialele pe care le prezintă tehnologia sa, dar nu s-a făcut nicio încercare de a încetini progresul acesteia.

    Problema a căpătat un caracter urgent, întrucât guvernul SUA apelează la firmele de IA în timp ce declanşează războiul în Iran şi operaţiuni militare în Venezuela.

    Anthropic a iniţiat o acţiune în justiţie împotriva Departamentului Apărării al SUA, pe care a desemnat-o drept un risc pentru lanţul de aprovizionare atunci când firma a insistat că sistemele sale nu trebuie utilizate nici în arme complet autonome, nici în supravegherea în masă a americanilor.

    Co-fondatorul Anthropic, Dario Amodei, a scris în februarie că nu crede că tehnologia este încă suficient de bună şi că nu ar trebui utilizată în aceste scopuri.

    Casa Albă a transmis că armata SUA nu va fi condusă de companii de tehnologie.

    Eticheta de risc plasează compania americană în aceeaşi situaţie cu firma chineză de telecomunicaţii Huawei, care a fost, de asemenea, inclusă pe lista neagră din cauza unor preocupări diferite legate de securitatea naţională.

    OpenAI a declarat că este de acord cu poziţia Anthropic, dar a negociat apoi propriul contract cu guvernul SUA, care, potrivit companiei, nu a intrat încă în vigoare.

    Asistentul AI al Anthropic, numit Claude, nu a fost încă eliminat treptat şi este în prezent încă integrat în sistemele furnizate de Palantir şi utilizat de SUA în războiul dintre SUA, Israel şi Iran.

  • Trump rupe relaţiile federale cu Anthropic după conflictul privind AI militar

    Un conflict între Pentagon şi compania americană de inteligenţă artificială Anthropic scoate la iveală o întrebare care părea desprinsă din filme, până de curând: poate inteligenţa artificială să fie folosită pentru a lua decizii care înseamnă viaţă şi moarte?

    Disputa a izbucnit în urma unei întâlniri care a avut loc între oficiali de rang înalt din Pentagon şi directorul general al Anthropic, Dario Amodei. The Washington Post a relatat vineri că şeful tehnologiei din cadrul Departamentului Apărării ar fi pus pe masă un scenariu extrem: ce s-ar întâmpla dacă o rachetă balistică intercontinentală ar fi lansată asupra Statelor Unite?

    Într-o astfel de situaţie, fiecare secundă contează. Oficialii americani ar fi întrebat dacă sistemul AI al companiei, numit Claude, ar putea ajuta armata să detecteze şi să intercepteze rapid o astfel de ameninţare. Potrivit sursei citate, răspunsul directorului general al Anthropic i-ar fi iritat pe oficialii Pentagonului. Acesta ar fi răspuns evaziv, spunând: „ne-aţi putea suna şi am rezolva situaţia”.

    Compania neagă însă categoric această versiune şi spune că este „complet falsă”, subliniind că a fost de acord ca tehnologia sa să fie utilizată pentru apărarea antirachetă.

    Disputa nu s-a limitat însă la interceptarea rachetelor. Pentagonul a cerut ca sistemul Claude să poată fi folosit pentru „toate scopurile legale”, formulare care ar putea include şi arme autonome sau programe extinse de supraveghere.

    Oficialii americani au transmis că nu intenţionează să desfăşoare supraveghere internă în masă şi nici să lase AI-ul să decidă singur lansarea armelor nucleare. „Este o solicitare simplă, de bun-simţ”, a declarat purtătorul de cuvânt al Pentagonului, Sean Parnell, argumentând că refuzul companiei ar putea „pune în pericol operaţiuni militare critice”.

    De cealaltă parte, Amodei a susţinut că tehnologia actuală nu este suficient de sigură pentru a fi folosită în sisteme de armament autonom. „Într-un set restrâns de cazuri, credem că AI poate submina, nu apăra, valorile democratice”, a declarat el, precizând că utilizările legate de arme autonome şi supraveghere extinsă „nu au fost niciodată incluse în contractele noastre cu Departamentul Apărării şi credem că nici acum nu ar trebui incluse”.

    După săptămâni de tensiuni şi un ultimatum transmis companiei, conflictul a escaladat decisiv. Potrivit Reuters, Donald Trump a anunţat vineri seara că le cere tuturor agenţiilor federale să înceteze utilizarea tehnologiei Anthropic, iar Pentagonul a clasificat compania drept „risc pentru lanţul de aprovizionare” – o etichetă gravă în zona securităţii naţionale.

    Trump a transmis că agenţiile federale vor avea o perioadă de tranziţie de şase luni pentru a renunţa la produsele companiei şi a avertizat că, în caz de neconformare, pot urma consecinţe serioase. Decizia reprezintă o lovitură majoră pentru start-up-ul care, până recent, avea contracte importante cu Departamentul Apărării şi alte instituţii federale.

    Oficialii americani spun că va exista mereu „un om în buclă” atunci când vine vorba de arme nucleare, adică decizia umană va fi finală. Însă chiar şi atunci, dacă un sistem AI recomandă un anumit răspuns sau identifică o ţintă, influenţa sa asupra deciziei poate fi majoră.

    Miza acestei confruntări poate părea îndepărtată pentru orice alt continent, dar implicaţiile ei sunt profunde. Statele Unite investesc masiv în integrarea inteligenţei artificiale în armată. AI-ul este deja folosit pentru analiză de informaţii, planificare operaţională şi securitate cibernetică. Întrebarea dezvoltatorilor de la Anthropic este cât de departe ar trebui să meargă utilizarea tehnologiei pe care au creat-o în scopuri militare.

    Iar conflictul dintre Pentagon şi Anthropic nu mai este doar unul tehnic sau contractual. A devenit o confruntare politică deschisă despre cine controlează viitorul tehnologiei militare: statul, care invocă securitatea naţională, sau companiile private, care se tem că produsele lor ar putea fi folosite într-un mod pe care îl consideră periculos sau nedemocratic.

    În spatele termenilor tehnici şi al deciziilor executive stă o dilemă fundamentală: dacă inteligenţa artificială devine suficient de puternică pentru a influenţa decizii de război, cine stabileşte limitele? Guvernul, în numele securităţii, sau dezvoltatorii, în numele responsabilităţii?

  • Estonia anunţă un parteneriat cu OpenAI şi Anthropic pentru a le preda elevilor de liceu abilităţi legate de inteligenţa artificială „Trebuie să învăţăm cum să folosim AI-ul”

    Estonia face echipă cu OpenAI şi Anthropic pentru a lansa o iniţiativă de a preda abilităţi în inteligenţa artificială elevilor de liceu, cu scopul de a-i ajuta să îi pregătească pentru locurile de muncă ale viitorului, scrie FT.

    Proiectul, cunoscut sub numele de AI Leap, se bazează pe infrastructura digitală publică a şi pe cultura educaţională puternică. Estonia este clasată pe primul loc în rândul ţărilor europene la testele internaţionale Pisa.

    Preşedintele Estoniei, Alar Karis, a spus că proiectul nu are scopul de a înlocui profesorii la clasă, ci de a dezvolta gândirea critică în rândul elevilor. „Trebuie să învăţăm cum să folosim AI-ul”, a spus el.

    Din septembrie, 20.000 de elevi de liceu, cu vârste între 16 şi 17 ani, vor avea acces gratuit la instrumente de învăţare AI. Aproximativ 3.000 de profesori încep deja ateliere de formare privind utilizarea instrumentelor AI în sala de clasă.

    Guvernul a spus că este în discuţii avansate cu OpenAI şi Anthropic pentru a-şi folosi instrumentele AI ale acestora.

  • Luptă strânsă pentru supremaţia în AI: Amazon inveşte încă 4 miliarde de dolari în Anthropic. Startupul de inteligenţă artificială este cel mai mare rival al OpenAI, susţinut puternic de Microsoft

    Amazon a anunţat vineri că va investi alte 4 miliarde de dolari în Anthropic, un startup de inteligenţă artificială fondat de foşti executivi ai OpenAI, scrie CNBC.

    Noua rundă de finanţare duce investiţia totală la 8 miliarde de dolari, chiar dacă Amazon va rămâne investitor minoritar, conform Anthropic.

    Infrastructura Amazon Web Services va fi folosită „parterner primar de training” al startupului de inteligenţă artificială. Astfel, tehnologiile de inteligenţă artificială dezvoltate de Anthropic vor beneficia de sprijinul major al reţelei Amazon.

    Startupurile precum OpenAI sau Anthropic, dar şi nume mari din industrie ca Google, Amazon, Meta sau Microsoft se duelează pentru supremaţia într-o industrie care estimată să valoreze 1.000 de miliarde de dolari până la sfârşitul deceniului.

    Unele companii preferă să investească în startupuri de tehnologie în timp ce altele îşi dezvoltă propriile soluţii de inteligenţă artificială.