aprilie 19, 2024

Obiectiv Jurnalul de Tulcea – Citeste ce vrei sa afli

Informații despre România. Selectați subiectele despre care doriți să aflați mai multe

Experții în inteligență artificială dezavuează campania susținută de Musk, citând cercetările lor

Experții în inteligență artificială dezavuează campania susținută de Musk, citând cercetările lor

Reuters

1 aprilie 2023, ora 09:10

Ultima modificare: 1 aprilie 2023 la 09:15

Proprietarul SpaceX și CEO-ul Tesla, Elon Musk, sosește pe covorul roșu pentru premiile auto „Das Goldene Lenkrad” (Volanul de aur) prezentate de un ziar german la Berlin, Germania, 12 noiembrie 2019 / Reuters

„>

Proprietarul SpaceX și CEO-ul Tesla, Elon Musk, sosește pe covorul roșu pentru premiile auto „Das Goldene Lenkrad” (Volanul de aur) prezentate de un ziar german la Berlin, Germania, 12 noiembrie 2019 / Reuters

Patru experți în inteligență artificială și-au exprimat îngrijorarea după ce și-au citat munca într-o scrisoare deschisă – cosemnată de Elon Musk – în care solicită o pauză urgentă a cercetării.

Scrisoarea, datată pe 22 martie și până vineri avea peste 1.800 de semnături, solicita ca întrerupătorul să petreacă șase luni în dezvoltarea unor sisteme „mai puternice” decât noul GPT-4 susținut de Microsoft de la MSFT.O OpenAI, care poate transporta un om. Ca o conversație, el compune cântece și rezumă documente lungi.

De la lansarea ChatGPT, predecesorul GPT-4, anul trecut, concurenții s-au străduit să lanseze produse similare.

Sistemele AI cu „inteligență umană competitivă” prezintă riscuri serioase pentru umanitate, se spune în scrisoarea deschisă, citând 12 lucrări de la experți, inclusiv cadre universitare, precum și actuali și foști angajați ai OpenAI, Google și ai subsidiarei sale DeepMind.

De atunci, grupurile societății civile din Statele Unite și Uniunea Europeană au făcut presiuni pe legiuitori să țină sub control cercetările OpenAI. OpenAI nu a răspuns imediat solicitărilor de comentarii.

READ  Novar alege panourile LONGi pentru a produce 576 MW de energie solară în România

Criticii au acuzat Institutul Viitorul Vieții (FLI), organizația din spatele scrisorii, finanțată în principal de Fundația Musk, că acordă prioritate scenariilor apocaliptice imaginate față de preocupările mai imediate legate de AI, cum ar fi părtinirile rasiale sau sexuale care sunt programate în mașini.

Printre cercetările citate se numără „On the Dangers of Random Parrots”, o lucrare populară în colaborare cu Margaret Mitchell, care a supravegheat anterior cercetările etice AI la Google.

Mitchell, acum etician-șef la firma de inteligență artificială Hugging Face, a criticat scrisoarea, spunând Reuters că nu este clar ce este considerat „mai puternic decât GPT4”.

„Tratând atât de multe idei îndoielnice ca date, scrisoarea afirmă un set de priorități și o narațiune a inteligenței artificiale de care beneficiază susținătorii FLI”, a spus ea. „Ignorarea daunelor active chiar acum este un privilegiu pe care unii dintre noi nu îl avem.”

Co-autorii săi, Timnette Gebru și Emily M. Binder, au criticat scrisoarea pe Twitter, acesta din urmă numind unele dintre afirmațiile sale „neîngăduite”.

Max Tegmark, șeful FLI, a declarat pentru Reuters că campania nu a fost o încercare de a bloca avantajul OpenAI.

„Este foarte amuzant. Am văzut oameni spunând: „Elon Musk încearcă să încetinească competiția”, a spus el, adăugând că Musk nu a avut niciun cuvânt de spus în elaborarea mesajului. „Nu este vorba despre o singură companie”.

riscuri acum

Sherry Dore-Hacohen, profesor asistent la Universitatea din Connecticut, s-a opus, de asemenea, la munca ei citată în scrisoare. Anul trecut, am fost coautor al unei lucrări în care argumentează că utilizarea pe scară largă a inteligenței artificiale prezintă într-adevăr riscuri grave.

READ  PERSPECTIVE - PERSPECTIVE '23: PKN Orlen din Polonia culege beneficiile cunoștințelor energetice

Cercetările ei au susținut că utilizarea actuală a sistemelor AI ar putea influența luarea deciziilor cu privire la schimbările climatice, războiul nuclear și alte amenințări existențiale.

„Inteligenta artificiala nu are nevoie de acces la inteligenta la nivel uman pentru a exacerba aceste riscuri”, a declarat ea pentru Reuters.

„Există riscuri inexistențiale care sunt cu adevărat importante, dar nu primesc același fel de atenție la nivel de Hollywood”.

Solicitat să comenteze criticile, Tegmark de la FLI a spus că riscurile pe termen scurt și lung ale AI ar trebui luate în serios.

„Dacă cităm pe cineva, înseamnă doar că pretindem că acesta aprobă acea propoziție. Nu înseamnă că susține discursul sau că sprijinim orice crede ei”, a spus el pentru Reuters.

Dan Hendricks, directorul Centrului de Securitate a Inteligenței Artificiale din California, care a fost menționat și în scrisoare, a rămas cu conținutul acesteia, spunând Reuters că este logic să luăm în considerare evenimentele de lebădă neagră – cele care par puțin probabile, dar care ar avea consecințe catastrofale. .

Scrisoarea deschisă a avertizat, de asemenea, că instrumentele AI generative ar putea fi folosite pentru a inunda internetul cu „propaganda și minciuni”.

Dori-Hacohen a spus că semnătura lui Musk de pe ea este „foarte bogată”, menționând creșterea dezinformării pe Twitter ca urmare a achiziționării platformei, care a fost documentată de grupul societății civile Common Cause și alții.

Twitter va lansa în curând o nouă structură de taxe pentru accesul la datele sale de cercetare, care ar putea împiedica cercetarea pe acest subiect.

„A afectat direct munca laboratorului meu, la fel și alții care studiază dezinformarea și dezinformarea”, a spus Dori-Hacohen. „Lucrăm cu o mână legată la spate”.

READ  Luxoft România angajează 150 de persoane până la sfârșitul anului 2021

Musk și Twitter nu au răspuns imediat solicitărilor de comentarii.