Modelele AI de tip agent intampina limite matematice, arata un nou studiu

Un nou studiu semnat de cercetatorii Vishal Sikka si Varin Sikka atrage atentia asupra unei limite fundamentale a modelelor de inteligenta artificiala bazate pe LLM-uri (Large Language Models). Potrivit cercetarii, exista o bariera matematica dincolo de care aceste modele nu mai pot executa sarcini complexe cu caracter autonom, chiar daca sunt alimentate cu volume uriase de date.

Concluzia pune sub semnul intrebarii ideea larg promovata de industria AI, conform careia modelele de tip agentic – capabile sa execute pasi multipli fara interventie umana – ar putea duce la inteligenta artificiala generala (AGI).

LLM-urile nu pot depasi un anumit prag de complexitate computationala

Cercetarea a fost adusa recent in atentia publicului de publicatia Wired, desi studiul fusese publicat anterior fara a atrage prea mult interes. Conform autorilor, LLM-urile intalnesc un obstacol esential: atunci cand sunt expuse la sarcini care depasesc o anumita complexitate computationala, acestea nu pot finaliza actiunea solicitata sau o executa gresit.

Pe scurt, chiar daca un model lingvistic de mari dimensiuni este instruit pe un set vast de date si pare capabil sa rezolve sarcini complexe, exista un prag matematic inerent sistemului care ii limiteaza capacitatea de a gandi si actiona logic intr-un mod consecvent, autonom si scalabil.

Aceasta limitare pune sub semnul intrebarii premisele pe care se bazeaza multe dintre planurile ambitioase ale companiilor din domeniul AI, in special cele care promoveaza agentul AI ca viitorul tehnologiei autonome. Asa cum relateaza Gizmodo, acest studiu ofera o demonstratie matematica riguroasa care sustine opiniile sceptice exprimate anterior in mediul academic.

Ce sunt modelele agentice si de ce conteaza?

Termenul de agent AI se refera la un model de inteligenta artificiala care poate indeplini o serie de sarcini in mod autonom, fara a fi nevoie de interventia umana dupa declansarea procesului. In teorie, un agent AI ar putea primi un obiectiv general („optimizeaza calendarul unei echipe”) si sa planifice, decida si execute pasi intermediari pentru a-l atinge.

Aceasta este o evolutie fata de modelele standard LLM, care functioneaza in general pe baza unui singur prompt (instructiune) si a unui raspuns generat pe baza probabilitatii cuvintelor. Modelele agentice presupun o capacitate mai profunda de intelegere, planificare, memorie de lucru si executie – trasaturi care se apropie mai mult de conceptul de inteligenta artificiala generala (AGI).

Tocmai de aceea, companii precum OpenAI, Anthropic, Google DeepMind sau xAI (compania lui Elon Musk) investesc masiv in dezvoltarea unor astfel de sisteme. Insa studiul Sikka sugereaza ca aceste sperante ar putea fi nefondate daca se bazeaza doar pe extinderea LLM-urilor existente.

Distinctia intre „aparenta inteligentei” si gandirea reala

Una dintre criticile recurente aduse LLM-urilor este faptul ca acestea nu „gandesc” in adevaratul sens al cuvantului, ci doar construiesc raspunsuri pe baza probabilitatilor statistice invatate din datele de antrenament. Desi outputul poate parea inteligent sau chiar creativ, modelele nu inteleg contextul, nu au constiinta si nu pot face rationamente logice reale.

Aceasta observatie a fost subliniata si intr-un studiu publicat anterior de cercetatori de la Apple, care au concluzionat ca LLM-urile nu pot efectua rationamente autentice, chiar daca pot mima acest comportament in unele cazuri.

La randul sau, Benjamin Riley – fondatorul Cognitive Resonance – a afirmat ca, din cauza modului in care sunt construite, LLM-urile nu vor putea atinge niciodata ceea ce noi numim inteligenta, ci doar o simulare a acesteia.

Prin urmare, ceea ce par a fi capacitati cognitive avansate se reduc, de fapt, la un joc sofisticat de predictii statistice, care devin tot mai fragile pe masura ce sarcinile devin mai complexe.

Implicatiile pentru viitorul inteligentei artificiale

Una dintre ideile centrale promovate in ultimii ani a fost ca AI-ul, alimentat cu suficiente date si resurse computationale, va putea evolua continuu pana va depasi capacitatile cognitive umane. In aceasta viziune, inteligenta artificiala generala este vazuta ca o chestiune de timp, nu de principiu.

Totusi, studiul semnat de Sikka tatal si fiul introduce un argument contrar: nu conteaza doar volumul de date sau puterea de procesare, ci si natura sarcinii si limitele sistemului matematic din care face parte modelul. Asta inseamna ca anumite tipuri de probleme nu pot fi rezolvate de LLM-uri, oricat de mari sau bine antrenate ar fi acestea.

In esenta, nu toate sarcinile pot fi traduse intr-un set de probabilitati pe care un model lingvistic sa le gestioneze eficient. Iar in lipsa unei structuri conceptuale mai profunde sau a unui nou cadru de arhitectura, progresele pot stagna sau deveni ineficiente la scara mare.

AI-ul ramane util, dar nu este un panaceu universal

Este important de subliniat ca aceste critici nu neaga complet valoarea sau aplicabilitatea inteligentei artificiale in forma sa actuala. Modelele LLM pot fi extrem de utile in contexte bine definite: generarea de texte, asistenta pentru codare, sumarizarea informatiei, traducere automata, raspunsuri la intrebari frecvente sau suport in domenii precum educatia si sanatatea.

Totusi, problema apare atunci cand asteptarile devin nerealiste si se promoveaza ideea ca aceste modele vor putea inlocui in totalitate procesele cognitive umane sau vor ajunge sa se autodezvolte fara limitari.

Datele adunate pana acum – inclusiv cele din studiile recente – sugereaza ca un astfel de scenariu este departe de realitate. De fapt, progresul in AI ar putea depinde, in anii urmatori, nu de marimea modelelor existente, ci de aparitia unor paradigme complet noi, capabile sa depaseasca limitele matematice ale LLM-urilor.

Studiul realizat de Vishal si Varin Sikka contribuie la acest dialog necesar privind directia pe care o va lua dezvoltarea inteligentei artificiale. In locul unei promisiuni vagi de „superinteligenta iminenta”, cercetarile recente pun accent pe intelegerea limitarilor actuale si pe nevoia de prudenta in evaluarea potentialului real al tehnologiei.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *