Cercetătorii Apple au descoperit „limitări fundamentale” în modelele de inteligență artificială de ultimă generație, într-un articol care ridică semne de întrebare cu privire la cursa industriei tehnologice pentru dezvoltarea unor sisteme din ce în ce mai puternice, transmite The Guardian.
Apple a afirmat într-un articol publicat la sfârșitul săptămânii că modelele de raționament de mari dimensiuni (LRM) – o formă avansată de IA – se confruntă cu o „prăbușire completă a acurateței” atunci când sunt confruntate cu probleme extrem de complexe.
S-a constatat că modelele standard de IA au depășit LRM-urile în sarcini cu complexitate redusă, în timp ce ambele tipuri de modele au suferit o „prăbușire completă” în sarcini cu complexitate ridicată. Modelele de raționament de mari dimensiuni încearcă să rezolve întrebări complexe generând procese de gândire detaliate care descompun problema în pași mai mici.
Studiul, care a testat capacitatea modelelor de a rezolva puzzle-uri, a adăugat că, pe măsură ce LRM-urile se apropiau de colapsul performanței, acestea au început să „își reducă efortul de raționament”. Cercetătorii Apple au declarat că au considerat acest lucru „deosebit de îngrijorător”.
Gary Marcus, un academician american care a devenit o proeminentă voce a precauției cu privire la capacitățile modelelor de IA, a descris articolul Apple ca fiind „destul de devastator”. Marcus a adăugat că descoperirile au ridicat întrebări cu privire la cursa către inteligența artificială generală (AGI), o etapă teoretică a IA în care un sistem este capabil să egaleze un om în îndeplinirea oricărei sarcini intelectuale.
Referindu-se la modelele lingvistice de mari dimensiuni [LLM] care stau la baza unor instrumente precum ChatGPT, Marcus a scris: „Oricine crede că LLM-urile sunt o cale directă către un tip de AGI care ar putea transforma fundamental societatea în bine se amăgește”.
Lucrarea a constatat, de asemenea, că modelele de raționament iroseau puterea de calcul găsind soluția potrivită pentru probleme mai simple la începutul „gândirii” lor. Cu toate acestea, pe măsură ce problemele deveneau puțin mai complexe, modelele explorau mai întâi soluții incorecte și ajungeau la cele corecte mai târziu.
Cu toate acestea, pentru probleme de complexitate mai mare, modelele intrau în „colaps”, nereușind să genereze soluții corecte. Într-un caz, chiar și atunci când li s-a furnizat un algoritm care ar fi rezolvat problema, modelele au eșuat.
Articolul afirma: „La apropierea de un prag critic – care corespunde îndeaproape punctului de colaps al preciziei lor – modelele încep, în mod contraintuitiv, să-și reducă efortul de raționament, în ciuda dificultății crescânde a problemei”.
Experții Apple au afirmat că acest lucru indica o „limitare fundamentală a capacităților de gândire ale modelelor actuale de raționament”.
Studiul a stabilit provocări de tip puzzle pentru LRM-uri, cum ar fi rezolvarea puzzle-urilor Turnul din Hanoi și Traversarea Râului. Cercetătorii au recunoscut că accentul pus pe puzzle-uri reprezenta o limitare a lucrării.
Studiul a concluzionat că abordarea actuală a IA ar fi ajuns la niște limite. Acesta a testat modele precum o3 de la OpenAI, Gemini Thinking de la Google, Claude 3.7 Sonnet-Thinking de la Anthropic și DeepSeek-R1. Anthropic, Google și DeepSeek au fost contactate pentru comentarii. OpenAI, compania din spatele ChatGPT, a refuzat să comenteze.
Referindu-se la „raționamentul generalizabil” – sau capacitatea unui model de IA de a aplica o concluzie restrânsă într-un mod mai larg – articolul afirma: „Aceste concluzii contestă ipotezele predominante despre capacitățile LRM și sugerează că abordările actuale ar putea întâmpina bariere fundamentale în calea raționamentului generalizabil”.
Andrew Rogoyski, de la Institutul pentru IA centrată pe oameni de la Universitatea din Surrey, a declarat că articolul Apple a semnalat că industria „încă se orientează” în ceea ce privește AGI și că industria ar fi ajuns într-un „impas” în abordarea sa actuală.
„Constatarea că modelele de raționament de mari dimensiuni pierd firul în cazul problemelor complexe, în timp ce funcționează bine în cazul problemelor de complexitate medie și redusă, implică faptul că ne aflăm într-un potențial impas în abordările actuale”, a afirmat el.
Editor : A.C.