Żyjemy w czasach wielkich obietnic. Z jednej strony AI ma rozwiązać wszystkie nasze problemy, a z drugiej – coraz częściej słyszymy, że technologia ta zbliża się do punktu, którego po prostu nie przeskoczy. Najnowsze badania przeprowadzone przez ekspertów ze Stanford University i VianAI Systems rzucają na sprawę dość chłodne światło. Przedstawili oni matematyczne dowody na to, że agenty AI są skazane na zderzenie z murem. Powyżej pewnego poziomu trudności zadania, maszyny te po prostu zaczynają się gubić lub seryjnie popełniać błędy. 📉
Wielkie plany kontra szara rzeczywistość
Obecnie cały świat żyje tzw. agentową sztuczną inteligencją. To takie sprytne programy, które mają za nas załatwiać sprawy, wykazując się przy tym sporą samodzielnością. Wielcy gracze, jak OpenAI czy Microsoft, prześcigają się w nowych funkcjach, a Elon Musk zapowiada nadejście superinteligencji już w 2026 roku. Brzmi to ekscytująco, ale czy to nie jest tylko wielka bańka inwestycyjna? 💸
Nie brakuje głosów rozsądku, które studzą ten entuzjazm. Niektórzy eksperci wprost ostrzegają, że dzisiejsza technologia nie ma szans dorównać ludzkiemu rozumowaniu i może skończyć jak giełdowa bańka internetowa sprzed lat. Co gorsza, najnowsze analizy sugerują, że:
- LLM-y nie potrafią wykonywać zadań o wysokim stopniu złożoności.
- Modele jedynie symulują procesy myślowe, nie rozumiejąc ich głębi.
- Większa ilość danych i mocniejsze procesory mogą nie wystarczyć, by przełamać ograniczenia.
Matematyka mówi: „sprawdzam”
Autorzy badania, prywatnie ojciec i syn, udowadniają, że niektóre polecenia wymagają od modeli obliczeń, które wykraczają poza ich możliwości przetwarzania. Efekt? Agent albo przerwie pracę, albo – co gorsza – zaserwuje nam przekonująco brzmiącą bzdurę. W najnowszych analizach badacze przyglądają się halucynacjom i ograniczeniom botów z perspektywy matematycznej, pokazując, że powyżej pewnego poziomu maszyny po prostu nie są w stanie zweryfikować poprawności swoich działań. 🧐
To potężny cios w wizję pełnej autonomii AI. Okazuje się, że „karmienie” modeli nieskończoną ilością informacji nie uczyni ich magicznie mądrzejszymi od ludzi. Aby przebić ten szklany sufit, prawdopodobnie potrzebujemy zupełnie nowego podejścia, o którym dzisiaj nie mamy jeszcze pojęcia. Na razie wygląda na to, że cyfrowy mózg ma swoje wyraźne granice, a optymizm korporacji może być nieco przesadzony. 🤷♂️
Fotografia: pixabay.com

