SAN FRANCISCO – Tvrtka Anthropic na svojoj je developerskoj konferenciji predstavila novu mogućnost nazvanu „dreaming”, dio upravo lansirane infrastrukture za AI agente. Funkcija prolazi kroz zapisnik radnji koje je agent nedavno obavio, traži obrasce i na temelju dobivenih uvida pokušava poboljšati njegove buduće nastupe.
„Zajedno, memory i dreaming čine robusni sustav memorije za agente koji se sami usavršavaju”, navodi se u objavi tvrtke. Memory bilježi što agent uči tijekom rada, dok dreaming „između sesija” pročišćava i ažurira te podatke.
Naziv odmah priziva roman Philipa K. Dicka Do Androids Dream of Electric Sheep? u kojem se preispituje granica između čovjeka i stroja. Kritičari, međutim, upozoravaju da stalno posuđivanje termina iz ljudske kognicije zamagljuje tu istu granicu.
Od pojave generativnih chatbota 2022. godine tehnološki lideri redovito posežu za sličnim strategijama: OpenAI je 2024. predstavio model „reasoning” kojem je trebalo „vrijeme za razmišljanje”, dok brojni startupovi tvrde da njihovi botovi imaju „sjećanja” o korisniku – od grada stanovanja do omiljene hrane.
U Anthropicu antropomorfiranje ide i korak dalje. U internom „ustavu” kompanija opisuje kako želi da chatbot Claude pokazuje „vrlinu” i „mudrost”. Zapošljava čak i rezidentnog filozofa koji se bavi botovim „vrijednostima”.
Znanstvenici upozoravaju da takav rječnik može iskriviti percepciju mogućnosti strojeva. Jedno istraživanje u časopisu AI & Ethics zaključuje da antropomorfizam „iskrivljuje moralne prosudbe o umjetnoj inteligenciji, njezinu karakteru te odgovornosti i povjerenju koje joj pridajemo”.
Autori kritika stoga pozivaju tvrtke da se vrate tehničkom nazivlju kako bi korisnici jasnije razlikovali ljudsku i strojnu sposobnost – i kako ne bismo, kažu, maštovito „sanjali” o onome čega strojevi uistinu nisu sposobni.