Andrew Ng, osnivač DeepLearning AI-ja i jedno od najpoznatijih imena u umjetnoj inteligenciji, na konferenciji VB Transform poručio je velikim tvrtkama da prije uvođenja opsežnih zaštitnih mehanizama dopuste timovima brzu i sigurnu eksperimentaciju unutar takozvanih pješčanika.
Ng je priznao da su nadzor i zaštitne ograde ključni kako bi se spriječilo curenje osjetljivih podataka ili narušavanje brenda, ali je upozorio da pretjerana birokracija na startu „može zakočiti inovaciju”. „Jedan od razloga zašto se veliki sustavi zaustave jest to što inženjer, da bi išta pokrenuo, mora dobiti odobrenje pet potpredsjednika”, rekao je.
Pješčanici, objašnjava, omogućuju timovima da koriste ograničene skupove podataka i brzo iteriraju ideje, a tek za projekte koji se pokažu uspješnima tvrtka kasnije ulaže u potpunu primjenu nadzornih alata i zaštita. Taj pristup postaje sve rašireniji, posebno za razvoj AI agenata, jer omogućuje kreativnost bez izlaganja povjerljivih informacija.
Ng je usporedio aktualni zamah generativne AI s „vlakcem smrti koje je donedavno sporo vozilo, a sada je naglo ubrzalo” te naglasio da su razvojni alati poput GitHub Copilota i Windsurfa skratili vrijeme izrade prototipa s nekoliko mjeseci na svega tjedne ili dane. Zbog pada troškova „nije problem raditi mnogo dokazâ koncepta”, dodao je.
Iako talent ostaje usko grlo – pojedine tvrtke nude i do 10 milijuna dolara za inženjere jezgrenih modela – Ng tvrdi da se tipični softverski inženjeri plaćaju bitno manje. Ključ je, kaže, dati im priliku da „u pješčaniku” steknu iskustvo i tako popune jaz u vještinama koji koči širu primjenu AI-ja u korporacijama.