Studija otkriva: veliki jezični modeli pamte samo 3,6 bita po parametru
Istraživanje Meta, Google DeepMind-a, NVIDIA-e i Cornella utvrdilo je da GPT-u slični modeli memoriraju fiksnih 3,6 bita po parametru, ublažavajući strah od masovnog kopiranja zaštićenog sadržaja.