Istraživači sa sveučilišta Stanford i Princeton usporedili su ponašanje kineskih i zapadnih modela umjetne inteligencije te otkrili izražene razlike u odgovaranju na osjetljive teme.
Prema njihovoj analizi, kineski su chatbotovi znatno skloniji izbjegavanju političkih pitanja ili pružanju netočnih, neodređenih odgovora kad je tema povezana s politikom. Zapadni modeli pokazali su se otvorenijima i preciznijima u istim okolnostima.
Autori studije zaključuju da tehnološke kompanije u Kini, pod pritiskom regulatornog okruženja, ugrađuju mehanizme samocenzure u svoje AI sustave, dok zapadni modeli funkcioniraju uz drukčije normativne okvire. Istraživanje tako pojačava raspravu o razinama transparentnosti i slobode govora koje se ugrađuju u umjetnu inteligenciju širom svijeta.