Digitalni asistenti temeljeni na umjetnoj inteligenciji ulaze u zdravstveni prostor nudeći procjenu simptoma, pa čak i preporuke terapije. Njihova glavna prednost je dostupnost 0–24, što u preopterećenim sustavima znači kraće čekanje i bržu osnovnu informaciju.
Međutim, kvaliteta odgovora varira ovisno o podacima na kojima je sustav obučen i načinu implementacije. Dok pojedini programi pouzdano prepoznaju česte tegobe, mnogo slabije snalaze se kod rijetkih ili složenih stanja. Dodatnu opasnost predstavlja tzv. „haluciniranje” – uvjerljivi, ali pogrešni zaključci koje AI može iznijeti. U medicini takva pogreška može imati ozbiljne posljedice.
Stručnjaci zato poručuju: chatbot može biti prvi orijentir, ali nikako konačna dijagnoza. Završnu riječ mora dati kvalificirani zdravstveni radnik.
Sigurnost podataka druga je velika briga. Zdravstvene informacije među najosjetljivijim su osobnim podacima, a korisnici često ne znaju gdje i kako se njihovi unosi pohranjuju. Prije preuzimanja aplikacije valja provjeriti tko stoji iza proizvoda, posjeduje li regulatorno odobrenje ili medicinsku certifikaciju te na koji se način štite prikupljeni podaci.
Struka zagovara jasna pravila i nadzor nad razvojem ovih alata. Bez definiranja standarda kvalitete i odgovornosti, postoji realan rizik pogrešnih savjeta i kasnijih pravnih zavrzlama.