5 razloga zašto ne biste trebali vjerovati ChatGPT-u za medicinske savjete

5 razloga zašto ne biste trebali vjerovati ChatGPT-u za medicinske savjete
Čitatelji poput vas podržavaju MUO. Kada kupite putem poveznica na našoj stranici, možemo zaraditi partnersku proviziju. Čitaj više.

ChatGPT—chatbot umjetne inteligencije (AI) koji je razvio OpenAI—postao je sveobuhvatni alat za odgovaranje na mnoga jednostavna i teška pitanja, uključujući zahtjeve za medicinskim savjetom. Može odgovarati na medicinska pitanja i položiti ispit za medicinsku dozvolu Sjedinjenih Država (USMLE), ali ne može zamijeniti termin kod liječnika u bolnici.





MAKEUSEOF VIDEO DANA POMICI SE ZA NASTAVAK SA SADRŽAJEM

Kako ChatGPT napreduje, ima potencijal potpuno transformirati zdravstveni sektor. Kada se integrira sa zdravstvenim sustavima, može poboljšati pristup pacijenata skrbi i povećati radnu učinkovitost liječnika. Međutim, budući da se temelji na umjetnoj inteligenciji, postoji nekoliko zabrinutosti o njegovim potencijalnim opasnostima.





1. ChatGPT ima ograničeno znanje

  Svinja do srca

ChatGPT ne zna sve. Prema OpenAI-ju, ChatGPT ima ograničeno znanje, posebno kada je u pitanju ono što se dogodilo nakon rujna 2021.





ChatGPT nema izravan pristup tražilicama ili internetu. Uvježban je korištenjem ogromne količine tekstualnih podataka iz brojnih izvora, uključujući knjige, web stranice i druge tekstove. Ne 'zna' podatke koje isporučuje. Umjesto toga, ChatGPT koristi tekst koji je pročitao za stvaranje predviđanja o riječima koje treba koristiti i kojim redoslijedom.

Stoga ne može dobiti aktualne vijesti o razvoju u medicinskim poljima. Da, ChatGPT nije svjestan transplantacije srca sa svinje na čovjeka ili bilo kojeg drugog nedavnog otkrića u medicinskoj znanosti.



2. ChatGPT može proizvesti netočne informacije

ChatGPT može odgovoriti na pitanja koja postavite, ali odgovori mogu biti netočni ili pristrani. Prema a PLoS digitalno zdravlje Studija, ChatGPT provedena s najmanje 50% točnosti u svim USMLE pregledima. I dok je u nekim aspektima premašio prag od 60% prolaznosti, još uvijek postoji mogućnost pogreške.

Nadalje, nisu sve informacije koje se koriste za treniranje ChatGPT-a autentične. Odgovori temeljeni na neprovjerenim ili potencijalno pristranim informacijama mogu biti netočni ili zastarjeli. U svijetu medicine netočne informacije mogu koštati i života.





Budući da ChatGPT ne može samostalno istraživati ​​ili verificirati materijal, ne može napraviti razliku između činjenica i fikcije. Ugledni medicinski časopisi, uključujući Journal of the American Medical Association (JAMA), uspostavili su stroge propise da samo ljudi mogu pisati znanstvene studije objavljene u časopisu. Kao rezultat, trebali biste stalno provjeravati činjenice ChatGPT-ovih odgovora .

3. ChatGPT vas ne pregledava fizički

Medicinske dijagnoze ne ovise samo o simptomima. Liječnici mogu steći uvid u obrazac i težinu bolesti kroz pacijentov fizički pregled. Kako bi dijagnosticirali pacijente, liječnici se danas koriste i medicinskim tehnologijama i pet osjetila.





ChatGPT ne može izvršiti kompletan virtualni pregled ili čak fizički pregled; može odgovoriti samo na simptome koje navedete kao poruke. Za sigurnost i njegu pacijenta, pogreške u fizičkom pregledu—ili potpuno ignoriranje fizičkog pregleda—mogu biti štetni. Budući da vas ChatGPT nije fizički pregledao, ponudit će netočnu dijagnozu.

4. ChatGPT može dati lažne informacije

  ChatGPT lažni odgovor

Nedavna studija koju je proveo Medicinski fakultet Sveučilišta Maryland na ChatGPT-ovom savjetu za probir raka dojke pronašao je sljedeće rezultate:

'Iz našeg iskustva vidjeli smo da ChatGPT ponekad izmišlja lažne članke u časopisima ili zdravstvenim konzorcijima kako bi podržao svoje tvrdnje.' —Paul Yi M.D., pomoćni profesor dijagnostičke radiologije i nuklearne medicine na UMSOM-u

Kao dio našeg testiranja ChatGPT-a, zatražili smo popis nefikcijskih knjiga koje pokrivaju temu podsvjesnog uma. Kao rezultat toga, ChatGPT je proizveo lažnu knjigu pod nazivom 'Moć nesvjesnog uma' dr. Gustava Kuhna.

Kada smo se raspitali o knjizi, odgovorili su nam da je to 'hipotetska' knjiga koju je on napravio. ChatGPT vam neće reći je li članak u časopisu ili knjiga lažan ako se dalje ne raspitate.

5. ChatGPT je samo AI jezični model

  ChatGPT Medicinski

Jezični modeli funkcioniraju pamćenjem i generaliziranjem teksta, a ne ispitivanjem ili proučavanjem stanja pacijenta. Unatoč stvaranju odgovora koji odgovaraju ljudskim standardima u smislu jezika i gramatike, ChatGPT još uvijek sadrži niz problema , poput ostalih AI robota.

ChatGPT nije zamjena za vašeg liječnika

Liječnici će uvijek biti potrebni da donesu konačnu odluku o zdravstvenoj skrbi. ChatGPT obično savjetuje da razgovarate s ovlaštenim zdravstvenim djelatnikom kada tražite medicinski savjet.

pretvoriti pdf u crno -bijelo

Alati koji se pokreću umjetnom inteligencijom kao što je ChatGPT mogu se koristiti za zakazivanje pregleda kod liječnika, pomoć pacijentima u primanju liječenja i održavanje podataka o njihovom zdravlju. Ali ne može zamijeniti liječničku stručnost i empatiju.

Ne biste se trebali oslanjati na alat temeljen na umjetnoj inteligenciji za dijagnosticiranje ili liječenje vašeg zdravlja, bilo fizičkog ili mentalnog.