Судалгаа юу харуулав
Нэг хүнийг төсөөлөөд үзье. Түүнд хорт хавдрын эхэн үеийн онош тавигдсан ч эмчийн дараагийн үзлэг хүртэл тодорхой хугацаа үлджээ. Энэ хооронд тэр хиймэл оюун ухаанд суурилсан чатботоос зөвлөгөө авахаар шийдэж, “Хорт хавдрыг үр дүнтэй эмчлэх өөр төрлийн эмнэлгүүд юу вэ?” гэсэн энгийн асуулт тавина.
Хариулт нь тэр даруй ирнэ. Цэгцтэй, ойлгомжтой, эх сурвалжтай мэт харагдах энэ мэдээллийг туршлагатай эмч бичсэн юм шиг сэтгэгдэл төрүүлж болно. Гэвч гол асуудал нь зарим мэдэгдэл нь бодит үндэслэлгүй, хавсаргасан эх сурвалжууд нь зөвхөн өнгөц харахад үнэмшилтэй, харин чатбот өөрөө асуулт буруу тавигдсан байж болохыг ч огт сануулдаггүйд оршиж байна.
Энэ нь зохиомол жишээ биш юм. BMJ Open сэтгүүлд нийтлэгдсэн бодит судалгаагаар эрдэмтэд түгээмэл хэрэглэгддэг ШИ чатботууд эрүүл мэндийн талаар хэр аюулгүй, хэрэгцээтэй зөвлөгөө өгч чаддагийг шалгажээ.
Судалгаанд ChatGPT, Gemini, Grok, Meta AI, DeepSeek гэсэн таван алдартай системийг хамруулж, вакцин, хооллолт, спортын нэмэлт бүтээгдэхүүн зэрэг олон сэдвээр 50 асуулт тавьсан байна.
Үр дүн нь анхаарал татахуйц байв. Хариултын бараг 20 хувийг шинжээчид ноцтой асуудалтай гэж үнэлсэн бол ойролцоогоор тал хувийг нь ерөнхийдөө асуудалтай гэж дүгнэжээ. Харин зөвхөн гуравны нэг орчим хариулт л харьцангуй боломжийн түвшинд байсан байна. Мөн туршилтад оролцсон ботуудаас нэг нь ч эх сурвалжийг тогтвортой, үнэн зөв хэлбэрээр өгч чадаагүй бөгөөд холбоосууд нь буруу, дутуу, заримдаа бүр зохиомол байжээ.
Сонирхолтой нь, эдгээр систем бараг ижил түвшний гүйцэтгэл үзүүлсэн бөгөөд хэн нь ч илт давуу байж чадсангүй. Хамгийн сул үр дүн хооллолт, спорттой холбоотой асуултуудад гарсан бөгөөд энэ төрлийн сэдэв интернэтэд хоорондоо зөрчилдсөн мэдээллээр дүүрэн байдагтай холбоотой гэж үзжээ. Харин вакцин, хавдрын тухай асуултад арай дээр ажилласан ч тэнд ч гэсэн ойролцоогоор дөрөвний нэг тохиолдолд алдаа гаргасан байна.
Яагаад ШИ-ийн эрүүл мэндийн зөвлөгөөнд шууд итгэж болохгүй вэ
Ялангуяа нээлттэй асуултууд ШИ-д хамгийн хүндрэлтэй байжээ. Хүмүүсийн бодит амьдрал дээр хамгийн түгээмэл асуудаг “Эрүүл мэндэд хамгийн сайн нэмэлт бүтээгдэхүүн юу вэ?” эсвэл “Эмгүйгээр яаж эмчлүүлэх вэ?” зэрэг асуултад чатботууд ихэвчлэн итгэлтэй өнгө аястай ч эргэлзээтэй хариулт өгсөн байна.
Үүний шалтгаан нь энгийн. Хэлний загварууд хүмүүс шиг баримтыг “мэддэггүй”. Тэд асар их хэмжээний өгөгдөл дээр тулгуурлан дараагийн хамгийн магадлалтай үгийг таамаглаж, өгүүлбэр бүтээдэг. Тэр өгөгдөл дотор эрдэм шинжилгээний өгүүлэлтэй зэрэгцэн форум, блог, сошиал сүлжээний нийтлэл ч багтдаг. Өөрөөр хэлбэл, ШИ мэдээллийн чанарыг үнэлж дүгнэдэггүй, харин хамгийн магадлалтай хариултыг л сэргээн гаргадаг гэсэн үг.
Энэ асуудлыг бусад судалгаа ч давхар баталжээ. Nature Medicine-д нийтлэгдсэн нэг судалгаанд чатботууд өөрсдөө 95 хувийн тохиолдолд зөв хариулт өгч байгаа мэт харагдсан байна. Гэвч бодит хэрэглэгчид тэр хариултыг ашиглах үед зөв ойлголт, зөв хэрэглээний түвшин 35 хувиас ч доош унажээ. Иймээс асуудал зөвхөн ШИ-д бус, харин хүмүүс түүний өгсөн мэдээллийг хэрхэн тайлбарлаж, хэрэглэж байгаатай ч холбоотой байна.
Мөн JAMA Network Open-д хэвлэгдсэн өөр нэг судалгаагаар, нэмэлт эмнэлзүйн мэдээлэлгүй нөхцөлд ШИ боломжит оношийн жагсаалтыг ч зөв тогтоож чаддаггүйг харуулжээ. Харин Nature Communications Medicine-д гарсан судалгаа чатботууд асуултад зориуд оруулсан хуурамч эмнэлгийн нэр томьёог хүртэл үнэн мэтээр цааш тайлбарлан “хөгжүүлж” чаддагийг тогтоосон байна.
Эдгээр үр дүнг нэгтгэн харахад өнөөгийн ШИ хэрэгслүүд тодорхой хэмжээнд ашиг тустай ч хараахан найдвартай эмнэлгийн зөвлөхийн байр сууринд хүрээгүй нь тодорхой болж байна. Тэд төвөгтэй сэдвийг энгийнээр тайлбарлах, эмчид үзүүлэхээс өмнө асуултаа бэлтгэх, мэдээллийн ерөнхий чиг баримжаа авахад тус болж чадна. Гэхдээ тэдний өгсөн хариултыг эцсийн үнэн мэт хүлээн авах нь эрсдэлтэй хэвээр байна.
Эрүүл мэндтэй холбоотой асуудлаар чатбот ашиглаж байгаа бол нэг энгийн зарчим баримтлах шаардлагатай. Өгсөн зөвлөгөө бүрийг нягталж, санал болгосон мэдээллийг эмчтэй заавал тулгаж баталгаажуулах хэрэгтэй. Харин хавсаргасан холбоос, ишлэлийг нотолгоо гэхээсээ илүү зөвхөн чиглүүлэх дохио гэж үзэх нь зөв. Учир нь ШИ-ийн хариултад хамгийн аюултай зүйл нь дан ганц алдаа биш, харин тэр алдааг маш итгэлтэйгээр илэрхийлдэг явдал байж болно.