اکنون که مدلهای زبانی بزرگ (LLMs) را میشناسیم، بهتر میتوانیم از چالشهای کار کردن با آنها – به خصوص مسائلی که در پزشکی با آن برخورد داریم – بگوییم.
فراموش نکنیم که هستهٔ مرکزی یک مدل بزرگ زبانی، پیشبینی بهترین کلمهٔ بعدی است و دوباره تأکید میکنیم که مدلها، برای یادگیری به داده نیاز داشته و دارند. در نتیجه این پیشبینی بر اساس دادههایی که تاکنون به آن داده شده، صورت میگیرد و ما نباید آن را «تعمیمدادهشده به» یا «نمایندهٔ» کل جمعیت جهان فرض کنیم.
آنچه در ادامه میخوانید
ادامهٔ این نوشته را تنها آن دسته از اعضای مدرسهٔ پزشکی که تمرین آنها در نوشتهٔ قبلی (نسخهٔ جدید دکتر گوگل) تأیید شده است، میتوانند مطالعه کنند.
ترتیبی که مدرسه پزشکی برای مطالعهی مجموعه درس «هوش مصنوعی و پزشکی» پیشنهاد میدهد، به صورت زیر است:
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید





بار ها شده که به chatgpt گفتم بر اساس یکی از منابع معتبر پزشکی جواب سوالمو بده. وقتی جواب میده و ازش میخوام که دقیقا بگه از کجای اون رفرنس پیدا کرده، یه فصل اشتباه رو میگه. بعضی وقتا فصل درستی رو میگه اما وقتی میرم و متن رو میبینم، متوجه میشم که جواب رو اشتباه گفته.
جواب همیشگیش هم وقتی بهش گوشزد میکنم اینه که حق با توعه… 🙂
در استفاده از chatgpt، تجربهی شنیدن چند مورد پاسخ توهمی داشتم: چندین مورد ECG به او دادم که با تفسیرهای نادرست و ساختگی مواجه شدم، برای تفسیر Brain ct نیز با موارد مشابهی روبرو شدم.
برای بررسی روایی و پایایی یک پرسشنامه، به مطالعهای ارجاع داد که فهمیدم واقعی نیست و وجود خارجی ندارد.
به نظر میرسد تنها چیزی که نمیداند گفتن “نمیدانم” است!
تا الان پاسخ توهمی از هوش مصنوعی نگرفتم، یا اگر گرفتم هم متوجه نشدم.