اکنون که مدل‌های زبانی بزرگ (LLMs) را می‌شناسیم، بهتر می‌توانیم از چالش‌های کار کردن با آن‌ها – به خصوص مسائلی که در پزشکی با آن برخورد داریم – بگوییم.

فراموش نکنیم که هستهٔ مرکزی یک مدل بزرگ زبانی، پیش‌بینی بهترین کلمهٔ بعدی است و دوباره تأکید می‌کنیم که مدل‌ها، برای یادگیری به داده نیاز داشته و دارند. در نتیجه این پیش‌بینی بر اساس داده‌هایی که تاکنون به آن داده شده، صورت می‌گیرد و ما نباید آن را «تعمیم‌داده‌شده به» یا «نمایندهٔ» کل جمعیت جهان فرض کنیم.

ادامهٔ این نوشته را تنها آن دسته از اعضای مدرسهٔ پزشکی که تمرین آن‌ها در نوشتهٔ قبلی (نسخهٔ جدید دکتر گوگل) تأیید شده است، می‌توانند مطالعه کنند.


ترتیبی که مدرسه‌ پزشکی برای مطالعه‌ی مجموعه درس‌ «هوش مصنوعی و پزشکی» پیشنهاد می‌دهد، به صورت زیر است:

دیدگاه‌ خود را بنویسید

برای نوشتن دیدگاه باید وارد شوید.

2 کامنت در نوشته «چالش و خطرات هوش مصنوعی در پزشکی»

  1. در استفاده از chatgpt، تجربه‌ی شنیدن چند مورد پاسخ توهمی داشتم: چندین مورد ECG به او دادم که با تفسیرهای نادرست و ساختگی مواجه شدم، برای تفسیر Brain ct نیز با موارد مشابهی روبرو شدم.
    برای بررسی روایی و پایایی یک پرسش‌نامه، به مطالعه‌ای ارجاع داد که فهمیدم واقعی نیست و وجود خارجی ندارد.
    به نظر می‌رسد تنها چیزی که نمی‌داند گفتن “نمی‌دانم” است!