سناریوی نخست: پسر ۱۹ ساله‌ای را در اورژانس می‌بینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان می‌دهد.

سونوگرافی شکم درخواست می‌کنید که می‌گوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر می‌کنید. سی‌تی اسکن مناسب است؟

تصمیم می‌گیرید که سی‌تی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک می‌شوید. با جراح درخواست مشاوره می‌دهید.

بیمار شما را صدا می‌زند. می‌گوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آن‌ها چند تشخیص گفته‌اند و در ادامه تعدادی آزمایش پیشنهاد داده‌اند. می‌خواهد یک لیست به شما نشان بدهد. تأکید می‌کند که این‌جا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل می‌روند ولی آپاندیس‌شان مشکلی ندارد.

چه کار می‌کنید؟

این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آینده‌ای نزدیک خواهید دید. همان‌طور که در این سال‌ها بیماران بیشماری می‌گفتند که ما در «اینترنت» علا‌ئم‌مان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.

با وجود مدل‌های بزرگ زبانی، این گفتگو راحت‌تر و خوشایندتر از گوگل کردن شده و بیماران نیز سریع‌تر نیز به جواب می‌رسند. اگر در چنین موقعیتی قرار بگیرید چه کار می‌کنید؟ عصبانی می‌شوید که من دکتر هستم یا موبایل تو؟ شاکی می‌شوید که اگر می‌خواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟

فکر نمی‌کنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فی‌البداهه حرفی بگوییم؟

حالا نوبت سناریوی دوم است: خانم ۲۸ ساله‌ای در اورژانس بستری شده است. می‌گوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفته‌اند و نوار قلب. گفته‌اند هر دو مشکلی ندارد. می‌خواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش می‌گیرد. با فشار روی دیواره قفسه سینه، به درد می‌آید.

دوباره عکسش را نگاه می‌کنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجه‌اش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمی‌دانید. تصمیم می‌گیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.

جواب آزمایش‌های اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمی‌ها ندارد. با ChatGPT مشورت می‌کنید. توصیه می‌کند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمی‌رسد.

اولی نیز، هم به خاطر تصویربرداری‌ها هزینه‌بر است و هم به خاطر نیاز به نمونه‌برداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمی‌خورد. اما ایده‌ی دیگری ندارید.

به بیمار می‌گویید که این نظر هوش مصنوعی است یا خودتان؟

شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح می‌دهند یا توصیه‌های هوش مصنوعی را؟ سؤال را کمی سخت‌تر بکنیم: فکر می‌کنید خطای انسانی را ترجیح می‌دهند یا خطای تکنولوژی را؟

پس از فکر کردن به این سؤال‌ها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤال‌های سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.


ترتیبی که مدرسه‌ پزشکی برای مطالعه‌ی مجموعه درس‌ «هوش مصنوعی و پزشکی» پیشنهاد می‌دهد، به صورت زیر است:

دیدگاه‌ خود را بنویسید

برای نوشتن دیدگاه باید وارد شوید.

47 کامنت در نوشته «نسخهٔ جدید دکتر گوگل»

  1. در مورد سناریو اول به بیمار این حق رو میدم که در پروسه درمانش اگر سوالی داره گوش کنم و اگر اطلاعاتی داشته باشه حتما از اون استفاده کنم چون معمولا وقتی بیمار ها به سوالاتشون و حتی اون مطالبی که فکر می کنند درست هست و گاهی به پزشک قصد تحمیلش رو هم دارند گوش می کنیم، بیمار احساس می کنه که ما واقعا برای اون اهمیت قائل هستیم و این به ادامه روند درمان کمک میکنه. در مورد سناریو دوم، در نهایت این پزشک هست که برای پیدا کردن تشخیص مناسب از منابع در دسترسش استفاده کرده(میتونه منبع قابل اعتماد باشه و یا هم نه بسته به شخص داره) و این حالت رو شبیه زمانی میدونم که مثلا به درختی نگاه میکنیم و یک دفعه یک ایده به ذهنمون می رسه، مشکل در صورتی ایجاد میشه که ما نقش خودمون رو فراموش کنیم و بخوایم صرفا از یک ابزار استفاده کنیم و پروسه فکری رو مهار کنیم(مثل وقتی که فقط به درخت نگاه می کنیم اما فکر نمی کنیم در خالی که انتظار یک ایده فوق العاده رو داریم!)

  2. در کل من به هوش مصنوعی به عنوان یک ابزار نگاه میکنم نه یه شخص مستقل! هیچ عیبی نداره که هوش مصنوعی یا موتور سرچ گوگل یا همکار پرستار یا همکار پزشک مشاور یا مثلا والدین بیمار یه پیشنهاد یا ایده جهت تشخیص مشکل یا روند درمان داشته باشن، اما فقط پزشک معالج مریض مسئول تصمیم گیری نهایی و مشخص کننده قدم بعدیه
    لذا راجع به سناریو اول حتما با روی باز و گشاده و توام با سپاسگذاری به لیست آزمایش ها و تشخیص ها نگاه میندازم و اگر پیشنهاد به درد بخوری داشت اعمال میکنم( با یافته های بالینی مریض و چیزی که میبینم تطبیق میدم و بعد ((من)) اعمال میکنم، نه هوش مصنوعی)
    همه اینارو هم توضیح میدم به بیمار
    راجع به سناریو دوم هم همچنین… اگر شخص پزشک به این نتیجه برسه پیشنهاد هوش م منطقیه تصمیم میگیره تا اون پبشنهاد رو شخص خودش اعمال کنه و اون موقع دیگه تصمیم هوش مصنوعی نیست تصمیم خود پزشکه
    در مورد سوال آخر هم به نظرم مقایسه ناقصه اینو در نظر نمیگیری که پزشک معمولا خسته است و حوصله پرسش و پاسخ زیاد با بیمار رو نداره، پزشک هزینه داره ولی هوش مصنوعی مفتیه! هوش مصنوعی تو صف وایسادن و نوبت گرفتن نداره، هوش مصنوعی مث پرنسس ها باهات حرف میزنه ولی پزشک نه. با این فاکتور ها مسلما مردم هوش مصنوعی رو ترجیح میدن در اغلب موراد. ولی باز یه نکته دیگه هم اینه که مورد با مورد میتونه متفاوت باشه. فرق هست بین یه درد شکم و تهوع و استفراغ که یه پزشک عمومی طرحی با ویزیت 20هزار تومن داره آزمایش میخواد و درمان میذاره با یه کنسر متاستاتیک end stage که فوق اونکو که از استان های اطراف سه ماه تو نوبتش می مونن پلن بذاره!

  3. عده‌ای از افراد (که بخش قابل توجهی هم هستند) به علت ناآگاهی و تجربه‌های تلخ از پزشکان و کادر درمان (خواسته یا ناخواسته)، از AI به عنوان پزشک هم استفاده می‌کنند و دوست دارند که باور کنند پزشکان قابل تعویض با این پلتفرم‌ها هستند.
    اما سایر جامعه به احتمال خیلی زیاد هنگامی که در معرض خطر قرار بگیرند ترجیح می‌دهند کسی که به درمان فرد می‌پردازد یک انسان باشد زیرا در صورتی که خطایی رخ دهد قابل پیگیری می‌باشد.

  4. جمله معروفی وجود دارد که (( اگر چکش داشته باشی همه چیز را میخ میبینی.))امروز یک چکش بدستم رسید و دیدگاهم دچار “lead poisoning”است. (البته اگر جنس چکش از سرب باشد.) راجع به اثر پلاسبو میخواندم و یکی از آزمایشاتی که ریچارد کرادین انجام داده – اعتراف کنم که خیلی عمیق نشده ام و شوق خواندن مطالب بعدی سایت وادار به نوشتنم کرد البته کتاب ریچارد کرادین با عنوان “اثر دارونما و نیروی شفای ناهشیار” را سفارش دادم- در یکی از آزمایش ها کرادین مثل اینکه به بیمار میگوید که اینکه داری میخوری دارونماست و همانجا هم خودش ۱۰تا از آن قرص میخورد تا جای هیچ شکی باقی نماند اما باز هم همان اثر پلاسبو و بهبود بیمار مشاهده می شود.او به نوعی میخواهد نتیجه بگیرد که اثر پلاسبو همان اثر اعتماد به تیم و فرایند درمان است و اگر توصیه ای از طریق تیم درمان و در محیط بیمارستانی منتقل شود(یا کسی که فقط ادعا میکند جزوی از آن هاست) اثری که بر جای میگذارد انکار ناپذیر است.
    پس به نظرم هر چقدر هم که هوش مصنوعی ها کامل تر و دقیق تر کار کنند (البته امیدوارم هر چه زود تر دچار ceiling effect شوند) این که نظرات آن ها از فیلتر یک تیم درمانی انسانی(واقعا فکر میکردید لازم باشد روزی تاکید کنیم تیم درمانی انسانی است???!!!) عبور کند کمک کننده است.
    در رابطه با نوع سخت تر سوال و به عنوان نکته آخر به نظرم میتوان مردم را نسبت به هوش مصنوعی به سه دسته تقسیم کرد:
    دسته اول آن هایی که خیلی خود را درگیر مسائل روز و تکنولوژی نکرده اند به نظرم بدون شک ترجیحشان خطای پزشکی است(حداقل در حال حاضر).
    دسته دوم آن هایی که با این موضوع آشنا هستند و می دانند که توسعه دهندگان LLM ها
    هیچ مسئولیتی در رابطه با تولیدات ماشین هایشان به عهده نمیگیرند(حداقل فعلا و احتمالا تا مدت طولانی) این گروه هم به نظرم خطای پزشکی را ترجیح میدهند.(دست کم از پزشک میتوان شکایت کرد)
    دسته سوم(که بیشتر افراد جامعه در این گروه اند) اطلاعاتشان بین این دو دسته قرار میگیرد و به نظرم تجربه شخصی این افراد با تیم درمان ، وضع مالی و فاکتور هایی از این دست تعیین کننده نظر این گروه است.
    در بدبینانه ترین حالت ما هنوز ۲-۱ جلوییم.

  5. در مورد سناریو بیمار اول من بهش میگم طبق اصول علمی معتبر کارهای لازم رو انجام دادیم اما لیستش رو هم نگاه میکنم اگر تو لیست چیز جدیدی دیدم بدون اینکه اشاره ای بهش بکنم درخواستش میدم(جوری که انگار از قبل میخواستم همینکارو بکنم و بهش میگم قدم بعدی ما هم همین بود) / سانریو دوم اگر ایده دیگه ای ندارم اگر توان ارجاع به متخصص یا فوق تخصص هماتولوژی رو داشته باشم همینکارو میکنم اگر نه علی رغم درد و هزینه اون کار رو توصیه میکنم/ سوال سوم: بنظر من ترکیب ما با هوش مصنوعی اینده است و اگر قرار باشه یکی حذف بشه بعنوان بیمار احتمالا ترجیحم هوش مصنوعی و بعنوان پزشک بلعکس

  6. بیمار اول با توجه به اورژانسی بودن بیمار .بیمار را توجیه. می کنم. که عدم عمل جراحی حتی اگر آپاندیسیت در نهایت. منفی باشد باید انجام. گیرد .بیمار دوم درمان شکستگی جناغ انجام. میشه چک مجدد آزمایشات وآزمایشات تکمیلی در زمانی دیگر.وحرفی هم در مورد هوش مصنوعی نمی گویم . .به نظرم بیماران به خطای انسانی بسیار حساسند ‌

  7. در رابطه با سوال اول، به نظرم باید به بیماران حق داد که در شرایط بحران، از هر منبعی که دوست دارن استفاده کنن و نتیجه رو با پزشکشون در میون بذارن. من بعنوان پزشک در چنین شرایطی به بیمار میگم حتما اطلاعاتی که گفتن رو برای سیر بیماریشون در نظر میگیرم.
    در رابطه با سوال دوم، حقیقتا لزومی نمیدونم که بخوام منابع روند درمانیم رو با بیمار به اشتراک بذارم، میخواد رفرنس باشه یا آپتودیت یا LLM.
    و درباره سوال سوم، در شرایط فعلی فکر میکنم بیمار پزشک انسانی رو ارجیح بده، اما حس میکنم عصبانیتش در حال حاضر از خطای انسانی بیشتر خواهد بود نسبت به در آینده از خطای هوش مصنوعی. به هرصورت به هوش مصنوعی نمیشه مسئولیت اطلاق کرد.

  8. درمورد سناریوی اول یه تجربه غیر مستقیم دارم. یه بیماری داشتم که آمبولی ریه کرده بود و همراه بیمار اومد ازم درباره وضعیت مریضش پرسید منم اومدم براش توضیح دادم که یه لخته داخل عروق ریه مادرتون وجود داره که باید تحت درمان باشن فعلا و انگار که خیلی راضی نشده باشه گفت خب نه من میخوام بدونم آمبولی کرده یا نه. خیلی برام عجیب بود و اون لحظه فهمیدم همراه بیمار رفته سرچ کرده و متوجه شده احتمالا بیمارش امبولی کرده ولی نه اونقدری دقیق که تعریف ساده من از بیماری رو بفهمه و متوجه بشه همون آمبولیه و خب نمیدونم هوش مصنوعی چه چیزی از این بیماری گفته بود بهش همه همونجا زد زیر گریه.
    حداقل در این مورد حس میکنم پزشک به صورت سنجیده تری نسبت به شرایط راجع به بیماری به مریض و همراهش توضیح میده.
    اما در هر صورت طبق چیزی که از رفتار اتند ها با بیمارا دیدم، جز اینکه به بیمار بگن اگه خودت بلدی چرا اومدی اینجا و جملات مشابه این‌چنینی چیز دیگه ای ندیدم.
    اما به نظر خودم می‌تونیم به بیمار یا همراهش توضیح بدیم که طبق صلاحدید با توجه به دانشی که حاصل علم و تجربه سالها طبابت و مریض دیدنمه نظر من اینه و ازتون میخوام به روند درمان اعتماد کنید و اگر نمی‌تونید میتونین پزشک دیگری رو انتخاب کنین.

  9. به توصیه‌های هوش مصنوعی بیشتر اهمیت میدن. همونطور که بارها توی فضای مجازی اینترنت رو بر نظر پزشک ترجیح دادند و همون‌طور که خطای هوش مصنوعی رو بسیار کمتر از خطای انسان میدونن.
    بحث‌هایی که در فضای مجازی میشه نشون میده که درصدی از جامعه اعتماد چندانی به جامعه پزشکی و کادر درمان ندارن و بعضا احساس میکنن که توی بیمارستان و محیط‌های درمانی، به خودشون و عزیزانشون آسیب وارد شده.