سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
ترتیبی که مدرسه پزشکی برای مطالعهی مجموعه درس «هوش مصنوعی و پزشکی» پیشنهاد میدهد، به صورت زیر است:
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
در مورد سناریو اول به بیمار این حق رو میدم که در پروسه درمانش اگر سوالی داره گوش کنم و اگر اطلاعاتی داشته باشه حتما از اون استفاده کنم چون معمولا وقتی بیمار ها به سوالاتشون و حتی اون مطالبی که فکر می کنند درست هست و گاهی به پزشک قصد تحمیلش رو هم دارند گوش می کنیم، بیمار احساس می کنه که ما واقعا برای اون اهمیت قائل هستیم و این به ادامه روند درمان کمک میکنه. در مورد سناریو دوم، در نهایت این پزشک هست که برای پیدا کردن تشخیص مناسب از منابع در دسترسش استفاده کرده(میتونه منبع قابل اعتماد باشه و یا هم نه بسته به شخص داره) و این حالت رو شبیه زمانی میدونم که مثلا به درختی نگاه میکنیم و یک دفعه یک ایده به ذهنمون می رسه، مشکل در صورتی ایجاد میشه که ما نقش خودمون رو فراموش کنیم و بخوایم صرفا از یک ابزار استفاده کنیم و پروسه فکری رو مهار کنیم(مثل وقتی که فقط به درخت نگاه می کنیم اما فکر نمی کنیم در خالی که انتظار یک ایده فوق العاده رو داریم!)
در کل من به هوش مصنوعی به عنوان یک ابزار نگاه میکنم نه یه شخص مستقل! هیچ عیبی نداره که هوش مصنوعی یا موتور سرچ گوگل یا همکار پرستار یا همکار پزشک مشاور یا مثلا والدین بیمار یه پیشنهاد یا ایده جهت تشخیص مشکل یا روند درمان داشته باشن، اما فقط پزشک معالج مریض مسئول تصمیم گیری نهایی و مشخص کننده قدم بعدیه
لذا راجع به سناریو اول حتما با روی باز و گشاده و توام با سپاسگذاری به لیست آزمایش ها و تشخیص ها نگاه میندازم و اگر پیشنهاد به درد بخوری داشت اعمال میکنم( با یافته های بالینی مریض و چیزی که میبینم تطبیق میدم و بعد ((من)) اعمال میکنم، نه هوش مصنوعی)
همه اینارو هم توضیح میدم به بیمار
راجع به سناریو دوم هم همچنین… اگر شخص پزشک به این نتیجه برسه پیشنهاد هوش م منطقیه تصمیم میگیره تا اون پبشنهاد رو شخص خودش اعمال کنه و اون موقع دیگه تصمیم هوش مصنوعی نیست تصمیم خود پزشکه
در مورد سوال آخر هم به نظرم مقایسه ناقصه اینو در نظر نمیگیری که پزشک معمولا خسته است و حوصله پرسش و پاسخ زیاد با بیمار رو نداره، پزشک هزینه داره ولی هوش مصنوعی مفتیه! هوش مصنوعی تو صف وایسادن و نوبت گرفتن نداره، هوش مصنوعی مث پرنسس ها باهات حرف میزنه ولی پزشک نه. با این فاکتور ها مسلما مردم هوش مصنوعی رو ترجیح میدن در اغلب موراد. ولی باز یه نکته دیگه هم اینه که مورد با مورد میتونه متفاوت باشه. فرق هست بین یه درد شکم و تهوع و استفراغ که یه پزشک عمومی طرحی با ویزیت 20هزار تومن داره آزمایش میخواد و درمان میذاره با یه کنسر متاستاتیک end stage که فوق اونکو که از استان های اطراف سه ماه تو نوبتش می مونن پلن بذاره!
فکر میکنم افراد با خطای AI راحت کنار بیان ولی در نهایت نیاز باشه درمانگر پزشک باشه .
عدهای از افراد (که بخش قابل توجهی هم هستند) به علت ناآگاهی و تجربههای تلخ از پزشکان و کادر درمان (خواسته یا ناخواسته)، از AI به عنوان پزشک هم استفاده میکنند و دوست دارند که باور کنند پزشکان قابل تعویض با این پلتفرمها هستند.
اما سایر جامعه به احتمال خیلی زیاد هنگامی که در معرض خطر قرار بگیرند ترجیح میدهند کسی که به درمان فرد میپردازد یک انسان باشد زیرا در صورتی که خطایی رخ دهد قابل پیگیری میباشد.
جمله معروفی وجود دارد که (( اگر چکش داشته باشی همه چیز را میخ میبینی.))امروز یک چکش بدستم رسید و دیدگاهم دچار “lead poisoning”است. (البته اگر جنس چکش از سرب باشد.) راجع به اثر پلاسبو میخواندم و یکی از آزمایشاتی که ریچارد کرادین انجام داده – اعتراف کنم که خیلی عمیق نشده ام و شوق خواندن مطالب بعدی سایت وادار به نوشتنم کرد البته کتاب ریچارد کرادین با عنوان “اثر دارونما و نیروی شفای ناهشیار” را سفارش دادم- در یکی از آزمایش ها کرادین مثل اینکه به بیمار میگوید که اینکه داری میخوری دارونماست و همانجا هم خودش ۱۰تا از آن قرص میخورد تا جای هیچ شکی باقی نماند اما باز هم همان اثر پلاسبو و بهبود بیمار مشاهده می شود.او به نوعی میخواهد نتیجه بگیرد که اثر پلاسبو همان اثر اعتماد به تیم و فرایند درمان است و اگر توصیه ای از طریق تیم درمان و در محیط بیمارستانی منتقل شود(یا کسی که فقط ادعا میکند جزوی از آن هاست) اثری که بر جای میگذارد انکار ناپذیر است.
پس به نظرم هر چقدر هم که هوش مصنوعی ها کامل تر و دقیق تر کار کنند (البته امیدوارم هر چه زود تر دچار ceiling effect شوند) این که نظرات آن ها از فیلتر یک تیم درمانی انسانی(واقعا فکر میکردید لازم باشد روزی تاکید کنیم تیم درمانی انسانی است???!!!) عبور کند کمک کننده است.
در رابطه با نوع سخت تر سوال و به عنوان نکته آخر به نظرم میتوان مردم را نسبت به هوش مصنوعی به سه دسته تقسیم کرد:
دسته اول آن هایی که خیلی خود را درگیر مسائل روز و تکنولوژی نکرده اند به نظرم بدون شک ترجیحشان خطای پزشکی است(حداقل در حال حاضر).
دسته دوم آن هایی که با این موضوع آشنا هستند و می دانند که توسعه دهندگان LLM ها
هیچ مسئولیتی در رابطه با تولیدات ماشین هایشان به عهده نمیگیرند(حداقل فعلا و احتمالا تا مدت طولانی) این گروه هم به نظرم خطای پزشکی را ترجیح میدهند.(دست کم از پزشک میتوان شکایت کرد)
دسته سوم(که بیشتر افراد جامعه در این گروه اند) اطلاعاتشان بین این دو دسته قرار میگیرد و به نظرم تجربه شخصی این افراد با تیم درمان ، وضع مالی و فاکتور هایی از این دست تعیین کننده نظر این گروه است.
در بدبینانه ترین حالت ما هنوز ۲-۱ جلوییم.
در مورد سناریو بیمار اول من بهش میگم طبق اصول علمی معتبر کارهای لازم رو انجام دادیم اما لیستش رو هم نگاه میکنم اگر تو لیست چیز جدیدی دیدم بدون اینکه اشاره ای بهش بکنم درخواستش میدم(جوری که انگار از قبل میخواستم همینکارو بکنم و بهش میگم قدم بعدی ما هم همین بود) / سانریو دوم اگر ایده دیگه ای ندارم اگر توان ارجاع به متخصص یا فوق تخصص هماتولوژی رو داشته باشم همینکارو میکنم اگر نه علی رغم درد و هزینه اون کار رو توصیه میکنم/ سوال سوم: بنظر من ترکیب ما با هوش مصنوعی اینده است و اگر قرار باشه یکی حذف بشه بعنوان بیمار احتمالا ترجیحم هوش مصنوعی و بعنوان پزشک بلعکس
بیمار اول با توجه به اورژانسی بودن بیمار .بیمار را توجیه. می کنم. که عدم عمل جراحی حتی اگر آپاندیسیت در نهایت. منفی باشد باید انجام. گیرد .بیمار دوم درمان شکستگی جناغ انجام. میشه چک مجدد آزمایشات وآزمایشات تکمیلی در زمانی دیگر.وحرفی هم در مورد هوش مصنوعی نمی گویم . .به نظرم بیماران به خطای انسانی بسیار حساسند
در رابطه با سوال اول، به نظرم باید به بیماران حق داد که در شرایط بحران، از هر منبعی که دوست دارن استفاده کنن و نتیجه رو با پزشکشون در میون بذارن. من بعنوان پزشک در چنین شرایطی به بیمار میگم حتما اطلاعاتی که گفتن رو برای سیر بیماریشون در نظر میگیرم.
در رابطه با سوال دوم، حقیقتا لزومی نمیدونم که بخوام منابع روند درمانیم رو با بیمار به اشتراک بذارم، میخواد رفرنس باشه یا آپتودیت یا LLM.
و درباره سوال سوم، در شرایط فعلی فکر میکنم بیمار پزشک انسانی رو ارجیح بده، اما حس میکنم عصبانیتش در حال حاضر از خطای انسانی بیشتر خواهد بود نسبت به در آینده از خطای هوش مصنوعی. به هرصورت به هوش مصنوعی نمیشه مسئولیت اطلاق کرد.
درمورد سناریوی اول یه تجربه غیر مستقیم دارم. یه بیماری داشتم که آمبولی ریه کرده بود و همراه بیمار اومد ازم درباره وضعیت مریضش پرسید منم اومدم براش توضیح دادم که یه لخته داخل عروق ریه مادرتون وجود داره که باید تحت درمان باشن فعلا و انگار که خیلی راضی نشده باشه گفت خب نه من میخوام بدونم آمبولی کرده یا نه. خیلی برام عجیب بود و اون لحظه فهمیدم همراه بیمار رفته سرچ کرده و متوجه شده احتمالا بیمارش امبولی کرده ولی نه اونقدری دقیق که تعریف ساده من از بیماری رو بفهمه و متوجه بشه همون آمبولیه و خب نمیدونم هوش مصنوعی چه چیزی از این بیماری گفته بود بهش همه همونجا زد زیر گریه.
حداقل در این مورد حس میکنم پزشک به صورت سنجیده تری نسبت به شرایط راجع به بیماری به مریض و همراهش توضیح میده.
اما در هر صورت طبق چیزی که از رفتار اتند ها با بیمارا دیدم، جز اینکه به بیمار بگن اگه خودت بلدی چرا اومدی اینجا و جملات مشابه اینچنینی چیز دیگه ای ندیدم.
اما به نظر خودم میتونیم به بیمار یا همراهش توضیح بدیم که طبق صلاحدید با توجه به دانشی که حاصل علم و تجربه سالها طبابت و مریض دیدنمه نظر من اینه و ازتون میخوام به روند درمان اعتماد کنید و اگر نمیتونید میتونین پزشک دیگری رو انتخاب کنین.
به توصیههای هوش مصنوعی بیشتر اهمیت میدن. همونطور که بارها توی فضای مجازی اینترنت رو بر نظر پزشک ترجیح دادند و همونطور که خطای هوش مصنوعی رو بسیار کمتر از خطای انسان میدونن.
بحثهایی که در فضای مجازی میشه نشون میده که درصدی از جامعه اعتماد چندانی به جامعه پزشکی و کادر درمان ندارن و بعضا احساس میکنن که توی بیمارستان و محیطهای درمانی، به خودشون و عزیزانشون آسیب وارد شده.