سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
ترتیبی که مدرسه پزشکی برای مطالعهی مجموعه درس «هوش مصنوعی و پزشکی» پیشنهاد میدهد، به صورت زیر است:
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
در سناروی اول توضیح می دهم که با توجه به نوع جست و جوی شما ممکن است هوش مصنوعی اطلاعات نامعتبر را به شما نمایش دهد. خود هوش مصنوعی هم تاکید می کند که نباید با صرف تکیه به آن طبابت کرد.
درمورد سناریوی اول، به صحبت های بیمار گوش میدم و بهش توضیح میدم که اطلاعاتی که بدست آورده درسته و گاهی ممکنه بیمار با تشخیص آپاندیسیت به اتاق عمل بره اما در نهایت تشخیص متفاوت باشه، اما با این وجود با توجه به شرایط بالینی، انتخاب اول درمانی در اون شرایط بیمار، همون جراحی هست.
سناریوی اول : در این موارد به نظرم نباید گارد گرفت و عصبانی شد اتفاقا باید با خوشرویی با بیمار برخورد کنیم و خودمون رو جاش بذاریم و درک کنیم که میخواد بیشترین اطلاعات را در مورد بیماریش داشته باشه و مطمئن باشه که بهترین تصمیم در زمینه سلامتیش گرفته بشه، نگاهی به نتیجه سرچش میندازیم و در زمینه مثالی که اورده شده بهش میگیم که با توجه به عواقب اشتباه در تشخیص آپاندیسیت گاها پزشک مجبور میشه بدون تشخیص قطعی و صرف وجود احتمال بالا بیمار رو به اتاق عمل ببره و حتی یکی از ویژگی های کیفی در مورد تشخیص آپاندیسیت وجود داشتن یه حداقلی از درصد خطا در جراحی آپاندیسیت هست و این درصد خطا طبیعیست
در این سناریو به نظرم مهم ترین چیز عدم گارد گرفتن + مطلع کردن بیمار از جوانبیه که ممکنه هوش مصنوعی در اختیار بیمار قرار نده(یا بخاطر این که بیمار به علت prompt نامناسب نتونسته دریافت کنه) هست
در مورد سوال دوم : به نظرم نباید گفت که از هوش مصنوعی استفاده شده (حداقل در جامعه فعلی) چون مهم ترین چیز که اعتماد بین پزشک و بیمار هست رو خدشه دار میکنه
از نظر عامه که به این مساله نگاه کنیم خطای هوش مصنوعی برای اونها درکش سخت تر از خطای انسانی است که ممکنه تجربه مشابهی از آن را داشته باشند
بابت سوال اخر ، در حال حاضر … برای بیمار “پزشک” در مقایسه با “هوش مصنوعی” کلمه قابل اعتماد تر و آرامش بخش تریه ، بخصوص اگر خود اون پزشک هم شایسته این صفت ها باشه. بعید بدونم بیماران این روز ها نظر متفاوتی داشته باشن … مگر در اینده
ما باید بپذیریم که در دوره ای هستیم که چون بیماران به منابع اطلاعاتی زیادی دسترسی دارن، بایستی برای توضیح دادن و جواب دادن به سوالاتشون وقت بگذاریم. اگر نادیده بگیریم ممکنه باعث تشدید نگرانی، عدم همکاری بیمار و بی اعتمادی بشه.
در ابتدا میگم خوشحالم که در دوره ای هستیم که با کمک هوش مصنوعی زندگی بهتر شده و من خودمم تو زندگی روزمره خیلی ازش استفاده میکنم. بعدش براش کامل کارهایی که انجام دادیم و نتایجی که گرفتیم و کارهایی که در مراحل بعدی میخوایم انجام بدیم رو براش توضیح میدم و در نهایت بهش میگم بله مطالبی که از chat gpt و grok گفتین درسته ولی یه موضوع مهم دیگه معاینات شماست و تصمیمی که ما میگیریم بر اساس شرایط خود شماست. مشابه این علائم رو بیمار دیگه ای هم ممکنه داشته باشه و مثل شما با این اپ ها صحبت کنه و همین مطالبی که به شما گفتن رو به ایشون هم بگن ولی در نهایت بیماری شما و ایشون زمین تا آسمون ممکنه فرق کنه. پس به ما اعتماد کنین بدونین که قطعا تمام تلاشمون رو برای همه ی بیماران میکنیم.
برای مورد دوم هم به نظرم نیاز نیست توضیح بدیم که از هوش مصنوعی استفاده کردیم. در جامعه ی کنونی ایران، به نظرم این موضوع جا نیفتاده. ممکنه بیمار پیش خودش بگه پزشکی که از هوش مصنوعی استفاده میکنه هیچ فرقی با منی که پزشک نیستم نداره. منم میتونم از ai سوال بپرسم و همین جوابا رو بگیرم!
مورد آخر هم باز هم به نظرم به شرایط جامعه برمیگرده. متاسفانه جامعه ی الآن ما خیلی به پزشک و بیمارستان بی اعتماده و چون هوش مصنوعی رو کم خطاتر و بهتر میدونه و به نقص های هوش مصنوعی در این زمینه آگاه نیست، ترجیح میده خیلی از مراحل تشخیص و درمان با هوش مصنوعی انجام بشه و اگر خطایی صورت میگیره خطای هوش مصنوعی باشه چرا که خطاهاش خیلی خیلی کمتری.