سناریوی نخست: پسر ۱۹ ساله‌ای را در اورژانس می‌بینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان می‌دهد.

سونوگرافی شکم درخواست می‌کنید که می‌گوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر می‌کنید. سی‌تی اسکن مناسب است؟

تصمیم می‌گیرید که سی‌تی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک می‌شوید. با جراح درخواست مشاوره می‌دهید.

بیمار شما را صدا می‌زند. می‌گوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آن‌ها چند تشخیص گفته‌اند و در ادامه تعدادی آزمایش پیشنهاد داده‌اند. می‌خواهد یک لیست به شما نشان بدهد. تأکید می‌کند که این‌جا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل می‌روند ولی آپاندیس‌شان مشکلی ندارد.

چه کار می‌کنید؟

این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آینده‌ای نزدیک خواهید دید. همان‌طور که در این سال‌ها بیماران بیشماری می‌گفتند که ما در «اینترنت» علا‌ئم‌مان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.

با وجود مدل‌های بزرگ زبانی، این گفتگو راحت‌تر و خوشایندتر از گوگل کردن شده و بیماران نیز سریع‌تر نیز به جواب می‌رسند. اگر در چنین موقعیتی قرار بگیرید چه کار می‌کنید؟ عصبانی می‌شوید که من دکتر هستم یا موبایل تو؟ شاکی می‌شوید که اگر می‌خواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟

فکر نمی‌کنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فی‌البداهه حرفی بگوییم؟

حالا نوبت سناریوی دوم است: خانم ۲۸ ساله‌ای در اورژانس بستری شده است. می‌گوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفته‌اند و نوار قلب. گفته‌اند هر دو مشکلی ندارد. می‌خواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش می‌گیرد. با فشار روی دیواره قفسه سینه، به درد می‌آید.

دوباره عکسش را نگاه می‌کنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجه‌اش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمی‌دانید. تصمیم می‌گیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.

جواب آزمایش‌های اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمی‌ها ندارد. با ChatGPT مشورت می‌کنید. توصیه می‌کند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمی‌رسد.

اولی نیز، هم به خاطر تصویربرداری‌ها هزینه‌بر است و هم به خاطر نیاز به نمونه‌برداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمی‌خورد. اما ایده‌ی دیگری ندارید.

به بیمار می‌گویید که این نظر هوش مصنوعی است یا خودتان؟

شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح می‌دهند یا توصیه‌های هوش مصنوعی را؟ سؤال را کمی سخت‌تر بکنیم: فکر می‌کنید خطای انسانی را ترجیح می‌دهند یا خطای تکنولوژی را؟

پس از فکر کردن به این سؤال‌ها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤال‌های سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.


ترتیبی که مدرسه‌ پزشکی برای مطالعه‌ی مجموعه درس‌ «هوش مصنوعی و پزشکی» پیشنهاد می‌دهد، به صورت زیر است:

دیدگاه‌ خود را بنویسید

برای نوشتن دیدگاه باید وارد شوید.

56 کامنت در نوشته «نسخهٔ جدید دکتر گوگل»

  1. در سناروی اول توضیح می دهم که با توجه به نوع جست و جوی شما ممکن است هوش مصنوعی اطلاعات نامعتبر را به شما نمایش دهد. خود هوش مصنوعی هم تاکید می کند که نباید با صرف تکیه به آن طبابت کرد.

  2. درمورد سناریوی اول، به صحبت های بیمار گوش میدم و بهش توضیح میدم که اطلاعاتی که بدست آورده درسته و گاهی ممکنه بیمار با تشخیص آپاندیسیت به اتاق عمل بره اما در نهایت تشخیص متفاوت باشه، اما با این وجود با توجه به شرایط بالینی، انتخاب اول درمانی در اون شرایط بیمار، همون جراحی هست.

  3. سناریوی اول : در این موارد به نظرم نباید گارد گرفت و عصبانی شد اتفاقا باید با خوشرویی با بیمار برخورد کنیم و خودمون رو جاش بذاریم و درک کنیم که میخواد بیشترین اطلاعات را در مورد بیماریش داشته باشه و مطمئن باشه که بهترین تصمیم در زمینه سلامتیش گرفته بشه، نگاهی به نتیجه سرچش میندازیم و در زمینه مثالی که اورده شده بهش میگیم که با توجه به عواقب اشتباه در تشخیص آپاندیسیت گاها پزشک مجبور میشه بدون تشخیص قطعی و صرف وجود احتمال بالا بیمار رو به اتاق عمل ببره و حتی یکی از ویژگی های کیفی در مورد تشخیص آپاندیسیت وجود داشتن یه حداقلی از درصد خطا در جراحی آپاندیسیت هست و این درصد خطا طبیعیست
    در این سناریو به نظرم مهم ترین چیز عدم گارد گرفتن + مطلع کردن بیمار از جوانبیه که ممکنه هوش مصنوعی در اختیار بیمار قرار نده(یا بخاطر این که بیمار به علت prompt نامناسب نتونسته دریافت کنه) هست

    در مورد سوال دوم : به نظرم نباید گفت که از هوش مصنوعی استفاده شده (حداقل در جامعه فعلی) چون مهم ترین چیز که اعتماد بین پزشک و بیمار هست رو خدشه دار میکنه

  4. از نظر عامه که به این مساله نگاه کنیم خطای هوش مصنوعی برای اونها درکش سخت تر از خطای انسانی است که ممکنه تجربه مشابهی از آن را داشته باشند

  5. بابت سوال اخر ، در حال حاضر … برای بیمار “پزشک” در مقایسه با “هوش مصنوعی” کلمه قابل اعتماد تر و آرامش بخش تریه ، بخصوص اگر خود اون پزشک هم شایسته این صفت ها باشه. بعید بدونم بیماران این روز ها نظر متفاوتی داشته باشن … مگر در اینده

  6. ما باید بپذیریم که در دوره ای هستیم که چون بیماران به منابع اطلاعاتی زیادی دسترسی دارن، بایستی برای توضیح دادن و جواب دادن به سوالاتشون وقت بگذاریم. اگر نادیده بگیریم ممکنه باعث تشدید نگرانی، عدم همکاری بیمار و بی اعتمادی بشه.
    در ابتدا میگم خوشحالم که در دوره ای هستیم که با کمک هوش مصنوعی زندگی بهتر شده و من خودمم تو زندگی روزمره خیلی ازش استفاده میکنم. بعدش براش کامل کارهایی که انجام دادیم و نتایجی که گرفتیم و کارهایی که در مراحل بعدی می‌خوایم انجام بدیم رو براش توضیح میدم و در نهایت بهش میگم بله مطالبی که از chat gpt و grok گفتین درسته ولی یه موضوع مهم دیگه معاینات شماست و تصمیمی که ما میگیریم بر اساس شرایط خود شماست. مشابه این علائم رو بیمار دیگه ای هم ممکنه داشته باشه و مثل شما با این اپ ها صحبت کنه و همین مطالبی که به شما گفتن رو به ایشون هم بگن ولی در نهایت بیماری شما و ایشون زمین تا آسمون ممکنه فرق کنه. پس به ما اعتماد کنین بدونین که قطعا تمام تلاشمون رو برای همه ی بیماران می‌کنیم.

    برای مورد دوم هم به نظرم نیاز نیست توضیح بدیم که از هوش مصنوعی استفاده کردیم. در جامعه ی کنونی ایران، به نظرم این موضوع جا نیفتاده. ممکنه بیمار پیش خودش بگه پزشکی که از هوش مصنوعی استفاده می‌کنه هیچ فرقی با منی که پزشک نیستم نداره. منم میتونم از ai سوال بپرسم و همین جوابا رو بگیرم!

    مورد آخر هم باز هم به نظرم به شرایط جامعه برمیگرده. متاسفانه جامعه ی الآن ما خیلی به پزشک و بیمارستان بی اعتماده و چون هوش مصنوعی رو کم خطاتر و بهتر می‌دونه و به نقص های هوش مصنوعی در این زمینه آگاه نیست، ترجیح میده خیلی از مراحل تشخیص و درمان با هوش مصنوعی انجام بشه و اگر خطایی صورت می‌گیره خطای هوش مصنوعی باشه چرا که خطاهاش خیلی خیلی کمتری.