سناریوی نخست: پسر ۱۹ ساله‌ای را در اورژانس می‌بینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان می‌دهد.

سونوگرافی شکم درخواست می‌کنید که می‌گوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر می‌کنید. سی‌تی اسکن مناسب است؟

تصمیم می‌گیرید که سی‌تی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک می‌شوید. با جراح درخواست مشاوره می‌دهید.

بیمار شما را صدا می‌زند. می‌گوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آن‌ها چند تشخیص گفته‌اند و در ادامه تعدادی آزمایش پیشنهاد داده‌اند. می‌خواهد یک لیست به شما نشان بدهد. تأکید می‌کند که این‌جا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل می‌روند ولی آپاندیس‌شان مشکلی ندارد.

چه کار می‌کنید؟

این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آینده‌ای نزدیک خواهید دید. همان‌طور که در این سال‌ها بیماران بیشماری می‌گفتند که ما در «اینترنت» علا‌ئم‌مان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.

با وجود مدل‌های بزرگ زبانی، این گفتگو راحت‌تر و خوشایندتر از گوگل کردن شده و بیماران نیز سریع‌تر نیز به جواب می‌رسند. اگر در چنین موقعیتی قرار بگیرید چه کار می‌کنید؟ عصبانی می‌شوید که من دکتر هستم یا موبایل تو؟ شاکی می‌شوید که اگر می‌خواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟

فکر نمی‌کنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فی‌البداهه حرفی بگوییم؟

حالا نوبت سناریوی دوم است: خانم ۲۸ ساله‌ای در اورژانس بستری شده است. می‌گوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفته‌اند و نوار قلب. گفته‌اند هر دو مشکلی ندارد. می‌خواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش می‌گیرد. با فشار روی دیواره قفسه سینه، به درد می‌آید.

دوباره عکسش را نگاه می‌کنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجه‌اش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمی‌دانید. تصمیم می‌گیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.

جواب آزمایش‌های اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمی‌ها ندارد. با ChatGPT مشورت می‌کنید. توصیه می‌کند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمی‌رسد.

اولی نیز، هم به خاطر تصویربرداری‌ها هزینه‌بر است و هم به خاطر نیاز به نمونه‌برداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمی‌خورد. اما ایده‌ی دیگری ندارید.

به بیمار می‌گویید که این نظر هوش مصنوعی است یا خودتان؟

شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح می‌دهند یا توصیه‌های هوش مصنوعی را؟ سؤال را کمی سخت‌تر بکنیم: فکر می‌کنید خطای انسانی را ترجیح می‌دهند یا خطای تکنولوژی را؟

پس از فکر کردن به این سؤال‌ها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤال‌های سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.

دیدگاه‌ خود را بنویسید

برای نوشتن دیدگاه باید وارد شوید.

8 کامنت در نوشته «نسخهٔ جدید دکتر گوگل»

  1. با عرض سلام
    برای اینکه به سوال سوم پاسخ بدم خب خودمو میذارم جای بیمار و اگر به عنوان بیمار به پزشکی مراجعه کنم ترجیحم اینه که پزشک منو ویزیت کرده باشه و نظری بده یا علائممو به هوش مصنوعی قراره بدن و طبق تشخیص اون برام اقدام کنن؟
    تا اینجای کار و تجربه شخصی از هردو روش به نظرم هنوز هوش مصنوعی جای قضاوت بالینی پزشک رو نتونسته بگیره و به شخصه ترجیح میدم اگر بین نظر پزشک و هوش مصنوعی موندم بر اساس اون تجربه و قضاوتی که پزشک داشته عمل کنم و براساس مشاهدات خودم تو بیمارستان هم به نظرم بین مردم هوش انسانی رو در مسائل پزشکی بیشتر از هوش مصنوعی قبول دارن

  2. درود و احترام
    اول جواب سوال های سوم رو میدم چون بنظرم روی بقیه تاثیر گذاره:
    بنظرم پزشک انسانی رو ترجیح میدن اما خطا از سمت هوش مصنوعی برای بیمار بیشتر قابل چشم پوشی هست(و شاید همین داشتن توقع اشتباه کردن از هوش مصنوعی باعث میشه پزشک انسانی ارجح باشه) .
    سوال دوم:
    خودم اگر باشم مستقیم به gpt نمیرم برای ddx
    اول با رزیدنت و اتند مشورت میکنم و بعد برای اطلاعات تکمیلی اگر لازم شد ازش کمک میگیرم.
    سوال اول:
    فکر میکنم با کمی توضیح بشه قانع کرد. ازجایی که مریض به sign&symptom های بیماری آگاهی کافی نداره و هوش مصنوعی هم متناسب با سطح اطلاعات کسی که میپرسه جواب میده، پس دور از انتظار نیست که جواب درست تر یا کمتر اشتباه رو نده.(البته با این فرض جواب دادم که پاسخ متناقض هوش مصنوعی بدلیل نقص دانش انسانی یا میس کردن اطلاعات مهم از سمت پزشک نبوده باشه!)

  3. در مورد کیس اول به او می‌گویم: همانطور که میدانی در علم تجربی و پزشکی هیچ صد در صدی وجود ندارد و همه کتابها بر اساس میانگین در پزشکی نوشته شده و میدانی اگر به اتاق عمل نروی و آپاندیس باشد چه بلایی ممکن است سرت بیاید؟
    هوش مصنوعی تجربه بالین ندارد ولی من دارم، ممنون که اطلاعات مفیدی دادی، اگر راضی هستی من ادامه درمان و بررسی را انجام دهم

    در مورد کیس دوم نیاز نیست به بیمار بگوییم از کجا به این تشخیص رسیدیم و فقط بیمار نیاز است از روند درمان و استراتژی درمان که در ذهن داریم بداند

    این سوال دوم شما باید توی درس اخلاق پزشکی اضافه بشه:))

  4. سلام به هم‌مدرسه‌ای ها ؛

    دوراهیِ بسیار سخت و دشواریه!
    ( از سوال سوم شروع میکنم ) به نظرم ؛ ترجیحِ بیماران ؛ در این انتخاب؛ بسیار به میزانِ تحصیلات ؛ تعصبات و آگاهی و فرهنگشون وابسته‌ست ،
    به نظر من : درسته ابزار داره تغییر میکنه ( گوگل به Generative AI) اما فرهنگِ استفاده از چنین ابزار هایی هنوز به سرعتِ تغییر ابزار نرسیده ( یا حداقل راه زیادی در پیش داره ) . برای همین هم احساس میکنم تیپیکال بیمار ها/ همراه هایی که معمولا چنین رفتار ها یا درخواست هایی داشتند همچنان این اسلوب و راه رو ادامه خواهند داد .
    و در مقابل ؛ عده ای که به پزشک بیشتر از بقیه اعتماد دارند. این اعتمادشون رو حتی در این عصر جدید تا حد زیادی حفظ خواهند کرد . ( که البته بسیار به خود پزشک و رفتار های اعتماد سازش بستگی داره همچنان)

    چیزی که اما در این میان بسیار مهمه :
    (درباره سناریو های یک و دو )
    وظیفه‌ی سنگین ترِ پزشک و تیم درمان هست!
    ما، حالا ؛ چه به عنوان دانشجوی پزشکی و چه در آینده پزشک، این مسئولیت خطیر رو هم بر دوش داریم . که پیش از بیانِ بیمار – ولو تا چند ثانیه قبل- این سوال ها و درخواست ها رو پیش بینی کنیم و برای پیدا کردن جوابی براشون تلاش کرده باشیم . بطور خلاصه: بیشتر بلد باشیم تا بتونیم اگر فکت جدیدی هم توسط بیمار مطرح میشه راستی آزمایی‌ش کنیم و بسنجیمش!

  5. تمرین میکنم تا آرام باشم. در بیمارستان کمتر پیش می آید. جالب است که من در مکان های غیر درمانی(باشگاه، اقوام، مهمانی و…) این را تمرین میکنم. این محل ها پر است از حرف های خلاف علم از سوی افراد غیر پزشک. باز اگر از chat GPT نقل قول کنند یک چیزی! قابل تحمل تر است.
    در پاسخ سوال سوم باید بگویم که متاسفانه همان طور که خلاف علم و شبه علم برای مردم جذاب تر است، توصیه های هوش مصنوعی را هم بر پزشک ترجیح میدهند. یکی از اتندها استوری گذاشته بود که: یک روانشناس یا جامعه شناس بگوید که چرا ایرانی ها علاقه دارند مطالب پزشکی را از افراد غیرپزشک بپرسند.

  6. با سلام به نظر من الان که هوش مصنوعی وارد دنیای پزشکی شده رفتار پزشک ها هم با مریض باید متفاوت بشه قبلا که مردم اطلاعات کمتری داشتن خیلی به پزشک باور داشتن و حرف پزشک براشون خیلی سند بود ولی الان به نظرم اینکه مردم پزشک رو ترجیح بدن یا هوش مصنوعی رو کاملا بستگی به طرز رفتار و پرزنت کردن خود دکتر داره مثلا یکی از دلایلی ک مردم به چت جی پی تی علاقه مند شدن اینه ک هر چقدر بخوان میتونن سوال بپرسن ازش یا هر چقد بخوان براشون ساده سازی شده توضیح میده راجب بیماریشون کاری که دکترا معمولا نمیکنن ولی اگر پزشکی باشه که اهل توضیح دادن روند تشخیصش باشه و واقعا هم با سواد باشه و همیشه ی قدم از AI جلوتر باشه به نظرم بازم مردم پزشک رو تو این شرایط ترجیح میدن چون درسته که دانش AI وسیع تره ولی بخش عمده ای از طبابت تجربه توی اون کانتکس به خصوصی هست که داری توش طبابت میکنی

  7. سلام
    این روزها با دوستان و آشنایان و گاه بعضی از افراد خانواده ام که در فضای پزشکی نیستند در مورد هوش مصنوعی در پزشکی زیاد حرف می‌زنیم.
    آنهایی که در فضای پزشکی نیستند باور دارند که هوش مصنوعی تمام اطلاعات و دانش پزشکی را از ابتدا تا کنون و به صورت uptodate ذخیره دارد و چون به دور از خطاهای انسانی است، هرگز اشتباه نمی‌کند. نه امکان فراموشی دارد و نه خطا.
    و درنهایت نظر من این است که بیماران، تکنولوژی را ترجیح می‌دهند.

  8. یک تجربه‌ای که «فعلا» در اظهار نظر های llm ها در مورد شرایط مختلف داریم،اینه که نتایجشون تا حدی به شیوه بیان اولیه مسئله از سمت کاربر بستگی داره،و اگر بهش بگیم که داریم به عنوان یه پزشک باهاش حرف میزنیم نتایجش ممکنه متفاوت بشه با شرایطی که بگیم بیماری مورد نظر در خودمونه،در سناریو اول من گوشیم رو باز میکنم،شرایط مریضم رو به gpt توضیح میدم،و ازش میخوام که با توجه به نقطه نظر من به عنوان پزشک،یه متنی بنویسه که بیمارم رو برای رفتن به اتاق عمل قانع کنه،و همون نتیجه رو نشون بیمار میدم؛
    در سناریو دوم به نظرم اهمیتی نداره که بیمار بدونه شک های اصلی من از کجا اومده،چیزی که از ابتدا اهمیت داره اینه که من به واسطه معاینه،میدونم که یه علت زمینه‌ای احتمالا در کاره، مهم اینه که من به عنوان اولین سطح مواجه با مشکل،متوجه وجودش شدم؛این در مرحله بعده که از ابزار کارایی کمک بگیرم که بهم در پیدا کردن عامل مشکل کمک کنه،
    تو موقعیت سناریوی دوم،میشه به جای chatgpt از ابزار های تخصصی تری استفاده کرد که تکست یا منابع در حیطه مشکل به وجود اومده رو بهشون میدیم،و از مدل میخوایم با توجه به اونها بهمون پاسخ بده که در موقعیت فعلی قدم بعدیمون چی باشه بهتره.
    و اما در مورد سوال اخر من نظرم اینه که خطای تکنولوژی رو ترجیح میدن،به این خاطر که حتما خیلی از افراد جامعه به نوعی تا الان با خطای پزشک یا عواقبش مواجه شدن(اینکه واقعا خطا بوده یا نه یک مسئله دیگه است،در اینجا فرض افراد مهمه)؛اما افراد «فعلا» هنوز،با خطای تکنولوژی یا عواقبش مواجه نشدن،و این ممکنه این فرض رو به وجود بیاره که پس ابزار هوش‌مصنوعی در این زمینه بدون خطاست.