سناریوی نخست: پسر ۱۹ ساله‌ای را در اورژانس می‌بینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان می‌دهد.

سونوگرافی شکم درخواست می‌کنید که می‌گوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر می‌کنید. سی‌تی اسکن مناسب است؟

تصمیم می‌گیرید که سی‌تی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک می‌شوید. با جراح درخواست مشاوره می‌دهید.

بیمار شما را صدا می‌زند. می‌گوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آن‌ها چند تشخیص گفته‌اند و در ادامه تعدادی آزمایش پیشنهاد داده‌اند. می‌خواهد یک لیست به شما نشان بدهد. تأکید می‌کند که این‌جا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل می‌روند ولی آپاندیس‌شان مشکلی ندارد.

چه کار می‌کنید؟

این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آینده‌ای نزدیک خواهید دید. همان‌طور که در این سال‌ها بیماران بیشماری می‌گفتند که ما در «اینترنت» علا‌ئم‌مان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.

با وجود مدل‌های بزرگ زبانی، این گفتگو راحت‌تر و خوشایندتر از گوگل کردن شده و بیماران نیز سریع‌تر نیز به جواب می‌رسند. اگر در چنین موقعیتی قرار بگیرید چه کار می‌کنید؟ عصبانی می‌شوید که من دکتر هستم یا موبایل تو؟ شاکی می‌شوید که اگر می‌خواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟

فکر نمی‌کنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فی‌البداهه حرفی بگوییم؟

حالا نوبت سناریوی دوم است: خانم ۲۸ ساله‌ای در اورژانس بستری شده است. می‌گوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفته‌اند و نوار قلب. گفته‌اند هر دو مشکلی ندارد. می‌خواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش می‌گیرد. با فشار روی دیواره قفسه سینه، به درد می‌آید.

دوباره عکسش را نگاه می‌کنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجه‌اش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمی‌دانید. تصمیم می‌گیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.

جواب آزمایش‌های اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمی‌ها ندارد. با ChatGPT مشورت می‌کنید. توصیه می‌کند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمی‌رسد.

اولی نیز، هم به خاطر تصویربرداری‌ها هزینه‌بر است و هم به خاطر نیاز به نمونه‌برداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمی‌خورد. اما ایده‌ی دیگری ندارید.

به بیمار می‌گویید که این نظر هوش مصنوعی است یا خودتان؟

شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح می‌دهند یا توصیه‌های هوش مصنوعی را؟ سؤال را کمی سخت‌تر بکنیم: فکر می‌کنید خطای انسانی را ترجیح می‌دهند یا خطای تکنولوژی را؟

پس از فکر کردن به این سؤال‌ها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤال‌های سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.

دیدگاه‌ خود را بنویسید

برای نوشتن دیدگاه باید وارد شوید.

3 کامنت در نوشته «نسخهٔ جدید دکتر گوگل»

  1. با سلام به نظر من الان که هوش مصنوعی وارد دنیای پزشکی شده رفتار پزشک ها هم با مریض باید متفاوت بشه قبلا که مردم اطلاعات کمتری داشتن خیلی به پزشک باور داشتن و حرف پزشک براشون خیلی سند بود ولی الان به نظرم اینکه مردم پزشک رو ترجیح بدن یا هوش مصنوعی رو کاملا بستگی به طرز رفتار و پرزنت کردن خود دکتر داره مثلا یکی از دلایلی ک مردم به چت جی پی تی علاقه مند شدن اینه ک هر چقدر بخوان میتونن سوال بپرسن ازش یا هر چقد بخوان براشون ساده سازی شده توضیح میده راجب بیماریشون کاری که دکترا معمولا نمیکنن ولی اگر پزشکی باشه که اهل توضیح دادن روند تشخیصش باشه و واقعا هم با سواد باشه و همیشه ی قدم از AI جلوتر باشه به نظرم بازم مردم پزشک رو تو این شرایط ترجیح میدن چون درسته که دانش AI وسیع تره ولی بخش عمده ای از طبابت تجربه توی اون کانتکس به خصوصی هست که داری توش طبابت میکنی

  2. سلام
    این روزها با دوستان و آشنایان و گاه بعضی از افراد خانواده ام که در فضای پزشکی نیستند در مورد هوش مصنوعی در پزشکی زیاد حرف می‌زنیم.
    آنهایی که در فضای پزشکی نیستند باور دارند که هوش مصنوعی تمام اطلاعات و دانش پزشکی را از ابتدا تا کنون و به صورت uptodate ذخیره دارد و چون به دور از خطاهای انسانی است، هرگز اشتباه نمی‌کند. نه امکان فراموشی دارد و نه خطا.
    و درنهایت نظر من این است که بیماران، تکنولوژی را ترجیح می‌دهند.

  3. یک تجربه‌ای که «فعلا» در اظهار نظر های llm ها در مورد شرایط مختلف داریم،اینه که نتایجشون تا حدی به شیوه بیان اولیه مسئله از سمت کاربر بستگی داره،و اگر بهش بگیم که داریم به عنوان یه پزشک باهاش حرف میزنیم نتایجش ممکنه متفاوت بشه با شرایطی که بگیم بیماری مورد نظر در خودمونه،در سناریو اول من گوشیم رو باز میکنم،شرایط مریضم رو به gpt توضیح میدم،و ازش میخوام که با توجه به نقطه نظر من به عنوان پزشک،یه متنی بنویسه که بیمارم رو برای رفتن به اتاق عمل قانع کنه،و همون نتیجه رو نشون بیمار میدم؛
    در سناریو دوم به نظرم اهمیتی نداره که بیمار بدونه شک های اصلی من از کجا اومده،چیزی که از ابتدا اهمیت داره اینه که من به واسطه معاینه،میدونم که یه علت زمینه‌ای احتمالا در کاره، مهم اینه که من به عنوان اولین سطح مواجه با مشکل،متوجه وجودش شدم؛این در مرحله بعده که از ابزار کارایی کمک بگیرم که بهم در پیدا کردن عامل مشکل کمک کنه،
    تو موقعیت سناریوی دوم،میشه به جای chatgpt از ابزار های تخصصی تری استفاده کرد که تکست یا منابع در حیطه مشکل به وجود اومده رو بهشون میدیم،و از مدل میخوایم با توجه به اونها بهمون پاسخ بده که در موقعیت فعلی قدم بعدیمون چی باشه بهتره.
    و اما در مورد سوال اخر من نظرم اینه که خطای تکنولوژی رو ترجیح میدن،به این خاطر که حتما خیلی از افراد جامعه به نوعی تا الان با خطای پزشک یا عواقبش مواجه شدن(اینکه واقعا خطا بوده یا نه یک مسئله دیگه است،در اینجا فرض افراد مهمه)؛اما افراد «فعلا» هنوز،با خطای تکنولوژی یا عواقبش مواجه نشدن،و این ممکنه این فرض رو به وجود بیاره که پس ابزار هوش‌مصنوعی در این زمینه بدون خطاست.