سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
با سلام به نظر من الان که هوش مصنوعی وارد دنیای پزشکی شده رفتار پزشک ها هم با مریض باید متفاوت بشه قبلا که مردم اطلاعات کمتری داشتن خیلی به پزشک باور داشتن و حرف پزشک براشون خیلی سند بود ولی الان به نظرم اینکه مردم پزشک رو ترجیح بدن یا هوش مصنوعی رو کاملا بستگی به طرز رفتار و پرزنت کردن خود دکتر داره مثلا یکی از دلایلی ک مردم به چت جی پی تی علاقه مند شدن اینه ک هر چقدر بخوان میتونن سوال بپرسن ازش یا هر چقد بخوان براشون ساده سازی شده توضیح میده راجب بیماریشون کاری که دکترا معمولا نمیکنن ولی اگر پزشکی باشه که اهل توضیح دادن روند تشخیصش باشه و واقعا هم با سواد باشه و همیشه ی قدم از AI جلوتر باشه به نظرم بازم مردم پزشک رو تو این شرایط ترجیح میدن چون درسته که دانش AI وسیع تره ولی بخش عمده ای از طبابت تجربه توی اون کانتکس به خصوصی هست که داری توش طبابت میکنی
سلام
این روزها با دوستان و آشنایان و گاه بعضی از افراد خانواده ام که در فضای پزشکی نیستند در مورد هوش مصنوعی در پزشکی زیاد حرف میزنیم.
آنهایی که در فضای پزشکی نیستند باور دارند که هوش مصنوعی تمام اطلاعات و دانش پزشکی را از ابتدا تا کنون و به صورت uptodate ذخیره دارد و چون به دور از خطاهای انسانی است، هرگز اشتباه نمیکند. نه امکان فراموشی دارد و نه خطا.
و درنهایت نظر من این است که بیماران، تکنولوژی را ترجیح میدهند.
یک تجربهای که «فعلا» در اظهار نظر های llm ها در مورد شرایط مختلف داریم،اینه که نتایجشون تا حدی به شیوه بیان اولیه مسئله از سمت کاربر بستگی داره،و اگر بهش بگیم که داریم به عنوان یه پزشک باهاش حرف میزنیم نتایجش ممکنه متفاوت بشه با شرایطی که بگیم بیماری مورد نظر در خودمونه،در سناریو اول من گوشیم رو باز میکنم،شرایط مریضم رو به gpt توضیح میدم،و ازش میخوام که با توجه به نقطه نظر من به عنوان پزشک،یه متنی بنویسه که بیمارم رو برای رفتن به اتاق عمل قانع کنه،و همون نتیجه رو نشون بیمار میدم؛
در سناریو دوم به نظرم اهمیتی نداره که بیمار بدونه شک های اصلی من از کجا اومده،چیزی که از ابتدا اهمیت داره اینه که من به واسطه معاینه،میدونم که یه علت زمینهای احتمالا در کاره، مهم اینه که من به عنوان اولین سطح مواجه با مشکل،متوجه وجودش شدم؛این در مرحله بعده که از ابزار کارایی کمک بگیرم که بهم در پیدا کردن عامل مشکل کمک کنه،
تو موقعیت سناریوی دوم،میشه به جای chatgpt از ابزار های تخصصی تری استفاده کرد که تکست یا منابع در حیطه مشکل به وجود اومده رو بهشون میدیم،و از مدل میخوایم با توجه به اونها بهمون پاسخ بده که در موقعیت فعلی قدم بعدیمون چی باشه بهتره.
و اما در مورد سوال اخر من نظرم اینه که خطای تکنولوژی رو ترجیح میدن،به این خاطر که حتما خیلی از افراد جامعه به نوعی تا الان با خطای پزشک یا عواقبش مواجه شدن(اینکه واقعا خطا بوده یا نه یک مسئله دیگه است،در اینجا فرض افراد مهمه)؛اما افراد «فعلا» هنوز،با خطای تکنولوژی یا عواقبش مواجه نشدن،و این ممکنه این فرض رو به وجود بیاره که پس ابزار هوشمصنوعی در این زمینه بدون خطاست.