سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
خیلی عجیب و جالب بود برام که درست وقتی این درس رو امروز صبح خوندم ؛ چند دقیقه بعدش با این تیتر در بلومبرگ مواجه شدم :
World’s first AI doctor clinic now open in Saudi Arabia
Shanghai-based medical technology company Synyi AI has opened the world’s first artificial intelligence clinic in Saudi Arabia, featuring an AI “doctor” called Dr. Hua that autonomously diagnoses and prescribes treatments with human oversight.
نمیدونم تا چه حد جنبه تبلیغاتی و بازاریابی داره و تا چه حد به عمل نزدیکه ؟
اما حداقل به نظرم میتونه یکی از دلایلی باشه که این درس مدرسه پزشکی و صحبت های امیرمحمد رو جدی تر بگیریم…
لینک این خبر :
https://www.perplexity.ai/page/world-s-first-ai-doctor-clinic-wRXR9y6aR0yYsNy0A9_HaQ
با عرض سلام
برای اینکه به سوال سوم پاسخ بدم خب خودمو میذارم جای بیمار و اگر به عنوان بیمار به پزشکی مراجعه کنم ترجیحم اینه که پزشک منو ویزیت کرده باشه و نظری بده یا علائممو به هوش مصنوعی قراره بدن و طبق تشخیص اون برام اقدام کنن؟
تا اینجای کار و تجربه شخصی از هردو روش به نظرم هنوز هوش مصنوعی جای قضاوت بالینی پزشک رو نتونسته بگیره و به شخصه ترجیح میدم اگر بین نظر پزشک و هوش مصنوعی موندم بر اساس اون تجربه و قضاوتی که پزشک داشته عمل کنم و براساس مشاهدات خودم تو بیمارستان هم به نظرم بین مردم هوش انسانی رو در مسائل پزشکی بیشتر از هوش مصنوعی قبول دارن
درود و احترام
اول جواب سوال های سوم رو میدم چون بنظرم روی بقیه تاثیر گذاره:
بنظرم پزشک انسانی رو ترجیح میدن اما خطا از سمت هوش مصنوعی برای بیمار بیشتر قابل چشم پوشی هست(و شاید همین داشتن توقع اشتباه کردن از هوش مصنوعی باعث میشه پزشک انسانی ارجح باشه) .
سوال دوم:
خودم اگر باشم مستقیم به gpt نمیرم برای ddx
اول با رزیدنت و اتند مشورت میکنم و بعد برای اطلاعات تکمیلی اگر لازم شد ازش کمک میگیرم.
سوال اول:
فکر میکنم با کمی توضیح بشه قانع کرد. ازجایی که مریض به sign&symptom های بیماری آگاهی کافی نداره و هوش مصنوعی هم متناسب با سطح اطلاعات کسی که میپرسه جواب میده، پس دور از انتظار نیست که جواب درست تر یا کمتر اشتباه رو نده.(البته با این فرض جواب دادم که پاسخ متناقض هوش مصنوعی بدلیل نقص دانش انسانی یا میس کردن اطلاعات مهم از سمت پزشک نبوده باشه!)
در مورد کیس اول به او میگویم: همانطور که میدانی در علم تجربی و پزشکی هیچ صد در صدی وجود ندارد و همه کتابها بر اساس میانگین در پزشکی نوشته شده و میدانی اگر به اتاق عمل نروی و آپاندیس باشد چه بلایی ممکن است سرت بیاید؟
هوش مصنوعی تجربه بالین ندارد ولی من دارم، ممنون که اطلاعات مفیدی دادی، اگر راضی هستی من ادامه درمان و بررسی را انجام دهم
در مورد کیس دوم نیاز نیست به بیمار بگوییم از کجا به این تشخیص رسیدیم و فقط بیمار نیاز است از روند درمان و استراتژی درمان که در ذهن داریم بداند
این سوال دوم شما باید توی درس اخلاق پزشکی اضافه بشه:))
سلام به هممدرسهای ها ؛
دوراهیِ بسیار سخت و دشواریه!
( از سوال سوم شروع میکنم ) به نظرم ؛ ترجیحِ بیماران ؛ در این انتخاب؛ بسیار به میزانِ تحصیلات ؛ تعصبات و آگاهی و فرهنگشون وابستهست ،
به نظر من : درسته ابزار داره تغییر میکنه ( گوگل به Generative AI) اما فرهنگِ استفاده از چنین ابزار هایی هنوز به سرعتِ تغییر ابزار نرسیده ( یا حداقل راه زیادی در پیش داره ) . برای همین هم احساس میکنم تیپیکال بیمار ها/ همراه هایی که معمولا چنین رفتار ها یا درخواست هایی داشتند همچنان این اسلوب و راه رو ادامه خواهند داد .
و در مقابل ؛ عده ای که به پزشک بیشتر از بقیه اعتماد دارند. این اعتمادشون رو حتی در این عصر جدید تا حد زیادی حفظ خواهند کرد . ( که البته بسیار به خود پزشک و رفتار های اعتماد سازش بستگی داره همچنان)
چیزی که اما در این میان بسیار مهمه :
(درباره سناریو های یک و دو )
وظیفهی سنگین ترِ پزشک و تیم درمان هست!
ما، حالا ؛ چه به عنوان دانشجوی پزشکی و چه در آینده پزشک، این مسئولیت خطیر رو هم بر دوش داریم . که پیش از بیانِ بیمار – ولو تا چند ثانیه قبل- این سوال ها و درخواست ها رو پیش بینی کنیم و برای پیدا کردن جوابی براشون تلاش کرده باشیم . بطور خلاصه: بیشتر بلد باشیم تا بتونیم اگر فکت جدیدی هم توسط بیمار مطرح میشه راستی آزماییش کنیم و بسنجیمش!
تمرین میکنم تا آرام باشم. در بیمارستان کمتر پیش می آید. جالب است که من در مکان های غیر درمانی(باشگاه، اقوام، مهمانی و…) این را تمرین میکنم. این محل ها پر است از حرف های خلاف علم از سوی افراد غیر پزشک. باز اگر از chat GPT نقل قول کنند یک چیزی! قابل تحمل تر است.
در پاسخ سوال سوم باید بگویم که متاسفانه همان طور که خلاف علم و شبه علم برای مردم جذاب تر است، توصیه های هوش مصنوعی را هم بر پزشک ترجیح میدهند. یکی از اتندها استوری گذاشته بود که: یک روانشناس یا جامعه شناس بگوید که چرا ایرانی ها علاقه دارند مطالب پزشکی را از افراد غیرپزشک بپرسند.
با سلام به نظر من الان که هوش مصنوعی وارد دنیای پزشکی شده رفتار پزشک ها هم با مریض باید متفاوت بشه قبلا که مردم اطلاعات کمتری داشتن خیلی به پزشک باور داشتن و حرف پزشک براشون خیلی سند بود ولی الان به نظرم اینکه مردم پزشک رو ترجیح بدن یا هوش مصنوعی رو کاملا بستگی به طرز رفتار و پرزنت کردن خود دکتر داره مثلا یکی از دلایلی ک مردم به چت جی پی تی علاقه مند شدن اینه ک هر چقدر بخوان میتونن سوال بپرسن ازش یا هر چقد بخوان براشون ساده سازی شده توضیح میده راجب بیماریشون کاری که دکترا معمولا نمیکنن ولی اگر پزشکی باشه که اهل توضیح دادن روند تشخیصش باشه و واقعا هم با سواد باشه و همیشه ی قدم از AI جلوتر باشه به نظرم بازم مردم پزشک رو تو این شرایط ترجیح میدن چون درسته که دانش AI وسیع تره ولی بخش عمده ای از طبابت تجربه توی اون کانتکس به خصوصی هست که داری توش طبابت میکنی
سلام
این روزها با دوستان و آشنایان و گاه بعضی از افراد خانواده ام که در فضای پزشکی نیستند در مورد هوش مصنوعی در پزشکی زیاد حرف میزنیم.
آنهایی که در فضای پزشکی نیستند باور دارند که هوش مصنوعی تمام اطلاعات و دانش پزشکی را از ابتدا تا کنون و به صورت uptodate ذخیره دارد و چون به دور از خطاهای انسانی است، هرگز اشتباه نمیکند. نه امکان فراموشی دارد و نه خطا.
و درنهایت نظر من این است که بیماران، تکنولوژی را ترجیح میدهند.
یک تجربهای که «فعلا» در اظهار نظر های llm ها در مورد شرایط مختلف داریم،اینه که نتایجشون تا حدی به شیوه بیان اولیه مسئله از سمت کاربر بستگی داره،و اگر بهش بگیم که داریم به عنوان یه پزشک باهاش حرف میزنیم نتایجش ممکنه متفاوت بشه با شرایطی که بگیم بیماری مورد نظر در خودمونه،در سناریو اول من گوشیم رو باز میکنم،شرایط مریضم رو به gpt توضیح میدم،و ازش میخوام که با توجه به نقطه نظر من به عنوان پزشک،یه متنی بنویسه که بیمارم رو برای رفتن به اتاق عمل قانع کنه،و همون نتیجه رو نشون بیمار میدم؛
در سناریو دوم به نظرم اهمیتی نداره که بیمار بدونه شک های اصلی من از کجا اومده،چیزی که از ابتدا اهمیت داره اینه که من به واسطه معاینه،میدونم که یه علت زمینهای احتمالا در کاره، مهم اینه که من به عنوان اولین سطح مواجه با مشکل،متوجه وجودش شدم؛این در مرحله بعده که از ابزار کارایی کمک بگیرم که بهم در پیدا کردن عامل مشکل کمک کنه،
تو موقعیت سناریوی دوم،میشه به جای chatgpt از ابزار های تخصصی تری استفاده کرد که تکست یا منابع در حیطه مشکل به وجود اومده رو بهشون میدیم،و از مدل میخوایم با توجه به اونها بهمون پاسخ بده که در موقعیت فعلی قدم بعدیمون چی باشه بهتره.
و اما در مورد سوال اخر من نظرم اینه که خطای تکنولوژی رو ترجیح میدن،به این خاطر که حتما خیلی از افراد جامعه به نوعی تا الان با خطای پزشک یا عواقبش مواجه شدن(اینکه واقعا خطا بوده یا نه یک مسئله دیگه است،در اینجا فرض افراد مهمه)؛اما افراد «فعلا» هنوز،با خطای تکنولوژی یا عواقبش مواجه نشدن،و این ممکنه این فرض رو به وجود بیاره که پس ابزار هوشمصنوعی در این زمینه بدون خطاست.