سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
ترتیبی که مدرسه پزشکی برای مطالعهی مجموعه درس «هوش مصنوعی و پزشکی» پیشنهاد میدهد، به صورت زیر است:
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
در مورد سناریوی دوم به نظر من با توجه به گستردگی کاربرد هوش مصنوعی و اعتماد روز افزون به این حوزه اگر با هوش مصنوعی مناسب مربوط با
حوزه پزشکی مشورت کردیم درصورت اعلام آن به بیمار هم به نوعی خیال بیمار راحتتر میشود که خیلی از جوانب در نظر گرفته شده هم اعتماد او به پزشک بیشتر میشود چون در درجه اول سلامتی بیمار اهمیت دارد و از هر ابزاری برای رسیدن به این مهم باید استفاده کرد
در ارتباط با سناریو اول بنظرم مهمه که سریع جبهه نگیریم یا حرفش رو فقط به این دلیل که از اینترنت یا هوش مصنوعی اومده، رد نکنیم. اگه چیزی که میگه درست باشه، اتفاقاً بد نیست که تأییدش کنیم، چون اینطوری حس میکنه شنیده شده و به تصمیم تیم پزشکی بیشتر اعتماد میکنه. ولی باید حواسمون باشه که تصمیم نهایی ما صرفاً براساس گفتهی یه ابزار آنلاین نیست؛ ما داریم روی مجموعهای از فاکتورها تصمیم میگیریم: وضعیت بالینی، یافتههای پاراکلینیک، تجربه، و سنجش سود و ضرر. معمولاً لازم نیست وارد جزئیات زیاد بشیم، چون بعضی وقتها توضیح اضافه ممکنه بیمار رو سردرگم کنه یا نگرانی بیمورد ایجاد کنه. در عوض، فقط چیزهایی رو مطرح میکنیم که برای درک بهتر تصمیممون مفیدن. یه نکتهی مهم دیگه هم هست: اگه ما صرفاً نظر بیمار رو رد کنیم و بعداً مشخص بشه که اون نظر اشتباه نبوده، ممکنه هم اعتمادش از بین بره، هم ادامهی درمان سختتر بشه. پس بهتره یه تعادل پیدا کنیم؛ هم شنوندهی خوبی باشیم، هم تصمیمگیریمون علمی، قاطع و مسئولانه باشه.
با سلام و وقت بخیر
در مورد سناریوی 1 چندین تا از اساتید به شدت با تجربه و با سوادم رو تصور کردم در اون موقعیت و بنظرم اومد اونها توی چنین موقعیتی قراره یا بی اعتنا باشن و این مکالمه ی مریض رو کاملا ایگنور کنن یا صرفا بگن من پزشکت هستم و کار خودشون رو پیش ببرن – البته این در حد تصور من و با شناخت کلی از اونها هست – ، اما خودم اگر توی این موقعیت قرار بگیرم ترجیحم اینه که وقت بذارم توضیح بدم درباره مدل های زبانی و به عنوان یک فرهنگسازی اجازه ندم ابهامی بمونه . این چیزیه که در مورد طب سنتی و ایرانی و مواردی از این قبیل هم حس میکنم باید اتفاق می افتاد… باید توسط جامعه ی پزشکی شفاف و فرهنگ سازی میشد ، نباید به صرف یک عصبانیت لحظه ای بیمار رو مجبور به سکوت کرد … مثلا درمانگاه زنان مکرر میدیدم که خانمها برای ولوواژنیت در مورد عنبرنسا سوال میپرسیدن 🙂 و بنظرم اساتیدمون بجای بلند کردن صدا و عصبانیتشون باید با طمانینه اطلاعات علمی حتی درمورد عنبرنسا به مریض میدادن! چون همین تقابل لحظه ای باعث گارد گرفتن بیمار میشه و عواقبی که طولانی مدت در دید کلی جامعه نسبت به یک موضوع ایجاد میشه …
با سلام
در ارتباط با سوال دوم: من با بیمار صحبتی در ارتباط با استفاده از هوش مصنوعی نمی کنم به دلایل زیر:
1. گفتن یا نگفتن این مسئله به احتمال خیلی زیاد تفاوتی در پروگنوز مریض ایجاد نخواهد کرد و فرقی نمیکنه که مریض از این موضوع مطلع باشه یا نه. و همچنین با اصول اخلاق پزشکی هم مغایرتی نداره.
2. مریض ممکنه به دلیل آگاهی پایین نسبت به پزشک گارد بگیره و اعتماد در رابطه پزشک-بیمار کمرنگ بشه.(این مورد احتمالا در سال های آینده عادی بشه)
3. به نظر من در این سناریو هوش مصنوعی مثل یک رفرنس به پزشک کمک کرده تا بتونه برای بیمار تصمیم مناسب تری بگیره (البته که تفاوت هایی هست) و هیچ وقت هیچ پزشکی به بیمارش نمیگه که این نظر، نظر من نیست بلکه نظر مرحوم هریسون است!
۱. فکر میکنم بهتره برای بیمار توضیح بدیم که ما هم تمام آزمایشات و تصویربرداریهای لازم رو انجام میدیم که تشخیصهای غیر از آپاندیسیت رو rule out کنیم، اما لزوما نتایج این بررسیها جواب قطعی به ما نمیدن و برای تصمیمگیری باید سود و زیان هر انتخاب(مثل جراحی یا درمان انتظاری) رو بسنجیم، و اینکه بیمار باید بدونه ابزارهای AI حتی اگر Prompt درستی بهشون داده بشه باز هم بیشتر در مرحله بررسی کمککننده هستند و نه تصمیمگیری نهایی(البته فعلا و در حد این سناریو).البته همگی میدونیم که در شرایط بیمارستانهای ما همه چیز اینقدر منطقی پیش نمیره.
۲. در حال حاضر فکر نمیکنم به بیمار درباره استفادهام از chatgpt توضیح بدم. صرفا میگم که منابع رو بررسی کردم و به این نتیجه رسیدم.
۳. منم با دوستان موافقم که بیماران خطای انسانی رو ترجیح میدن، چون میتونن مقصر رو شناسایی و پیگیری کنن.
جواب سناریوی دوم: فکر نمیکنم دنیای امروز هنوز به مرحله ای رسیده باشه که استفاده از هوش مصنوعی توسط یک پزشک رو یک کار منطقی بدونن و اون رو دستیارش به حساب بیارن. در نتیجه تا زمانی که اون روز فرا برسه، ترجیح میدم که بگم نظر خودم بوده.
سلام. در ارتباط با سناریوی اول بدون گارد داشتن و با اشتیاق کامل به صحبت های بیمار گوش میدیم. بهش میگیم موارد ضروری رو چک کردیم و با توجه به اورژانس بودن شرایط تمامی اقدامات لازم انجام شده است. بهش توضیح میدیم که ابزار هایی مثل Chatgpt قادر به فکر کردن نیستن و جای قضاوت بالینی رو نمیتونن بگیرن. بعلاوه اینکه گاهی در آپاندیسیت یافته ی محکمی برای تایید نداریم ولی به علت خطرات و عوارض زیاد میس شدن، عمل جراحی بهترین گزینه هست.
در ارتباط با سناریوی دوم بنظرم همچنان بیماران پزشک انسانی رو ترجیح میدن.
دربارهی سناریوی اول:
با روی گشاده به آزمایشات نگاه میکنم. باید بپذیریم که احتمال خطای ما بیشتر از هوش مصنوعیه. قبول کنیم و به بیمار اطمینان بخشی کنیم که تمام مواردی که پیشنهاد شده رو بررسی میکنیم ولی درنهایت مسئولیت بیمار با ماست و نه هوش مصنوعی پس بهشون بگیم قضیه پیچیدهتر از نوشتن یک سری بیماری پشت سر همه.
دربارهی سناریوی دوم هم احتمالا خطای هوش مصنوعی رو بیشتر میپذیرند چون جدیدا راهش روی توی زندگی مردم باز کرده. مردم خطاش رو به حساب هر چیز میذارن اما بنا به دلایلی کلا به پزشک سختگیرتر هستن.
به نظرم خطای انسانی رو ترجیح میدن ، چون خطای تکنولوژی قابلیت پیگیری کمتر داره
خطای انسانی اینجوری راحت تر در صورت قصور پزشکی میتونه اقدام کنه