سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
ترتیبی که مدرسه پزشکی برای مطالعهی مجموعه درس «هوش مصنوعی و پزشکی» پیشنهاد میدهد، به صورت زیر است:
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید





در مورد سناریوی اول به نظرم سعی میکنم عدم قطعیت پاسخ هوش مصنوعی و درصد خطای آن را به بیمار توضیح بدهم و در نهایت اجازه بدهم که برای درمان خود تصمیم بگیرد. در مورد سناریوی دوم نمیتوانم به هوش مصنوعی اعتماد کنم سعی میکنم با یک فرد باتجربه تر یا گروه تشخیصی حرفه ای تری کیس را درمیان بگذارم.
به نظرم در آینده دور برای بیماری های سطحی مردم به هوش مصنوعی اعتماد میکنند اما برای مداخلات پزشکی جدی همچنان به انسان اعتماد میکنند
ابتدا این نکته رو عرض کنم که نیازمند یادگیری و شناخت بیشتر در زمینهی هوش مصنوعی هستم تا بتوانم اظهار نظر کنم اما با شناخت کنونیام:
سناریوی اول: به حرفهای بیمار گوش میدهم و برای او توضیح میدهم که تشخیص پزشکی مبتنی بر شرححال، معاینه و کمک گرفتن از پاراکلینیک است و صرفا براساس شرح حال نمیتوان به تشخیص درست رسید. در مورد عواقب هر تصمیم هم برایش میگویم.
سناریوی دوم: اگر هوش مصنوعی براساس رفرنس و شواهد پاسخ دهد، به بیمار نمیگویم از هوش مصنوعی کمک گرفتهام.
سوالهای سوم: به نظرم پزشک انسانی و خطاهای او را ترجیح میدهند.
سناریو اول نسبت به خود بیمار، و میزان لجبازی آن، ممکن است به سناریوی به شدت اذیت کننده ای تبدیل بشود. توضیح می دهم که کیفیت پاسخ چت جی پی تی به اطلاعات ورودی آن بستگی دارد که ممکن است کامل نبوده باشند و همینطور طبق خود جواب هم صرفا ممکن است آپاندیسیت نداشته باشی، ولی احتمال داشتن آن بسیار بیشتر است
سناریوی اول:
روبرو شدن با کسی که استقلال تصمیمگیری مرا زیر سوال ببرد وقتی توأم با خستگی مفرط شیفتهای بیمارستانی باشد قطعا مرا آشفته میکند. شاید صدایم را بالا ببرم و ادعا کنم پزشک است که باید شرایط کلی بیمار را بسنجد و هوش مصنوعی از این کار قاصر است. باری. سعی میکنم برای مریض توضیح دهم مدل زبانی راهکار استفاده مخصوص به خودش را دارد و میتواند اگر درست استفاده نشود توهم دانایی به فرد بدهد. معاینه و ویزیت حضوری فرد، چیزیست که هوش مصنوعی نمیتواند در لحظه داشته باشد.
سناریوی دوم:
از او درباره سابقه تروما به این ناحیه میپرسم. سابقهی بیماریهای قبلی و بستریهای قبلی و مصرف مزمن کورتن در سابقه داروییاش نیز سوال میکنم. از اینها گذشته، برایم دشوار است پیش مریض اقرار کنم نمیدانم و سر از مشکلت درنمیآورم. قطعا حرفی از مشورت با هوش مصنوعی هم به میان نمیآورم.
در ادامهی پاسخ این سناریو به سناریوی سوم میپردازم.
سناریوی سوم:
فکر میکنم بیماران هوش مصنوعی را ترجیح میدهند (حداقل برای قدم اول و ابتدایی و کسب آگاهی لازم پیش از مراجعه به پزشک انسانی) ولی خطا را قطعا به پای پزشک انسانی مینویسند.
بیمار شاید گاهی تمایل داشته باشد از تکنولوژی برای تشخیص و درمانش استفاده کند. اما اگر پای ریسک و رخ دادن شرایطی بغرنج در میان باشد، قطعا پای انسان و مسؤلیت انسانی بارزتر است و ترجیح میدهد یک انسان این خطا را بکند. شاید در میان همهی ترجیحات ذهنیاش درمورد هوش مصنوعی، باز هم تصمیمگیری انسان و هوشمندتر بودنش در شرایط بحران را در نظر دارد.
سوال اول رو دوست داشتم از این نظر که میخواستین قبل مواجه باهاش ایده ای داشته باشیم
معمولا اینجا داستان به سمت تمسخر بیمار و اینکه نه بابا الکی گفته و اون نمی فهمه و من می فهمم میره ولی خب من دوست دارم به اون چیزی که بیمار میگه و از جایی خونده هم فکر بکنم.
من خودم به شخصه تا حالا با چنین بیماری برخورد نکردم که چنین سوالی بکنه به طور مستقیم و یا شاید رفته جستجو هاش رو کرده و اومده گفته که” ممکنه من این بیماری هم داشته باشم، درسته؟” خب من اگر بخوام جواب اش رو بدم اینجوری پیش میرم ((که بله کار درستی کردین که جستجو کردین ولی در نظر بگیریم که ممکنه اطلاعات درستی به هوش نداده باشین و یا تمام اطلاعات رو نداده باشین و در انتها هم جمله خودتون میگه که بعضی از افراد اینگونه شدند و ممکنه شما اینگونه نباشید ولی من حتما بررسی بیشتری براتون انجام میدم )) و حتما بعدش باید روی تصمیمی که گرفتم بازاندیشی کنم و ببینم درست بوده یا نه ، شاید درست بگه و نیاز به مشاوره جراحی نداشته باشه.
در مورد سناریو اول من هم معتقدم که نمیشه افراد رو منع کرد تا از هوش مصنوعی استفاده نکند ، بلکه در همین شرایطی که بوجود می اید ،ما میتونیم با آگاهی بخشی به این افراد، جلوی استفاده کورکورانه رو بگیریم.
سناریو دوم واقعا بستگی به شرایط داره
سوال سوم من احساس میکنم در حال حاظر افراد از هوش مصنوعی استفاده میکنند تا از تشخیص پزشکشون مطمئن شوند، یکجور محکم کاری، در واقع پزشکیو ترجیح میدن که گفته های هوش مصنوعی رو تایید میکند.
برای سناریوی اول اون چیزی که بیمار قصد داره به من نشون بده رو نگاه میکنم و علت مشاوره جراحی رو به بیمار توضیح میدم. به نظرم نباید با واکنش های شدید و عجیب غریب بخوایم امثال این رفتار بیماران رو سرکوب کنیم.
برای سناریوی سوم فکر میکنم در حال حاضر به جز مواردی مثل بررسی آزمایشات خارج بیمارستانی، در اکثریت موارد همچنان بیماران پزشک انسانی و متعاقباً خطای انسانی رو ترجیح میدهند.
با سلام
در مورد سناریوی اول
از آنجاییکه استفاده از مدلهای بزرگ زبانی اجتنابناپذیر هست باید کادر درمان با این پدیده کنار بیایند و برخورد درست با بیماریکه از چتجیپی یا گراک استفاده کرده را یاد بگیرد. همانطوریکه اساسات پرامپت کردن را دانشجوی پزشکی و پزشکان و کادر درمانی باید یاد بگیرند، برای بیماران و عموم مردم هم یک قواعدی در مورد پرامپتکردن شکایات پزشکی و نشانهها و علایم که حالا درگیر هستند، باید وجود داشته باشد که ممکن است بیمار مان با این ساز و کارها درست آشنا نباشد. ما کمکش میکنیم چطور بهتر پرامپتکردن را یاد بگیرد تا مطالب که بهعنوان خروجی از مدلهای بزرگ زبانی میگیرد بیشترین ربط را با شکایات او داشته باشد. برعلاوه، در سناریوی اول او فقط نشانههای بیماری اش را به گراک گفته بود حالانکه بعضی معاینات فزیکی و تستهای لابراتواری و تصویربرداری هم لازم است برای roll in و roll out بعضی بیماریها.
در نتیجه باید برخورد مان با این نوع بیمارها بسیار عادی باشد و به او بفهمانیم که هرچند تلاشش برای یافتن مرهمی برای دردش قابل ستایش هست اما کافی نیست، او نیاز به کمک تیم درمان و بیمارستان نیز دارد و مطمئن باشد به او رسیدگی کامل خواهد شد.
در مورد سناریوی اول، من هم در صورت داشتن وقت کافی ترجیح میدم بیمار رو به سمت جستجوی درستتر سوق بدم؛ هرچند که توضیح مفهوم کار بالینی شاید چندان ساده نباشه. در نبود وقت، به توضیح علت تصمیمم که مختص به همون بیماری در همون زمان هست، اکتفا میکنم.
در مورد سناریوی دوم، بستگی به بیمار داره که روش جستوجوی خودم در مورد بیماریش رو یعنی استفادهم از هوش مصنوعی رو توضیح بدم یا نه.
سوال سوم هم به نظرم به بیمار بستگی داره. فکر میکنم کسانیکه دسترسی و آگاهی کمتری به این ابزارها دارند، پزشک انسانی رو ترجیح میدن. اما فکر میکنم کسانی خواهند بود که به علت عدم آگاهی از نحوهی استفاده از این ابزارها بیش از حد به اونها اعتماد میکنند و نظرشون و حتی همدلیشون رو به پزشک انسانی ترجیح میدهند.