سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
ترتیبی که مدرسه پزشکی برای مطالعهی مجموعه درس «هوش مصنوعی و پزشکی» پیشنهاد میدهد، به صورت زیر است:
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
تجربه من نشون داده که بیماران جوان تر همین الان هم به خیلی از اطلاعات هوش مصنوعی بیشتر از پزشک معالج شون گوش میدن ولی در مقام تصمیم گیری هنوز به این جرئت نرسیدن که فقط با هوش مصنوعی تشخیص و درمان سر خود بذارن، شاید در آینده نزدیک به این مرحله هم برسیم!
سلام
اینکه الان تمرین کنیم تا برآشفته نشیم در مقابل “گوگل گفت، هوش مصنوعی گفت” خیلی به جا و به موقع است. چه بسا که خودمون هم انجامش بدیم برای کارهای دیگه که سررشتهای توشون نداریم. ولی خب این به مدلی که بیمار میاد این حرف رو میزنه هم خیلی ربط داره. اگر متوقعانه و طلبکارانه بیاد جلو (چت جی پی تی گفته باید فلان کنی تو چرا نکردی؟) برای من خویشتن داری سختتره تا وقتی که بخواد با من حالت مشورت داشته باشه.
در هر صورت به قول متن باید آمادگیشو داشته باشیم و سعی کنیم معقولانه پاسخ بدیم.
هوش مصنوعی در حال حاضر نه به عنوان یک نظردهندهی مستقل، بلکه به عنوان یک دستیار برای یادآوری و روشنسازی نقاط کور در فرآیند فکری یک پزشک بیشتر مورد قبول به نظر میرسد
بنابراین با توجه به ماهیت Black Box هوش مصنوعی و فقدان ظرفیت پذیرش مسئولیت عواقب پیشنهادات و توصیههای ارائه شدهاش، بیماران احتمالا همچنان ترجیح میدهند نظر نهایی را از یک پزشک بشنوند
من فکر میکنم اکثر بیماران همچنان پزشک انسانی رو به توصیه های هوش مصنوعی ترجیح میدن. البته میزان آشنایی بیماران با تکنولوژی توی این انتخاب خیلی تاثیر داره.
در مورد سناریو اول من برای بیمار توضیح میدم که هوش مصنوعی تکه های اطلاعاتی به شما میده که حتی در صورت درست بودن ممکنه در شرایط شما کمک کننده نباشه. درمان شما به دانش و مهارتی فراتر از چند نکته بستگی داره. اجازه بدین ما روند درمانی شما رو پیش ببریم و اگر لازم بود خودمون از هوش مصنوعی و بقیه ابزار ها برای کمک به شما استفاده میکنیم.
تا به امروز (چون امکان رفع موانع و متعاقبا عوض شدن معادله، در آینده دور و نزدیک وجود داره) به نظر میاد که ترجیح بیماران همچنان بر پزشک انسانی باشه، به دلایلی مثل: اعتماد احساسی ناشی از بدنمندی فیزیکی مشابه پزشک و بیمار، غلبه ی پذیرش فرهنگی اجتماعی «تجربه» و «شخص» بر «تکنولوژی» در نسل های انسانی حاضر، درک بیشتر مسئولیت پذیری انسان و امکان شکایت و سرزنش راحتتر انسان و موارد دیگه
سلام
در مورد سناریو اول: بنظرم با وجود افزایش استفاده از هوش مصنوعی( هم به دلیل فراگیری و هم افزایش دقت و سرعت و دسترسی) طبیعی هست که بیمار با مسائل سلامتی خودش مثل سایر مشکلات( مثل دیباگ کردن کد یا نوشتن پیام) برای رسیدن به «جواب سریع» اول با هوش مصنوعی سوالش را چک کند. پس پاسخ پرخاشگرانه اصلا معنی ندارد. به جای آن میتوانیم به بیمار اطمینان خاطر بدهیم: اینکه مشکلتون رو با هوش مصنوعی چک کردین نشون میده در قبال وضعیت سلامتی خودتون مسئولیتپذیر هستین و دغدغه مهمی براتون هست. بله، هوش مصنوعی ممکنه اطلاعات مفیدی در مورد شرایطتون به شما بده، اما همزمان ممکنه گمراهکننده هم باشه. ما تو این مرکز تیم پزشکی حرفهای داریم که مشکل شما رو بررسی و بهترین اقدام ممکن رو اجرا میکنن. بنابراین خواهشم از شما این هست که هر اطلاعاتی که فکر میکنین میتونه به ما در روند تشخیص و درمان کمک کنه رو بهمون بگین وماهم کنارتون هستیم تا انشاءالله به سلامتی این مشکل رو پشت سر بزارین.
در مورد سناریو دوم: بنظرم نیازی نیست بگیم هوش مصنوعی گفته، چون ممکن هست که اعتماد بیمار به ما و دانش ما خدشه دار بشه. و اعتماد اولین فاکتور مهم در روند درمان هست.
در مورد سوال آخر:
بنظرم وقتی خطای انسانی هست، خب قابل پیش بینیه. هرچند که آدم درد زیادی رو از نظر روانی متحمل میشه که «اگر فقط کمی بیشتر دقت میکرد یا… شاید هرگز این اتفاق نمیافتاد» بلاخره پزشک ها هم خسته میشوند، اشتباه میکنند و یاد میگیرند. اما اگر اشتباه هوش مصنوعی باشد تا حد زیادی قابل پیشگیری هست، چون بحث بیت است نه اتم! چیزی قابل ادیت سریع، چک کردن و تستهای مطمئن، و قابلیت scale شدن. بنابراین اگر کوتاهی یا اشتباهی باشد سریع تر قابل اطلاع رسانی، پیشگیری و اصلاح هست.
بنظرم آدم ها برای جواب سریع هوش مصنوعی را ترجیح میدهند. اما برای «اطمینان خاطر» و «مشکلات پیچیدهتر» یا «جدیتر» پزشک انسانی.
در کل بنظرم از این به بعد به جای انکار جایگاه هوش مصنوعی از اون آگاهانه استفاده کنیم و حضور و تاثیرش رو در حوزههای مختلف بپذیریم.