سناریوی نخست: پسر ۱۹ سالهای را در اورژانس میبینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان میدهد.
سونوگرافی شکم درخواست میکنید که میگوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر میکنید. سیتی اسکن مناسب است؟
تصمیم میگیرید که سیتی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک میشوید. با جراح درخواست مشاوره میدهید.
بیمار شما را صدا میزند. میگوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آنها چند تشخیص گفتهاند و در ادامه تعدادی آزمایش پیشنهاد دادهاند. میخواهد یک لیست به شما نشان بدهد. تأکید میکند که اینجا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل میروند ولی آپاندیسشان مشکلی ندارد.
چه کار میکنید؟
این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آیندهای نزدیک خواهید دید. همانطور که در این سالها بیماران بیشماری میگفتند که ما در «اینترنت» علائممان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.
با وجود مدلهای بزرگ زبانی، این گفتگو راحتتر و خوشایندتر از گوگل کردن شده و بیماران نیز سریعتر نیز به جواب میرسند. اگر در چنین موقعیتی قرار بگیرید چه کار میکنید؟ عصبانی میشوید که من دکتر هستم یا موبایل تو؟ شاکی میشوید که اگر میخواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟
فکر نمیکنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فیالبداهه حرفی بگوییم؟
حالا نوبت سناریوی دوم است: خانم ۲۸ سالهای در اورژانس بستری شده است. میگوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفتهاند و نوار قلب. گفتهاند هر دو مشکلی ندارد. میخواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش میگیرد. با فشار روی دیواره قفسه سینه، به درد میآید.
دوباره عکسش را نگاه میکنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجهاش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمیدانید. تصمیم میگیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.
جواب آزمایشهای اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمیها ندارد. با ChatGPT مشورت میکنید. توصیه میکند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمیرسد.
اولی نیز، هم به خاطر تصویربرداریها هزینهبر است و هم به خاطر نیاز به نمونهبرداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمیخورد. اما ایدهی دیگری ندارید.
به بیمار میگویید که این نظر هوش مصنوعی است یا خودتان؟
شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح میدهند یا توصیههای هوش مصنوعی را؟ سؤال را کمی سختتر بکنیم: فکر میکنید خطای انسانی را ترجیح میدهند یا خطای تکنولوژی را؟
پس از فکر کردن به این سؤالها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤالهای سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.
برای امتیاز دهی به این مطلب، لطفا وارد شوید: برای ورود کلیک کنید
تا به امروز (چون امکان رفع موانع و متعاقبا عوض شدن معادله، در آینده دور و نزدیک وجود داره) به نظر میاد که ترجیح بیماران همچنان بر پزشک انسانی باشه، به دلایلی مثل: اعتماد احساسی ناشی از بدنمندی فیزیکی مشابه پزشک و بیمار، غلبه ی پذیرش فرهنگی اجتماعی «تجربه» و «شخص» بر «تکنولوژی» در نسل های انسانی حاضر، درک بیشتر مسئولیت پذیری انسان و امکان شکایت و سرزنش راحتتر انسان و موارد دیگه
سلام
در مورد سناریو اول: بنظرم با وجود افزایش استفاده از هوش مصنوعی( هم به دلیل فراگیری و هم افزایش دقت و سرعت و دسترسی) طبیعی هست که بیمار با مسائل سلامتی خودش مثل سایر مشکلات( مثل دیباگ کردن کد یا نوشتن پیام) برای رسیدن به «جواب سریع» اول با هوش مصنوعی سوالش را چک کند. پس پاسخ پرخاشگرانه اصلا معنی ندارد. به جای آن میتوانیم به بیمار اطمینان خاطر بدهیم: اینکه مشکلتون رو با هوش مصنوعی چک کردین نشون میده در قبال وضعیت سلامتی خودتون مسئولیتپذیر هستین و دغدغه مهمی براتون هست. بله، هوش مصنوعی ممکنه اطلاعات مفیدی در مورد شرایطتون به شما بده، اما همزمان ممکنه گمراهکننده هم باشه. ما تو این مرکز تیم پزشکی حرفهای داریم که مشکل شما رو بررسی و بهترین اقدام ممکن رو اجرا میکنن. بنابراین خواهشم از شما این هست که هر اطلاعاتی که فکر میکنین میتونه به ما در روند تشخیص و درمان کمک کنه رو بهمون بگین وماهم کنارتون هستیم تا انشاءالله به سلامتی این مشکل رو پشت سر بزارین.
در مورد سناریو دوم: بنظرم نیازی نیست بگیم هوش مصنوعی گفته، چون ممکن هست که اعتماد بیمار به ما و دانش ما خدشه دار بشه. و اعتماد اولین فاکتور مهم در روند درمان هست.
در مورد سوال آخر:
بنظرم وقتی خطای انسانی هست، خب قابل پیش بینیه. هرچند که آدم درد زیادی رو از نظر روانی متحمل میشه که «اگر فقط کمی بیشتر دقت میکرد یا… شاید هرگز این اتفاق نمیافتاد» بلاخره پزشک ها هم خسته میشوند، اشتباه میکنند و یاد میگیرند. اما اگر اشتباه هوش مصنوعی باشد تا حد زیادی قابل پیشگیری هست، چون بحث بیت است نه اتم! چیزی قابل ادیت سریع، چک کردن و تستهای مطمئن، و قابلیت scale شدن. بنابراین اگر کوتاهی یا اشتباهی باشد سریع تر قابل اطلاع رسانی، پیشگیری و اصلاح هست.
بنظرم آدم ها برای جواب سریع هوش مصنوعی را ترجیح میدهند. اما برای «اطمینان خاطر» و «مشکلات پیچیدهتر» یا «جدیتر» پزشک انسانی.
در کل بنظرم از این به بعد به جای انکار جایگاه هوش مصنوعی از اون آگاهانه استفاده کنیم و حضور و تاثیرش رو در حوزههای مختلف بپذیریم.