سناریوی نخست: پسر ۱۹ ساله‌ای را در اورژانس می‌بینید. درد شدید شکم دارد. تهوع او نسبتاً شدید است و یک بار استفراغ کرده است. آزمایشش، تعداد لکوسیت حدود یازده هزار عدد در میکرولیتر را نشان می‌دهد.

سونوگرافی شکم درخواست می‌کنید که می‌گوید به علت درد بیمار، نمای خوبی برای بررسی از نظر سنگ و آپاندیسیت، یافت نشد. به اقدام بعدی خود فکر می‌کنید. سی‌تی اسکن مناسب است؟

تصمیم می‌گیرید که سی‌تی اسکن بکنید. چربی دور آپاندیس تغییراتی داشته است. به آپاندیسیت بیشتر از قبل مشکوک می‌شوید. با جراح درخواست مشاوره می‌دهید.

بیمار شما را صدا می‌زند. می‌گوید که علائمش را هم با گراک و هم با ChatGPT چک کرده است. آن‌ها چند تشخیص گفته‌اند و در ادامه تعدادی آزمایش پیشنهاد داده‌اند. می‌خواهد یک لیست به شما نشان بدهد. تأکید می‌کند که این‌جا گفته تعدادی از افراد با تشخیص آپاندیسیت به اتاق عمل می‌روند ولی آپاندیس‌شان مشکلی ندارد.

چه کار می‌کنید؟

این موقعیت را اگر تاکنون تجربه نکرده باشید، قطعاً در آینده‌ای نزدیک خواهید دید. همان‌طور که در این سال‌ها بیماران بیشماری می‌گفتند که ما در «اینترنت» علا‌ئم‌مان را زدیم یا «گوگل» کردیم، اکنون احتمالاً با عباراتی همچون «هوش مصنوعی گفت یا ChatGPT گفت» مواجه خواهیم شد.

با وجود مدل‌های بزرگ زبانی، این گفتگو راحت‌تر و خوشایندتر از گوگل کردن شده و بیماران نیز سریع‌تر نیز به جواب می‌رسند. اگر در چنین موقعیتی قرار بگیرید چه کار می‌کنید؟ عصبانی می‌شوید که من دکتر هستم یا موبایل تو؟ شاکی می‌شوید که اگر می‌خواستی با آن بررسی بکنی، پس چرا به بیمارستان آمدی؟

فکر نمی‌کنید بهتر است که اکنون و در هنگامی که در فضای خستگی و تنش نیستیم، به این موقعیت فکر بکنیم تا وقتی که برای نخستین بار بخواهیم این حالت را در بیمارستان تجربه بکنیم و فی‌البداهه حرفی بگوییم؟

حالا نوبت سناریوی دوم است: خانم ۲۸ ساله‌ای در اورژانس بستری شده است. می‌گوید که هنگام ورزش درد شدیدی را در قفسه سینه حس کرده است. از او عکس گرفته‌اند و نوار قلب. گفته‌اند هر دو مشکلی ندارد. می‌خواهید به قلبش گوش بدهید که با گذاشتن استتوسکوپ، دردش می‌گیرد. با فشار روی دیواره قفسه سینه، به درد می‌آید.

دوباره عکسش را نگاه می‌کنید. استخوان جناغش شکسته است و در نگاه اول چون به آن دقت نکرده بودید، متوجه‌اش نشدید. اما چرا باید این اتفاق در یک فرد ۲۸ ساله سالم بیفتد؟ نمی‌دانید. تصمیم می‌گیرید بررسی از نظر علل ثانویه استئوپروز و شکستگی پاتولوژیک را انجام بدهید.

جواب آزمایش‌های اولیه، به جز کلسیم که کمی بالا گزارش شد، طبیعی هستند. هیچ چیزی به نفع بدخیمی‌ها ندارد. با ChatGPT مشورت می‌کنید. توصیه می‌کند با توجه به کلسیم کمی بالا و شکستگی پاتولوژیک از نظر مالتیپل مایلوم و پرکاری پاراتیروئید بررسی بکنید. دومی به جایی نمی‌رسد.

اولی نیز، هم به خاطر تصویربرداری‌ها هزینه‌بر است و هم به خاطر نیاز به نمونه‌برداری از مغز استخوان، دردناک. به باقی شرایط بیمار نیز نمی‌خورد. اما ایده‌ی دیگری ندارید.

به بیمار می‌گویید که این نظر هوش مصنوعی است یا خودتان؟

شاید بهتر باشد به یک سؤال دیگر نیز که مکمل سناریوی دوم است، فکر کنید. به نظر شما بیماران در حال حاضر پزشک انسانی را ترجیح می‌دهند یا توصیه‌های هوش مصنوعی را؟ سؤال را کمی سخت‌تر بکنیم: فکر می‌کنید خطای انسانی را ترجیح می‌دهند یا خطای تکنولوژی را؟

پس از فکر کردن به این سؤال‌ها، جواب خود را برای حداقل یکی از سه سؤال فوق (سناریوی اول، سناریوی دوم و سؤال‌های سوم) بنویسید تا باقی درس برای شما، نمایش داده شود.

دیدگاه‌ خود را بنویسید

برای نوشتن دیدگاه باید وارد شوید.

12 کامنت در نوشته «نسخهٔ جدید دکتر گوگل»

  1. تا به امروز (چون امکان رفع موانع و متعاقبا عوض شدن معادله، در آینده دور و نزدیک وجود داره) به نظر میاد که ترجیح بیماران همچنان بر پزشک انسانی باشه، به دلایلی مثل: اعتماد احساسی ناشی از بدنمندی فیزیکی مشابه پزشک و بیمار، غلبه ی پذیرش فرهنگی اجتماعی «تجربه» و «شخص» بر «تکنولوژی» در نسل های انسانی حاضر، درک بیشتر مسئولیت پذیری انسان و امکان شکایت و سرزنش راحت‌تر انسان و موارد دیگه

  2. سلام
    در مورد سناریو اول: بنظرم با وجود افزایش استفاده از هوش مصنوعی( هم به دلیل فراگیری و هم افزایش دقت و سرعت و دسترسی) طبیعی هست که بیمار با مسائل سلامتی خودش مثل سایر مشکلات( مثل دیباگ کردن کد یا نوشتن پیام) برای رسیدن به «جواب سریع» اول با هوش مصنوعی سوالش را چک کند. پس پاسخ پرخاشگرانه اصلا معنی ندارد. به جای آن میتوانیم به بیمار اطمینان خاطر بدهیم: اینکه مشکلتون رو با هوش مصنوعی چک کردین نشون میده‌ در قبال وضعیت سلامتی خودتون مسئولیت‌پذیر هستین و دغدغه مهمی براتون هست. بله، هوش مصنوعی ممکنه اطلاعات مفیدی در مورد شرایطتون به شما بده، اما همزمان ممکنه گمراه‌کننده هم باشه. ما تو این مرکز تیم پزشکی حرفه‌ای داریم که مشکل شما رو بررسی و بهترین اقدام ممکن رو اجرا میکنن. بنابراین خواهشم از شما این هست که هر اطلاعاتی که فکر میکنین میتونه به ما در روند تشخیص و درمان کمک کنه رو بهمون بگین وماهم کنارتون هستیم تا انشاءالله به سلامتی این مشکل رو پشت سر بزارین.

    در مورد سناریو دوم: بنظرم نیازی نیست بگیم هوش مصنوعی گفته، چون ممکن هست که اعتماد بیمار به ما و دانش ما خدشه دار بشه. و اعتماد اولین فاکتور مهم در روند درمان هست.

    در مورد سوال آخر:
    بنظرم وقتی خطای انسانی هست، خب قابل پیش بینیه. هرچند که آدم درد زیادی رو از نظر روانی متحمل میشه که «اگر فقط کمی بیشتر دقت میکرد یا… شاید هرگز این اتفاق نمی‌افتاد» بلاخره پزشک ها هم خسته می‌شوند، اشتباه میکنند و یاد می‌گیرند. اما اگر اشتباه هوش مصنوعی باشد تا حد زیادی قابل پیش‌گیری هست، چون بحث بیت است نه اتم! چیزی قابل ادیت سریع، چک کردن و تست‌های مطمئن، و قابلیت scale شدن. بنابراین اگر کوتاهی یا اشتباهی باشد سریع تر قابل اطلاع رسانی، پیشگیری و اصلاح هست.

    بنظرم آدم ها برای جواب سریع هوش مصنوعی را ترجیح می‌دهند. اما برای «اطمینان خاطر» و «مشکلات پیچیده‌تر» یا «جدی‌تر» پزشک انسانی.

    در کل بنظرم از این به بعد به جای انکار جایگاه هوش مصنوعی از اون آگاهانه استفاده کنیم و حضور و تاثیرش رو در حوزه‌های مختلف بپذیریم.