هشدار آکسفورد درباره ی پزشکان دیجیتال تشخیص چت باتها چقدر واقعی است؟
نئوپدیا: محققان دانشگاه آکسفورد با انجام پژوهشی نشان دادند که استفاده غیرمحتاطانه از هوش مصنوعی در پزشکی می تواند نابرابری اطلاعاتی و فشار بر نظام درمان ایجاد نماید.
به گزارش نئوپدیا به نقل از مهر، رشد شتابان هوش مصنوعی طی سالیان اخیر، انتظارات گسترده ای را در رابطه با تحول در سیستم سلامت بوجود آورده است. از تشخیص زودهنگام بیماریها تا بهینه سازی فرآیندهای درمانی، خیلی از تحلیل گران، هوش مصنوعی را به عنوان موتور محرک نسل بعدی خدمات پزشکی معرفی کرده اند. در عین حال، مطالعات اخیر از جانب محققان نشان داده است که استفاده از چت بات های مبتنی بر مدلهای زبانی بزرگ برای دریافت مشاوره پزشکی می تواند «خطرناک» باشد؛ هشداری که بار دیگر شکاف میان ظرفیتهای فناورانه و آمادگی عملیاتی این ابزارها را برجسته می کند.
پژوهش مشترک اخیر محققان مؤسسه اینترنت آکسفورد (Oxford Internet Institute) و دپارتمان علوم بهداشتی مراقبت های اولیه نافیلد (Nuffield Department of Primary Care Health Sciences) در دانشگاه آکسفورد، تصویری واقع گرایانه از وضعیت کنونی هوش مصنوعی در عرصه سلامت عرضه می کند. نتایج این مطالعه بزرگ، نشان داده است که هیجان رسانه ای پیرامون پزشکان دیجیتال نباید سیاستگذاران، عرضه دهندگان خدمات درمانی و حتی بیماران را از مخاطرات بالقوه این فناوری غافل کند.
طراحی مطالعه: سنجشهوش مصنوعیدر برابر تصمیم های حقیقی سلامت
در این تحقیق، نزدیک به ۱۳۰۰ نفر از شرکت کنندگان در معرض سناریوهای مختلف در عرصه سلامت قرار گرفتند و از آنها خواسته شد وضعیت های احتمالی بالینی و مسیر اقدام مناسب را شناسایی کنند. قسمتی از این افراد برای دریافت تشخیص اولیه و سفارش های بعدی از نرم افزارهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ استفاده کردند، در حالیکه گروه دیگر از شیوه های سنتی تر مانند رفتن به پزشک عمومی بهره بردند.
ارزیابی نتایج نشان داد که پاسخ های تولیدشده توسط هوش مصنوعی اغلب تلفیقی از اطلاعات صحیح و نادرست بوده است؛ مساله ای که کاربران عادی در تفکیک آن با دشواری مواجه بودند. به بیان دیگر، مشکل صرفا در خطاهای سامانه های هوش مصنوعی خلاصه نمی گردد، بلکه در توهم دقت هم ریشه دارد؛ وضعیتی که در آن خروجی های روان و قاطعانه مدل، حس اعتماد کاذب در بیمار به وجود می آورد.
پارادوکس توانمندی: موفق در آزمون، پرریسک در واقعیت
یکی از نکات کلیدی این مطالعه، وجود شکافی معنادار میان عملکرد هوش مصنوعی در آزمون های استاندارد دانش پزشکی و کارایی آن در موقعیت های حقیقی است. بر همین اساس، چت بات ها ممکنست در جواب سوالات ساختاریافته عملکردی چشم گیر داشته باشند، اما هنگامی که پای علایم حقیقی، ابهامات در علایم بالینی و تفاوت های فردی به میان می آید، قابلیت اتکا به آنها کاسته می شود.
دکتر ربکا پین، از نویسندگان این تحقیق، تصریح می کند که «با وجود تمام هیاهوها، هوش مصنوعی هنوز آماده ایفای نقش پزشک نیست». به قول او، بیماران باید آگاه باشند که طرح علایم بیماری با یک مدل زبانی می تواند به تشخیص های نادرست منجر شود و حتی در تشخیص موقعیت های اورژانسی هم ناکارآمد باشد.
چالش تعامل انسانی: نقطه ضعف پنهان مدلهای زبانی
اندرو بین، نویسنده اصلی این مطالعه، به مساله مهم دیگری اشاره می کند و مدعی است که تعامل با انسان ها همچنان برای پیشرفته ترین مدلهای زبانی امری چالش برانگیز است. پزشکی حوزه ای است که در آن داده های ناقص، توصیف های مبهم و متغیرهای رفتاری نقش تعیین کننده دارند. بر خلاف محیط های آزمایشگاهی، بیماران اغلب علایم خویش را به شکل غیرساختاریافته بیان می کنند و همین مساله احتمال سوءبرداشت الگوریتمی را بیشتر می کند.
کارشناسان براین باورند که این مساله نشان داده است طراحی سیستم های هوش مصنوعی برای حوزه های حساس و پرریسک صرفا به افزایش دقت مدل وابسته نیست، بلکه به درک عمیق تر از زمینه، قضاوت بالینی و مدیریت عدم قطعیت نیاز دارد.
ریسک های راهبردی برای نظام سلامت
در ادامه، نتایج این مطالعه چند پیام راهبردی برای آینده حکمرانی سلامت دیجیتال به همراه دارد. نخست آن که استفاده خودسرانه از هوش مصنوعی برای خودتشخیصی چالش های سلامتی می تواند فشار مضاعفی بر نظام درمان وارد کند. تشخیص های اشتباه ممکنست سبب رجوع های غیرضروری یا بالعکس و تأخیر در دریافت مراقبت های حیاتی شود.
مسئله دوم، خطر تشکیل نابرابری اطلاعاتی است. بر همین اساس، اشخاصی که توانایی ارزیابی انتقادی خروجی های هوش مصنوعی را ندارند، بیشتر از دیگران در معرض تصمیم های پرریسک قرار می گیرند. در نهایت مورد بعدی اینکه یافته ها لزوم تدوین چارچوب های تنظیم گری دقیق تر را برجسته می کند. باآنکه خیلی از کشورها درحال توسعه مقررات برای هوش مصنوعی در قسمت پزشکی هستند، اما سرعت نوآوری اغلب از سرعت قانونگذاری پیشی می گیرد.
بازتعریف جایگاههوش مصنوعی: دستیار هوشمند بخش پزشکی
برداشت کلیدی از این مطالعه آن است که ارزش حقیقی هوش مصنوعی اکنون نه در جایگزینی پزشکان، بلکه در تقویت قابلیت آنها نهفته است. فناوری هوش مصنوعی می تواند در غربالگری اولیه داده ها، خلاصه سازی پرونده های پزشکی، یا عرضه هشدارهای تصمیم یار ایفای نقش کند؛ اما انتقال مسئولیت تشخیص به الگوریتم ها هنوز زودهنگام بنظر می رسد.
به عبارت دیگر، در حقیقت آینده محتمل تر برای سلامت دیجیتال، مدل «همکاری انسان و ماشین» است؛ مدلی که در آن فناوری هوش مصنوعی به عنوان لایه ای تحلیلی عمل می کند و تصمیم نهائی همچنان در اختیار متخصص انسانی باقی می ماند.
این مطالعه برای سیاستگذاران یادآور یک اصل بنیادین است. در عرصه های پرمخاطره، نوآوری بدون حکمرانی دقیق می تواند به تهدید تبدیل گردد. از همین روی، توسعه استانداردهای ارزیابی بالینی، اجبار به شفافیت الگوریتمی و تعریف مسئولیت حقوقی عرضه دهندگان هوش مصنوعی همچون اقداماتی هستند که باید در اولویت قرار گیرد. از طرف دیگر، برای شرکتهای فناوری هم پیام روشن است و بر همین مبنا، رقابت بر سر عرضه سریع تر محصولات نباید جایگزین ایمنی شود. اعتماد عمومی در عرصه سلامت سرمایه ای است که به آسانی به دست نمی آید و با یک خطای پرهزینه می تواند از بین برود.
عبور از هیجان به بلوغ فناورانه
مطالعه دانشگاه آکسفورد را می توان هشداری جدی به اکوسیستم فناوری و بخصوص بازیگران حوزه سلامت دیجیتال دانست؛ هشداری که نشان داده است مسیر تبدیل هوش مصنوعی به یک بازیگر قابل اتکا در پزشکی، بمراتب پیچیده تر و طولانی تر از آن چیزی است که روایتهای تبلیغاتی و گفتمان های فناورمحور ترسیم می کنند.
طی سالیان اخیر، نوعی خوشبینی افراطی نسبت به کاربردهای پزشکی هوش مصنوعی شکل گرفته است؛ گویی افزایش توان محاسباتی و دسترسی به داده های بزرگ، به تنهایی برای خلق یک نظام تصمیم یار ایمن کافی است. در عین حال، حقیقت آن است که پزشکی صرفا یک مساله داده محور نیست، بلکه تلفیقی از قضاوت بالینی، تجربه انسانی، درک زمینه ای و مدیریت عدم قطعیت محسوب می شود؛ مؤلفه هایی که بازتولید کامل آنها در قالب مدلهای زبانی هنوز با چالش های بنیادین مواجه می باشد.
هوش مصنوعی بدون تردید ظرفیت بازآفرینی سیستم سلامت را دارد و می تواند در بین مدت به یکی از پیشران های اصلی راندمان در این بخش، از کاهش خطاهای اداری و تسریع فرآیندهای تشخیصی گرفته تا شخصی سازی درمان و بهبود مدیریت منابع بیمارستانی، تبدیل گردد. اما در مقطع کنونی، فاصله ای معنادار میان قابلیت نظری این فناوری و آمادگی عملیاتی آن در محیط های حقیقی درمان وجود دارد. خیلی از مدلها در شرایط کنترل شده عملکرد قابل قبولی دارند اما هنگامی که با پیچیدگی های دنیای حقیقی، مانند علایم دارای همپوشانی، سوابق پزشکی ناقص، تفاوت های فرهنگی در توصیف درد یا حتی خطاهای ورودی کاربر، مواجه می شوند، سطح اطمینان پذیری آنها کاسته می شود.
از همین روی، تا وقتی که این شکاف ساختاری پر نشود، اتکا به هوش مصنوعی برای اتخاذ تصمیمات حوزه پزشکی باید با احتیاط حداکثری، نظارت تخصصی و استقرار چارچوب های حرفه ای و تنظیم گرانه همراه باشد؛ چارچوب هایی که مسئولیت پذیری، قابلیت ممیزی و شفافیت الگوریتمی را تضمین کنند.
این یافته ها یادآور لزوم عبور از فاز «هیجان فناورانه» و ورود به مرحله «بلوغ نهادی» در به کارگیری هوش مصنوعی است. نظام های سلامت نمی توانند صرفا مصرف کننده فناوری باشند؛ آنها باید سازوکارهای ارزیابی بالینی، استانداردهای ایمنی و پروتکلهای ادغام هوش مصنوعی در فرآیندهای درمانی را به شکل فعال طراحی نمایند. در غیر این صورت، خطر تشکیل وابستگی زودهنگام به ابزارهایی که هنوز به سطح کافی از قابلیت اتکا نرسیده اند، افزایش خواهد یافت.
در نهایت، شاید مهم ترین درس این تحقیق آن باشد که در فناوری های حساس و پرمخاطره، «توانستن» الزاماً به مفهوم «آماده بودن» برای یک امر نیست. تاریخ تحول فناوری بارها نشان داده است که فاصله میان امکان فنی و پذیرش ایمن اجتماعی می تواند قابل توجه باشد. بنابراین، آینده موفق هوش مصنوعی در پزشکی نه در شتاب زدگی برای جایگزینی پزشکان، بلکه در توسعه تدریجی، آزمون های میدانی سخت گیرانه و تشکیل به مدلهای همکاری انسان و ماشین رقم خواهد خورد.
به طور خلاصه به قول او، بیماران باید آگاه باشند که طرح علائم بیماری با یک مدل زبانی می تواند به تشخیص های نادرست منجر شود و حتی در تشخیص موقعیت های اورژانسی هم ناکارآمد باشد. اندرو بین، نویسنده اصلی این مطالعه، به مسئله مهم دیگری اشاره می کند و مدعی است که تعامل با انسان ها همچنان برای پیشرفته ترین مدل های زبانی امری چالش برانگیز است. از سوی دیگر، برای شرکتهای فناوری هم پیام روشن است و بر همین مبنا، رقابت بر سر عرضه سریع تر محصولات نباید جایگزین ایمنی شود.
منبع: neopedia.ir
این مطلب نئوپدیا را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب