OpenAI خانواده‌ای را که از ChatGPT برای تصمیم‌گیری درباره درمان سرطان استفاده می‌کند برجسته می‌کند، اما مطالعات اخیر نشان می‌دهند ابزارهای سلامت مبتنی بر هوش مصنوعی مشکلات قابل توجهی در دقت و ایمنی دارند. (بخوانیدOpenAI خانواده‌ای را که از ChatGPT برای تصمیم‌گیری درباره درمان سرطان استفاده می‌کند برجسته می‌کند، اما مطالعات اخیر نشان می‌دهند ابزارهای سلامت مبتنی بر هوش مصنوعی مشکلات قابل توجهی در دقت و ایمنی دارند. (بخوانید

OpenAI ترویج ChatGPT برای تصمیم‌گیری‌های سلامت را در میان نگرانی‌های دقت انجام می‌دهد

2026/03/05 09:21
مدت مطالعه: 3 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق crypto.news@mexc.com تماس بگیرید.

OpenAI چت‌جی‌پی‌تی را برای تصمیمات سلامتی با وجود نگرانی‌های دقت تبلیغ می‌کند

تریل دیکی 14/12/1404 01:21

OpenAI استفاده خانواده‌ای از ChatGPT برای تصمیمات درمان سرطان را برجسته می‌کند، اما مطالعات اخیر نشان می‌دهد ابزارهای سلامت مبتنی بر هوش مصنوعی مشکلات قابل توجهی در دقت و ایمنی دارند.

OpenAI چت‌جی‌پی‌تی را برای تصمیمات سلامتی با وجود نگرانی‌های دقت تبلیغ می‌کند

OpenAI این هفته مطالعه موردی منتشر کرد که خانواده‌ای را نشان می‌دهد که از ChatGPT برای آماده‌سازی تصمیمات درمان سرطان پسرشان استفاده کرده‌اند و چت‌بات مبتنی بر هوش مصنوعی را به عنوان مکمل راهنمایی پزشک معرفی می‌کند. زمان‌بندی با توجه به شواهد فزاینده مبنی بر اینکه ابزارهای سلامت مبتنی بر هوش مصنوعی مشکلات قابل توجهی در قابلیت اطمینان دارند، سوال‌برانگیز است.

این مطلب تبلیغاتی که در 13/12/1404 منتشر شد، توضیح می‌دهد که چگونه والدین در کنار تیم انکولوژی فرزندشان از ChatGPT استفاده کرده‌اند. OpenAI این موضوع را به عنوان استفاده مسئولانه از هوش مصنوعی معرفی می‌کند - مکمل کردن به جای جایگزینی تخصص پزشکی.

اما این روایت خوش‌بینانه با یافته‌های تحقیقاتی ناراحت‌کننده برخورد می‌کند. مطالعه‌ای که در Nature Medicine منتشر شد و محصول "ChatGPT Health" خود OpenAI را بررسی کرد، مشکلات اساسی در دقت، پروتکل‌های ایمنی و تعصب نژادی در توصیه‌های پزشکی یافت. این یک هشدار جزئی برای ابزاری که ممکن است افراد هنگام تصمیم‌گیری‌های زندگی و مرگ درباره درمان سرطان از آن استفاده کنند، نیست.

مشکل دقت

تحقیقات مستقل در بهترین حالت تصویری متفاوت ارائه می‌دهند. مطالعه Mass General Brigham نشان داد ChatGPT تقریباً 72٪ دقت در تخصص‌های پزشکی به دست آورد که برای تشخیص‌های نهایی به 77٪ می‌رسد. خوب به نظر می‌رسد تا زمانی که در نظر بگیرید چه چیزی در خطر است - آیا سوار هواپیمایی می‌شوید که 23٪ احتمال دارد خلبان خطای حیاتی انجام دهد؟

شرکت هوش مصنوعی بهداشت و درمان Atropos اعداد حتی نگران‌کننده‌تری ارائه داد: مدل‌های زبان بزرگ عمومی تنها 2٪ تا 10٪ از مواقع اطلاعات مرتبط بالینی را برای پزشکان فراهم می‌کنند. شکاف بین «گاهی مفید» و «به اندازه کافی قابل اعتماد برای تصمیمات سرطان» وسیع باقی می‌ماند.

انجمن پزشکی آمریکا صریح صحبت کرده است. این سازمان علیه استفاده پزشکان از ابزارهای مبتنی بر LLM برای کمک به تصمیم‌گیری بالینی توصیه می‌کند و نگرانی‌های دقت و نبود دستورالعمل‌های استاندارد را ذکر می‌کند. وقتی AMA به پزشکان می‌گوید دور بمانند، بیماران احتمالاً باید توجه کنند.

کارهایی که ChatGPT نمی‌تواند انجام دهد

چت‌بات‌های مبتنی بر هوش مصنوعی نمی‌توانند معاینات فیزیکی انجام دهند. آن‌ها نمی‌توانند زبان بدن بیمار را بخوانند یا سوالات پیگیری شهودی که انکولوژیست‌های با تجربه طی دهه‌ها توسعه می‌دهند را بپرسند. آن‌ها می‌توانند توهم داشته باشند - تولید اطلاعاتی که به نظر اطمینان‌بخش است اما کاملاً ساختگی است.

نگرانی‌های حریم خصوصی لایه دیگری را اضافه می‌کنند. هر علامت، هر ترس، هر جزئیات درباره سرطان کودک که در ChatGPT تایپ می‌شود تبدیل به داده‌ای می‌شود که کاربران کنترل محدودی بر آن دارند.

مطالعه موردی OpenAI تأکید می‌کند که خانواده «در کنار راهنمایی متخصص پزشکان» کار کرده‌اند. این شرط اهمیت دارد. خطر این نیست که بیماران آگاه سوالات بهتری بپرسند - بلکه این است که افراد آسیب‌پذیر در بحران احتمالاً بیش از حد به ابزاری تکیه کنند که بیشتر از آنچه بازاریابی نشان می‌دهد اشتباه می‌کند.

برای سرمایه‌گذاران کریپتو که جاه‌طلبی‌های سازمانی OpenAI را تماشا می‌کنند، فشار بهداشت و درمان نشان‌دهنده گسترش تهاجمی به بخش‌های پرخطر است. اینکه آیا تنظیم‌کننده‌ها شرکت‌های هوش مصنوعی را که ابزارهای تصمیم‌گیری پزشکی با مشکلات دقت مستند را تبلیغ می‌کنند تحمل خواهند کرد، سوالی باز است که به سمت 1405 می‌رود.

منبع تصویر: Shutterstock
  • openai
  • chatgpt
  • بهداشت و درمان مبتنی بر هوش مصنوعی
  • هوش مصنوعی پزشکی
  • فناوری سلامت
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.