AI سے پیدا ہونے والی ایکس رے اب اتنی حقیقت پسندانہ ہیں کہ وہ ڈاکٹروں کو بے وقوف بنا سکتی ہیں اور ممکنہ طور پر صحت کی دیکھ بھال کے پورے نظام میں خلل ڈال سکتی ہیں۔
ریڈیالوجی میں آج شائع ہونے والی ایک نئی تحقیق، ریڈیولاجیکل سوسائٹی آف نارتھ امریکہ (RSNA) کے جریدے میں پتا چلا ہے کہ ریڈیولوجسٹ اور ایڈوانسڈ ملٹی موڈل لارج لینگویج ماڈلز (LLMs) دونوں مصنوعی ذہانت (AI) سے تیار کردہ “ڈیپ فیک” ورژن سے حقیقی ایکس رے کو قابل اعتماد طریقے سے بتانے کے لیے جدوجہد کرتے ہیں۔
نتائج مصنوعی طبی امیجز سے منسلک بڑھتے ہوئے خطرات کی طرف اشارہ کرتے ہیں اور طبی ریکارڈ کی درستگی کے تحفظ کے لیے بہتر پتہ لگانے کے آلات اور خصوصی تربیت کی فوری ضرورت کو اجاگر کرتے ہیں۔
ایک “ڈیپ فیک” کوئی بھی تصویر، ویڈیو، یا آڈیو ہے جو مستند معلوم ہوتی ہے لیکن اسے AI کا استعمال کرتے ہوئے تخلیق یا تبدیل کیا گیا ہے۔
“ہمارا مطالعہ یہ ظاہر کرتا ہے کہ یہ ڈیپ فیک ایکس رے ریڈیولوجسٹ، انتہائی تربیت یافتہ طبی امیج ماہرین کو دھوکہ دینے کے لیے کافی حقیقت پسندانہ ہیں، یہاں تک کہ جب وہ اس بات سے آگاہ تھے کہ AI سے تیار کردہ تصاویر موجود ہیں،” مطالعہ کے لیڈ مصنف میکائیل ٹورڈجمین، ایم ڈی، پوسٹ ڈاکٹریٹ فیلو، Icahn سکول آف میڈیسن، نیو یارک میں سنائی۔
“یہ دھوکہ دہی سے متعلق قانونی چارہ جوئی کے لئے ایک اعلی خطرے کا خطرہ پیدا کرتا ہے اگر، مثال کے طور پر، ایک من گھڑت فریکچر کو حقیقی سے الگ نہیں کیا جا سکتا۔
ایک اہم سائبرسیکیوریٹی خطرہ بھی ہے اگر ہیکرز ہسپتال کے نیٹ ورک تک رسائی حاصل کریں اور مریض کی تشخیص میں ہیرا پھیری کرنے کے لئے مصنوعی تصاویر انجیکشن کریں یا وسیع پیمانے پر فنڈز کو دوبارہ پڑھنے کی صلاحیت میں کمی کا سبب بنیں۔
ڈیجیٹل میڈیکل ریکارڈ۔” مطالعہ ڈیزائن اور عالمی شرکت اس تحقیق میں چھ ممالک (امریکہ، فرانس، جرمنی، ترکی، برطانیہ اور متحدہ عرب امارات) کے 12 طبی مراکز کے 17 ریڈیولوجسٹ شامل تھے۔
ان کے تجربے کی سطح نئے آنے والوں سے لے کر 40 سال تک فیلڈ میں رہنے والے ماہرین تک تھی۔ محققین نے کل 264 ایکس رے امیجز کا تجزیہ کیا، جو حقیقی اور AI سے تیار کردہ اسکینوں کے درمیان یکساں طور پر تقسیم تھیں.