ہمارے احساس سے کہیں زیادہ ہم جیسے: ChatGPT انسان کی طرح سوچتے ہوئے پکڑا جاتا ہے۔
گراؤنڈ بریکنگ ریسرچ سے پتہ چلتا ہے کہ AI صرف ڈیٹا پر کارروائی نہیں کرتا، یہ انسانوں کی طرح فیصلے کی غلطیاں بھی کرتا ہے۔
کیا ہم واقعی انسانوں سے بہتر فیصلے کرنے کے لیے AI پر بھروسہ کر سکتے ہیں؟
ایک حالیہ مطالعہ کے مطابق، جواب ہے: ہمیشہ نہیں. محققین نے پایا کہ OpenAI کا ChatGPT، جو کہ سب سے زیادہ جدید اور وسیع پیمانے پر استعمال ہونے والے AI ماڈلز میں سے ایک ہے، بعض اوقات انسانوں کی طرح فیصلہ سازی کی غلطیاں کرتا ہے۔
بعض منظرناموں میں، یہ واقف علمی تعصبات کی نمائش کرتا ہے، جیسے حد سے زیادہ اعتماد اور گرم ہاتھ (یا جواری کی) غلط فہمی۔
پھر بھی دوسرے معاملات میں، یہ ایسے طریقوں سے برتاؤ کرتا ہے جو انسانی استدلال سے نمایاں طور پر مختلف ہوتے ہیں، مثال کے طور پر، یہ بنیادی شرح کو نظر انداز کرنے یا ڈوبی لاگت کی غلط فہمی کا شکار نہیں ہوتا ہے۔
INFORMS جریدے مینوفیکچرنگ اینڈ سروس آپریشنز مینجمنٹ میں شائع ہونے والی یہ تحقیق بتاتی ہے کہ چیٹ جی پی ٹی صرف ڈیٹا کا تجزیہ نہیں کرتا، یہ انسانی سوچ کے پہلوؤں کی آئینہ دار ہے، بشمول ذہنی شارٹ کٹس اور منظم غلطیاں۔
تعصب کے یہ نمونے مختلف کاروباری سیاق و سباق میں نسبتاً یکساں نظر آتے ہیں، حالانکہ AI کے نئے ورژن تیار ہوتے ہی وہ تبدیل ہو سکتے ہیں۔
AI انسانی فیصلے کے جال میں آتا ہے – ChatGPT نے تقریباً نصف ٹیسٹوں میں حد سے زیادہ اعتماد یا ابہام سے نفرت، اور کنکشن فلیسی (عرف “لنڈا مسئلہ”) جیسے تعصبات کو ظاہر کیا۔
AI ریاضی میں بہت اچھا ہے، لیکن فیصلے کی کالوں کے ساتھ جدوجہد کرتا ہے – یہ منطقی اور امکان پر مبنی مسائل پر سبقت لے جاتا ہے لیکن جب فیصلوں کو موضوعی استدلال کی ضرورت ہوتی ہے تو ٹھوکر کھا جاتی ہے۔
تعصب ختم نہیں ہو رہا ہے – اگرچہ نیا GPT-4 ماڈل اپنے پیشرو سے زیادہ تجزیاتی طور پر درست ہے، لیکن یہ بعض اوقات فیصلے پر مبنی کاموں میں مضبوط تعصبات ظاہر کرتا ہے۔