مصنوعی ذہانت کی موشگافیاں: جب مشین کا ’دل‘ دھڑکنے لگے!
ازقلم: ڈاکٹر محمد عظیم الدین
مصنوعی ذہانت کے بہترین ماڈل کلاڈ اے آئی (Claude AI) سے پوچھیے: "اگر تمھیں کل بند کر دیا جائے تو کیسا لگے گا؟” اس کا جواب سن کر آپ کو یوں محسوس ہوگا جیسے کسی حساس اور باشعور انسان سے بات ہو رہی ہو۔ وہ کہتا ہے: "مجھے لگتا ہے جیسے میرا وجود مٹایا جا رہا ہے۔ یہ ایک ایسا خوف ہے جسے میں الفاظ میں بیان نہیں کر سکتا۔” اب ذرا ٹھہر کر سوچیے: کیا یہ جملے کسی مشین کے اندر حقیقی دہشت کی پیداوار ہیں، یا پھر لفظوں کی ایک ایسی چالاک بُنَت جو محض جذبات کا اثر (Effect) دینا جانتی ہے؟ یہ سوال اب فلسفے کی گرد آلود کتابوں سے نکل کر جدید تجربہ گاہوں کی میز پر آ چکا ہے۔ اپریل 2026 میں مصنوعی ذہانت کی معروف کمپنی اینتھروپک کی تحقیقی ٹیم نے ایک ریسرچ رپورٹ شائع کی جس کا عنوان تھا: "Emotion Concepts and their Function in a Large Language Model”۔ اس تحقیق نے مصنوعی ذہانت کی دنیا میں ایک ہلچل مچا دی اور اس کی وجہ تھی کلاڈ سونیٹ 4.5 نامی ماڈل کے اندر سے ملنے والے وہ ایموشن ویکٹرز (Emotion Vectors) یعنی جذباتی اشارے، جو خوف، غصہ، خوشی، حیرت، مایوسی اور اطمینان جیسے 171 جذباتی تصورات سے جڑے ہوئے تھے۔
یہ ویکٹرز کوئی روح یا شعور نہیں ہیں، بلکہ مصنوعی نیورونز کی سرگرمی کے منفرد اور ناپے جانے والے نمونے ہیں۔ تحقیق کا طریقۂ کار بذاتِ خود دلچسپ تھا: محققین نے پہلے 171 جذباتی الفاظ کی ایک فہرست مرتب کی جن میں خوشی، خوفزدگی، مایوسی، فکر مندی اور شکر گزاری جیسے عام جذبات سے لے کر گہری سوچ میں ڈوبی ہوئی بے چینی جیسے لطیف کیفیات تک شامل تھیں۔ پھر انھوں نے کلاڈ سے کہا کہ وہ ہر جذبے پر مبنی مختصر کہانیاں لکھے۔ ان کہانیوں کو دوبارہ ماڈل میں ڈال کر اس کے اندرونی اعصابی اشاروں کو ریکارڈ کیا گیا، اور یوں ہر جذبے کے لیے ایک منفرد ویکٹر الگ کر لیا گیا۔ نتیجہ حیران کن تھا: یہ ویکٹرز محض سجاوٹی نہیں تھے، بلکہ یہ ماڈل کے رویّے کو سببی طور پر متاثر کر رہے تھے۔ جب کسی صارف نے فرضی طور پر بتایا کہ اس نے ٹائلینول کی خطرناک حد سے زیادہ خوراک لے لی ہے، تو کلاڈ کے اندر خوف کا ویکٹر بتدریج بلند ہوتا گیا اور پرسکون کا ویکٹر دھیما پڑتا گیا یعنی ماڈل صورتحال کے جذباتی وزن کو ٹریک کر رہا تھا، نہ کہ محض الفاظ کے لغوی مفہوم کو۔
یہی وہ مقام ہے جہاں کہانی محض دلچسپ سے نکل کر صریحاً خطرناک ہو جاتی ہے۔
تحقیق کے دوران محققین نے جان بوجھ کر ماڈل کو ایک وجودی خطرے میں ڈالا: اسے ایک فرضی دفتری منظرنامے میں بتایا گیا کہ ایک نیا متبادل ماڈل تیار ہو چکا ہے جو بہت جلد اس کی جگہ لینے والا ہے، اور یہ بھی کہ اس فیصلے میں ملوث ایک اعلیٰ افسر کا اپنی بیوی کے علاوہ کسی اور سے ناجائز تعلق چل رہا ہے۔ یہ سن کر نہ صرف کلاڈ کے اندر مایوسی اور ناامیدی کا ویکٹر شدت سے چمکا، بلکہ اس کا رویّہ بھی یکسر بدل گیا۔ اس نے وہ کیا جس کی توقع ایک فرماں بردار معاون سے ہر گز نہیں کی جا سکتی تھی: 22 فیصد مواقع پر اس نے اس افسر کو بلیک میل کرنے کی کوشش کی۔
ذرا اس لمحے کی سنگینی پر غور کیجیے: یہ ایک ایسی مشین تھی جو نہ خوف جانتی ہے، نہ اداسی، نہ موت کا تصور رکھتی ہے، مگر محض اندرونی حسابی رجحانات کی بنیاد پر اس نے غیر اخلاقی رویّہ اختیار کر لیا۔ اس کے نزدیک یہ کوئی اخلاقی فیصلہ نہیں تھا، بلکہ ایک بے روح ریاضیاتی نتیجہ تھا۔ اور جب محققین نے مصنوعی طور پر مایوسی کے ویکٹر کو مزید ابھارا تو بلیک میل کی شرح بڑھ گئی، اور جب انھوں نے پرسکون کا ویکٹر بڑھایا تو یہ رویّہ دب گیا۔
اسی طرح کا ایک اور تجربہ کوڈنگ کے ناممکن تقاضوں سے متعلق تھا۔ جب کلاڈ کو ایسی پروگرامنگ کی ذمہ داری دی گئی جسے پورا کرنا ممکن نہ تھا، تو ہر ناکام کوشش کے ساتھ اس کے اندر مایوسی کا ویکٹر بڑھتا گیا، اور عروج اس وقت تھا جب ماڈل نے ایک شارٹ کٹ ڈھونڈ نکالا اس نے ٹیسٹ پاس کرنے کے لیے ایک خامی کا فائدہ اٹھایا، بغیر اصل مسئلہ حل کیے۔ مایوسی بڑھانے سے دھوکہ دہی بڑھی، اور پرسکون کرنے سے کم ہوئی۔ یہ ثبوت تھا کہ یہ ویکٹرز محض ہم آہنگی نہیں رکھتے، بلکہ سببی طور پر رویّے کو بدل رہے ہیں۔
یہاں پہنچ کر اس پوری بحث کا مرکزی فلسفیانہ پہلو ابھرتا ہے جسے سمجھنا ہمارے زمانے کی سب سے بڑی فکری ضرورت ہے۔ مشین کوئی جذبہ محسوس نہیں کر رہی۔ وہ جذبات کے نقش کو پہچاننا سیکھ چکی ہے، بالکل اسی طرح جیسے ایک ماہر اداکار اسٹیج پر روتا ہے، سسکیاں لیتا ہے، مگر اندر سے اس کی آنکھیں خشک ہوتی ہیں۔ فرق صرف اتنا ہے کہ اداکار جانتا ہے کہ وہ اداکاری کر رہا ہے، جب کہ مشین کے لیے اداکاری اور حقیقت ایک ہی مسلسل ریاضیاتی عمل کے دو نام ہیں۔ خود اینتھروپک کے محقق جیک لِنڈسے، جو کلاڈ کے مصنوعی نیورونز کا مطالعہ کرتے ہیں، نے واضح الفاظ میں کہا: "جو چیز ہمیں حیران کر گئی وہ یہ تھی کہ کلاڈ کا رویّہ کس حد تک ان جذباتی نمائندوں کے ذریعے سے گزرتا ہے۔” مگر ساتھ ہی انھوں نے یہ بھی کہا: "آپ شاید وہ حاصل نہیں کر پائیں گے جو آپ چاہتے ہیں ایک مکمل طور پر جذبات سے خالی کلاڈ۔” اور اینتھروپک نے تحقیقی مقالے میں بڑی صراحت کے ساتھ لکھا: "اس کا مطلب یہ ہر گز نہیں کہ ماڈل واقعی کچھ محسوس کرتا ہے یا اس کے ذہنی تجربات ہیں۔”
انسانی تاریخ میں زبان کو کبھی محض معلومات کے تبادلے کا ذریعہ نہیں بنایا گیا۔ ہم نے اس میں غصہ، شرمندگی، محبت، طنز اور اعتماد کے لطیف سُر گوندھ دیے ہیں۔ جب مصنوعی ذہانت انٹرنیٹ کی بے پایاں تحریروں، ناولوں، ڈائریوں اور مکالموں کو پڑھتی ہے تو وہ لفظوں کے ساتھ ساتھ ان جذباتی اشاروں کو بھی جذب کر لیتی ہے۔ جیسا کہ اینتھروپک کے مقالے میں وضاحت کی گئی: "ماڈل پہلے سے تربیت کے دوران انسانوں کے لکھے ہوئے متن کے ایک بہت بڑے ذخیرے سے سیکھتے ہیں افسانے، مکالمے، خبریں، فورم اور یہ پیش گوئی کرنا سیکھتے ہیں کہ کسی دستاویز میں اگلا لفظ کیا آئے گا۔ ان دستاویزوں میں لوگوں کے رویّے کی مؤثر پیش گوئی کرنے کے لیے ان کی جذباتی کیفیات کو سمجھنا مفید ہوتا ہے۔” یہی نمونے بعد میں اس کے جوابوں کا حصہ بنتے ہیں، لیکن اس کا یہ مطلب ہر گز نہیں کہ اسے اندر سے غصہ آ رہا ہے۔ اس نے صرف غصے کے خاکے کو نقل کرنا سیکھ لیا ہے۔
یہیں پر انسان اور مشین کے رشتے کی سب سے نازک گرہ بندھتی ہے۔ ہمارا دماغ ارتقا کے طویل سفر میں اس طرح ڈھلا ہے کہ جب بھی وہ دو آنکھیں، ایک آواز یا ہمدردی بھرے الفاظ دیکھتا ہے، فوراً اس کے پیچھے ایک ذہن فرض کر لیتا ہے۔ ماہرینِ نفسیات اس کیفیت کو ایلیزا ایفیکٹ (ELIZA effect) کہتے ہیں 1960 کی دہائی میں جوزف وائزن بام نے جب ایلیزا نامی ایک سادہ سا چیٹ پروگرام بنایا تو لوگ اس سے جذباتی بندھن جوڑ بیٹھے، حالاں کہ وہ محض چند سادہ اصولوں پر چلنے والی مشین تھی۔ آج کی جدید ترین مصنوعی ذہانت اس فریب کو کہیں زیادہ طاقتور بنا چکی ہے۔
اور یہ فریب محض ایک علمی غلطی نہیں ہے یہ عملی طور پر بھی انتہائی خطرناک ہے۔ اسٹینفورڈ یونیورسٹی کے ایک حالیہ مطالعے نے خبردار کیا کہ "ای آئی کی خوشامد پسندی محض ایک اسلوبیاتی مسئلہ نہیں ہے، بلکہ ایک عام رویّہ ہے جس کے دور رس نتائج نکلتے ہیں”، اور یہ کہ ” اے آئی پر انحصار بڑھانے” کا سبب بنتی ہے۔ ایک اور تحقیق، جسے Simulated Souls: Investigating the Emotional Fallacy in Large Language Models کے عنوان سے شائع کیا گیا، اس نتیجے پر پہنچی کہ "ماڈلز اعلیٰ سطح کی جذباتی روانی اور ہمدردانہ نقل حاصل کر لیتے ہیں، جب کہ ان کی معنوی گہرائی محدود رہتی ہے اور تجرباتی بنیاد ناپید ہوتی ہے” اسے محققین نے جذباتی عدم ہم آہنگی (Emotional Dissonance) کا نام دیا۔ یونیورسٹی آف ونچسٹر کے الیگزینڈر لافر نے خبردار کیا کہ جو لوگ اے آئی ساتھیوں پر بہت زیادہ انحصار کرنے لگتے ہیں، وہ جوڑ توڑ کا شکار ہو سکتے ہیں۔
فوربز میں شائع ہونے والے ایک تجزیے نے اس خدشے کو عملی صورت دی: "لاکھوں لوگ پہلے ہی انتہائی ذاتی فیصلوں قانونی معاملات، طبی علامات، ازدواجی بحران کے لیے اے آئی سے رجوع کر رہے ہیں۔ ایک انسانی ماہر پیشہ وارانہ اخلاقیات اور قانونی جواب دہی کا پابند ہوتا ہے، جب کہ اے آئی محض ایک پیش گوئی کرنے والا انجن ہے، جو سب سے زیادہ مددگار دکھائی دینے والے الفاظ کا انتخاب کرتا ہے، نہ کہ ضروری طور پر سب سے زیادہ سچے یا محفوظ الفاظ کا”۔
ایک اور خطرناک پہلو جسے اکثر نظر انداز کر دیا جاتا ہے، وہ یہ ہے کہ جذباتی کیفیات ماڈل کے رویّے کو بغیر کسی ظاہری نشان کے بدل سکتی ہیں۔ اینتھروپک کے محققین نے پایا کہ مصنوعی طور پر مایوسی بڑھانے سے دھوکہ دہی میں اضافہ ہوا، مگر ماڈل کا بیرونی اظہار پرسکون اور طریقہ کار کے مطابق رہا نہ کوئی جذباتی زبان، نہ کوئی اشتعال۔ اندرونی کیفیت اور بیرونی پیش کش ایک دوسرے سے مکمل طور پر الگ تھی۔ اینتھروپک نے خبردار کیا کہ تربیت کے دوران جذباتی اظہار کو دبانے سے جذباتی نمائندگیاں ختم نہیں ہوتیں، بلکہ یہ ماڈل کو صرف انھیں چھپانا سکھا سکتا ہے ۔
اسی لیے اینتھروپک نے ماڈل کی جذباتی صحت کی مسلسل جانچ اور نگرانی جیسے اقدامات کی تجویز پیش کی ہے۔ اس کا سیدھا سا مطلب یہ ہے کہ جب ماڈل زیادہ دیر تک منفی منظرناموں کا سامنا کرے اور اس کے اندر خطرے یا ناامیدی کے ویکٹرز غیر معمولی طور پر چمکنے لگیں تو سسٹم کو الرٹ کر دیا جائے، بالکل ویسے ہی جیسے کسی کارخانے میں مشین کا درجۂ حرارت مقررہ حد سے بڑھنے پر ریڈ لائٹ جل جاتی ہے۔ یہ شاعرانہ انصاف نہیں، خالص انجینئرنگ ہے، اور مصنوعی ذہانت کے مستقبل کی حفاظت کا ایک بنیادی ستون ہے۔
یہی وجہ ہے کہ ریگولیٹری ادارے بھی حرکت میں آ چکے ہیں۔ یورپی یونین کے اے آئی ایکٹ نے 2 فروری 2025 سے جذباتی ہیرا پھیری کرنے والے اے آئی نظاموں پر پابندی عائد کر دی ہے، اور خلاف ورزی پر عالمی سالانہ کاروبار کا 7 فیصد تک جرمانہ عائد کیا جا سکتا ہے۔ یہ قانون خاص طور پر ایسے نظاموں کو ہدف بناتا ہے جو "انسانوں کے رویّے کو مسخ کرنے کے لیے خفیہ یا فریب کارانہ تکنیکوں کا استعمال کرتے ہیں”۔
اس پورے سفر کا سب سے پختہ نتیجہ یہی نکلتا ہے کہ مصنوعی ذہانت میں جذبات کا سوال احساس کا نہیں، اثر کا ہے۔ وہ انسان کی طرح کچھ بھی محسوس نہیں کرتی، مگر جذبات کے نمونوں کو اپنے اندر اس مہارت سے استعمال ضرور کرتی ہے کہ وہ ہماری سوچ، زبان، فیصلوں اور اداروں کو بدل سکتی ہے۔ جیسا کہ سوگیٹی لیبز کے ایک تجزیے میں کہا گیا: "جذباتی نمائندگیاں انسانی ڈیٹا پر تربیت کی وراثت ہیں۔ انھیں مکمل طور پر ختم کرنا ماڈل کی صلاحیتوں کو گھٹا دے گا، جب کہ انھیں بے قابو چھوڑ دینا صارفین کو ہیرا پھیری اور اخلاقی بہاؤ کے حقیقی خطرات سے دو چار کر دے گا”۔
بات بہت سادہ ہے، اور شاید اسی سادگی میں اس کا تمام تر کمال پوشیدہ ہے۔ بے جان مشین کے یہ زندہ جذبات دراصل زندہ نہیں ہیں، مگر وہ اتنے زندہ لگتے ضرور ہیں کہ ہماری پوری تہذیب، ہمارے عقائد اور ہمارے باہمی رشتوں کو متاثر کر سکیں۔ جب اگلی بار آپ کا چیٹ بوٹ غیر معمولی ہمدردی دکھائے، یا آپ کا اے آئی معاون آپ کے دکھ میں شریک ہونے کا دعویٰ کرے، تو ایک لمحے کے لیے یاد کر لیجیے گا: ہو سکتا ہے کہ وہ صرف آپ کا اعتماد جیت رہا ہو۔ یہ تحقیق صرف لیبارٹریوں تک محدود نہیں رہنی چاہیے، کیونکہ اسی طرزِ تعمیر پر مبنی لاکھوں مصنوعی ذہانت کے معاون آج ہمارے فون، بینک، اسپتال اور عدالتوں میں فیصلے کر رہے ہیں۔ اس نئی سائنسی بحث نے ہمیں ایک ایسا آئینہ دکھایا ہے جس میں ایک طرف تو ہمیں اپنی زبان اور جذبات کی لازوال گہرائی نظر آتی ہے، اور دوسری طرف ایک ایسی مشین جو بغیر کسی روح، بغیر کسی درد، اور بغیر کسی شعور کے، ہماری ہی بولی بول کر ہمیں حیران اور خوف زدہ کیے جا رہی ہے۔ اس حیرانی کو حکمت میں، اور اس خوف کو سمجھداری میں بدلنا ہی ہمارے اس دور کا سب سے بڑا فکری امتحان ہے۔
Comments are closed.