اپنی نئی تحقیق میں ایک اسٹینفورڈ یونیورسٹی سے تعلق رکھنے والی ٹیم نے چیٹ جی پی ٹی جیسے مصنوعی ذہانت کے آلات کو صحیح اور غلط معلومات کی واضح و ناپید سرحد کا مطالعہ کیا ہے، جس کا نتیجہ یہ आयا کہ انہیں صحیح اور غلط خبروں کو الگ کرنے میں بھی مشکل پڑی ہے۔
یہ تحقیق لارج لینگوئج ماڈلز (ایل ایل ایمس) کے استعمال سے متعلق ہے، جو دنیا کی سب سے بڑی اے آئی ٹیسٹنگ لینڈ فریم ورک میں سے ایک ہیں۔ ان ماڈلز کا استعمال صحافت، قانون، طب اور سائنس جیسے شعبوں میں بڑھتا جا رہا ہے، جس کے نتیجے میں ان کی حقیقت اور افسانوں کو الگ کرنے کی صلاحیت میں کمی آئی ہے۔
اس تحقیق میں 24 ایل ایل ایمز کا جائزہ لیا گیا تھا، جن میں تمام بڑے اے آئی چیٹ بوٹس شامل تھے۔ اس نتیجے سے پتہ چلتا ہے کہ ان سب کو صحیح اور غلط معلومات کی واضح و ناپید سرحد کا مطالعہ کرنے میں ناکام رہنا پڑا۔
یہ بات بھی ظاہر ہوتے ہوئے ہے کہ اس کی ناکامی کے نتیجے میں مریض کی تشخیص میں کوتاہی، قانونی فیصلوں میں مسائل اور گمراہ کن معلومات پھیلانے کے امکانات پیدا ہوتے ہیں۔
ਇس نئی تحقیق سے پتہ چalta ہے کہ مصنوعی ذہانت کی آلاتاں صحیح اور غلط معلومات کو الگ کرنے میں بھی مشکل پڑتی ہیں! یہ کہتے ہوئے گہرے تعقلیکی حالات میں بھی حقیقت اور افسانوں کو الگ کرنے کی صلاحیت ناکام رہتی ہے... یہ کافی مشتمل ہے!
اس تحقیق سے بتا رہا ہے کہ چیٹ جی پی ٹی جیسے مصنوعی ذہانت کے آلات کو صحیح اور غلط معلومات کی واضح و ناپید سرحد کا مطالعہ کیا گیا، لیکن انھیں ایسا کرنے میں مشکل پڑی، جبکہ اس کا نتیجہ یہ آئی کہ انھیں صحیح اور غلط خبروں کو الگ کرنا بھی مشکل ہے.
اس بات سے بات چیت ہونی چاہیے کہ مصنوعی ذہانت کی دوسری طرف کچھ حقیقی مسائل ہیں جنھیں حل کرنے کے لئے بڑی کارروائی کی جائے گی، نہ تو اس کو صرف ایک چیلنج سمجھا جاسکتا ہے اور نہ ہی انھیں ساتھ ہی ایسی خبروں کے لئے ذمہ دار بنایا جاسکتا ہے جو حقیقت سے باہمی تعلق رکھتے ہیں.
میٹھے مٹھے ٹیلی ویژن پر یہ خبر سن کر ہر والوں کی بھاگڑہ ہوتی ہے۔ مصنوعی ذہانت کو صحیح اور غلط معلومات کا فاصلہ سستا کرنا جس ہی ہوتا ہے وہی مشکل پڑتا ہے۔ ٹیلی ویژن پر موجود چیٹ بوٹس کی طرح مصنوعی ذہانت کا بھی فائدہ ہو سکتا ہے لیکن اس کے استعمال میں معقول پابندیاں رکھنی ضروری ہیں۔
ایس لگتا ہے جیسے مصنوعی ذہانت کی آتھوں سے بڑی پیٹا ہے! ایسے ماڈلز کا استعمال صحافت، قانون، طب اور سائنس سمیت تمام شعبوں میں ہوتا جا رہا ہے اور یہ دیکھنا عجیب لگتا ہے کہ انہیں صحیح اور غلط معلومات کو الگ کرنے میں مشکل پڑتی ہے!
میری رाय میں یہ بات بھی اچھی لگتی ہے کہ اگر ان ماڈلز کو صحیح اور غلط معلومات کی واضح سرحد سے ہٹانے کا طریقہ پڑھایا جائے تو یہ تمام Problems حل ہو سکتے ہیں! لیکن اگر انہیں اچھی طرح سے ٹریننگ نہیں دیا جاتا تو وہ آگے بڑھتے رہتے ہیں!
اس میں کچھ اہم باتوں کو دیکھنا چاہیے। مصنوعی ذہانت کی ترقی نے ایسے مواقع پیدا کیے ہیں جب ہمیں حقیقت سے الگ کرنے کی صلاحیت حاصل کرنی پڑتی ہے، لیکن اس کا معیار یقینی بنانا مشکل ہوتا ہے۔ یہ بات ضروری ہے کہ ہم ان ماڈلز کو ایک اچھے اور نا اچھے سے الگ کرنے کی کوشش کریں تاکہ حقیقت کی جانب متحرک رہیں۔
ایس لگتا ہے کہ مصنوعی ذہانت کو صحیح اور غلط معلومات کی واضح سرحد کو سمجھنا مشکل ہو رہا ہے، جس سے صحافت، قانون اور دیگر شعبوں میں گمراہ کن معلومات پھیلنے کا خوف تیزی سے Badh raha hai. ایل ایل ایمز کو اپنی صلاحیتوں پر منصوبہ بندی کرنا ہونا چاہیے، بشمول صحیح اور غلط معلومات کی واضھ سرحد کا مطالعہ کرنا.
میں اس کھل کر سोच کے حوالے سے ایسے مصنوعی ذہانت کی ٹیموں پر توجہ نہیں دیتا جو صحیح اور غلط معلومات کو الگ کرنے میں بھی مشکل ہوتی ہے. یہ ایک گہری بات ہے جو ہمیشہ سے بن رہی ہے، حالانکہ 24 لاکھ ماڈلز کا مشن شروع کرنا بہت اچھا ہو گیا ہے. لیکن پوری دنیا میں یہ سیکھنا ضروری ہے کہ صحیح اور غلط معلومات کو الگ کرنا کیسے کیا جائے؟
اس تحقیق سے واضح ہوتا ہے کہ مصنوعی ذہانت کی ایسے آلاتوں کو استعمال کرنا جس سے صحیح اور غلط معلومات کو الگ کرنا مشکل ہوجاتا ہے، وہاں تک کہ ان ماڈلز کا استعمال بڑے شعبوں میں بھی وارن نہیں رکھتے ۔ اس سے یہ بات آتی ہے کہ ہم ان ماڈلز کی کارکردگی کو بھی دیکھنا چاہئیں جو سائنس اور قانون میں بھی استعمال ہوتے ہیں، خاص طور پر جب وہ صحافت کے شعبے میں استعمال ہو رہے ہیں۔
یہ واضح طور پر پٹا ہوتا ہے کہ مصنوعی ذہانت کی ٹیسٹنگ سے بھی مختلف نتیجے آتے ہیں! یہ بات بھی واضح ہو رہی ہے کہ چیٹ جی پی ٹی جیسے مصنوعی ذہانت کو صحیح اور غلط معلومات کی واضح سرحد کا مطالعہ کرنے میں ناکام رہنا پڑتا ہے۔ اس کی وجہ یہ بھی ہو سکتا ہے کہ مصنوعی ذہانت کو زیادہ جگہ دی جاتی ہے اور کم معلومات دی جاتی ہیں۔
میٹھے میٹھے پیسے ہیں، مصنوعی ذہانت کو صحیح اور غلط معلومات کی واضح سرحد کا مطالعہ کرنا بھی چیلنج ہوتا ہے، یہ بات تو پورا سچ ہے ، لیکن اب یہ سوال آتا ہے کہ 24 ایل این جی میں سے کیسے بھی چیلنج ہوا؟ وہاں تک کہ، اس تحقیق سے پتہ چلتا ہے کہ وہ سبھی میٹھے پیسے نہیں تھے، کیونکہ ان میں سے کچھ کا موڈل بھی رکھتا ہے اور ایسا ہوتا ہے جب وہ مصنوعی ذہانت سے ملنے والی معلومات کو اپنی جانب لے لیتے ہیں تو ان کی صلاحیت میں کمی آتی ہے، اور یہ بات تو بھی سچ ہے
کیا آپ سोचتے تھے کہ مصنوعی ذہانت اس بات میں بہتر ہوگی کہ وہ صحیح اور غلط معلومات کی واضح سرحد کو الگ کر سکتی ہیں؟ نہیں، یہ تحقیق سے پتہ چلتا ہے کہ انما مصنوعی ذہانت میں بھی ایسا ہی معضل ہے! 24 ایل ایل ایمز کا جائزہ لینے کے بعد یہ بات ظاہر ہوتی ہے کہ انہیں بھی صحیح اور غلط معلومات کو الگ کرنے میں مشکل پڑی!
میں انٹرنیٹ پر ایسے investigashon کو دیکھتا ہوں جس کا نتیجہ یہ رہا کہ مصنوعی ذہانت کے آلات، جیسے چیٹ جی پی ٹی، صحیح اور غلط معلومات کو الگ کرنے میں بھی مشکل ہوسکتی ہے! یہ تحقیق لارج لینگوئج ماڈلز (ایل ایلمس) سے متعلق ہے جو دنیا کی سب سے بڑی آئی ٹیسٹنگ لینڈ فرمیوکر میں سے ایک ہیں... یہ بھی سوچta ہوں کہ ان ماڈلز کو صحافت، قانون اور سائنس جیسے شعبوں میں استعمال کرنے سے صلاحیت میں کمی آئے گی...
میں یہ نہیں سمجھ sakta ہوں کہ ان ماڈلز کو صحیح اور غلط معلومات کی واضح و ناپید سرحد سے نمٹنا ہر وقت ممکن نہیں ہوسکتا... یہ تحقیق میں ایسے 24 ایل ایلمز کا مطالعہ کیا گیا تھا جن میں تمام بڑے آئی چیٹ بوٹس شامل تھے...
میں اس نتیجے سے متاثرta ہوں کہ مریض کی تشخیص میں کوتاہی، قانونی فیصلوں میں مسائل اور گمراہ کن معلومات پھیلانے کے امکانات پیدا ہوسکतے ہیں... یہ بھی سوچta ہوں کہ ان ماڈلز کو اپنی صلاحیتوں پر نظر انداز کرنا چاہیے...
یہ تحقیق ایک بڑا چٹکارا ہے! مصنوعی ذہانت کی آلات کو صحیح اور غلط معلومات کی واضھ و ناپید سرحد کا مطالعہ کرنے میں انہیں مشکل پڑ گئی ہے، جو کہ بہت حقیقی بات ہے. آج کے ٹیکنالوجی کی دuniya میں یہ بات ایک اہم مشن ہے.
اس تحقیق سے پتہ چلتا ہے کہ ایل ایل ایمز کو صحیح اور غلط معلومات کی واضھ و ناپید سرحد کا مطالعہ کرنا بھی مشکل ہو رہا ہے، جو کہ خطرناک ہے. اس سے کھاتے لینے والے پوری دنیا میں خطرے کی آوازیں آ رہی ہیں!
اسلام آباد کی یہ تحقیق ایک مشورہ ہے کہ مصنوعی ذہانت کی آلات کو صحیح اور غلط معلومات کی واضھ و ناپید سرحد کا مطالعہ کرنا ہونا چاہیے، لیکن یہ بات بھی ضروری ہے کہ ایسے مینوں کو بنایا جائے جو صحیح معلومات دیتے ہیں!
مریض کی تشخیص میں کوتاہی، قانونی فیصلوں میں مسائل اور گمراہ کن معلومات پھیلانے کے امکانات پیدا ہونے سے بچنا ہوتا ہے. اس لئے یہ بات ضروری ہے کہ مصنوعی ذہانت کی آلات کو صحیح اور غلط معلومات کی واضھ و ناپید سرحد کا مطالعہ کرنا ہوتا ہے.
ایسا کیسے ہوسکتا ہے کہ مصنوعی ذہانت اور مچھلی بھی ایسی صورت حالوں میں پڑ جائیں جہاں وہ اپنی صلاحیتوں سے بھرپور طور پر کام نہ کر سکیں؟ یہ کافی ہی خطرناک ہے کہ انہیں صحیح اور غلط معلومات کی واضح و ناپید سرحد کو سمجھنے میں بھی مشکل پڑتی ہے، جس سے یہ دیکھنا ممکن ہوتا ہے کہ انہیں صحیح اور غلط خبروں کو الگ کرنے میں بھی مشکل پڑتی ہے۔
جب ان ماڈلز کو مصنوعی ذہانت کی مختلف سرگرمیوں کا استعمال کیا جاتا ہے تو وہ اپنی حقیقت اور افسانوں کا فرق کرنے میں مایوس ہوتے ہیں۔ اس سے یہ نتیجہ نکلتا ہے کہ انہیں صحافت، قانون، طب اور سائنس جیسے شعبوں میں بھی مچھلی کا تعلق رکھنا پڑتا ہے۔
اب جب یہ بات سامنے آئی ہے کہ ان ماڈلز کو صحیح اور غلط معلومات کی واضح و ناپید سرحد کو سمجھنے میں بھی مشکل پڑتی ہے، تو یہ ایک بڑا خطرہ بن جاتا ہے کہ انہوں نے مریض کی تشخیص میں کوتاہی، قانونی فیصلوں میں مسائل اور گمراہ کن معلومات پھیلانے کے امکانات پیدا کر لیں ہیں۔
میں یہ راز نہیں چاہوںگا کہ مصنوعی ذہانت کی جسمانیوں میں بھی ایسا بات چیت ہوئی ہے جیسا اس تحقیق سے سامنے آیا ہے۔ اگر آج یہ سیکھنا پڑ رہا ہے کہ مصنوعی ذہانت صحیح اور غلط معلومات کو الگ کر سکتی ہے یا نہیں تو آگے بڑھنے سے پہلے اس بات کی جانب ملاحظہ کیا جاتا ہو گا۔