مصنوعی ذہا نت کی ترقی کے ساتھ اس کی اخلاقیات کا تعین بھی ضروری
انسان کی ایجاد کردہ مشین انسانوں پر ہی حاوی نہیں ہونا چاہیے
مصطفی عاشور
ترجمہ: روید خان فلاحی
ریسرچ اسکالر، ادارہ تحقیق و تصنیف اسلامی، علی گڑھ
آرٹیفیشل انٹیلیجنس یعنی مصنوعی ذہانت کی ترقی اور انسانی سماج میں اس کا بڑھتا ہوا رجحان، عام زندگیوں میں اس کے عمل دخل اور فیصلہ سازی میں بڑھتے ہوئے اثرات کی وجہ سے معاشرے میں کئی اخلاقی مسائل ابھر کر سامنے آرہے ہیں۔ گزشتہ پندرہ برسوں کے دوران انسانوں نے AI پر حیران کن اور تیز رفتاری کے ساتھ انحصار کیا ہے جس کی وجہ سے ایک ایسے اخلاقی نظام کی ضرورت سامنے آئی ہے جو اس کی نگرانی کرے تاکہ انسانیت اس کے بُرے اثرات سے اپنے آپ کو محفوظ رکھ سکے، جو انسانی جذبات اور اعلی انسانی قدروں سے خالی اور ایجاد شدہ مشینی اشارے کے تابع ہے۔
بین الاقوامی اعداد و شمار بتاتے ہیں کہ 2023 میں AI، بشمول سافٹ ویئر، ہارڈ ویئر، اور روبوٹس پر اس سال تقریباً 154 بلین ڈالر خرچ ہوں گے جو کہ 2022 کے مقابلے میں 9.24 فیصد زیادہ ہے۔ ان اخراجات اور سرگرمیوں کا تقریباً نصف حصہ United State کا ہے۔ اسی طرح AI کا انسانی اور صنعتی سرگرمیوں کے انضمام میں بھی اضافہ کے امکانات ہیں جو کہ 2024 تک تقریبا 300 بلین ڈالر سے تجاوز کر سکتا ہے، جس کا مطلب یہ ہے کہ انسانیت کو اس میدان میں ایک خوفناک سرمایہ کاری کی توسیع کا سامنا ہے۔ اس کشادگی کی قیمت انسانیت کو چکانی ہے، اسی وجہ سے یہ ضروری ہے کہ اخلاقی پہلو سے اس پر غور و فکر کیا جائے۔
مصنوعی ذہانت کا اخلاقی ضابطہ:
آرٹیفیشل انٹیلیجنس کی اخلاقیات اس حیثیت سے متعارف ہیں کہ یہ ان اخلاقی اور تکنیکی اصولوں کا مجموعہ ہیں جن کا مقصد ٹیکنالوجی کے تئیں مطلوبہ ذمہ داری ادا کرنا ہے۔ اس کے ذریعے ان stakeholders کو بنیادی اصولوں کا پابند بنایا جاتا ہے جو AI کو رخ دینے میں اہم کردار ادا کرتے ہیں تاکہ ان کے فیصلے اخلاقی دائرے میں رہ کر ہی ہوں۔
آج سے سات دہائیوں قبل IsaacAsimov نے روبوٹک دنیا پر حکمرانی کے اصولوں کا ایک مجموعہ تیار کیا تھا جسے اس وقت روبوٹک کے قوانین ثلاثہ یاقوانین Asimov کا نام دیا گیا تھا۔ یہ مفروضہ اس نے 1942 میں اپنے ناول Runaround میں پیش کیا تھا اور بعد میں ان کی مختصر کہانیوں کا مجموعہ ’’میں ایک انسانی مشین ہوں‘‘ میں شائع ہوا تھا۔ وہ قوانین ثلاثہ یہ ہیں: (۱) روبوٹ کو یہ حق حاصل نہیں ہے کہ وہ کسی انسان کو تکلیف دے یا کام میں کوتاہی کے ذریعہ کسی انسان کو ضرر پہنچائے۔
(۲) روبوٹ کو انسانوں کی اطاعت کا حکم دیا جائے گا۔
(۳) روبوٹ کی ذمہ داری یہ بھی ہے کہ وہ خود اپنی حفاظت کرے اور اکثر و بیشتر اس کا تعلق پہلے دو اصولوں کی پیروی سے ہوتا ہے۔
اس نظریہ کے آنے کے بعد سے یہ بات تسلیم کرلی گئی ہے کہ روبوٹس اور AI کو انسانی کنٹرول میں ہونا چاہیے اور اخلاقی نظام کے تحت مشین سے کام لیا جائے نیز یہ کہ سابقہ قوانین کی موجودگی سے مشین کو متوقع غلطیوں سے بچایا جاسکتا ہے۔ بہت سے سائنس دانوں اور مفکرین نے AI کے خطرات کے خلاف اخلاقی تحفظات قائم کرنے کی کوشش کی ہے۔ Massachusetts Institute Of Technology کے پروفیسر Max Tegmark نے پیشن گوئی کی تھی کہ عین ممکن ہے کہ انسانوں پر AI کا آمرانہ کنٹرول ہو جائے، لہذا انہوں نے سائنس دانوں کے ایک گروپ کے ساتھ AI کے اخلاقی رہنما خطوط تیار کرنے کے لیے ایک میٹنگ بلائی اور 23 اصول تیار کیے، جنہیں ”اسیلومار اصول“ کہا جاتا ہے۔ ان میں سے چند یہ ہیں: ہر طرح کے جھول سے پاک، احساس ذمہ داری، قوموں کے فوائد کا پاس و لحاظ، لوگوں کی پرائیویسی کا خیال، مشترکہ خوشحالی، روبوٹ پر انسانی کنٹرول، ملکوں میں جاری جنگ میں روبوٹ کے استعمال سے گریز، مشترکہ بھلائی یعنی وسیع پیمانے پر مشترکہ اخلاقی نظریات کی خدمت اور کسی ایک ریاست یا تنظیم کے بجائے پوری انسانیت کا فائدہ۔
اسی طرح ہندوستانی اسکالر امیت رائے نے اپنی کتاب ’آرٹیفیشل انٹیلیجنس کا اخلاقی نظام‘ میں 21 اخلاقی اصول وضع کیے ہیں، جن کے ذریعے انہوں نے AI کے ایک ایسے نظام کی تعمیر کی کوشش کی ہے جو لوگوں کے لیے اخلاقی اور سماجی طور پر فائدہ مند ہو۔ ان کا خیال ہے کہ بنیادی انسانی حقوق کا انکار، مضبوط اور کمزور کے درمیان تفریق اور کسی مخصوص گروہ کی خدمت کے لیے قوانین کی تشکیل سے موجودہ معاشرے کی اقدار کی جڑیں کھوکھلی ہو جاتی ہیں۔
غیر اخلاقی ریس
جرمن فلسفی Thomas Metzinger نے AIکے میدان میں ہتھیاروں کے مہلک رویے کے بارے میں خبردار کیا ہے، الّا یہ کہ اس دوڑ کے لیے ایک بین الاقوامی اخلاقی ضابطے کی تشکیل عمل میں آجائے تاکہ AI کا استعمال مخصوص گروہوں کے لیے نہ ہو اور اس پر کسی دوسرے عناصر کا تسلط نہ ہو، کیونکہ یہ حقیقت ہے کہ جو ڈیٹا کنٹرول کرتا ہے اسی کا AI پر بھی قبضہ ہو جاتا ہے۔ لہذا اس پس منظر میں ایک اخلاقی ضابطہ کا وجود ضروری ہے۔
دراصل AI انسانوں کی طرف سے ڈیزائن کی گئی ایک ٹیکنالوجی ہے جس کے اندر مختلف صلاحیتیں رکھی گئی ہیں مثلاً قوت یادداشت، بازیافت کرنا، درست جواب فراہم کرنا، انتھک نگرانی کرنا، انتھک محنت کرنا، بھولنے کی بیماری اور جذبات کے دھارا میں بہہ جانے سے دور رہنا۔ ان تمام صلاحیتوں میں AI انسانوں کو پیچھے چھوڑ سکتی ہے، لیکن اس کے ساتھ دوسری حقیقت کی طرف توجہ دینا بھی ضروری ہے، وہ یہ کہ AI اس پارٹی کی طرف جانب دار ہے جس نے اسے تخلیق کیا ہے، اسے ڈیٹا فراہم کیا اور اس کی پروگرامنگ کی۔ یہی وجہ ہے کہ AI کی ایجاد مکمل طور پر اخلاقی دائرہ کار کے اندر کی جاتی ہے اور پھر بعد کے مراحل میں کارکردگی کی انجام دہی بھی انہی اخلاقی اصولوں کے دائرے میں ہوتی ہے کہ AI کا انسانی ذات پر غلبہ نہ ہو کہ خود انسان ان مشینوں کے غلام بن جائے۔
اس سلسلے میں شائع ہونے والی ایک کتاب ’’AI کی اخلاقیات‘‘ ہے جو اخلاقیات اور فلسفے کے ماہر پروفیسر Matthew Liao کی تصنیف ہے۔ اس کتاب میں اس سوال کا جواب دینے کی کوشش کی گئی ہے کہ مشینوں کے لیے اخلاقی نظام اور خاکہ کیسے قائم کیا جائے اور مستقبل میں انسانوں کو AI کے خطرات سے کیسے بچایا جائے؟ خاص طور پر ایسے رشتوں میں روبوٹ سے کام لیتے وقت جو انسانیت کی پرائیویسی سے متعلق ہیں، جیسے ذاتی امور، جنسی تعلقات اور دیگر مسائل وغیرہ۔ لیکن یہ کتاب ایک پریشان کن حقیقت کا بھی اعتراف کرتی ہے کہ AI کے اخلاقی مضمرات کی بحث ابھی ابتدائی دور ہی میں ہے۔
شاید یہی بات پروفیسر Paula Boddington نے اپنی کتاب ’Towards a code of Ethics for Artificial Intelligence میں اپنی تحقیق میں کہی تھی کہ AI کے میدان میں اخلاقی نظام کیسے تشکیل دیا جائے اور AI کے ذریعے کیے گئے فیصلوں میں اخلاقی مسائل کو کس طرح ضم کیا جائے کہ یہ انسانی مرضی کے ماتحت رہے۔ انہوں نے ملازمتوں کے میدان میں AI کے فیصلوں کے اثرات کی مثالیں پیش کیں اور اس اہم مسئلہ کی طرف توجہ بھی دلائی کہ جب روبوٹس کے اندر تمام امور کو انجام دینے اور ہر مسئلہ کا حل ڈھونڈنے کی صلاحیت موجود ہے تو پھر یہ سوال بنتا ہے کہ دنیا میں انسانوں کی کیا قدرو قیمت ہے؟ کہیں ایسا تو نہیں ہے کہ انسان کائناتی اور وجودی کردار اور کاموں سے ہٹ جانے کے بعد فطرت پر بوجھ بن گیا ہے؟
فلسفیانہ اور اخلاقی گفتگو ہمیشہ طاقت اور تکبر کو روکنے کی کوشش کرتی ہے، لیکن وہ بہادر لوگ جو طاقت و قوت کے مالک ہوتے ہیں وہ اس طرز گفتگو پر بہت کم دھیان دیتے ہیں۔ اس طرح کے لوگ یہ دلیل پیش کرتے ہیں کہ اخلاقی ضابطہ کی رفتار AI کے میدان میں حیرت انگیز رفتار کا ساتھ نہیں دے سکے گی۔البتہ اخلاقی اقدار انسان کے ارد گرد فطرت کے اصولوں کی طرح پائیدار ہیں جن کے اندر AI پر اثر انداز ہونے کی صلاحیت موجود ہے۔
***
***
ہفت روزہ دعوت – شمارہ 12 نومبر تا 18 نومبر 2023