یہ A.I. کی طرف سے روبوٹ Apocalypse کو روکنے کے. اخلاقیات کا سوال

$config[ads_kvadrat] not found

دس فنی لمØات جس ميں لوگوں Ú©ÛŒ کيسے دوڑيں لگتی ہيں ™,999 فنی

دس فنی لمØات جس ميں لوگوں Ú©ÛŒ کيسے دوڑيں لگتی ہيں ™,999 فنی
Anonim

ایک اخلاقی روبوٹکس کا سوال ہے اور مصنوعی انٹیلی جنس کے لئے پیش قدمی کے لۓ اس کا جواب دینا ضروری ہے.

ذرا تصور کریں کہ ایک روبوٹ کے کنٹرول میں ایک روبوٹ ہے اور یہ سمجھتا ہے کہ چار انسانی معدنیوں سے بھرا ہوا ایک ٹوکری ہے جو کنٹرول سے باہر نکلتا ہے. روبوٹ پٹریوں کو منتقل کرنے اور ایک بے چینی معدنیات کو مارنے کا انتخاب کرسکتا ہے، اس طرح چاروں کی ٹوکری میں بچانے کے لئے، یا پٹریوں کے طور پر وہ رہیں اور چار کھنڈروں کی دیواروں میں چلنے اور مرنے کی اجازت دیتے ہیں. آپ کونسی انتخاب کریں گے؟ کیا آپ کا جواب بدل جائے گا اگر ایک معدنی بجائے بچہ تھا؟ اگر ہم اس کا جواب نہیں دے سکتے ہیں، ہم اس فیصلے کو کیسے بنانے کے لئے روبوٹ پروگرام کرتے ہیں؟

وہ نیو یارک شہر میں ورلڈ سائنس کے فیسٹیول کے موقع پر پینلسٹسٹ اور ناظرین سے متعلق سوالات تھے "روبوٹ کے اخلاقی ریاضی: کیا زندگی اور موت کے فیصلے کو کوڈڈ کیا جا سکتا ہے؟" زیادہ سے زیادہ کا انتخاب ایک منر کی طرف کی ٹوکری کو ہدایت اور شخص کو تبدیل کرنے کا انتخاب کرتا ہے. ایک بچے نے بہت سے جواب دہندگان کے دماغ کو تبدیل نہیں کیا، لیکن یہ متفق نہیں تھا اور انسانی اخلاقی فیصلے اکثر نہیں ہیں.

یہ ایک مصنوعی مثال تھی جسے انسانیت انسانیت مصنوعی ذہنیت کے طور پر سامنا کرے گی، اور ہم اخلاقیات کے ساتھ پروگرامنگ روبوٹ کے امکان سے نمٹنے کے لئے تیار ہیں.

NYU اور سی ای او اور جیٹیٹک انٹیلیجنس انکارپوریٹڈ کے شریک بانی میں نفسیاتی اور نیچرل سائنس کے ایک پروفیسر پینلسٹری گری مارکس نے کہا کہ "نقصان کی طرح ایک تصور مشکل ہے،" انہوں نے کہا کہ انصاف کی نظریات ایک کٹ اور خشک نہیں ہے. پروگرام کا جواب دیتے ہیں اور ہم اس وقت عاصیموف کے قوانین سے باہر روبوٹ کے لئے اخلاقیات کا ایک اچھا مجموعہ نہیں رکھتے ہیں، جس میں فلموں میں شامل تھے. iRobot.

انہوں نے کہا کہ اس کا مقصد پینل میں شامل ہونے کا موقع تھا، اس بارے میں بات چیت شروع کرنے کے لئے کہ ہم روبوٹ اخلاقیات کو کیسے حل کرنا چاہتے ہیں.

اس ہفتے ایلون مسک نے مصنوعی انٹیلی جنس کے بارے میں ان کی فکر پر تبادلہ خیال کیا، جہاں تک ہم سب کچھ ایسے تخروپن میں رہتے ہیں جیسے کہ یہ بتاتے ہیں کہ میٹرکس اور یہ کہ انسانوں کو نیند لیس میں سرمایہ کاری کرنا چاہئے جو دماغ سے منسلک کرے گی اور انسانی سنجیدگی کی صلاحیتوں میں اضافہ کرے گا. دیگر فیوچرسٹ جیسے سٹیفن ہاککنگ نے اے آئی کے خطرات سے آگاہ کیا ہے. اور اس ہفتے میٹ ڈومن نے ایم آئی ای میں ان کے آغاز کے دوران ہی اس کا احتیاط کیا.

دیگر نظریات میں عسکریت پسندانہ خودمختار ہتھیاروں کا نظام بھی شامل تھا اور ہم کس طرح جنگجوؤں پر اخلاقی اور فلسفیانہ طور پر ان انسانی فیصلوں سے نمٹنے کے ساتھ ساتھ اس فیصلوں کو خود مختار کاروں کو نہ ہی دور دور مستقبل میں بنانے کے لۓ ہیں.

آئندہ پینلسٹس اس بات پر کوئی اتفاق نہیں کرتے تھے، لیکن کہا کہ آئی. یہ ونڈو کو باہر نہیں نکالنا چاہئے کیونکہ یہ سوال مشکل ہیں. انہوں نے ان قسموں کے اخلاقی ذہنی شافٹ کے سوالوں کے بارے میں مزید گفتگو کرنے کی تجویز کی اور شاید ہم روبوٹ اپوسیپ کی روک تھام کے قریب ملیں گے.

$config[ads_kvadrat] not found