یہ روبوٹ نے جان لیا ہے کہ کس طرح انسانی مطالبات کو 'نہیں' کہتے ہیں

$config[ads_kvadrat] not found

‫Ù...اÙ...ا جابت بيبي جنى Ù...قداد اناشيد طيور الجنة‬‎

‫Ù...اÙ...ا جابت بيبي جنى Ù...قداد اناشيد طيور الجنة‬‎
Anonim

انسانوں کی طرح، روبوٹ، جب "نہیں." ​​کہنا سیکھنا پڑتا ہے تو اگر کوئی درخواست ناممکن ہو تو نقصان پہنچ جائے گا، یا ہاتھ سے کام سے مشغول ہوجائے گا، پھر یہ ایک 'بوٹ اور ان کے انسانی الیکشن کے بہترین مفاد میں ہے. ایک سفارتی کے لئے نہیں شکریہ بات چیت کا حصہ بننا.

لیکن مشین کب واپس آسکتی ہے؟ اور کیا حالات کے تحت؟ انجینئرز یہ جاننے کی کوشش کررہے ہیں کہ کس طرح اور انسانی عوامل میں احکامات کو روکنے کے اس احساس کو کیسے انسٹال کرنا ہے.

دیکھو یہ نوو روبوٹ آگے چلنے سے انکار کرتے ہیں، جانتے ہیں کہ ایسا کرنے سے وہ ایک میز کے کنارے گر جائے گا.

سادہ چیزیں، لیکن یقینی طور پر انسانی غلطی پر ایک چیک کے طور پر کام کرنے کے لئے ضروری ہے. محققین گورڈن برگسس اور ٹفٹس یونیورسٹی کے متٹیس سکیوٹز نے ایک پیچیدہ الگورتھم تیار کی جس نے روبوٹ کو یہ اندازہ کرنے کی اجازت دی کہ انسان نے ان سے کیا کرنے کے لئے کہا ہے، فیصلہ کرنا چاہے کہ وہ کیا کریں یا مناسب طریقے سے جواب دیں. تحقیق مصنوعی انٹیلی جنس کے فروغ کے لئے ایسوسی ایشن کی ایک حالیہ اجلاس میں پیش کیا گیا تھا.

روبوٹ اپنے آپ سے متعلق سوالات کا سلسلہ پوچھتا ہے کہ آیا کام قابل ہو سکتا ہے. کیا میں جانتا ہوں کہ یہ کس طرح کرنا ہے؟ کیا میں جسمانی طور پر اب ایسا کرنے میں کامیاب ہوں؟ کیا میں عام طور پر جسمانی طور پر ایسا کرنے میں کامیاب ہوں؟ کیا میں ابھی ایسا کرنے میں کامیاب ہوں؟ کیا میں اپنے سماجی کردار کی بنیاد پر اس کے ذمہ دار ہوں؟ کیا یہ کسی بھی معمولی اصول کی خلاف ورزی کرتا ہے؟

نتیجہ ایک روبوٹ ہے جو ظاہر ہوتا ہے نہ صرف سمجھدار بلکہ ایک دن بھی سمجھدار ہے.

نوٹ کریں کہ نانو نے اس کو پکڑنے کے لئے انسانی وعدوں کے بعد آگے چلنے کے بارے میں اپنے دماغ کو تبدیل کیا. یہ ایک مختلف منظر کا تصور کرنا آسان ہے، جہاں روبوٹ کا کہنا ہے کہ، "کوئی راستہ نہیں، میں آپ کو کیوں پر اعتماد کرنا چاہئے؟"

لیکن نوو ڈیزائن کی طرف سے ایک سماجی مخلوق ہے. انسانوں کو اس کے ڈی این اے میں خوش کرنے کے لئے، لہذا اس معلومات کو دی جاسکتا ہے کہ انسان اس کو پکڑنے کا ارادہ رکھتا ہے، وہ آنکھ سے آگے بڑھا جاتا ہے. یقینا، اگر انسان اپنے اعتماد کو دھوکہ دینے کے لئے تھے، تو وہ چھٹکارا ہو گا، لیکن وہ ہمیشہ بھی اعتبار کرتا ہے. یہ نوو کا راستہ ہے.

جیسا کہ روبوٹ کے ساتھیوں کو زیادہ بہتر بنایا جاتا ہے، روبوٹ انجنیئر ان سوالات کے ساتھ نمٹنے کے لئے جا رہے ہیں. روبوٹ کے فیصلوں کو نہ صرف ان کی اپنی حفاظت کو برقرار رکھنے پر، بلکہ بڑے اخلاقی سوالات پر کرنا پڑے گا. کیا ہوگا اگر انسان کسی روبوٹ کو قتل کرنے سے پوچھتا ہے؟ دھوکہ دہی کے لئے؟ دوسرے روبوٹ کو تباہ کرنے کے لئے؟

مشین اخلاقیات کا خیال مصنوعی انٹیلی جنس سے الگ نہیں کیا جاسکتا ہے - یہاں تک کہ مستقبل کے ہمارے ڈرائیور کاروں کو بھی ہماری جانب سے زندگی یا موت کے انتخاب کے لئے انجنیئر کرنا ہوگا. اس بات چیت کو صرف مارچ کو آرڈر کرنے کے حکم سے زیادہ پیچیدہ ہو جائے گا.

$config[ads_kvadrat] not found