AI انسانوں سے سمجھوتہ میں بہتر ہے، نیا مطالعہ ملتا ہے

$config[ads_kvadrat] not found

سكس نار Video

سكس نار Video
Anonim

چلو اس کا سامنا. جب سے مصنوعی انٹیلی جنس سب سے پہلے خواب دیکھا گیا تو، انسان اس دن سے خوفزدگی سے ڈرتے ہیں کہ ہمارا ایئر بالاخود ختم ہوگیا ہے. لیکن کچھ محققین مصنوعی انٹیلی جنس کی صلاحیت کی جانچ پڑتال نہیں کررہے ہیں مقابلہ انسانیت کے ساتھ، بلکہ یہ بھی ہے تعاون.

جمعرات کو شائع کردہ ایک مطالعہ میں فطرت مواصلات BYU کمپیوٹر سائنس پروفیسرز کی ایک ٹیم، یعقوب Crandall اور مائیکل Goodrich، ایم ٹی او دیگر یونیورسٹیوں میں ساتھیوں کے ساتھ، مشینوں کے تعاون اور سمجھوتہ کرنے کے لئے ایک الگورتھم پیدا.

محققین نے مشینوں کو ایس # نامی ایک الگورتھم کے ساتھ پروگرام کیا اور انہیں مختلف کھیلوں - مشین مشین، انسانی مشین، اور انسانی انسان کے ساتھ کئی کھیلوں کے ذریعے بھاگ لیا. یہ ٹیسٹ کرنے کے لئے جس کا جوڑا سب سے زیادہ معاہدے کا نتیجہ تھا. مشینیں (یا کم از کم جنہوں نے ایس # کے ساتھ پروگرام کیا)، یہ پتہ چلتا ہے، انسانوں سے سمجھوتہ میں بہت بہتر ہے.

لیکن یہ شاید "انسانی ناکامیاں" کے بارے میں کہیں گے، لیڈ محقق جیکب Crandall بتاتا ہے اندرونی. "ہمارے انسانی شرکاء نے بے بنیاد ہونے کا رجحان تھا - وہ تعاون کے تعلقات اور بدقسمتی کے درمیان خرابی کریں گے - ہمارے شرکاء میں سے تقریبا نصف نے ان کے تجاویز پر عمل نہیں کیا تھا - اس بات پر بات چیت میں."

دوسری مشینیں ایماندار تھے. "یہ خاص الگورتھم سیکھ رہا ہے کہ اخلاقی خصوصیات اچھے ہیں. کرینڈل کہتے ہیں، "یہ جھوٹ نہیں لگایا گیا ہے، اور یہ بھی تعاون کے بعد سیکھنے کے بعد سیکھتا ہے."

اس کے علاوہ، تحقیق سے پتہ چلتا ہے کہ بعض تعاون کی حکمت عملی دوسروں کے مقابلے میں زیادہ مؤثر تھے. ان میں سے ایک "سستے بات" تھا، سادہ زبانی سگنل جو ایک ایسی صورت حال کا جواب دیتے ہیں جیسے "میٹھی. ہم امیر ہو رہے ہیں! "یا" میں آپ کی آخری تجویز قبول کرتا ہوں. "یا، ناخوشگوار اظہار کرنے کے لئے،" آپ لعنت کریں! "" آپ اس کے لئے ادائیگی کریں گے "یا" آپ کے چہرے میں!"

اس سے قطع نظر کہ کس قسم کا کھیل کھیلا گیا تھا یا کون کھیل رہا تھا، سستے بات نے تعاون کی مقدار کو دوگنا دیا. اس نے مشینوں کو بھی انسانیت دی ہے، جس کے ساتھ انسانی کھلاڑیوں کو اکثر یہ بتانے میں قاصر ہیں کہ وہ مشین یا انسان کے ساتھ بات چیت کر رہے تھے.

کیونکہ اس تحقیق کا مرکز S # الگورتھم کی جانچ پڑتال کی گئی تھی، تحقیق کا ایک کم از کم یہ ہے کہ یہ انسانوں کے درمیان ثقافتی اختلافات کو سنبھالنے میں نہیں رکھتا ہے جو اس بات پر اثر انداز کر سکتا ہے کہ کس طرح مختلف انسانی آبادی سستے بات کی طرح حکمت عملی کا استعمال کرتے ہیں یا اس کی تشریح کرسکتے ہیں. بہت سارے انسانی کھلاڑیوں کو دھوکہ دہی یا بے چینیی میں ملوث ہوسکتا ہے.

بظاہر، اسحاق عاصیموف کی مشہور کتاب 1 9 50 کتاب کی آخری مختصر داستان میں میں، روبوٹ - "مناسب تنازعہ" - اے اے اے اوائلڈورڈ اصل میں کرتے ہیں، سیارے پر لے جاتے ہیں. لیکن، کیونکہ وہ بہت موزوں ہیں، اور کچھ ناگزیر اخلاقی قواعد کے ساتھ پروگرام، انسانی نسل کے لئے یہ ایک اچھی چیز ہے. اور، جیسا کہ اس مطالعہ سے ظاہر ہوتا ہے، کیونکہ انسانی بات چیت گندا اور پیچیدہ ہے، شاید، ہم مشینیں پر اعتماد کر سکتے ہیں. کورس کا فرض، اگر وہ ایمانداری کے لئے پروگرام کر رہے ہیں.

خلاصہ:

چونکہ ایلن ٹھنچر کو مصنوعی ذہنی انٹیلجنٹ کے بعد، صفر کے اختتام پر (مثال کے طور پر، شطرنج، پوکر، یا جانے) میں انسانوں کو شکست دینے کی صلاحیت سے تکنیکی ترقی اکثر ماپا گئی ہے. نظریات کو کم توجہ دیا گیا ہے جس میں انسانی مشیر تعاون فائدہ مند ہے لیکن غیر معمولی، اس طرح کے نظریات جیسے انسانی اور مشین کی ترجیحات کو مکمل طور پر تنازعات میں مکمل طور پر متفق نہیں کیا جاتا ہے. معاہدے کو سراسر مطابقت پذیر طاقت کی ضرورت نہیں ہے، لیکن اس کے بجائے انضمام، ثقافتی معیارات، جذبات، سگنلوں اور پری سے تیار شدہ موافقت کی طرف سے سہولت فراہم کی جاتی ہے. یہاں، ہم ایک الگورتھم تیار کرتے ہیں جو سگنلنگ کے لئے میکانیزم کے ساتھ ریاستی آرکیفائمنٹ سیکھنے کے الگورتھم کو جوڑتا ہے. ہم یہ بتاتے ہیں کہ یہ الگورتھم لوگوں اور دیگر الگورتھم کے ساتھ تعاون کرسکتے ہیں جو مختلف قسم کے دو کھلاڑیوں میں انسانی تعاون کے حامی ہیں. یہ نتائج سے پتہ چلتا ہے کہ عام انسانی مشین تعاون غیر غیر معمولی، لیکن بالآخر سادہ، الگورتھممی میکانزم کا استعمال کرتے ہوئے قابل حاصل ہے.

$config[ads_kvadrat] not found