آئی ایس ڈی کے خلاف مشین سیکھنا کمزور کرنے والی کمانڈر کے کمانڈر فوجی زنجیروں کو

$config[ads_kvadrat] not found

الفضاء - علوم الفلك للقرن الØادي والعشرين

الفضاء - علوم الفلك للقرن الØادي والعشرين
Anonim

مائیکروسافٹ کے ٹویٹر روبوٹ ٹائی کے ساتھ انٹرنیٹ پر ہر ایک کا بہت اچھا وقت تھا جو چند گھنٹوں کے معاملات میں نسل پسند ہولوکاسٹ ڈینئر بن گیا (پھر پھر آ گیا اور اسے دوبارہ کیا). کمپنی نے عوامی تعلقات کی فلاپ پیدا کی تھی - آفت کے مقابلے میں زیادہ واقعات - عوام کو پیسہ دینے اور مشین سیکھنے کے مشق پر ایک اعتراض سبق دیتے ہوئے: رفتار پر دلچسپ اثرات نمونہ کر سکتے ہیں، لیکن نتائج کی پیشن گوئی کرنے کے لئے ممکنہ طور پر مشکل ہوسکتا ہے..

جیسا کہ اکثر معاملہ ہوتا ہے، فوج خود کار طریقے سے آٹومیشن ٹیکنالوجی کا اختیار کرتا ہے. یہ ہے - ایک بار - مشین سیکھنے کی طرف چارج چارج اور سختی کو برقرار رکھنے کی کوشش کر رہا ہے. پینٹاگون کے لئے توجہ مرکوز کے اہم علاقوں میں سے ایک خود مختار روبوٹ ہے اور وہ انسان کے ساتھ ٹیم کیسے کریں گے - مثال کے طور پر، R2D2 طرز طرز روبوٹ ونگ مین. لیکن اس ہفتے، دفاعی ڈپٹی سیکرٹری رابرٹ کام نے A.I کے لئے ایک اور کام کی وضاحت کی. کھلی منبع کے اعداد و شمار کی کمی.

سیکرٹری کام کے مطابق، ہم بالکل یقین رکھتے ہیں کہ گہری سیکھنے والی مشینیں استعمال کرتے ہوئے ہمیں اس نیٹ ورک کے طور پر آئی ایس آئی ایل کی بہتر تفہیم کرنے کی اجازت دی جا رہی ہے اور اس کے بارے میں اس بات کو بہتر بنانے کے بارے میں بہتر سمجھا جائے گا. ڈاٹ ڈی کی ویب سائٹ. اس اکاؤنٹ کے مطابق، کام، جو اس کی طرف سے منظم ایک تقریب میں بات کر رہا تھا واشنگٹن پوسٹ سلیکن ویلی ٹیک کمپنی کی دیکھ بھال کرتے ہوئے ان کی فضائی افواج نے "ایک مشین جس میں ٹویٹر، انسٹرامام اور اعداد و شمار کے اعداد و شمار میں جولائی میں 2014 ملائیشیا ایئر لائنز کو حقیقی وقت میں پرواز کرنے کے لۓ اعداد و شمار میں لے لیا ہے."

نجی کمپنیاں اور قانون نافذ کرنے والے ایک طویل وقت کے لئے "بڑے اعداد و شمار" کے احساس بنانے کی کوشش کر رہے ہیں. لیکن فوج کا فائدہ ہے: وسائل. اس کے علاوہ، انہیں درجہ بندی کے مواد تک رسائی ملی ہے.

امریکی حکومت اس بات کا یقین کرنے کے لئے تیار ہے کہ سافٹ ویئر الگورتھموں کو اعداد وشمار کے وسیع پیمانے پر اعداد و شمار کے ذریعہ ترتیب دے سکتے ہیں تاکہ آئی ایس آئی کے اہداف کی شناخت کی جاسکیں جس سے دوسری صورت میں ان کی وضاحت کی جائے گی، اور منصوبہ سازوں کو ان سے پہلے لے جانے سے پہلے پلاٹ کا پتہ لگانے اور ان کو روکنے کے لۓ. حکومت پہلے سے ہی سوشل میڈیا کا مطالعہ کرنے کی کوشش کر رہی ہے آن لائن احتجاج کے سائز کا اندازہ کریں. کوئی سوال نہیں ہے کہ مشین سیکھنے کو انٹیلی جنس تجزیہ کاروں کو دنیا میں دستیاب معلومات کی مالیت کا احساس بنانے کے لئے طاقت بڑھتی جارہی ہے. لیکن جب اس انٹیلی جنس کو اس بنیاد پر بناتا ہے جس پر ایک مہلک ہڑتال کی جاتی ہے، اخلاقی مسائل زیادہ پیچیدہ ہو جاتے ہیں، یہاں تک کہ اگر وہ براہ راست نظر آتے ہیں.

اگرچہ کام فوری طور پر یہ ثابت ہوتا تھا کہ پینٹاگون "ایک مشین پر مہلک اختیار کا نمائندگی نہیں کرے گا،" جو آخر تک کھیل رہا ہے. اسی دوران، انسانوں کو "لوپ میں" کے طور پر رہنا پڑے گا. لیکن ونڈو کے سامنے کھڑا ہونے پر کسی نے کسی موسم کی رپورٹ کے لئے آئی فون کو دیکھا جیسا کہ، ہمارے آلات اور سوفٹ ویئر کے ساتھ تعلقات ہمارا آسان نہیں ہے. ہم دشواری سے باضابطہ طور پر ہیں اور آسانی سے UI کے مسائل کی طرف سے پریشان ہیں.

"خود کار طریقے سے تعصب،" انسانوں کے لئے مشینوں کو روکنے کے لئے رجحان، ایک واضح اور تیزی سے موجود خطرہ پیش کرتا ہے. اس رجحان کی وضاحت کرنے کے لئے جانے والی مثال یہ ہے کہ آپ کا فون آپ کو ٹریول کا راستہ لینے کے لۓ بتاتا ہے جسے آپ جانتے ہیں غلط ہے لیکن آپ یہ بھی کرتے ہیں کہ فون کا پتہ چلتا ہے کہ آپ کچھ نہیں کرتے. یہ غیر فوجی مقاصد میں ایک عام مسئلہ ہے. کیا پنٹاگون بھی قریب قریب چل رہا ہے، تاہم، مصنوعی انٹیلی جنس کی طرف سے مشتمل دھمکی کی رپورٹ ہے. ہمیں اس پروگرام کے ممکنہ افادیت کے بارے میں کچھ نہیں معلوم ہے کہ اس کے علاوہ انسانوں کو لاگو کرنا مشکل ہوگا.

2001 میں ایک طالب علم اور پیشہ ورانہ پائلٹ اور آٹومیشن کی تعصب دیکھتے ہوئے، محققین نے پتہ چلا کہ "ان حالات میں جس میں صحیح معلومات دستیاب تھی اور آٹومیشن انملیوں کا پتہ لگانے کے لئے دستیاب تھا، دونوں کی آبادی میں 55 فیصد کے قریب غلطی کی شرح درج کی جاتی تھی." مطالعہ بھی ایک اضافی انسانی ٹیم نے مزید کہا کہ مسئلہ کو کم نہیں کیا.

اسی طرح، گزشتہ سال سے MIT مطالعہ کسی حد تک پریشان کن محسوس ہوتا ہے کہ کمپیوٹر اور ویڈیو گیم کے کھلاڑیوں نے "زیادہ سے زیادہ آٹومیشن کے لئے زیادہ سے زیادہ اثرات مرتب کیے ہیں." ​​اس کا یہ مطلب یہ ہے کہ ہم اس وقت اس وقت سے کہیں گے کہ ہم اپنے پردے پر گھومنے لگۓ زیادہ وقت لگے ہیں. ایک بار پھر، مسئلہ اس نظام کے ساتھ نہیں ہے جو ہم استعمال کرتے ہیں، لیکن جس طرح ہم ان کو استعمال کرتے ہیں. غلطی ہمارے ستارے میں نہیں ہے، لیکن خود میں.

بڑے اعداد و شمار وعدہ رہتا ہے. مشین سیکھنے کا وعدہ ہوتا ہے. لیکن جب مشینیں انسانوں کو مشورہ دیتے ہیں تو نتائج کا امکان غیر متوقع ہے. کیا نی نو نازی غلط فہمی میں طے کی تبدیلی کا مطلب یہ ہے کہ ٹویٹر یہودیوں اور خواتین سے نفرت کرتا ہے؟ جاننا مشکل ہے، لیکن کافی امکان نہیں. جب ہم اس عمل سے نہیں سمجھتے ہیں کہ کس طرح ان پٹ آؤٹ پٹ بن جاتے ہیں، ہم نتائج کے ساتھ ایک منطقی راہ میں نمٹنے کے لئے جدوجہد کرتے ہیں. جس میں پنٹاگون ایک دلچسپ مقام رکھتا ہے. کیا لوگ فوجی کی مشینی سافٹ ویئر پروگرام کرنے کے لئے پرواز کرنے کے لئے جا رہے ہیں؟ ایسا نہیں ہے کہ کمانڈر کا سلسلہ کس طرح کام کرتا ہے، لیکن کمانڈر کی زنجیروں کو جب تکلیف دہ ہو جاتی ہے تو اس سے تنگ نہیں ہوتا.

$config[ads_kvadrat] not found