کیا خود مختار ہتھیار غیر قانونی حکموں کو "نہیں" کہتے ہیں؟

$config[ads_kvadrat] not found

Nonstop 2021 - Ú Ú Ú ÒA Ú Ú Ú Ú Ú ÒA - Nhạc Bay Phòng - Nonstop Vinahouse 2021

Nonstop 2021 - Ú Ú Ú ÒA Ú Ú Ú Ú Ú ÒA - Nhạc Bay Phòng - Nonstop Vinahouse 2021
Anonim

بنوارار محمد نظارہ آپریٹنگ ٹیبل پر بے حد بے نظیر تھا جب اس کی چھت اس پر گر گئی تھی. چار کے والد ہسپتال میں چلے گئے تھے جسے پچھلے دن ٹانگ میں گولی مار دی گئی تھی، اور ان کی دوسری کارروائی میں دو دن بعد ان کی چوٹ کو ٹھیک کرنے کے لئے گزر رہا تھا. جب امریکی عمارت کو تباہ کرنے لگے تو، اس پر کام کرنے والے ڈاکٹروں کا کوئی اختیار نہیں تھا بلکہ ان کے ساتھ ہی تیزی سے فرار ہوگئے تھے.

اینڈریو قاضی خارجہ پالیسی بینارز کی زندگی اور موت کی کہانیاں ایک مضمون میں بتاتی ہیں جس میں آپریٹنگ ٹیبل پر ملبے میں شامل ہونے والے اس کے جسم کی تصویر بھی شامل ہے. افغانستان کے کندز، افغانستان میں 2 اکتوبر کو بیڈنار نے 31 افراد کو ہلاک کر دیا جس میں اس نے مارے جانے والے ڈاکٹروں کے بغیر ہسپتال (ایم ایس ایف بھی کہا) بھیجا.

ہائی پروفائل کے بعد، اعلی شہریوں کے زخمی ہونے والے حملوں، سیاست دانوں اور پنڈتوں سے یہ پوچھا جاتا ہے کہ ایسی چیز کیسے ہو سکتی ہے، اور یہ یقینی بنایا جا سکے کہ یہ دوبارہ نہیں ہوتا. خود مختار ہتھیاروں کے نظام کے حامیوں کے درمیان، کبھی کبھی "قاتل روبوٹ" کہا جاتا ہے، ایک مقبول دلیل یہ ہے کہ انسانی غلطی (یا نرس) وارثی کے دوران انجام دینے والے جرائم کی ایک بڑی ڈگری کے لئے ذمہ دار ہے. یہ نظریاتی طور پر ممکن ہے، وہ کہتے ہیں کہ، روبوٹ ان کے ھدف میں زیادہ عین مطابق ہوسکتے ہیں، اور انسانوں کے مقابلے میں غلطیوں کی وجہ سے کم ہوسکتا ہے.

امریکی بحریہ وار کالج کے ایک پروفیسر مائیکل این Schmitt لکھتے ہیں "حقیقت میں، انسانی فیصلے کم قابل اعتماد ثابت ہو سکتا ہے تو جنگ کی گرمی میں تکنیکی اشارے." "جو لوگ ایمان لائے ہیں وہ جنگ کے دھندے کا تجربہ نہیں کرتے ہیں."

افغانستان میں ایم ایس ایف کے ہسپتال پر امریکی ایئر ہڑتال 'بنیادی طور پر انسانی غلطی کی وجہ سے' کی وجہ سے http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

ٹیلی گراف نیوز (@ ٹیل گراف نیوز) 25 نومبر، 2015

سوال، تو کیا ہے: کیا آپ کندوز کے ہسپتال بمباری ناممکن، یا کم از کم کم امکان کی طرح حملوں کے لئے انسانی رویے کو روکنے کے لئے جنگ کے اوزار کو پروگرام کرسکتے ہیں؟

شاید نہیں - کم سے کم مستقبل کے قریب. لیکن کچھ مصنوعی انٹیلی جنس پروگرامرز نے روبوٹ ڈیزائن کیا ہے جو انسانوں کو نہیں کہہ سکتا. تجربے کا ڈیزائن آسان ہے: انسان کو ایک میز سے آگے چلنے کے لئے ایک روبوٹ بتاتا ہے، جس میں ابتدائی طور پر روبوٹ کرنا ہے. جب انسان روبوٹ کو بتاتا ہے تو وہ اسے پکڑ لے گا، روبوٹ کو حکم قبول کرتا ہے.

یہ ایک خود مختار حملہ ہیلی کاپٹر ہے جس سے اس کے انسانی عملے کو بتایا گیا ہے کہ یہ ایک ہسپتال کے خلاف ایک فضائی حملے نہیں کرسکتا کیونکہ یہ جنگ کا جرم ہوگا، لیکن بنیادی حیثیت یہ ہے کہ وہ بنیادی طور پر اسی طرح کی ہے. جیسا کہ دوسروں نے نشاندہی کی ہے، روبوٹ میں اس طرح کی بہتری کی ترقی کے بارے میں انسانی تشویش سائنس فکشن میں عام ہے - لگتا ہے کہ HAL-9000 لگتا ہے کہ "میں ایسا نہیں کر سکتا، ڈیو" جب وہ خلائی سٹیشن سے باہر انسان کو تال کرتا ہے. 2001: ایک خلائی اوڈیسی.

قندوز کے ہڑتال کی تفصیلات کے مطابق، حملے کے ارد گرد بہت سے حقائق متفق ہیں. ایم ایس ایف نے ایک آزاد تحقیقات کا مطالبہ کیا ہے، جسے ریاستہائے متحدہ امریکہ کی مخالفت کرتے ہیں، اس کی بجائے اپنے جائزے کو پورا کرنے کا وعدہ کرتے ہیں.

ایک امریکی تحقیقات کے کچھ حصوں کو اس مہینے کے آغاز میں عوام کو عام بنایا گیا، اور ہڑتال کے لئے ذمہ دار انسانی اور میکانی غلطیوں کو مل گیا. لیکن اس ہفتے کے شروع میں، رپورٹ کے نتائج کے خلاف دو سروس کے اراکین سامنے آئے. وہ کہتے ہیں کہ ہڑتال غلطی نہیں تھی. ان کی اکاؤنٹنگ میں، سب سے پہلے کی طرف سے اطلاع دی اے پی ، امریکی خصوصی آپریشنز ہڑتال نے ہڑتال میں بلایا کیونکہ اس کے باوجود ہسپتال کو طالبان کمانڈ اور کنٹرول سینٹر کے طور پر استعمال کیا جا رہا تھا.

سرکاری ورژن میں، ایک میکانی ناکامی AC-130 گن شپ کے عملے کو ابتدائی طور پر خالی فیلڈ کے لئے سمبھالنے کے عملے کی قیادت کی. اس عملے نے اس علاقے میں ایک عمارت کی تلاش کی جو جسمانی تشریح پیش کی گئی تھی، اور آگ کھول دی. جب ان کے وسائل دوبارہ بحال ہوئے تو انہوں نے عملے کو ان کے ہدف کے لئے صحیح سمت دیئے تھے، لیکن عملے نے ہسپتال میں بھی آگ لگائے.

اگر یہ اکاؤنٹ سچ ہے - یہ کمپیوٹر بالآخر درست تھا اور انسان نے اسے نظر انداز کیا - یہ ہتھیار کے نظام میں زیادہ خودمختاری کے حامیوں کے لئے کچھ جھوٹ دیتا ہے. اس نے کہا، دہشت گردی کے خلاف امریکی جنگ فوجی یا سی آئی اے کی مثالوں سے "صحیح" ہدف کو مارا اور اس کے باوجود بہت سے شہریوں کو ہلاک کر دیا. آٹومیشن برا انٹیلی جنس کو حل نہیں کرے گا، اور اخلاقیات کے قریب ہونے والے پروگرام کی کوششوں کو جنگی جرائم کا خاتمہ نہیں کرے گا.

امریکہ میں جنگجوؤں کو مضبوط کرنے کے لئے ایک مضبوط آزمائش ہے، اور آٹومیشن، نقصانات سے امریکیوں کو ہٹانے کے ذریعے، یہ جنگ کی انتہائی تعریف کو تبدیل کرنے کے قابل ہے. ڈرون حملوں اور اس کے ساتھ ساتھ یقین دہانی کرانے کے لئے اوباما کی ترجیح ہے کہ ڈرونوں نے کبھی پیدا کردہ سب سے زیادہ درست ہتھیار ہیں ان مقاصد کا واضح اظہار. اوبامہ نے 2012 میں ایک 2012 پھانسی میں کہا کہ "وہ القاعدہ اور ان کے ملحقہوں کے خلاف عین مطابق، صحت سے متعلق حملوں کا شکار ہیں."

تاہم، 2013 حکومت کا مطالعہ ان دعویوں کا مقابلہ کرتا ہے. اس سے پتہ چلتا ہے کہ افغانستان میں ڈرون حملوں کے نتیجے میں غیر ملکی گاڑیوں کے طور پر 10 گنا زیادہ شہریوں کی موت کی وجہ سے ہے. مطالعہ کے شریک مصنف سارہ ہولیوسکی نے بتایا کہ "ڈرون لڑاکا جیٹوں کے مقابلے میں شہریوں سے بچنے میں جادو سے بہتر نہیں ہیں." سرپرست. "جب پائلٹس پرواز کرتے ہیں تو شہری شہریوں پر واضح ہدایات اور تربیت دی جاتی ہے، وہ شہری شہری مصیبت کی شرح کو کم کرنے میں کامیاب تھے."

فوج انسانی روبوٹ ٹیم سازی کے نظام کو فروغ دینے پر لاکھوں خرچ کر رہا ہے، اس کے علاوہ منڈوا یا غیر معزز ہتھیاروں کے ذریعے مشن کے درمیان لائنوں کو دھندلا لگا. ڈپٹی ڈیفنس سیکرٹری باب ورک نے ڈاٹ ڈی سی سائنس بلاگ کے حوالے سے کہا کہ "ہم انسان سازی کے خلاف لڑائی کی ٹیم پر کیا کرنا چاہتے ہیں، اگلے درجے میں لے جانا چاہتے ہیں. "کیا ایک غیر 35 فیملی ونگ مین کے ساتھ جنگ ​​میں جا سکتا ہے؟"

کیا ان ونگانڈروں کا کہنا ہے کہ اگر انسان پائلٹ انہیں حکم دیتا ہے کہ میز کو چلنے کے لئے موزوں ہو؟ ہسپتال یا اسکول کو تباہ کرنے کے لئے کیا حکم ہے؟ جنگ کا دھند کسی بھی صورت میں لاگو کرنے جا رہا ہے. اور اگر ہم مشینیں اوورائڈ کرنے کا ارادہ رکھتے ہیں تو، "انسانی غلطی" لفظ مستقبل کے تنازعات میں زیادہ خوفناک شرائط میں سے ایک ہوں گے.

$config[ads_kvadrat] not found