ہمارا ماضی میں پالیسی پھنس گئی ہے

$config[ads_kvadrat] not found

الØلقة العشرون من مسلسل ÙŠØيا انجلو ÙŠØيا انجلو Øلقات جدÙ

الØلقة العشرون من مسلسل ÙŠØيا انجلو ÙŠØيا انجلو Øلقات جدÙ
Anonim

وائٹ ہاؤس آف آف سائنس آف سائنس اور ٹیکنالوجی کی پالیسی کے لئے ڈپٹی امریکی چیف ٹیکنیکل آفیسر ایڈ فیلفن کہتے ہیں کہ مصنوعی انٹیلی جنس کی ترقی اور ترقی کے لئے انسانوں کو دو اہم ذمہ داریاں ہیں.

پہلا کہنا ہے کہ، "ای. ایک حقیقت. "دوسرا:" A.I. کے خطرات کو حل کرنے کے لئے"

فیلٹ نیویارک یونیورسٹی کے سکرک بال سینٹرل ایگزیکٹو آرٹس میں لوگوں کے کمرے میں بات کر رہا تھا. اب - وائٹ ہاؤس کی طرف سے سپانسر ایک موسم گرما کے لیکچر سیریز، جس نے اے آئی کے مستقبل سے متعلق اہم مسائل کی جانچ پڑتال کی اور ان پر تبادلہ خیال کیا. ٹیکنالوجی.

A.I. ایک کرومیٹس میں ہے، اے. اب کیک کرورفورڈ (مائیکروسافٹ ریسرچ میں ایک محقق) اور مرڈتھ ویٹیکر (بانی اور گوگل اوپن ریسرچ کے لیڈر) نے نشاندہی کی. ذاتی اور عوامی شعبوں کو کسی ممکنہ ممکنہ بنانے کے لئے مل کر کام کرنے کی ضرورت ہے. پالیسی. لیکن مسئلہ یہ ہے کہ جب تک ٹیک کمپنیوں کو حقیقی کوڈ اور فن تعمیر کی ترقی کے لئے زبردست راستہ بنائے جا رہے ہیں جو A. ایک طاقتور طاقت، ہمارے موجودہ پالیسی کے ڈھانچے کو ختم ہو چکا ہے یا بدتر، غیر موجود.

بہت طویل عرصے سے، ای. ایک جدید تصور کے طور پر ایک طرف پھینک دیا گیا ہے، جدید عمر کے قابل نہیں. لیکن اے. خاموش طور پر خود کو شہری پالیسی میں ظاہر کیا گیا ہے، اعداد و شمار کے بوجھ اور لوگوں کو خدمات انجام دینے کے ذریعہ راستے میں لے کر صرف انسانی طاقت ہمیشہ تک پہنچنے میں ناکام ہے. فیلٹ کے حوالے سے مثالیں مثال کے طور پر الگورتھمز کو لوگوں کو سستی ہاؤسنگ سے منسلک کرنے کے لئے ڈیٹا استعمال کرسکتے ہیں، یا شفافیت کو نافذ کرنے کیلئے عوام کو قابل قدر معلومات تک رسائی حاصل ہے.

یہ کہنا نہیں ہے اے. کامل ہے یہ بہت زیادہ ہے نہیں. شام کے مرکزی پینل کے دوران، لیٹن سوینئی، ایک. ہارورڈ یونیورسٹی میں محقق نے ایک کہانی پر گفتگو کی جس پر انہوں نے کہا، "دن میرا کمپیوٹر غیر ملکی تھا."

ایک رپورٹر نے سوائن نے گوگل کے ذریعہ اپنا نام تلاش کیا اور دریافت کیا کہ اس کا نام مجرمانہ گرفتاری کے اعداد و شمار کو جمع کرنے اور جمع کرنے کی پیشکش کرنے والے سائٹس کے اشتہارات کے تحت پاپ رہا تھا. سوینکی کو کبھی گرفتار نہیں کیا گیا تھا، اور اس کا نام ویب سائٹ کے ڈیٹا بیس کا بھی حصہ نہیں تھا - اس کے باوجود اس کا نام اشتہار میں تیزی سے پھینک دیا گیا تھا. ہر اچھے سائنسدان کی طرح، سوین نے اپنا ذاتی تجربہ لیا اور ایک مطالعہ میں حصہ لیا اور پتہ چلا کہ ان اشتھارات کو سفید افراد کے مقابلے میں سیاہ افراد کے ناموں کی فہرست میں نمایاں ہونے کا امکان بہت زیادہ تھا. وجہ؟ Google کے ان اشتھارات کی ترسیل ایک الگورتھم کا نتیجہ ہے جس میں اشتھارات شائع ہونے پر انسانوں پر کلک کیا جا سکتا ہے. جب ایک سیاہ نام Googled تھا، زیادہ سے زیادہ لوگوں کو ان اشتھارات پر کلک کیا. نظام نے پیٹرن سیکھا اور ان اشتھارات کو زیادہ تعدد میں تقسیم کرنے کا آغاز کیا.

اے کے وعدے کو مضبوط کرنے کے لئے یہ ایک قیمتی سبق ہے. انسانوں کو بالآخر ٹیکنالوجی کی طاقت، اور انسانوں کے خلاف نسل پرستی کے اعمال ڈیزائن اور الگورتھم کو متاثر کر سکتے ہیں اور ہاں، یہاں تک کہ A.I.

گوگل ان کی اشتہاری خدمات میں ان کی تعصب کو آسانی سے تلاش کر سکتا ہے اور انہیں درست کرنے کے لئے کام کر سکتا ہے. سوین نے بحث کی.

کیا ایک اور جدید پالیسی کا فریم ورک Google کو اس مسئلہ کو بہتر بنانے کے لئے مجبور کرتا ہے؟ شاید. نیکول وونگ، جو 2013 سے 2014 تک فیلٹ کے سابقہ ​​سابقہ ​​تھے، نے زور دیا کہ ای. خود محققین - "طاقت میں عدم توازن پیدا کرنے والے افراد" کے بارے میں ایک حقیقی تشویش تھا جو بڑے اعداد و شمار اور لوگوں کو جو بالآخر اثر انداز کر رہے ہیں، جو اعداد و شمار کے مضامین، یا اس طرح کے ڈیٹا کی طرف سے مطلع فیصلے سے متاثر ہونے والوں سے تعلق رکھنے والے افراد کے درمیان ہے..

یہ خدشات صرف نجی شعبے تک محدود نہیں ہیں. وائٹ ہاؤس کے گھریلو پالیسی کونسل میں صدر کے ڈیوڈ اسسٹنٹ رائے آسٹن نے اس بات کا اشارہ کیا کہ قانون نافذ کرنے والے اداروں کو کس طرح بہتر بنایا جا سکتا ہے. - جب شہریوں کی رازداری کی بات ہوتی ہے یا طاقت اور بدعنوانوں میں بڑے پیمانے پر اضافے کی بناء پر پیدا کرتی ہے. "سوال ہو جاتا ہے، 'ہم اس ڈیٹا کے ساتھ کیا کریں؟' 'انہوں نے کہا. اعداد و شمار کے لئے یہ ایک چیز ہے، لیکن اس کے پاس کون تک رسائی ہے؟ کب تک؟ اسے کون تک رسائی ملے گی؟ ایک بار پھر، ہمارے پاس ان سوالات اور غیر یقینی صورتحالوں کی پالیسی کا جواب یا حل نہیں ہے - اور یہ مشکل ہے کہ ہم مستقبل کے حوالے سے بیرون ملک مقیم ہیں.

تشویش کا تیسرا ستون، ای. ای کے غیر استعمال شدہ استعمال کے ساتھ کم کرنے کے لئے کم تھا، اور اس کے ساتھ کیا کرنا. اور خودمختاری نظام انسانوں کو ملازمتوں سے الگ کررہے ہیں. ہینری سی، ایک. برٹش کولمبیا یونیورسٹی کے محقق نے "معمول" قبضے پر تبادلہ خیال کیا (جہاں ملازمتوں کے کاموں کا ایک مخصوص سیٹ ہے جو تقریبا ایک مقررہ معمول سے الگ نہیں رہتا ہے)، اور ان کاموں کا نقصان کس طرح ٹیکنالوجی میں رکاوٹوں سے زیادہ خطرناک ہے. آٹومیشن نے ان ملازمتوں میں جراحی کا خاتمہ کیا ہے - اور وہ واپس نہیں آ رہے ہیں.

صنعتیization کی ایک پرانی کہانی کی طرح آواز، لیکن یہ کافی نہیں ہے. جبکہ "یہ انقلاب یہاں پہلے ہی ہوسکتی ہے …" اقتصادی اور اقتصادی اور ٹیکنالوجی کی پالیسی کے صدر کے لئے خصوصی اسسٹنٹ ڈیوڈ ایڈیلمن نے احتیاط سے کہا کہ یہ ہم سے کم غیر ملکی ہوسکتا ہے. ملازمت کا خاتمہ "سب کچھ ایک ہی وقت میں نہیں ہوگا." انہوں نے اور سیو دونوں پر زور دیا کہ حل ایک تعلیمی آب و ہوا تخلیق کرنا ہے جہاں لوگوں کو اسکول جانے سے روکنے کی ضرورت نہیں ہے. کے ساتھ ٹیکنالوجی.

یہ پالیسی سازوں کو یہ تسلیم کر سکتا ہے کہ امریکہ ان مسئلے سے نمٹنے میں واحد نہیں ہے. لیکن اگر امریکہ ای آئی کے لئے راہ کی قیادت جاری رکھنا چاہتا ہے، تو اسے پالیسی کے میدان میں قدم اٹھانا پڑتا ہے.

Google DeepMind کے cofounder مصطفی سلیمان نے ای. کے لئے ممکنہ گفتگو پر تبادلہ خیال کیا. صحت کی دیکھ بھال کے نظام کی مدد کرنے کے لئے اور مشینیں الگورتھم پر ڈاکٹروں کو تشخیص کرنے کے لئے بعض بیماریوں اور بیماریوں کو اجازت دینے کے لئے - انسانوں کے علاج کے طریقوں کے ساتھ آنے کے لئے وقت اٹھانا. سلیمان کے لئے، جو برتانوی ہیں، اس طرح ہسپتالوں کے اندر اندر اس طرح کی ایک نظام کو حاصل کرنے کے لئے ایک وسیع خیال کی طرح محسوس نہیں کیا. سوائن نے اس بات کی نشاندہی کی کہ "امریکہ میں، آپ کو اپنے اپنے اعداد و شمار پر کنٹرول نہیں ہے" - اس بات کو یقینی بنانے کے لئے کوئی انتظامی اقدامات نہیں ہیں کہ معلومات کے ساتھ زیادتی نہ ہو. اور یہ ایک ہے بہت بڑا مسئلہ

سوینئی نے کہا، "میں سب کچھ چاہتا ہوں کہ میں ٹیکنالوجی کے ہر کامیابی سے باہر نکل سکتا ہوں." "مسئلہ ٹیکنالوجی کی طرف نہیں ہے؛ مسئلہ یہ ہے کہ ہم عوامی پالیسی کے ساتھ رفتار سے باہر ہیں."

$config[ads_kvadrat] not found