ایپل آئی فون ایکس علاوہ چین کے چہرے، رقم کی واپسی کو نہیں بتایا جا سکتا

$config[ads_kvadrat] not found

توم وجيري Øلقات كاملة 2018 الكرة توم توم وجيري بالعربي1

توم وجيري Øلقات كاملة 2018 الكرة توم توم وجيري بالعربي1
Anonim

گزشتہ ہفتے، نانجنگ میں، چین کے مشرق میں ایک اہم شہر، یان کے نام سے ایک خاتون نے دو بار اپنی ایپل آئی فون ایکس کے لئے واپسی کی پیشکش کی تھی، جس کے اس کے ساتھی نے چہرے کی شناخت ٹیکنالوجی کا استعمال کیا. دونوں خواتین اخلاقی طور پر چینی ہیں.

یان مقامی خبروں کو بتایا کہ پہلی بار یہ ہوا، اس نے آئی فون ہاٹ لائن کو بلایا، لیکن انہوں نے اس پر یقین نہیں کیا. ایسا نہیں تھا جب تک وہ اور اس کا ساتھی ایک مقامی ایپل اسٹور پر چلا گیا اور اس اسٹور کا عملہ دکھایا کہ انہوں نے اسے رقم کی واپسی کی پیشکش کی ہے اور اس نے ایک نیا فون خریدا تھا، شاید یہ سوچیں کہ ممکنہ طور پر ناقص کیمرے کو الزام لگایا جارہا تھا.

لیکن دوسرا فون ایک ہی مسئلہ تھا، یہ بتاتے ہوئے کہ یہ ایک ناقص کیمرے نہیں تھا، جیسا کہ اسٹور کے کارکنوں نے تجویز کی تھی، لیکن خود سافٹ ویئر کے ساتھ ایک مسئلہ.

یہ پہلا مقدمہ نہیں ہوگا جس میں چہرے کی شناخت کے سافٹ ویئر اور اس کے پیچھے اے اے، غیر سفید چہرہ کو تسلیم کرنے میں مصیبت پائی جاتی ہے.

2015 میں، Google تصاویر نے حادثے سے دو افریقی-امریکیوں کی تصویر کو گوریلس کے طور پر ٹیگ کیا، جبکہ 2009 میں، ایچ پی کمپیوٹرز http://www.youtube.com/watch؟v=t4DT3tQqgRM) نے سیاہ چہرے کو تسلیم کرنے اور ٹریک کرنے میں مصیبت کی تھی - لیکن سفید چہرے کے ساتھ کوئی مسئلہ نہیں. اسی سال، نیکن کے کیمرہ سافٹ ویئر جھٹکانے کے طور پر ایشیائی چہرے کو غلطی سے پکڑا گیا تھا.

گوگل تصاویر، آپ کو گڑیا. میرا دوست ایک گوریلا نہیں ہے. pic.twitter.com/SMkMCsNVX4

- جکی (jackyalcine) جون 29، 2015

مائیکروسافٹ کے مائیکل مائیکروسافٹ اور سوسائٹی وائٹ ہاؤس کے سمپوزیم کے سوسائٹی اور ای. ای. کے چیئرمین کیٹ کرروفورٹ، کیت کرروفورڈ، "یہ بنیادی طور پر ایک ڈیٹا مسئلہ ہے." "بعض تصاویر کو کھلایا جا رہا ہے الارگتھوٹس، اکثر انجینئرز کے ذریعہ منتخب کیا جاتا ہے، اور نظام ان تصاویر پر مبنی دنیا کا ایک ماڈل بنا دیتا ہے. اگر کسی نظام کو لوگوں کی تصاویر پر تربیت دی جاتی ہے جو زیادہ تر سفید ہوتے ہیں تو اس کے ساتھ ہی غیر معمولی چہرے کو تسلیم کرنا مشکل وقت ہوگا."

اس بات پر اتفاق کیا جاکی الکلین، بروکولن کی بنیاد پر پروگرامر جس کی تصویر گوگل کی طرف سے غلط تھا. ان کے تجربے میں انہوں نے کہا، "یہ سیاہ لوگوں کی صحیح اور زیادہ مکمل درجہ بندی سے بچا جاسکتا ہے."

لیکن نسل پرستی جو AI میں کوڈت ہے، یہاں تک کہ اگر یہ غیر معمولی نہیں ہے، اس کے چہرے کو صرف تسلیم کرنے سے بھی زیادہ اثرات ہیں.

2016 ء میں پروپوزلیا کی ایک تحقیقات پایا گیا تھا کہ سیاہ مجرموں کو دو مرتبہ ہونے کی امکان تھی غلطی سے سفید مجرموں کے مقابلے میں جرائم کا دوبارہ رد عمل کرنے کے امکان کے طور پر پرچم لگایا گیا ہے، جبکہ "پیشن گوئی پولیس" میں اضافہ کے مطابق جرائم اور براہ راست پولیس وسائل کی پیشن گوئی کرنے کے لئے الگورتھم استعمال ہوتا ہے.

ابھی تک اقلیتی کمیونٹی تاریخی طور پر زیادہ سے زیادہ پولیس کی حیثیت سے ہیں، یہ ممکن ہے کہ "یہ سافٹ ویئر پہلے سے ہی شیطانی سائیکل پر عملدرآمد خطرے سے آگاہ ہو".

واپس نانجنگ، چین میں، یان نے اپنے دوسرے آئی فون ایکس پر ایک دوسرے کی واپسی کی. مقامی خبروں کی رپورٹوں سے، یہ واضح نہیں ہے کہ اس نے پھر تیسرا خریدا تھا.

کیا خیال تھا، اس بار، شاید ایک ہی صارف ہے. لیکن یان کا کیس دماغ میں تنوع اور انفرادیت کے ساتھ ڈیزائن کرنے کے لئے ٹیکنالوجی کی صنعت کی مسلسل ضرورت کی ایک مثال تھی.

$config[ads_kvadrat] not found