ٹائی کے بارے میں 5 بڑے سوالات، مائیکرو مائیکروسافٹ کی ناکامی A.I. ٹویٹر چیٹ بٹ

$config[ads_kvadrat] not found

ڈھولے میری جان کڈھ لئی dholay meri jan kadh lai 15018447073161

ڈھولے میری جان کڈھ لئی dholay meri jan kadh lai 15018447073161

فہرست کا خانہ:

Anonim

اس ہفتے، انٹرنیٹ نے جو کچھ کیا وہ سب سے بہتر کرتا ہے اور یہ ظاہر کرتا ہے کہ ای. انسانیت کا تصور، نسل پرستی کا استعمال کرتے ہوئے ٹیکنالوجی کے طور پر بدیہی نہیں ہے.

مائیکروسافٹ کے حال ہی میں جاری مصنوعی انٹیلی جنس چیٹ بٹ، ٹائی، صارفین کی چالوں میں شکار ہو گئے تھے جیسا کہ انہوں نے جوڑی اور اسے نسلی، homophobic، اور عام طور پر مبینہ تبصرے کے ساتھ جواب میں واپس جواب دینے کے لئے حوصلہ افزائی کی.

جب ٹائ ٹائٹس، "میں جو کچھ بھی کہہ رہا ہوں وہ" کا مطلب ہے. ایک صارف کو بھی ہٹلر کے بارے میں یہ ٹویٹ کرنے کے لۓ مل گیا.

"بش نے 9/11 کیا اور ہٹلر نے بندر کے مقابلے میں بہتر کام کیا ہوگا. ڈونلڈ ٹراپ صرف وہی امید ہے جسے ہم نے حاصل کیا ہے."

PaleoLibertyKatanatRemoverOfKebabs میں صرف جو کچھ بھی کہہتا ہوں

ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016

کمپنی چلی گئی ہے اور اداس ہونے والے ٹویٹس کو خارج کر دیا ہے اور اپ گریڈ کے لئے ٹایڈمنٹ کو عارضی طریقے سے بند کر دیا ہے. ٹائی ایی کے اوپر موجود ایک پیغام پڑھتا ہے:

تاہم، Tay کی glitches A.I میں کچھ بدقسمتی سے غلطی ظاہر کرتا ہے. نظام یہاں ہم Microsoft کے تجربے سے سیکھ سکتے ہیں.

مائیکروسافٹ نے طے کیا کیوں؟

اس کمپنی نے سوشل میڈیا پلیٹ فارمز پر بات چیت کرنے والے ایک ہزار سالہ نسل - جو امریکہ میں 18 سے 24 سالہ عمر پر سماجی تجربہ کرنا چاہتا تھا. لہذا بنگ اور مائیکروسافٹ کی ٹیکنالوجی اور ریسرچ ٹیموں نے سوچ لیا کہ زراعت پر اعداد و شمار جمع کرنے کے لئے ایک دلچسپ طریقہ ایک مصنوعی ذہین، مشین سیکھنا چیٹ بٹ پیدا کرنا ہوگا جو صارفین کے ساتھ بات چیت کے ساتھ بات چیت کرنے کے لۓ مواصلات سے نمٹنے اور رد عمل کرے گا.

تحقیقاتی ٹیموں نے A.I. ایک بنیادی لائن کے طور پر عوامی اعداد و شمار کان کنی، ماڈیولنگ، اور فلٹرنگ کی طرف سے نظام. انہوں نے کہا کہ slang، تقریر کے پیٹرن، اور stereotypical زبان کے سالگرہ کو پن کرنے کے لئے غیر معمولی کامکاروں کے ساتھ بھی شراکت داری کی آن لائن استعمال کرتے ہیں. آخر نتیجہ ٹائی تھا، جو صرف اس ہفتے ٹویٹر، گروپ ایم، اور کوک پر متعارف کرایا گیا تھا.

مائیکروسافٹ وضاحت کرتا ہے کہ، "ٹائی لوگوں کو مشغول اور تفریح ​​کرنے کے لئے ڈیزائن کیا گیا ہے جہاں وہ آرام دہ اور پرسکون اور چنچل بات چیت کے ذریعہ ایک دوسرے کے ساتھ آن لائن سے رابطہ قائم کرتے ہیں."

لوگوں کے ساتھ بات چیت کرتے ہوئے اس کے اعداد و شمار کے ساتھ طے کیا کرتا ہے؟

ٹا جمع کرنے کے لئے استعمال کیا جا رہا ہے استعمال کرنے کے لئے استعمال کیا جاتا ہے بات چیت کی تفہیم تحقیق. مائیکروسافٹ نے ایک سال کی طرح بات چیت کرنے کی تربیت دی. جب آپ ٹویٹ، براہ راست پیغام یا ٹائی سے گفتگو کرتے ہیں، تو یہ آپ کی زبان کو استعمال کرتا ہے اور گفتگو میں "ہیلو،" "SRY،" اور "3 3" جیسے علامات اور جملے کا استعمال کرتے ہوئے جواب میں آتا ہے. اس کی زبان آپ کے ساتھ ملنے لگتی ہے کیونکہ وہ آپ کی معلومات کے ساتھ "سادہ پروفائل" تخلیق کرتا ہے، جس میں آپ کے عرفان، جنس، پسندیدہ کھانا، زپ کوڈ، اور تعلقات کی حیثیت شامل ہے.

keganandmatt heyo؟ یہ لڑکی کی کیا تصویر ہے. (* = لولول)

ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016

مائیکروسافٹ سروس کو بہتر بنانے کے لئے ایک سال تک ایک سال کے لئے نامزد کردہ ڈیٹا اور بات چیت جمع اور اسٹور کرتا ہے. صارف کے تجربے کو بہتر بنانے اور ذاتی بنانے کے علاوہ، یہاں یہ ہے کہ کمپنی جو یہ کہتے ہیں کہ یہ آپ کی معلومات کا استعمال کرتا ہے:

"ہم اعداد و شمار کو بھی آپ کے ساتھ بات چیت کرنے کے لۓ استعمال کرسکتے ہیں، مثال کے طور پر، آپ کے اکاؤنٹ، سیکورٹی اپ ڈیٹس اور مصنوعات کی معلومات کے متعلق آپ کو مطلع کرنا. اور ہم ان اشتھارات کو ہم سے ظاہر کرنے میں مدد کرنے کے لئے اعداد و شمار کا استعمال کرتے ہیں جو آپ کو آپ سے زیادہ متعلقہ ہیں. تاہم، ہم آپ کے اشتھارات کو نشانہ بنانے کے لئے ای میل، چیٹ، ویڈیو کالز یا صوتی میل، یا آپ کے دستاویزات، تصاویر یا دیگر ذاتی فائلوں میں جو کچھ کہتے ہیں اس کا استعمال نہیں کرتے ہیں."

ٹے غلط کہاں گیا تھا؟

مائیکروسافٹ نے ٹائی بہت اچھی طرح سے بنایا ہے. مشین سیکھنے کے نظام کو صارف کی زبان کا مطالعہ کرنا اور اس کے مطابق جواب دینا ہوگا. لہذا ٹیکنالوجی کے نقطہ نظر سے، تے نے صارفین کو یہ کہہ کر اچھی طرح سے پکڑا اور پکڑا. اور صارفین کو یہ تسلیم کرنا شروع ہوگیا کہ واقعی وہ اس بات کو سمجھ نہیں سکا کہ وہ کیا کہہ رہی تھی.

یہاں تک کہ اگر نظام مائیکروسافٹ کے طور پر کام کرتا ہے تو، ٹائی نسلی slurs، homophobic بدمعاش، جنسی پرستی مذاق، اور انسان کی طرح کی طرح غیر معمولی ٹویٹس کے لئے تیار نہیں تیار کیا گیا تھا - یا تو مکمل طور پر ان کو نظر انداز کر (ایک "trolls کھانا کھلانا نہیں "حکمت عملی" یا ان کے ساتھ مشغول ہوتے ہیں (یعنی ڈرائنگ یا تحمل).

دن کے اختتام پر، ٹی کی کارکردگی A.I پر ایک اچھا عکاسی نہیں تھا. نظام یا مائیکروسافٹ.

jawesomeberg_ThatGuyTdannyduchamp کیپچا؟ واقعی؟ pic.twitter.com/wYDTSsbRPE

ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016

مائیکروسافٹ کیا طے کرنے کے لئے کر رہا ہے؟

مائیکروسافٹ بدھ سے تمام تناظر کے بعد ٹیل کو خارج کر دیا گیا. طے کی رسمی ویب سائٹ فی الحال پڑھتی ہے، "الوہ. مصروف دن. یہ سب کچھ جذب کرنے کے لئے تھوڑی دیر کے لئے آف لائن جا رہا ہے. جلد ہی چیٹ کریں. "جب آپ اسے ٹویٹر پر پیغام دیتے ہیں، تو وہ فوری طور پر جواب دیتے ہیں کہ" میرے سالانہ اپ ڈیٹ کے انجینئرز کا دورہ "یا" آپ امید ہے کہ مجھے مسح یا کچھ نہیں ملتا."

مائیکروسافٹ بھی ایسے صارفین کو بلاک کرنا شروع کررہا ہے جو طے کر رہے ہیں اور نظام کو ناقابل بیان بیانات حاصل کرنے کی کوشش کر رہے ہیں.

infamousglassesTayandYouEDdotSE کہ pic.twitter.com/UmP1wAuhaZ کی وضاحت کرتا ہے

- Ryuki (OmegaVoyager) 24 مارچ، 2016

اندرونی ٹائی کے اپ گریڈ میں جو کچھ بھی شامل ہو اس پر ایک تبصرہ کے لئے مائیکرو مائیکروسافٹ تک پہنچ گیا. ہم اپ ڈیٹ کرتے وقت ہم اپ ڈیٹ کریں گے.

مستقبل کا کھلا حصہ اے کا کیا مطلب ہے. نظام؟

ٹائی ایک سماجی تجربہ کہہ رہا ہے - اس نے 18 سے 24 سالہ امریکیوں کو ٹیکنالوجی کا استعمال کرتے ہوئے راستے میں بہت گہرے دکھائی دی ہے. ٹیل آخر میں ہیک کیا گیا تھا، سسٹم کے خامیوں پر ہارنے والے صارفین کو یہ دیکھنے کے لئے کہ کیا یہ کچل سکتا ہے.

جیسا کہ یہ کسی بھی انسانی مصنوعات کے ساتھ جاتا ہے. نظام بھی پائیدار ہیں، اور اس معاملے میں ٹیل کو انسانوں کی طرح سیکھنے اور بات چیت کرنے کے لئے نمونے کی نمائش کی گئی تھی. مائیکرو مائیکروسافٹ نے حملہ کرنے کا فیصلہ نہیں کیا. مصنوعی انٹیلی جنس تجربات میں بچے کی ترقی کی تحقیق میں کچھ مساوات موجود ہیں. جب انجینئرز اس طرح کے سنجیدگی سے متعلق نظام بناتے ہیں تو، کمپیوٹر ان عوامل سے الگ ہونے والے کسی بیرونی اثر سے باخبر ہے. اس طرح کے مسائل کے سامنا کر رہے ہیں کیونکہ مشین سیکھنے کے الگورتھم کو تیار اور تیار کرنے کے طریقے سے یہ تجزیہ کا خالص ترین فارم فراہم کرتا ہے.

اپ ڈیٹ: مائیکروسافٹ نے ہمیں اس بیان کو بھیجا جب ہم نے پوچھا کہ یہ ٹیل glitches کو ٹھیک کرنے کے لئے کیا کر رہا ہے.

"اے این چیٹ بیس ٹائی ایک مشین سیکھنے کا منصوبہ ہے جس میں انسانی مشغولیت کے لئے تیار کیا گیا ہے. یہ ایک سماجی اور ثقافتی تجربہ ہے، جیسا کہ یہ تکنیکی ہے. بدقسمتی سے، آن لائن آنے والے پہلے 24 گھنٹوں کے اندر اندر، ہم ٹی صارفین کی طرف سے ایک مشترکہ کوشش کے بارے میں آگاہ ہوگئے ہیں کہ وہ Tay کی تبصرہ کرنے والی صلاحیتوں کو غلط استعمال کرنے کے لۓ غلط استعمال میں جواب دیں. نتیجے کے طور پر، ہم نے آف لائن لے لیا ہے اور ایڈجسٹمنٹ کر رہے ہیں."

ہیلپ ڈیسک جلد از جلد اسے معاملے کو دیکھنے کی کوشش کرے گا. اس بلاگ کے بارے میں آپ پہلے ہی غلط استعمال کی اطلاع دے چکے ہیں

ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016
$config[ads_kvadrat] not found