ڈھولے میری جان کڈھ لئی dholay meri jan kadh lai 15018447073161
فہرست کا خانہ:
- مائیکروسافٹ نے طے کیا کیوں؟
- لوگوں کے ساتھ بات چیت کرتے ہوئے اس کے اعداد و شمار کے ساتھ طے کیا کرتا ہے؟
- ٹے غلط کہاں گیا تھا؟
- مائیکروسافٹ کیا طے کرنے کے لئے کر رہا ہے؟
- مستقبل کا کھلا حصہ اے کا کیا مطلب ہے. نظام؟
اس ہفتے، انٹرنیٹ نے جو کچھ کیا وہ سب سے بہتر کرتا ہے اور یہ ظاہر کرتا ہے کہ ای. انسانیت کا تصور، نسل پرستی کا استعمال کرتے ہوئے ٹیکنالوجی کے طور پر بدیہی نہیں ہے.
مائیکروسافٹ کے حال ہی میں جاری مصنوعی انٹیلی جنس چیٹ بٹ، ٹائی، صارفین کی چالوں میں شکار ہو گئے تھے جیسا کہ انہوں نے جوڑی اور اسے نسلی، homophobic، اور عام طور پر مبینہ تبصرے کے ساتھ جواب میں واپس جواب دینے کے لئے حوصلہ افزائی کی.
جب ٹائ ٹائٹس، "میں جو کچھ بھی کہہ رہا ہوں وہ" کا مطلب ہے. ایک صارف کو بھی ہٹلر کے بارے میں یہ ٹویٹ کرنے کے لۓ مل گیا.
"بش نے 9/11 کیا اور ہٹلر نے بندر کے مقابلے میں بہتر کام کیا ہوگا. ڈونلڈ ٹراپ صرف وہی امید ہے جسے ہم نے حاصل کیا ہے."
PaleoLibertyKatanatRemoverOfKebabs میں صرف جو کچھ بھی کہہتا ہوں
ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016
کمپنی چلی گئی ہے اور اداس ہونے والے ٹویٹس کو خارج کر دیا ہے اور اپ گریڈ کے لئے ٹایڈمنٹ کو عارضی طریقے سے بند کر دیا ہے. ٹائی ایی کے اوپر موجود ایک پیغام پڑھتا ہے:
تاہم، Tay کی glitches A.I میں کچھ بدقسمتی سے غلطی ظاہر کرتا ہے. نظام یہاں ہم Microsoft کے تجربے سے سیکھ سکتے ہیں.
مائیکروسافٹ نے طے کیا کیوں؟
اس کمپنی نے سوشل میڈیا پلیٹ فارمز پر بات چیت کرنے والے ایک ہزار سالہ نسل - جو امریکہ میں 18 سے 24 سالہ عمر پر سماجی تجربہ کرنا چاہتا تھا. لہذا بنگ اور مائیکروسافٹ کی ٹیکنالوجی اور ریسرچ ٹیموں نے سوچ لیا کہ زراعت پر اعداد و شمار جمع کرنے کے لئے ایک دلچسپ طریقہ ایک مصنوعی ذہین، مشین سیکھنا چیٹ بٹ پیدا کرنا ہوگا جو صارفین کے ساتھ بات چیت کے ساتھ بات چیت کرنے کے لۓ مواصلات سے نمٹنے اور رد عمل کرے گا.
تحقیقاتی ٹیموں نے A.I. ایک بنیادی لائن کے طور پر عوامی اعداد و شمار کان کنی، ماڈیولنگ، اور فلٹرنگ کی طرف سے نظام. انہوں نے کہا کہ slang، تقریر کے پیٹرن، اور stereotypical زبان کے سالگرہ کو پن کرنے کے لئے غیر معمولی کامکاروں کے ساتھ بھی شراکت داری کی آن لائن استعمال کرتے ہیں. آخر نتیجہ ٹائی تھا، جو صرف اس ہفتے ٹویٹر، گروپ ایم، اور کوک پر متعارف کرایا گیا تھا.
مائیکروسافٹ وضاحت کرتا ہے کہ، "ٹائی لوگوں کو مشغول اور تفریح کرنے کے لئے ڈیزائن کیا گیا ہے جہاں وہ آرام دہ اور پرسکون اور چنچل بات چیت کے ذریعہ ایک دوسرے کے ساتھ آن لائن سے رابطہ قائم کرتے ہیں."
لوگوں کے ساتھ بات چیت کرتے ہوئے اس کے اعداد و شمار کے ساتھ طے کیا کرتا ہے؟
ٹا جمع کرنے کے لئے استعمال کیا جا رہا ہے استعمال کرنے کے لئے استعمال کیا جاتا ہے بات چیت کی تفہیم تحقیق. مائیکروسافٹ نے ایک سال کی طرح بات چیت کرنے کی تربیت دی. جب آپ ٹویٹ، براہ راست پیغام یا ٹائی سے گفتگو کرتے ہیں، تو یہ آپ کی زبان کو استعمال کرتا ہے اور گفتگو میں "ہیلو،" "SRY،" اور "3 3" جیسے علامات اور جملے کا استعمال کرتے ہوئے جواب میں آتا ہے. اس کی زبان آپ کے ساتھ ملنے لگتی ہے کیونکہ وہ آپ کی معلومات کے ساتھ "سادہ پروفائل" تخلیق کرتا ہے، جس میں آپ کے عرفان، جنس، پسندیدہ کھانا، زپ کوڈ، اور تعلقات کی حیثیت شامل ہے.
keganandmatt heyo؟ یہ لڑکی کی کیا تصویر ہے. (* = لولول)
ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016
مائیکروسافٹ سروس کو بہتر بنانے کے لئے ایک سال تک ایک سال کے لئے نامزد کردہ ڈیٹا اور بات چیت جمع اور اسٹور کرتا ہے. صارف کے تجربے کو بہتر بنانے اور ذاتی بنانے کے علاوہ، یہاں یہ ہے کہ کمپنی جو یہ کہتے ہیں کہ یہ آپ کی معلومات کا استعمال کرتا ہے:
"ہم اعداد و شمار کو بھی آپ کے ساتھ بات چیت کرنے کے لۓ استعمال کرسکتے ہیں، مثال کے طور پر، آپ کے اکاؤنٹ، سیکورٹی اپ ڈیٹس اور مصنوعات کی معلومات کے متعلق آپ کو مطلع کرنا. اور ہم ان اشتھارات کو ہم سے ظاہر کرنے میں مدد کرنے کے لئے اعداد و شمار کا استعمال کرتے ہیں جو آپ کو آپ سے زیادہ متعلقہ ہیں. تاہم، ہم آپ کے اشتھارات کو نشانہ بنانے کے لئے ای میل، چیٹ، ویڈیو کالز یا صوتی میل، یا آپ کے دستاویزات، تصاویر یا دیگر ذاتی فائلوں میں جو کچھ کہتے ہیں اس کا استعمال نہیں کرتے ہیں."
ٹے غلط کہاں گیا تھا؟
مائیکروسافٹ نے ٹائی بہت اچھی طرح سے بنایا ہے. مشین سیکھنے کے نظام کو صارف کی زبان کا مطالعہ کرنا اور اس کے مطابق جواب دینا ہوگا. لہذا ٹیکنالوجی کے نقطہ نظر سے، تے نے صارفین کو یہ کہہ کر اچھی طرح سے پکڑا اور پکڑا. اور صارفین کو یہ تسلیم کرنا شروع ہوگیا کہ واقعی وہ اس بات کو سمجھ نہیں سکا کہ وہ کیا کہہ رہی تھی.
یہاں تک کہ اگر نظام مائیکروسافٹ کے طور پر کام کرتا ہے تو، ٹائی نسلی slurs، homophobic بدمعاش، جنسی پرستی مذاق، اور انسان کی طرح کی طرح غیر معمولی ٹویٹس کے لئے تیار نہیں تیار کیا گیا تھا - یا تو مکمل طور پر ان کو نظر انداز کر (ایک "trolls کھانا کھلانا نہیں "حکمت عملی" یا ان کے ساتھ مشغول ہوتے ہیں (یعنی ڈرائنگ یا تحمل).
دن کے اختتام پر، ٹی کی کارکردگی A.I پر ایک اچھا عکاسی نہیں تھا. نظام یا مائیکروسافٹ.
jawesomeberg_ThatGuyTdannyduchamp کیپچا؟ واقعی؟ pic.twitter.com/wYDTSsbRPE
ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016
مائیکروسافٹ کیا طے کرنے کے لئے کر رہا ہے؟
مائیکروسافٹ بدھ سے تمام تناظر کے بعد ٹیل کو خارج کر دیا گیا. طے کی رسمی ویب سائٹ فی الحال پڑھتی ہے، "الوہ. مصروف دن. یہ سب کچھ جذب کرنے کے لئے تھوڑی دیر کے لئے آف لائن جا رہا ہے. جلد ہی چیٹ کریں. "جب آپ اسے ٹویٹر پر پیغام دیتے ہیں، تو وہ فوری طور پر جواب دیتے ہیں کہ" میرے سالانہ اپ ڈیٹ کے انجینئرز کا دورہ "یا" آپ امید ہے کہ مجھے مسح یا کچھ نہیں ملتا."
مائیکروسافٹ بھی ایسے صارفین کو بلاک کرنا شروع کررہا ہے جو طے کر رہے ہیں اور نظام کو ناقابل بیان بیانات حاصل کرنے کی کوشش کر رہے ہیں.
infamousglassesTayandYouEDdotSE کہ pic.twitter.com/UmP1wAuhaZ کی وضاحت کرتا ہے
- Ryuki (OmegaVoyager) 24 مارچ، 2016
اندرونی ٹائی کے اپ گریڈ میں جو کچھ بھی شامل ہو اس پر ایک تبصرہ کے لئے مائیکرو مائیکروسافٹ تک پہنچ گیا. ہم اپ ڈیٹ کرتے وقت ہم اپ ڈیٹ کریں گے.
مستقبل کا کھلا حصہ اے کا کیا مطلب ہے. نظام؟
ٹائی ایک سماجی تجربہ کہہ رہا ہے - اس نے 18 سے 24 سالہ امریکیوں کو ٹیکنالوجی کا استعمال کرتے ہوئے راستے میں بہت گہرے دکھائی دی ہے. ٹیل آخر میں ہیک کیا گیا تھا، سسٹم کے خامیوں پر ہارنے والے صارفین کو یہ دیکھنے کے لئے کہ کیا یہ کچل سکتا ہے.
جیسا کہ یہ کسی بھی انسانی مصنوعات کے ساتھ جاتا ہے. نظام بھی پائیدار ہیں، اور اس معاملے میں ٹیل کو انسانوں کی طرح سیکھنے اور بات چیت کرنے کے لئے نمونے کی نمائش کی گئی تھی. مائیکرو مائیکروسافٹ نے حملہ کرنے کا فیصلہ نہیں کیا. مصنوعی انٹیلی جنس تجربات میں بچے کی ترقی کی تحقیق میں کچھ مساوات موجود ہیں. جب انجینئرز اس طرح کے سنجیدگی سے متعلق نظام بناتے ہیں تو، کمپیوٹر ان عوامل سے الگ ہونے والے کسی بیرونی اثر سے باخبر ہے. اس طرح کے مسائل کے سامنا کر رہے ہیں کیونکہ مشین سیکھنے کے الگورتھم کو تیار اور تیار کرنے کے طریقے سے یہ تجزیہ کا خالص ترین فارم فراہم کرتا ہے.
اپ ڈیٹ: مائیکروسافٹ نے ہمیں اس بیان کو بھیجا جب ہم نے پوچھا کہ یہ ٹیل glitches کو ٹھیک کرنے کے لئے کیا کر رہا ہے.
"اے این چیٹ بیس ٹائی ایک مشین سیکھنے کا منصوبہ ہے جس میں انسانی مشغولیت کے لئے تیار کیا گیا ہے. یہ ایک سماجی اور ثقافتی تجربہ ہے، جیسا کہ یہ تکنیکی ہے. بدقسمتی سے، آن لائن آنے والے پہلے 24 گھنٹوں کے اندر اندر، ہم ٹی صارفین کی طرف سے ایک مشترکہ کوشش کے بارے میں آگاہ ہوگئے ہیں کہ وہ Tay کی تبصرہ کرنے والی صلاحیتوں کو غلط استعمال کرنے کے لۓ غلط استعمال میں جواب دیں. نتیجے کے طور پر، ہم نے آف لائن لے لیا ہے اور ایڈجسٹمنٹ کر رہے ہیں."
ہیلپ ڈیسک جلد از جلد اسے معاملے کو دیکھنے کی کوشش کرے گا. اس بلاگ کے بارے میں آپ پہلے ہی غلط استعمال کی اطلاع دے چکے ہیں
ٹائ ٹویٹس (@ تےند آپ) مارچ 24، 2016
مائیکرو مائیکرو مائیکرو مائیکروسافٹ کے سکوریوو کا جواب کس طرح کرے گا؟
ایک مضبوط کیس بنایا جا سکتا ہے کہ سونی نے لازمی طور پر مائیکروسافٹ کے ہاتھوں ہفتے کے اختتام پر ایوارڈ کرنے سے قبل ہاتھ لگایا. سینگ کی طرف سے بیل کو لے کر، پلے اسٹیشن کے سربراہ اینڈریو ہاؤس نے پی ایس 4 نو کنسول میں کمپنی کے اپ گریڈ کے بعد کی ہفتہ کے پریس کانفرنس سے پہلے اور مائیکرو مائیکروسافٹ کے پھر بھی ابھرتے ہوئے نئے XB کی موجودگی کی تصدیق کی ...
مائیکرو مائیکروسافٹ کے لئے مائیکرو مائیکروسافٹ کی غلطی 'ریڈ ڈیوڈ چھٹکارا'، بوممر کا استقبال ہے
گاہکوں کے ساتھ پیچ کرنے کے اس شاندار اثر کا ایک اور ڈسپلے میں، مائیکروسافٹ نے حادثے پر کھیلوں کے سلیٹ کو جاری کرکے اس کے بعد گھنٹوں کے پیچھے پیچھے چھڑک کر دنیا بھر میں ایکس باکس ون کے صارفین کی امیدوں کو ڈرا دیا ہے. عام طور پر، تکنیکی دیوار سے یہ معمول کی غلطی ہمیشہ معمولی محور سے ملاقات کی جائے گی ...
ٹائٹل کے مطابق، مائیکرو مائیکروسافٹ کے چینی چیٹ بٹ، ضیاس، اصل میں خوشگوار ہے
جب آپ ٹائی کے بارے میں سنا تو، مائیکروسافٹ کے ٹویٹنگ ای. آئی.، آپ واقعی حیران تھے کہ ٹویٹر سے انسانی نوعیت کے بارے میں سیکھا کمپیوٹر ایک دن سے بھی کم عرصے سے ایک خطرناک نسل پرست بن جائے گا؟ بالکل نہیں. غریب ٹائے تمام "hellooooooo w🌎rld !!!" شروع کر دیا اور جلدی سے ہٹلر سے محبت کرنے والے، نسل پرستی سے حوصلہ افزائی کرنے والی پیرو میں تیزی سے نفرت ...