سÙا - غابة اÙ٠ع٠Ùرة تÙاج٠خطر اÙاÙدثار
فہرست کا خانہ:
2018 کے انتخابی مہموں کی مہموں کو گرمی کے طور پر، آن لائن کمیونٹی کے ذریعے پھیلانے کے لئے غلط استعمال کی ایک نئی شکل تیار کی جاتی ہے. پسوڈیمیم آن لائن اکاؤنٹ کے بعد "گہری فاکس" کہتے ہیں جو اس تکنیک کو مقبول کرتی تھیں - جس نے اس کا نام منتخب کیا ہے کیونکہ عمل "گہری سیکھنے" کے نام سے ایک تکنیکی طریقہ کار کا استعمال کرتا ہے - یہ جعلی ویڈیوز بہت حقیقت پسندانہ نظر آتی ہیں.
اب تک، لوگ گہری جعلی ویڈیو فحش فحش اور سنیئر کا استعمال کرتے ہیں کہ یہ ظاہر کرنے کے لئے کہ مشہور لوگ ایسی چیزیں کررہے ہیں جو عام طور پر نہیں کریں گے. لیکن مہم کے موسم کے دوران یہ تقریبا کچھ گہری فالیں دکھائے جائیں گے، امیدواروں کو ظاہر کرنے سے قبل چیزیں یا جانے والی جگہوں کا کہنا ہے کہ اصلی امیدوار نہیں ہوں گی.
کیونکہ ان کی تراکیب اتنا نیا ہیں، لوگ اصلی ویڈیو اور گہری ویڈیو کے درمیان فرق بتانے میں مصیبت پاتے ہیں. میرا کام، میرے ساتھی منگ- چنگ چانگ اور ہمارے پی ایچ ڈی کے ساتھ. طالب علم یوجون لین نے گہری فاکس ویڈیوز سے معتبر طور پر حقیقی ویڈیوز بتانے کا ایک طریقہ پایا ہے. یہ مستقل حل نہیں ہے، کیونکہ ٹیکنالوجی بہتر ہو گی. لیکن یہ ایک آغاز ہے، اور امید ہے کہ کمپیوٹر فکشن سے سچ بتانے میں مدد کرنے کے قابل ہو جائے گا.
ایک "گہرے" کیا ہے، ویسے بھی؟
زبان کے درمیان ترجمہ کرنے کی طرح بہت گہری ویڈیو بنانا. Google Translate کی طرح خدمات مشینی سیکھنے کا استعمال کرتے ہیں - کثیر زبانوں میں لسگوں کے ہزاروں نصوصوں کے کمپیوٹر کا تجزیہ - لفظ استعمال کے پیٹرن کا پتہ لگانے کے لئے جو وہ ترجمہ بنانے کے لئے استعمال کرتے ہیں.
ڈیپفیک الگورتھمس اسی طرح کام کرتے ہیں: وہ ایک قسم کی مشین سیکھنے کا نظام استعمال کرتے ہیں جو ایک گہری نیند نیٹ ورک کو ایک شخص کی چہرے کی نقل و حرکت کی جانچ پڑتال کے طور پر کہتے ہیں. اس کے بعد وہ کسی دوسرے شخص کے چہرے کی تصاویر سنجیدہ حرکتیں بناتے ہیں. ایسا کرنا مؤثر طریقے سے ہدف شخص کی ویڈیو تخلیق کرتا ہے جو چیز ذریعہ شخص نے کیا ہے یا اس سے کہی ہے.
اس سے پہلے کہ وہ مناسب طریقے سے کام کرسکیں، گہری نیند نیٹ ورکس بہت سارے ذریعہ کی معلومات کی ضرورت ہے، جیسے افراد افراد کی تصاویر ذریعہ ہونے یا نقد کا نشانہ بنانا. گہری فاصلہ الگورتھم کو تربیت دینے کے لئے استعمال ہونے والی زیادہ تصاویر، ڈیجیٹل نقوش زیادہ زیادہ حقیقت پسندانہ ہو گی.
جھٹکا لگانے کا پتہ لگانا
اس نئی قسم کی الگورتھم میں اب بھی خرابیاں ہیں. ان میں سے ایک کے ساتھ کرنا ہے کہ کس طرح مصنوعی چہرے جھٹکا یا نہیں. صحت مند بالغ انسان ہر دو اور 10 سیکنڈ کے درمیان کہیں پھنس جاتے ہیں، اور ایک جھپک ایک سیکنڈ کے دسواں حصہ کے درمیان ایک جھکپ لیتا ہے. بات کرنے والے شخص کے ویڈیو میں دیکھنا عام ہے. لیکن ایسا نہیں ہے کہ بہت سے گہری ویڈیو میں کیا ہوتا ہے.
جب کسی شخص کے چہرے کی تصاویر پر گہری فیلڈ الورجیتھم تربیت دی جاتی ہے تو، ان تصاویر پر انحصار ہوتا ہے جو انٹرنیٹ پر دستیاب ہے جو تربیت کے اعداد و شمار کے طور پر استعمال کیا جا سکتا ہے. یہاں تک کہ ان لوگوں کے لئے جو اکثر تصاویر کی جاتی ہیں، ان کی آنکھوں کو بند کرنے سے کچھ تصاویر آن لائن دستیاب ہیں. نہ صرف ایسی تصاویر ہیں جیسے نایاب - کیونکہ لوگ آنکھیں زیادہ تر وقت کھلی ہیں - لیکن فوٹوگرافر عموما ایسے تصاویر شائع نہیں کرتے ہیں جہاں اہم مضامین کی آنکھیں بند ہوجاتی ہیں.
لوگ جھکنے والے لوگوں کی تربیتی تصاویر کے بغیر، گہری فال الگورتھم معمول سے مخلص چہرے کی تخلیق کرنے کا امکان کم ہوتے ہیں.جب ہم ضبط کرنے کی مجموعی شرح کا حساب کرتے ہیں اور قدرتی رینج کے ساتھ موازنہ کرتے ہیں تو، ہم نے محسوس کیا کہ گہری فوکس ویڈیوز میں حروف اصلی لوگوں کے مقابلے میں بہت کم کثرت سے جھک جاتے ہیں. ہماری تحقیق ویڈیوز میں آنکھ کھولنے اور بند کرنے کی جانچ پڑتال کرنے کے لئے مشین سیکھنے کا استعمال کرتی ہے.
یہ بھی دیکھتے ہیں: ہالی وڈ ایشیائی-امریکی ستارے کاسٹ نہیں کریں گے، لیکن اے. مشین سیکھنے کر سکتے ہیں
یہ ہمیں گہری فاک ویڈیوز کا پتہ لگانے کے لئے ایک پریرتا فراہم کرتا ہے. اس کے بعد، جب ہم ویڈیو بلکس میں شخص کو پتہ لگانے کا طریقہ بناتے ہیں. زیادہ مخصوص ہونے کے لئے، یہ سوال میں ویڈیو کے ہر فریم کو اسکین کرتا ہے، اس میں چہرے کا پتہ لگاتا ہے، اور پھر آنکھوں کو خود کار طریقے سے تلاش کرتا ہے. اس کے بعد ایک اور گہری نیند نیٹ ورک کا تعین کرنے کے لئے استعمال کیا جاتا ہے کہ آیا آنکھ کا پتہ کھلا یا بند ہے، آنکھ کی ظاہری شکل، جامد خصوصیات اور تحریک کا استعمال کرتے ہوئے.
ہم جانتے ہیں کہ ہمارا کام گہری فیلڈ الگورتھم کو تربیت دینے کے لئے دستیاب اعداد و شمار میں ایک غلطی کا فائدہ اٹھا رہا ہے. اسی طرح کی غلطی پر گرنے والے شکار سے بچنے کے لئے، ہم نے اپنے نظام کو کھلی اور بند آنکھیں دونوں کی تصاویر کی بڑی لائبریری پر تربیت دی ہے. یہ طریقہ اچھی طرح سے کام کرنے لگتا ہے، اور اس کے نتیجے میں، ہم نے 95 فیصد سے زیادہ پتہ لگانے کی شرح حاصل کی ہے.
یہ گہرائیوں کا پتہ لگانے پر حتمی لفظ نہیں ہے. ٹیکنالوجی تیزی سے بہتر بن رہی ہے، اور جعلی ویڈیوز پیدا کرنے اور پیدا کرنے کے درمیان مقابلہ ایک شطرنج کھیل کے مطابق ہے. خاص طور پر، ٹھوس تصاویر کو بند آنکھوں کے ساتھ چہرہ کی تصاویر اور تربیت کے لئے ویڈیو ترتیبوں کا استعمال کرتے ہوئے گہری فاک ویڈیوز میں شامل کیا جاسکتا ہے. جو لوگ عوام کو الجھن دینا چاہتے ہیں وہ غلط ویڈیوز بنانے میں بہتر ہو جائیں گے - اور ہم اور دیگر ٹیکنالوجی ٹیکنالوجی میں ان کو پتہ لگانے کے طریقوں کو تلاش کرنے کی ضرورت ہوگی.
یہ مضمون اصل میں سیوی لیو کی بات چیت پر شائع ہوا تھا. یہاں اصل مضمون پڑھیں.
ایپل کے آئی فون 7 کیمرے لوگوں کے لئے تلاش کرنے کے لئے مشین سیکھنے کا استعمال کرتا ہے
ایپل جبکہ اپنے آپ کو $ 159 نئے ہوائی اڈے خریدنے کے لئے مجبور کرنے کے لئے خود کو "بہادر" پر غور کر سکتا ہے، "کھیل بدلنے" آئی فون 7 کے کیمرے کے لئے بہتر وضاحت ہوسکتی ہے، جس میں اسپیکر فل Schiller نے "کسی بھی فون پر بہترین کیمرے" کہا. "یہ واقعی فوٹو کے لئے ایک سپر کمپیوٹر ہے،" شیلر نے ایپل کے "مخصوص" میں کہا ...
ہونڈا کے ASIMO روبوٹ SNL پر لیسلی جونز کے لئے کوئی میچ نہیں ہیں
ہفتہ کی رات لائیو کے اس ہفتہ کا واقعہ سیل فون کی مداخلت کی وجہ سے انسانی ڈراؤنڈ روبوٹ کی ایک جوڑی کو نمایاں کرتا ہے.
بالی ووڈ بانڈ کے لئے کوئی میچ نہیں تھا: اس ہفتے کے اختتام کے باکس آفس راؤنڈ اپ
باکس آفس نہ ہی ہلکا تھا اور نہ ہی ہلکا تھا. جیمز بانڈ کی تازہ ترین مہمانوں کی جانچ پڑتال کے ذریعہ ابھی بھی ہفتے کے اختتام پر ناظرین نے خود کو دلچسپی اختیار کی، لیکن وہ بھی بے ترتیب نیاز فلموں میں نسبتا ناگزیر وقت کے لئے بھی اس ہفتے کے آخر میں ایک موقع دینے کے لئے تیار تھے. شاید سب سے لطف اندوز تھا ...