Deepfakes مشین سیکھنے کے لئے کوئی میچ نہیں ہیں - یہاں کیوں ہے

$config[ads_kvadrat] not found

سوا - غابة المعمورة تواجه خطر الاندثار

سوا - غابة المعمورة تواجه خطر الاندثار

فہرست کا خانہ:

Anonim

2018 کے انتخابی مہموں کی مہموں کو گرمی کے طور پر، آن لائن کمیونٹی کے ذریعے پھیلانے کے لئے غلط استعمال کی ایک نئی شکل تیار کی جاتی ہے. پسوڈیمیم آن لائن اکاؤنٹ کے بعد "گہری فاکس" کہتے ہیں جو اس تکنیک کو مقبول کرتی تھیں - جس نے اس کا نام منتخب کیا ہے کیونکہ عمل "گہری سیکھنے" کے نام سے ایک تکنیکی طریقہ کار کا استعمال کرتا ہے - یہ جعلی ویڈیوز بہت حقیقت پسندانہ نظر آتی ہیں.

اب تک، لوگ گہری جعلی ویڈیو فحش فحش اور سنیئر کا استعمال کرتے ہیں کہ یہ ظاہر کرنے کے لئے کہ مشہور لوگ ایسی چیزیں کررہے ہیں جو عام طور پر نہیں کریں گے. لیکن مہم کے موسم کے دوران یہ تقریبا کچھ گہری فالیں دکھائے جائیں گے، امیدواروں کو ظاہر کرنے سے قبل چیزیں یا جانے والی جگہوں کا کہنا ہے کہ اصلی امیدوار نہیں ہوں گی.

کیونکہ ان کی تراکیب اتنا نیا ہیں، لوگ اصلی ویڈیو اور گہری ویڈیو کے درمیان فرق بتانے میں مصیبت پاتے ہیں. میرا کام، میرے ساتھی منگ- چنگ چانگ اور ہمارے پی ایچ ڈی کے ساتھ. طالب علم یوجون لین نے گہری فاکس ویڈیوز سے معتبر طور پر حقیقی ویڈیوز بتانے کا ایک طریقہ پایا ہے. یہ مستقل حل نہیں ہے، کیونکہ ٹیکنالوجی بہتر ہو گی. لیکن یہ ایک آغاز ہے، اور امید ہے کہ کمپیوٹر فکشن سے سچ بتانے میں مدد کرنے کے قابل ہو جائے گا.

ایک "گہرے" کیا ہے، ویسے بھی؟

زبان کے درمیان ترجمہ کرنے کی طرح بہت گہری ویڈیو بنانا. Google Translate کی طرح خدمات مشینی سیکھنے کا استعمال کرتے ہیں - کثیر زبانوں میں لسگوں کے ہزاروں نصوصوں کے کمپیوٹر کا تجزیہ - لفظ استعمال کے پیٹرن کا پتہ لگانے کے لئے جو وہ ترجمہ بنانے کے لئے استعمال کرتے ہیں.

ڈیپفیک الگورتھمس اسی طرح کام کرتے ہیں: وہ ایک قسم کی مشین سیکھنے کا نظام استعمال کرتے ہیں جو ایک گہری نیند نیٹ ورک کو ایک شخص کی چہرے کی نقل و حرکت کی جانچ پڑتال کے طور پر کہتے ہیں. اس کے بعد وہ کسی دوسرے شخص کے چہرے کی تصاویر سنجیدہ حرکتیں بناتے ہیں. ایسا کرنا مؤثر طریقے سے ہدف شخص کی ویڈیو تخلیق کرتا ہے جو چیز ذریعہ شخص نے کیا ہے یا اس سے کہی ہے.

اس سے پہلے کہ وہ مناسب طریقے سے کام کرسکیں، گہری نیند نیٹ ورکس بہت سارے ذریعہ کی معلومات کی ضرورت ہے، جیسے افراد افراد کی تصاویر ذریعہ ہونے یا نقد کا نشانہ بنانا. گہری فاصلہ الگورتھم کو تربیت دینے کے لئے استعمال ہونے والی زیادہ تصاویر، ڈیجیٹل نقوش زیادہ زیادہ حقیقت پسندانہ ہو گی.

جھٹکا لگانے کا پتہ لگانا

اس نئی قسم کی الگورتھم میں اب بھی خرابیاں ہیں. ان میں سے ایک کے ساتھ کرنا ہے کہ کس طرح مصنوعی چہرے جھٹکا یا نہیں. صحت مند بالغ انسان ہر دو اور 10 سیکنڈ کے درمیان کہیں پھنس جاتے ہیں، اور ایک جھپک ایک سیکنڈ کے دسواں حصہ کے درمیان ایک جھکپ لیتا ہے. بات کرنے والے شخص کے ویڈیو میں دیکھنا عام ہے. لیکن ایسا نہیں ہے کہ بہت سے گہری ویڈیو میں کیا ہوتا ہے.

جب کسی شخص کے چہرے کی تصاویر پر گہری فیلڈ الورجیتھم تربیت دی جاتی ہے تو، ان تصاویر پر انحصار ہوتا ہے جو انٹرنیٹ پر دستیاب ہے جو تربیت کے اعداد و شمار کے طور پر استعمال کیا جا سکتا ہے. یہاں تک کہ ان لوگوں کے لئے جو اکثر تصاویر کی جاتی ہیں، ان کی آنکھوں کو بند کرنے سے کچھ تصاویر آن لائن دستیاب ہیں. نہ صرف ایسی تصاویر ہیں جیسے نایاب - کیونکہ لوگ آنکھیں زیادہ تر وقت کھلی ہیں - لیکن فوٹوگرافر عموما ایسے تصاویر شائع نہیں کرتے ہیں جہاں اہم مضامین کی آنکھیں بند ہوجاتی ہیں.

لوگ جھکنے والے لوگوں کی تربیتی تصاویر کے بغیر، گہری فال الگورتھم معمول سے مخلص چہرے کی تخلیق کرنے کا امکان کم ہوتے ہیں.جب ہم ضبط کرنے کی مجموعی شرح کا حساب کرتے ہیں اور قدرتی رینج کے ساتھ موازنہ کرتے ہیں تو، ہم نے محسوس کیا کہ گہری فوکس ویڈیوز میں حروف اصلی لوگوں کے مقابلے میں بہت کم کثرت سے جھک جاتے ہیں. ہماری تحقیق ویڈیوز میں آنکھ کھولنے اور بند کرنے کی جانچ پڑتال کرنے کے لئے مشین سیکھنے کا استعمال کرتی ہے.

یہ بھی دیکھتے ہیں: ہالی وڈ ایشیائی-امریکی ستارے کاسٹ نہیں کریں گے، لیکن اے. مشین سیکھنے کر سکتے ہیں

یہ ہمیں گہری فاک ویڈیوز کا پتہ لگانے کے لئے ایک پریرتا فراہم کرتا ہے. اس کے بعد، جب ہم ویڈیو بلکس میں شخص کو پتہ لگانے کا طریقہ بناتے ہیں. زیادہ مخصوص ہونے کے لئے، یہ سوال میں ویڈیو کے ہر فریم کو اسکین کرتا ہے، اس میں چہرے کا پتہ لگاتا ہے، اور پھر آنکھوں کو خود کار طریقے سے تلاش کرتا ہے. اس کے بعد ایک اور گہری نیند نیٹ ورک کا تعین کرنے کے لئے استعمال کیا جاتا ہے کہ آیا آنکھ کا پتہ کھلا یا بند ہے، آنکھ کی ظاہری شکل، جامد خصوصیات اور تحریک کا استعمال کرتے ہوئے.

ہم جانتے ہیں کہ ہمارا کام گہری فیلڈ الگورتھم کو تربیت دینے کے لئے دستیاب اعداد و شمار میں ایک غلطی کا فائدہ اٹھا رہا ہے. اسی طرح کی غلطی پر گرنے والے شکار سے بچنے کے لئے، ہم نے اپنے نظام کو کھلی اور بند آنکھیں دونوں کی تصاویر کی بڑی لائبریری پر تربیت دی ہے. یہ طریقہ اچھی طرح سے کام کرنے لگتا ہے، اور اس کے نتیجے میں، ہم نے 95 فیصد سے زیادہ پتہ لگانے کی شرح حاصل کی ہے.

یہ گہرائیوں کا پتہ لگانے پر حتمی لفظ نہیں ہے. ٹیکنالوجی تیزی سے بہتر بن رہی ہے، اور جعلی ویڈیوز پیدا کرنے اور پیدا کرنے کے درمیان مقابلہ ایک شطرنج کھیل کے مطابق ہے. خاص طور پر، ٹھوس تصاویر کو بند آنکھوں کے ساتھ چہرہ کی تصاویر اور تربیت کے لئے ویڈیو ترتیبوں کا استعمال کرتے ہوئے گہری فاک ویڈیوز میں شامل کیا جاسکتا ہے. جو لوگ عوام کو الجھن دینا چاہتے ہیں وہ غلط ویڈیوز بنانے میں بہتر ہو جائیں گے - اور ہم اور دیگر ٹیکنالوجی ٹیکنالوجی میں ان کو پتہ لگانے کے طریقوں کو تلاش کرنے کی ضرورت ہوگی.

یہ مضمون اصل میں سیوی لیو کی بات چیت پر شائع ہوا تھا. یہاں اصل مضمون پڑھیں.

$config[ads_kvadrat] not found