اے آئی کی تیز رفتار ایڈورینس ڈراونا ہونا چاہئے اگر آپ توجہ دے رہے ہو

$config[ads_kvadrat] not found

آیت الکرسی کی ایسی تلاوت آپ نے شاید پہلے@ کبهی نہ سنی هوU

آیت الکرسی کی ایسی تلاوت آپ نے شاید پہلے@ کبهی نہ سنی هوU
Anonim

جب یہ تکنیکی جدتوں کی طرف سے موجود موجود خطرات کی شناخت کرنے کے لئے آتا ہے، مقبول تخیل کے نقطہ نظر کی سماعت ٹرمینٹر, میٹرکس ، اور میں، روبوٹ ڈسٹوپیاس نے روبوٹ اتھارٹیوں کی طرف سے حکمرانی کی، جو عوام میں بڑے پیمانے پر افراد کا استحصال اور خارج کر دیتے ہیں. ان غیر متوقع مستقبل میں، سپر انٹیلی جنس اور برے ارادے کا ایک مجموعہ انسانی نسل کو تباہ کرنے یا غلام بنانے کے لئے کمپیوٹر لیتا ہے.

تاہم، ایک نیا مطالعہ یہ بتاتا ہے کہ یہ ای. یہ اگلے چند سالوں میں سخت سماجی نتائج کی قیادت کرے گی. رپورٹ - "مصنوعی انٹیلیجنس کا بدترین استعمال" - مستند یونیورسٹیاں اور ٹیک ٹینک پر توجہ مرکوز کرنے والے ٹینک کے 26 محققین اور سائنس دانوں نے لکھا ہے، موجودہ ای. ٹیکنالوجی ہماری جسمانی، ڈیجیٹل، اور سیاسی سلامتی کو دھمکی دیتے ہیں. توجہ مرکوز میں ان کے مطالعہ کو لانے کے لئے، ریسرچ گروہ نے صرف اس ٹیکنالوجی کو دیکھا ہے جو پہلے سے ہی موجود ہے یا ممکنہ طور پر اگلے پانچ سالوں میں ہو گا.

کیا مطالعہ پایا: A.I. نظام کا امکان موجودہ خطرات کو بڑھایا جائے گا، نئے متعارف کرایا جائے گا اور ان کا کردار بدل جائے گا. رپورٹ کے مقالہ یہ ہے کہ تکنیکی پیش رفت بعض غلطیوں کو آسان اور زیادہ قابل قدر بنا دے گی. محققین کا دعوی ہے کہ ای. کچھ سائبر حملوں کی روک تھام کے لئے وسائل اور مہارت کی مقدار میں کمی کرے گی، مؤثر طور پر جرائم میں رکاوٹوں کو کم کر دیتا ہے:

حملوں کی اخراجات کو AI سسٹمز کے اسکالبل استعمال کے ذریعے کم از کم کاموں کو پورا کرنے کی ضرورت ہوتی ہے جو عام طور پر انسانی محنت، انٹیلی جنس اور مہارت کی ضرورت ہوتی ہے. ایک قدرتی اثر ہونے والوں کے سیٹ کو بڑھانا ہوگا جو خاص حملوں کو انجام دے سکتے ہیں، جس کی شرح وہ ان حملوں کو انجام دے سکتے ہیں، اور ممکنہ مقاصد کا تعین.

رپورٹ چار سفارشات کرتا ہے:

1 - پالیسی سازوں کو تکنیکی محققین کے ساتھ مل کر باہمی تعاون کے ساتھ استعمال کرنا چاہئے، انہیں روکنے اور روکنے کے لئے ای اے کے ممکنہ استعمال میں کمی.

2 - مصنوعی انٹیلی جنس میں محققین اور انجنیئرز کو ان کے کام کی دوہری استعمال کی فطرت کو سنجیدگی سے لے جانا چاہئے، جس میں نقصان دہ ایپلی کیشنز قابل ذکر درخواستیں ہیں جب تک غلطی سے متعلق خیالات کو تحقیق کی ترجیحات اور معیاروں پر اثر انداز کرنے کی ضرورت ہوتی ہے، اور متعلقہ اداکاروں کو مؤثر طور پر پہنچنے کی اجازت دیتا ہے.

3 - تحقیق کے علاقوں میں بہترین طریقوں کی شناخت کی جانی چاہئے جس میں ڈبل استعمال کے خدشات، جیسے کمپیوٹر سیکورٹی، اور ای اے کے کیس پر لاگو ہونے پر درآمد کیا جاسکتا ہے، کے لئے زیادہ بالغ طریقوں کے ساتھ.

4 - ان چیلنجوں کے بارے میں بات چیت میں ملوث ذیلی ہولڈر ہولڈرز اور ڈومین کے ماہرین کی حد بڑھانے کی کوشش کریں

اے. موجودہ سکیم کو بہتر بنا سکتے ہیں: مثال کے طور پر، سپیر فشنگ حملے، جس میں فنکاروں کو ہدف کے دوست، خاندان کے رکن، یا ساتھی کے طور پر بنائے جاتے ہیں، اعتماد اور معلومات حاصل کرنے کے لئے یا ساتھی، پہلے ہی ایک خطرہ ہے. لیکن آج، وہ وقت، توانائی اور مہارت کی اہم خرچ کی ضرورت ہوتی ہے. ای. نظام بہتر بنانے میں اضافہ کرتی ہے، ایک سپیئر فشنگ حمل کے لئے ضروری سرگرمیوں میں سے کچھ، ہدف کے بارے میں معلومات جمع کرنے کی طرح خود کار طریقے سے ہوسکتی ہے. ایک فشر پھر ہر رشوت میں نمایاں طور پر کم توانائی سرمایہ کاری کر سکتا ہے اور زیادہ سے زیادہ لوگوں کو نشانہ بناتا ہے.

اور اگر سکیمرز ای. ان کے آن لائن گرافکس میں، یہ تخیل سے حقیقت کو فرق کرنے کے ناممکن بن سکتا ہے. "اے ای اے کے طور پر مزید تیار ہے، بات چیت کی بات چیت کر سکتے ہیں انسانی اعتماد طویل عرصے سے بات چیت میں لوگوں کو منسلک کرکے، اور شاید بالآخر ویڈیو ویڈیو چیٹ میں کسی دوسرے شخص کے طور پر ناپسندیدہ طور پر مذاق،".

ہم نے پہلے ہی مشین پیدا کردہ ویڈیو کے نتائج کو Deepfakes کے طور پر پہلے ہی دیکھا ہے. جیسا کہ یہ ٹیکنالوجی زیادہ قابل رسائی اور دوستانہ دوست بن جاتے ہیں، محققین فکر کرتے ہیں کہ برا اداکاروں کو کپڑے، ویڈیوز، اور آڈیو فائلوں کو تقسیم کرے گا. اس کے نتیجے میں سیاسی اثرات کے ساتھ انتہائی کامیاب افتتاحی مہمات ہوسکتے ہیں.

کی بورڈ سے باہر: اور ممکنہ جعل سازی انٹرنیٹ تک محدود نہیں ہے. جیسا کہ ہم خود مختار گاڑیوں کو اپنایا جانے کے لۓ ہیکرز اپنے ارد گردوں کو غلط استعمال کرنے میں خود کار ڈرائیور کاروں کو بیوقوف کرنے کے لئے غیر معمولی مثالوں کو تعین کر سکتے ہیں. رپورٹ میں بتایا گیا ہے کہ "چند پکسلز کے ساتھ ایک روک تھام کا ایک تصویر مخصوص طریقوں میں بدل گیا ہے، جس میں انسان کو آسانی سے تسلیم کیا جاسکتا ہے کہ اب بھی ایک سٹاپ اشارہ کی تصویر ہے، اگرچہ اس کے باوجود اے آئی نظام کی طرف سے مکمل طور پر کچھ اور کے طور پر غلطی کا سامنا کرنا پڑتا ہے."

دیگر خطرات میں خود مختار ڈرون شامل ہیں جن میں ھدف شدہ چہرے کے شناخت سافٹ ویئر کے ھدف مقاصد کے لئے، ڈی او ایس کے حملوں کو منظم کیا جاتا ہے جو انسانی رویے کو بہتر بنانے اور خود کار طریقے سے، ہائپر ذاتی طور پر غیر جانبدار مہم کی مہموں کو پورا کرتی ہے.

رپورٹ کی سفارش کی جاتی ہے کہ محققین کو ای. ان ٹیکنالوجیوں کی ترقی کرتے ہوئے. اگر کافی دفاعی اقدامات نہیں کیے جاتے ہیں تو، ہم پہلے سے ہی انسانیت کو تباہ کرنے کے لئے ٹیکنالوجی حاصل کرسکتے ہیں، کوئی قاتل روبوٹ کی ضرورت ہوتی ہے.

$config[ads_kvadrat] not found