Deepfake : Jaalsaazi ki Inteha By Rizwan Ata

intelligent086

intelligent086

Star Pakistani
20
 
Messages
17,578
Reaction score
26,649
Points
2,231
ڈیپ فیک: جعل سازی کی انتہا ۔۔۔۔۔ تحریر : رضوان عطا

Deep.jpg

کیا موجودہ وزیراعظم عمران خان اپنے سیاسی حریف نواز شریف کی دل کھول کر تعریف کر سکتے ہیں؟ نہیں نا! حقیقی نہ سہی ڈیپ فیک کی دنیا میں یہ ممکن ہے۔ اگر آپ کسی وڈیو میں اپنے پسندیدہ فنکار سے اپنی مرضی کا کچھ کہلوانا چاہیں تو کہلوا سکتے ہیں، شاید کسی کو اس وڈیو کے جعلی ہونے کا گمان تک نہ ہو۔
ہر انسان دوسرے سے مختلف ہے۔ جو میں ہوں، وہ آپ نہیں، لیکن ڈیپ فیک سے تصویر، آواز اور وڈیو میں ردوبدل کر کے ''میں‘‘ اور ''آپ‘‘ کی تمیز ختم کر دی جاتی ہے۔ خیال آتا ہے کہ یہ کام صرف ماہرین کرتے ہوں گے۔ جی نہیں، اب زیادہ مہارت کی ضرورت بھی نہیں رہی۔ ڈیپ فیک وڈیوز بنانے کے لیے کمپیوٹر اور انٹرنیٹ تک رسائی ہی کافی ہے۔
ڈیپ فیک کی اصطلاح 2017ء کے اواخر میں ''ریڈاِٹ‘‘ کے یوزر نیم ''ڈیپ فیکس‘‘ سے اخذ کی گئی۔ اس نے اور دیگر نے انٹرنیٹ کی ''ریڈاِٹ‘‘ کمیونٹی میں اپنے تخلیق کردہ ڈیپ فیک شیئر کرنا شروع کیے۔ ان میں فلمی ستاروں کے چہروں کو کسی دوسرے جسم کے ساتھ چسپاں کر دیا جاتا تھا۔ اس عمل میں جعلی فحش وڈیوز بھی بنائی گئیں۔
وڈیوز کی جعل سازی کی جڑیں تصاویر کی ہیراپھیری میں پیوست ہیں۔ جس دور میں تصاویر ''نیگیٹوز‘‘ سے بنائی جاتی تھیں، ان میں بھی ایسا ہوتا تھا، لیکن ڈیپ فیک کو نئی اور طاقت ور تکنیکوں کا سہارا میسر ہے لہٰذا اس میں کام زیادہ باریکی سے ہوتا ہے۔ مشین لرننگ ، مصنوعی ذہانت کی ذیلی شاخ ہے جس کی مدد سے ڈیپ فیک وڈیوز بنائی جاتی ہیں اور بصری و سمعی مواد کو اس طرح بدلا جاتا ہے کہ اصل اور نقل میں فرق کرنا انتہائی دشوار ہو جاتا ہے۔
حالیہ عرصے میں، بالخصوص مغرب میں، ڈیپ فیک کی جانب توجہ مبذول ہونے کا سبب فلمی ستاروں، فحش فلموں، جعلی خبروں، افواہوں اور مالی فراڈ میں اس کا استعمال ہے۔ اس سے سیاست بھی متاثر ہو رہی ہے کیونکہ کسی سیاسی رہنما یا نامور شخصیت کے منہ سے کچھ بھی نکلوایا جا سکتا ہے۔
۔1860ء کی دہائی میں کسی کے دھڑ پر ابراہام لنکن کا سر لگا دیا گیا تھا، یہ تصویری ہیراپھری کی اولین مثالوں میں سے ہے۔
پانچ مئی 1920ء کو ولادی میر لینن نے سویردولو سکوائر میں سوویت سپاہ سے ایک مشہور خطاب کیا۔ اس موقع پر ایک تصویر لی گئی جس میں سٹیج پر لینن تقریر کر رہا ہے اور روسی انقلاب کے دو دیگر رہنما لیون ٹراٹسکی اور لیو کامنیف ساتھ کھڑے ہیں۔ لینن کی وفات کے بعد جوزف سٹالن نے اقتدار پر اپنی گرفت مضبوط کرنے کے بعد ٹراٹسکی اور کامنیف کو راستے سے ہٹا دیا اور ساتھ ہی ردوبدل کرتے ہوئے سرکاری طور پر شائع شدہ تصاویر میں دونوں رہنماؤں کو کچھ اس انداز سے نکالا گیا کہ ان کے وہاں ہونے کا شائبہ تک نہیں ہوتا۔ یہ ہیرا پھیری سیاسی مقاصد کے لیے تھی اور سوویت تاریخ میں اس کی کئی دیگر مثالیں تلاش کی جا سکتی ہیں۔
صحافت کے میدان میں تصاویر میں تھوڑے سے ردوبدل کو بھی معیوب سمجھا جاتا ہے۔ مثلاً معروف جریدے نیشنل جیوگرافک نے 1982ء میں اپنے سرورق پر مصر کے دو اہرام شائع کیے جن میں انہیں حقیقت سے زیادہ قریب دکھایا گیا تھا۔ دراصل تصویر میں تھوڑا سا ردوبدل کیا گیا تھا۔ اس پر تنقید ہوئی اور ادارے کی طرف سے دوبارہ ایسا نہ کرنے کا بیان جاری ہوا۔
انیسویں صدی میں تصویری ہیرا پھیری کے بعد یہ ''فن‘‘ موشن پکچرز میں درآیا۔ بیسویں صدی میں ٹیکنالوجی نے تیزی سے ترقی کی، ڈیجیٹل وڈیوزکا آغاز ہوا، اور پھرڈیپ فیک کا۔
عام ہوتی ہوئی ڈیپ فیک ٹیکنالوجی نے 1990ء کی دہائی کی شروعات میں تعلیمی اداروں میں جنم لیا۔ اس کے بعد آن لائن کمیونٹیز میں غیر پیشہ ور اور شوقیہ افراد نے اس میں دلچسپی لی اور اسے آگے بڑھایا۔ اب اس پر کام صنعتی پیمانے پر ہو رہا ہے۔
کمپیوٹر سائنس کی شاخ ''کمپیوٹر ویژن‘‘ میں ہونے والی تحقیقات نے ڈیپ فیک کو متعارف کرانے میں اہم کردار ادا کیا۔ الفاظ کے ساتھ منہ کی حرکات میں خود کار تبدیلی لانے والا پہلا پروگرام ''وڈیو ری رائٹ‘‘ 1997ء میں جاری ہوا۔ اس میں کسی وڈیو میں بولنے والے فرد کا منہ کسی دوسری آڈیو کی آواز کے مطابق حرکت کرسکتا ہے۔ یوں مشین لرننگ تکنیک سے ہونٹوں کی حرکت اور چہرے کے تاثرات بدلنے کو ممکن بنایا گیا اور ان میں ربط قائم کر دیا گیا۔
ابتدامیں ڈیپ فیک کی شناخت آسان تھی، اب حقیقت کے زیادہ قریب جعلی وڈیوز بنانے کی کوششوں نے پہچاننا دشوار کر دیا ہے۔ ''سنتھی سائزنگ اوباما‘‘ پروگرام اسی سلسلے کی کڑی تھا، سابق امریکی صدر تختۂ مشق بنے اور جس کے تحت باراک اوباما کو کسی دوسری آڈیو کی آواز کے مطابق بولتے ہوئے یوں دکھایا گیا کہ اصلی اور نقلی کی تفریق خالی آنکھ کے لیے کرنا تقریباً ناممکن ہو گیا۔ چند برس قبل ''فیس2فیس‘‘ پروگرام کے ذریعے کسی ایک فرد کے وڈیو فوٹیج میں اس کے چہرے کے تاثرات کو کسی دوسرے فرد کے تاثرات سے تبدیل کیا گیا اور ایسا براہِ راست نشریات میں کیا گیا۔
۔2018ء میں یونیورسٹی آف کیلی فورنیا، برکلے کے محققین نے مصنوعی رقص کی ایک ایپ کے بارے میں بتایا، جس میں مصنوعی ذہانت کے استعمال سے کوئی بھی سیکھے اور حرکت کیے بغیر ایسی وڈیو بنا سکتا ہے جس میں وہ ماہر رقاص دکھائی دے۔ اس منصوبے سے ڈیپ فیک چہرے سے بڑھ کر پورے جسم تک پھیل گئی۔ قبل ازیں سر یا چہرے کے تاثرات پر توجہ مرکوز تھی۔ اُسی برس ایک ڈیسک ٹاپ اپلی کیشن ''فیک ایپ‘‘ جاری ہوئی۔ اس سے ایک چہرے پر دوسرا چہرا چسپاں کرنا آسان ہو گیا۔ ''فیک ایپ‘‘تکنیکی اعتبار سے اپنے مقابل ''فیس سویپ‘‘ اور کمانڈ لائن پر مبنی ''ڈیپ فیس لیب‘‘ سے آگے نکل گئی۔
اب چند بڑی کمپنیاں ڈیپ فیک کو استعمال کرنے لگی ہیں۔ ایک موبائل ایپ بنانے والی بڑی کمپنی نے ایک ایسی اپلی کیشن تیار کی ہے جس کی مدد سے ٹی وی یا مووی کلپ میں تصویر کی مدد سے آپ اپنا چہرہ کسی کردار پرچسپاں کر سکتے ہیں۔
ڈیپ فیک نے بہت سے اخلاقی مسائل بھی پیدا کیے ہیں۔ جون 2019ء میں ''ڈیپ نوڈ‘‘ کے نام سے ایک اپلی کیشن جاری ہوئی جس کی مدد سے تصویر کو بے لباس کیا جا سکتا تھا، لیکن جلد تخلیق کنندہ اسے ری موو کر دیا۔
ڈیپ فیک ٹیکنالوجی عورتوں کے خلاف ایک ہتھیار بن رہا ہے کیونکہ اسے ان کے خلاف مذموم کاروباری مقاصد، بلیک میلنگ اور بدنام کرنے کے لیے استعمال کیا جا رہا ہے۔
ڈیپ فیک کا شکار مشہور سیاست دان بھی ہیں۔ ایک وڈیو میں ارجنٹائن کے صدر ماریسیو مکری کے چہرے کو ایڈولف ہٹلر میں ضم کیا گیا، اور انجیلنا مرکل کے چہرے کو ڈونلڈ ٹرمپ سے بدلا گیا۔یہ انتخابی مہم کا بھی حصہ ہے۔ 2020ء کے دہلی کی قانون ساز اسمبلی کے انتخابات میں بھارتیہ جنتا پارٹی نے اسی ٹیکنالوجی کو استعمال کرتے ہوئے اپنے رہنما منوج تیواری کے انگریزی زبان کے ایک اشتہار کو ہریانوی میں ترجمہ کرکے جاری کیا، ہدف ہریانہ کے ووٹرز تھے۔
ڈیپ فیک کے منفی اثرات کے خلاف ردِعمل فطری ہے۔ ڈیپ فیک کے بارے میں آگاہی بڑھانے کے لیے امریکی اداکار، ہدایت کار اور لکھاری جارڈن پیل نے باراک اوباما کی ڈیپ فیک بنائی جس میں آواز ان کی تھی اور چہرے کے تاثرات باراک اوباما کے۔ جو وہ کہتے وڈیو میں سابق امریکی صدر بھی براہِ راست وہی کہتے۔ دونوں کا موازنہ پیش کر کے ناظرین کو اندازہ ہوا کہ انہیں ڈیپ فیک سے محتاط رہنا ہے۔ اس وڈیو کو یوٹیوب پر تلاش کیا جا سکتا ہے۔
آڈیو ڈیپ فیک سے بے وقوف بنایا اور دھوکا دیا جا رہا ہے۔ بعض اوقات لوگ یہ خیال کرتے ہیں کہ وہ کسی بااعتماد فرد یا جاننے والے سے ہدایات لے رہے ہیں۔ گزشتہ برس برطانیہ میں قائم توانائی کی ایک فرم کے سی ای او کو بذریعہ فون الو بنایا گیا۔ اسے دو لاکھ 20 ہزار یورو ہنگری کے ایک بینک اکاؤنٹ میں ٹرانسفر کرنے کا کہا گیا۔ ایک فرد نے ایسا آڈیو ڈیپ فیک ٹیکنالوجی کا سہارا لیتے ہوئے کیا۔ سی ای او صاحب پہلی بار دھوکا کھا گئے، مگر خوش قسمتی سے دوسری بار انہیں دال میں کالا نظر آ گیا۔
لوگوں کو پتا ہونا چاہیے کہ ڈیپ فیک ٹیکنالوجی وڈیو اور آڈیو میں کتنی جلدی ہیراپھیری کر سکتی ہے۔ اس سے لڑنے کے لیے معلومات کے بااعتبار اور آزاد ذرائع اور صحافت کی ضرورت ہے۔اگر مؤثر اقدامات نہ کیے گئے تو ڈیپ فیک ٹیکنالوجی مذموم مقاصد کے لیے استعمال ہوتی رہے گی۔ اس سے کوئی ہنگامی صورت حال کسی بھی وقت پیدا ہو سکتی ہے۔ انٹرنیٹ اور سوشل میڈیا پر جعلی خبریں کے بعد ہم جس دور میں داخل ہوئے ہیں وہ ڈیپ فیک کا ہے۔ ڈیپ فیک وڈیو کو شناخت کرنے پر بھی توجہ دی جا رہی ہے، قانون سازی اور سافٹ ویئر، دونوں میدانوں میں۔
اس سلسلے میں حکومتیں بھی متحرک ہو رہی ہیں۔ جون 2019ء میں ریاست ہائے متحدہ امریکاکی ''ہاؤس انٹیلی جنس کمیٹی‘‘ نے انتخابات میں ڈیپ فیک کے غلط استعمال پر سماعت کی۔
اس کے خلاف قانون سازی کے سلسلے میں 2018ء میں ''میلیشیس ڈیپ فیک پروہیبشن ایکٹ‘‘ کو امریکی سینیٹ نے اور 2019ء میں ایوان نمائندگان نے ''اکاؤنٹیبلٹی ایکٹ‘‘ کومتعارف کرایا۔نومبر 2019ء میں چین نے اعلان کیا کہ ڈیپ فیک اور دیگر سنتھیٹک وڈیوز کے ساتھ نوٹس کا ہونا لازمی ہو گا اور غیرموجودگی کی صورت میں خلاف قانونی کارروائی جائے گی۔ اسی طرح کی قانون سازیاں دوسرے ممالک میں بھی ہوئی ہیں۔
دوسری طرف ایسے سافٹ ویئر بھی بن چکے ہیں جو جعلی آڈیو اور وڈیو کو چند سیکنڈوں میں پہچان لیتے ہیں۔ ڈیپ فیک کی دھوکے بازی سے بچنے کے لیے یہ ضروری ہے کہ شناخت کرنے والے ایسے سافٹ وئیرز وقتاً فوقتاً اپ ڈیٹ ہوتے رہیں تاکہ ڈیپ فیک ٹیکنالوجی کی نمو کا مقابلہ کر سکیں۔


 

Back
Top