آژانس پروژههای تحقیقاتی پیشرفتهٔ دفاعی (DARPA) به منظور مقابله با اخبار و محتوای جعلی از پروژه ای مشترک با گروه تحقیقاتی استنفورد (SRI International) خبر داده است.
دارپا در قالب پروژه MediFor در حال توسعه ابزارهایی است که قابلیت شناسایی ویدئو یا تصویری که به منظور گمراه سازی مخاطب به صورت معناداری تغییر کرده، را دارد.
یکی از مشهورترین روش های تحریف محتوا «deepfake» نام دارد که در آن چهره یک شخص مشهور در قالب ویدیویی دیگر قرار داده می شود. نرم افزارهای مورد استفاده در این روش اغلب ارزان قیمت هستند، با این حال ابزارهای تجزیه و تحلیل فعلی قابلیت شناسایی بخش های تحریف شده را ندارند.
دارپا در بیانیه خود مدعی شده که MediFor با بهره گیری از محققان تراز اول، فناوری هایی را برای ارزیابی خودکار صحت تصاویر و ویدئو ها توسعه می دهد. این ابزارها جزئیات دقیقی را از چگونگی و میزان تحریف محتوا ارائه می کنند.
توسعه پروژه MediFor از 2015 شروع شده و احتمالا نهایی سازی آن تا سال 2020 طول بکشد. این گروه تحقیقاتی برای شناسایی تحریف صوتی یا تصویری ویدئوهای مشکوک روی چهار تکنیک تناقض در صحنه مثل مساحت اتاق یا اکوی صوت، عدم هماهنگی حرکات لب و صدا، شناسایی فریم های حذف شده یا تزریق محتوا استفاده می کنند.
در آزمایشی که قبلا با استفاده از این سیستم روی صدها ویدئو صورت گرفته، محتوای تحریف شده با دقت 75 درصد شناسایی شده است.
یکی از محققان موسسه استنفورد درباره خطرات ویدئوهای غیرواقعی می گوید:
در آینده نزدیک و با پیشرفت تکنیک های تحریف ویدئو و یا حتی تولید محتوای ساختگی، هکرها و کاربران عادی قادر به تولید فیلم هایی از افراد هستند که آنها را حین انجام دادن کاری نشان می دهد که روحشان هم از آن خبر ندارد.
از دیگر خطرات ویدئوهای ساختگی می توان به تاثیرگذاری روی دیدگاه های عموم مردم اشاره کرد؛ با این حال پیاده سازی پروژه هایی نظیر MediFor می تواند تا حدودی با این خرابکاری ها مقابله کند.