شناسایی ویدئوهای دیپ فیک سختتر

با توسعه و پیشرفت فناوری دیپ فیک، تشخیص واقعی یا تقلبی بودن ویدئوها نسبت به گذشته دشوارتر شده است. خوشبختانه برای این منظور گروههای مختلف شبکههای عصبی پیچیدهای توسعه یافتهاند تا به شناسایی چهرههای جعلی بپردازند.
اما محققان دانشگاه کالیفرنیا، سن دیگو، تکنیکی را خلق کردهاند که قادر است الگوریتمهای آموزشدیده برای کشف فیلمهای دیپ فیک را فریب بدهد. از طریق یک روش دومرحلهای، میتوان جعلی بودن ویدئوی دیپ فیک قابل تشخیص را با اضافه کردن لایههایی خاص به هر فریم، کاملا مخفی کرد.
این لایه در واقع تصاویر دستکاریشدهای میباشند که سبب بروز بینظمی در سیستم یادگیری ماشینی میشوند و به همین دلیل، صحت ویدئو به نادرستی تأیید میشود. البته در این روش فیلم خدشهدار نمیشود و محصول نهایی تغییری در ظاهر تصویر ایجاد نمیکند. این ویژگی به این دلیل حائز اهمیت است که ویدئوهای دیپ فیک قرار است انسانها و دستگاهها را فریب بدهند و در صورتی که با چشم انسان جعلی بودن آنها قابل تشخیص باشد، دیگر نیازی به استفاده از سیستم خاص برای بررسی کردن این مسئله نیست.
محققان در این باره دو نوع حمله را شناسایی کردهاند که یکی «جعبه سفید/ White Box» و دیگری «جعبه سیاه/ Black Box» نام دارد. هر دوی این روشها به قدری پیشرفتهاند که میتوانند حتی پیشرفتهترین سیستمهای تشخیص را فریب بدهند.
از چند سال قبل که ویدیوهای مختلفی با استفاده از تکنیکهای دیپ فیک ساخته و در فضای مجازی منتشر شد، بحث و جدال زیادی سر این فناوری به وجود آمد. در ابتدا بسیاری از سلبریتیها به دلیل شباهت بسیار بالای مدلهای تقلبی در ویدئوهای دیپ فیک نسبت به آنان خشمگین و اعتراض کردند. اما همانطور که این فناوری پیشرفت و ویدئوهای جدیدتری منتشر عرضه کرد، مشخص شد که دیپ فیک میتواند برای تبلیغات یا اهداف پلیدتری مورد استفاده قرار بگیرد.
چندین غول دنیای فناوری از جمله توییتر، فیسبوک و مایکروسافت در حال توسعه روشهایی برای شناسایی ویدئوهای جعلی هستند. محققان بیان کردهاند، بهترین روش برای مبارزه با این تکنیک، آموزش سیستمهای هوش مصنوعی که برای اینکار طراحی شدهاند.