یک مثال آن، تصویرهای تولیدشده با هوش مصنوعی از انفجاری در پنتاگون (وزارت دفاع ایالات متحده آمریکا) است که در ماه مه در رسانههای اجتماعی به گستردگی پخش شد و تصویرهای پاپ فرانسیس، رهبر کاتولیکهای جهان، در حالی که یک کاپشن پفی پوشیده بود در رسانههای اجتماعی دست به دست شدند. در جریان انتخابات ریاستجمهوری سال جاری (۲۰۲۳ ) در نیجریه، یک فایل صوتی دستکاری شده که در آن ادعا شده بود آتیکو ابوبکر۲، نامزد انتخابات، معاونش دکتر ایفینی اوکووا و امینو تمبووال فرماندار ایالت سوکوتو به دنبال تقلب در انتخابات هستند، در فضای مجازی انتشار یافت.
سایلس جاناتان محقق طرح راستیآزمایی “دوباوا” و یکی از اعضای آکادمی آفریقا برای تحقیقات [با بهره از] منابع آزاد میگوید که جعل عمیق بدون شک سؤالها و نگرانیهای مهمی را برای رسانهها به وجود آورده است. جفری نیابور خبرنگار غنایی که با در زمینه راستیآزمایی کار میکند، بر این باور است که هرچه عاملان انتشار اطلاعات نادرست در استفاده از جعل عمیق موفقتر شوند، به همان اندازه رسانهها اعتبار بیشتری از دست میدهند، چون توان مخاطبان برای تشخیص واقعیت از غیر آن کمتر خواهد شد. با این همه، هوش مصنوعی که خودش یک مشکل است، میتواند راه حل نیز باشد. در این مطلب چند ابزار را که خبرنگاران میتوانند از آنها برای مقابله با جعل عمیق استفاده کنند، معرفی کردهایم.
شبکههای عصبی عمیق
دو نمونه از ابزارهای رایگانی که از شبکههای عمیق نورال (پایانه به پایانه) برای تشخیص جعل عمیق استفاده میکنند، TensorFlow و PyTorch هستند. از آنها میتوان برای تجزیه و تحلیل تصویرها، ویدیوها و فایلهای صوتی استفاده کرد تا نشانههای دستکاری در آنها تشخیص داده شود. کاربران تنها با بارگذاری نمونههای اصلی و جعلی مواد رسانهای (تصویر، ویدیو…) میتوانند به مدل تشخیصدهنده یاد بدهند که آنها را از هم تفکیک کند. به گفته جاناتان «این شبکهها میتوانند از حجم وسیعی از اطلاعات آموزش بگیرند تا از هم گسیختگیها در حالات چهره، حرکات و نمونههای کلامی را تشخیص دهند و در نتیجه به وجود جعل عمیق پی ببرند.» وی میافزاید: «الگوریتمهای آموزش ماشینی هم قابلیت آموزش تجزیه و تحلیل و تشخیص نمونهها را در ویدیو و تصویر دارند تا تشخیص دهند که آیا این نمونهها دستکاری شده و یا با فنون جعل عمیق تولید شدهاند یا نه.»
Deepware
Deepware یک فنآوری منبع باز است که اساساً برای تشخیص ویدیوهای تولیدشده با هوش مصنوعی به کار میرود. این وبسایت یک اسکنر دارد که میتوان ویدیوها را در آن آپلود یا بارگذاری کرد تا تشخیص دستکاری احتمالی میسر شود. الگوهای این ابزار هم مانند ابزارهای دیگر تشخیص جعل عمیق، به دنبال نشانههای دستکاری در چهره انسان میگردند. محدودیت اصلی این ابزار، عدم توانایی آن برای تشخیص تکنیکهای تغییر صداست که نسبت به تغییر چهره، خطر بزرگتری است. مایووا تیجانی از سردبیران ارشد نشریه TheCable، میگوید: «نتیجه کار با Deepware همیشه درست نیست و گاهی هم نتیجه نادرستی به دست میآید. این به میزان خوب بودن جعل، زبان مورد استفاده در آن و چند عامل دیگر بستگی دارد.»
Sensity
Sensity، ابزاری تخصصی برای تشخیص جعل عمیق و شناختن تصویرهای تولیدشده با هوش مصنوعی است. مدلهای یادگیری ماشینی آن میتواند برای تجزیه و تحلیل نشانههای بصری و متنی با هدف تشخیص تصویرهای تولیدشده با هوش مصنوعی استفاده شود. اما این ابزار رایگان نیست. بهای آن بر اساس میزان استفاده ماهانه و علایق شخصی کاربران تعیین میشود.
Hive
با این ابزار، راستیآزمایان مستقل و کاربران اینترنت میتوانند با سرعت متنها و تصویرهای دیجیتال را اِسکَن کنند تا اصالت آنها را دریابند. برای تشخیص دادن اصالت یک تصویر، کاربران میتوانند فایل را در صفحه تشخیص محتوای تولیدشده با هوش مصنوعی این ابزار بارگذاری کنند تا با سرعت پردازش شود. Hive یک extension (اکستنشن یا افزونه) مختص گوگل کروم هم دارد که میتوان آن را به کامپیوتر اضافه کرد.
Illuminarty
Illuminarty هم قابلیت تشخیص تصویر و متن تولیدشده با هوش مصنوعی را دارد. نسخه رایگان آن شامل خدمات ابتدایی است و نسخه غیررایگان آن قابلیتهای بیشتری ارائه میدهد. کاربران میتوانند با این ابزار، قسمت دستکاری شده در یک تصویر را، و این را که آن قسمت با کدام مدل هوش مصنوعی تهیه شده است، دریابند. این ابزار همچنین میتواند بررسی کند که چه قدر امکان دارد یک تصویر با هوش مصنوعی ساخته شده باشد. تمام این ابزارها میتوانند به کاربران کمک کنند تا جعل عمیق را تشخیص دهند و با آن مقابله کنند، اما حتی این همه، همیشه نتیجه درستی به دست نمیدهد. به گفته جاناتان، همیشه خطر نتیجهگیریهای نادرستِ مثبت و یا منفی وجود دارد. یعنی ممکن است محتوای اصلی، به اشتباه به عنوان جعل عمیق شناخته شود، و برعکس.
خبرنگاران و راستیآزمایان مستقل همچنین میتوانند با بررسی نقادانه محتوا، جعل عمیق را تشخیص دهند. تمام تصویرها و ویدیوهای تولیدشده با هوش مصنوعی عاری از عیب نیستند. با نگاه دقیق به بسیاری از آنها، میتوان از ماهیتشان آگاه شد.
۱- Deep fake
۲- Atiku Abubakar
*عکس آرشیوی
انتهای پیام/ علیرضا خوش طینت/ منبع: شبکه بین المللی روزنامه نگاران