با نزدیک شدن به انتخابات ۲۰۲۰ ایالات متحده، تعداد زیادی از رهبران سیاسی، نامزدهای ریاستجمهوری و رؤسای امنیتی و اطلاعاتی این کشور نگرانیهای خود را در مورد امنیت سایبری و آنچه از جانب حوزه فناوری بهعنوان تهدید برای این دور از انتخابات بیان میشود، ابراز کردند. هر یک از متخصصان و کارشناسان مشکلات مختلف فناوری را برای انتخابات ریاست جمهوری امریکا مورد توجه قرار دادند و با وجود این تمامی آنها روی یک مشکل واحد که این بار گریبانگیر نامزدها میشود اتفاق نظر دارند: فیلمهای ویدئویی گمراهکننده و جعلی.
چند روز قبل در خبرها اعلام شد یکی از پروفسورهای امریکایی موفق به ساخت ابزار هوشمندی شده است که میتواند تصاویر ویدئویی جعلی منتشر شده مربوط به شخصیتهای سیاسی مهم از جمله دونالد ترامپ رئیس جمهوری امریکا، ترزا می نخستوزیر بریتانیا، جاستین ترودو نخستوزیر کانادا و نامزدهای انتخابات ۲۰۲۰ ریاست جمهوری امریکا را تشخیص دهد. این ابزار هوشمند بهگونهای ساخته شده است که با نسل آتی فعالیتهای مخرب کمپینهای تبلیغاتی مقابله میکند و مانع نشر اطلاعات نادرست و جعلی میشود. ولی بهنظر شما هوش مصنوعی تا چه اندازه میتواند مهندسی فریبنده رسانههای اجتماعی برای گمراهکردن رأیدهندگان را مختل کند؟
این ویدئوهای گمراه کننده
کارشناسان عرصه فناوری این روزها اصطلاح جدیدی با عنوان «دیپفِیک» را در صحبتهای خود مطرح میکنند که در اصل از ترکیب عبارتهای «یادگیری عمیق» و «اطلاعات جعلی» ساخته شده است. این اصطلاح برای آن دسته از فایلهای صوتی و تصویری مورد استفاده قرار میگیرد که شکل ظاهری کاملاً واقعی و قانعکننده دارند و البته بهصورت جعلی ساخته میشوند. این فایلها که به کمک نسل جدیدی از فناوری هوش مصنوعی ساخته میشود، شخص مورد نظر را در تصویر ویدئویی بهگونهای نمایش میدهد که مخاطب تصور میکند فرد واقعی این صحبتها را بیان کرده است و نکته مهم اینجاست که تصویر مذکور کاملاً ساختگی و جعلی است.
این قبیل تصاویر ویدئویی پیشتر توسط سیاستمداران و افراد سرشناس مورد استفاده قرار گرفتند و به لطف توسعه هرچه بیشتر فناوری، این روزها ساخت چنین تصاویر ویدئویی جعلی آسانتر و ارزانتر از هر زمان دیگر انجام میشود و البته، بسیار واقعیتر از تصاویر جعلی که تاکنون منتشر شده است به نمایش درمیآید. این ویدئوها به گونهای منتشر میشوند که مخاطب تصور میکند فرد سیاسی مورد نظر سخنرانی کرده است و کارشناسان از هماکنون هشدار دادهاند که طی یک سال پیشرو، سونامی این قبیل ویدئوها برای نامزدهای انتخابات ریاست جمهوری امریکا ایجادخواهد شد.
باید توجه داشت تصاویر ویدئویی که در خانواده «دیپفِیک» قرار میگیرند هنوز فراگیر نشدهاند و با وجود این دولت امریکا نگرانیهای فراوانی دارد تا دشمنان خارجی با استفاده از این ویدئوها در انتخابات ۲۰۲۰ اختلال ایجاد کنند.
«دان کوتس» مدیر کل تشکیلات اطلاعاتی امریکا براساس ارزیابی جهانی تهدیدهای سایبری در ماه ژانویه هشدار داده بود که تصاویر ویدئویی جعلی یا دیگر محتوای مشابه که در شبکههای اجتماعی به اشتراک گذاشته میشوند، از جمله راهکارهایی خواهند بود که برای ایجاد اختلال در انتخابات سال آتی بهصورت گسترده مورد توجه قرار میگیرند.
سردرگم میان جعلی و واقعی
«هانی فرید» متخصص چهرهشناسی در کالج دارتموث بر این باور است که تشخیص تصاویر ویدئویی جعلی و واقعی در انبوه ویدئوهایی که هر روز در شبکههای اجتماعی به اشتراک گذاشته میشوند بسیار دشوار است و تنها راه حل این است که به کمک فناوریهای هوشمند بتوانیم جلوی گسترش هرچه بیشتر این ویدئوها را بگیریم. او به کمک همکاران خود در حال ساخت نرمافزاری است که میتواند با جزئیات کامل تصاویر ویدئویی جعلی سیاستمداران را تشخیص دهد و در نهایت بتواند آنها را از ویدئوهای واقعی جدا کند.
به هر حال باید توجه داشت تشخیص تصاویر ویدئویی جعلی نسبت به آنچه تاکنون در قالب اخبار و متنهای جعلی منتشر میشود بسیار دشوارتر است و فرید متخصص چهرهشناسی در کالج دارتموث بر این اعتقاد است که این دسته از ویدئوها میتواند آسیبهای جبرانناپذیری به جوامع و دموکراسی وارد کند.
این گروه از محققان نرمافزار هوشمند خود را در خانوادهای از فناوریها موسوم به «بیومتریک نرم» طبقهبندی میکنند و طی آن قرار است نرمافزار جدید تمام جزئیات مربوط به یک شخص واقعی و تصویر ویدئویی جعلی ساخته شده از روی او را از یکدیگر جدا کند. محققان این فرآیند را با استفاده از ابزارهای خودکار مبتنی بر فناوری هوش مصنوعی پیش میبرند تا به موجب آن بتوانند تمامی تصاویر ویدئویی سیاستمداران سرشناس از جمله دونالد ترامپ رئیس جمهوری کنونی یا باراک اوباما رئیس جمهوری سابق امریکا را تحلیل کنند و ارتباط میان حرکات سر، الگوهای گفتاری و تغییرات چهره هنگام بیان کلمات خاص را نمایان سازند تا از این طریق تصویر فرد واقعی شناسایی شود.
«هانی فرید» در این خصوص میگوید: بهعنوان مثال زمانی که اوباما قصد اعلام یک خبر بد را داشت اندکی اخم میکرد، سرش را رو به پایین میگرفت و با صدای بمتر صحبت میکرد. در این میان زمانی که قرار بود رئیس جمهوری سابق امریکا خبر خوب را بیان کند سرش را به سمت بالا میگرفت و ابروهای خود را اندکی به بالا
هدایت میکرد.
مجموعه این عوامل در کنار یکدیگر برای ساخت یک مدل واحد از یک شخص نظیر اوباما بهکار گرفته میشوند و سپس زمانی که تصویر ویدئویی جدید او به اشتراک گذاشته میشود، سیستم هوش مصنوعی این مشخصههای پنهان و آشکار را بررسی میکند تا دریابد که آیا تصویر اوباما الگوهای گفتاری ویژه، حرکات سر و تغییرات چهره را شامل میشود یا اینکه تصویر ویدئویی بهصورت جعلی ساخته شده و فاقد این تغییرات است.
فرید در ادامه امیدوار است که ابزارهای هوشمند خود را تا پایان سالجاری میلادی در اختیار روزنامهنگاران و مراکز خبری قرار دهد و پیشبینی شده است که یک سایت اینترنتی مرجع نیز برای تشخیص تمام تصاویر ویدئویی منتشر شده از سوی رهبران سیاسی و افراد سرشناس در اختیار کاربران قرار گیرد تا بتوانند از صحت آنها اطمینان حاصل کنند.
گفتنی است با وجود این موارد این متخصص چهرهشناسی در کالج دارتموث میگوید: تاکنون فقط الگوهای ترامپ، اوباما، بِرنی سندرز و الیزابت وارِن ارائه شده است و بنابراین باید تلاش شبانهروزی صورت گیرد تا پیش از آغاز انتخابات ۲۰۲۰ امریکا، الگوهای دیگر افرادی که در این زمینه اثرگذار هستند نیز ارائه شود. او گفت: «اگر شما یک روزنامهنگار هستید و در شبکههای مجازی با تصویر ویدئویی جدید برخورد میکنید، از این پس بهتر است به محتوای آن شک کنید و هر آنچه را که میبینید براحتی باور نکنید.»
اگرچه اقدام فرید بسیار کاربردی بهنظر میرسد و میتواند مشکلات مربوط به تصاویر ویدئویی جعلی را تا اندازهای حل کند، ولی باید اعتراف کرد که فعالیت شبکههای اجتماعی بسیار گستردهتر از تصویر ویدئویی چند شخص سرشناس دنبال میشود و بنابراین باید از هماکنون این نگرانی را داشت تا در چند سال آینده گروه گستردهتری از کاربران جهانی تحت تأثیر این دسته از اطلاعات نادرست و جعلی قرار بگیرند.
میثم لطفی
- 16
- 1