به گزارش «تابناک»، تلفیق تصاویر و فیلمهای موجود با منبع مورد نظر ویدئویی به نحوی صورت میگیرد که گویی ترکیب هر دو تصویر یا هر دو فیلم یکی است و در یک صحنه رخ میدهد. این ترکیب پیچیده به طور مثال میتواند یک فرد یا افراد را به گفتن چیزها و یا انجام اقداماتی نشان دهد که هرگز در واقعیت رخ نداده اند. چنین فیلمهای جعلی میتواند بدین شکل ایجاد گردند که حضور شخصی را در فیلمهای غیر اخلاقی نمایش دهند به طوری که هرگز فرد در آن فیلم حضور نداشته است. این ویدئوها حتی میتوانند تصویر فرد را در رویدادهای سیاسی و مجرمانه از جمله صحنههای قتل، سرقت و ... قرار دهند.
اما هولناکترین بخش دیپ فیک Deepfake آنجاییست که قربانی آنها نه فقط مشاهیر بلکه سیاستمداران را مورد هدف قرار میدهند.
نرم افزارهای دیپ فیک Deepfake ساخته شده اند و این نوع از دستکاریهای ویدیویی نه تنها به راحتی در دسترس است، بلکه هر روز سختتر و سختتر میتوان آنها را به عنوان تصاویر جعلی تشخیص داد.
تنها شانسی که وجود دارد، اینست که با نهایت دقت تصاویر خود را در اینترنت محفوظ نگه داشته؛ البته با وجود احاطه شدن توسط شبکههای اجتماعی متعدد و درخواست حساب کاربری برای انجام کوچکترین کارها، نرم افزارهای جاسوسی، اشیای هوشمند و پیچیده شدن فن آوری، پایین بودن سطح آگاهی مردم، حفاظت از اطلاعات به نظر دشوار میآید.
هانی فرید یکی از محققان دارتموث فعال در زمینه دعاوی حقوقی رسانهای، در خصوص ریشه کن کردن مواردی همانند deepfakes گفته:”همه تصاویری که از خودتان در اینترنت قرار داده اید، به دلخواه خودتان بوده و شما آزادانه این کار را انجام داده اید. هیچ شخصی شما را وادار به انجام آن نکرده، حتی تصاویری که از شما به سرقت رفته – خود شما موجب آن شده اید. ”
این بخشی از گزارش ویژه وب سایت CNET است که به بررسی مزایا و معایب تشخیص چهره میپردازد.
Deepfake نمایانگر نوعی متفاوت و مخربتر از تشخیص چهره مرسوم کنونی است. روش مرسوم حال حاضر، نقش مهمی در زندگی تان ایفا میکند: بوسیله همین فناوریست که میتوانید تمام عکسهای یک دوست خاص را در Google Photos پیدا کنید. همچنین میتوانید صورت خود را اسکن نموده و بدون نیاز به کوچکترین دانشی، چهره اسکن شده را در یک فروشگاه یا کنسرت قرار دهید.
بر خلاف بسیاری از سیستمهای تشخیص چهره، که اساسا ویژگیهای چهره شما را به یک کد منحصر به فرد برای رایانه تبدیل میکند، نرم افزارهای Deepfake به منظور تخریب هویت فرد بکار میروند و حتی مجال پرسیدن ندارید، این حقیقت محض است. این سناریوی کابوس است نه فقط برای از بین بردن زندگی شما، بلکه برای دستکاری ادراک عمومی از سران کشورها، مدیران ارشد قدرتمند یا نامزدهای سیاسی.
فناوری دیپ فیک Deepfake، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربینها کشف کرده و به طرز کاملا باورپذیری چهره همان انسان را جعل کرده و میتواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد. یک عروسک خیمه شب بازی دیجیتالی که در محیطهای دیگر، بازتولید میشود. هوش مصنوعی همانند سوختی است که توسعه Deepfake، را سرعت بخشیده؛ اما این فقط یک فناوری است، که باید از طریق قوانین و دستورالعملهایی مربوط به اسکن تصاویر چهره کنترل گردد.
متأسفانه، ظهور deepfakes پس از بیشتر از یک دهه اشتراک گذاری تصاویر شخصی در شبکههای آنلاین آغاز شده تا جایی که دیگر، تقریبا تصاویر تمام چهرهها روی اینترنت است؛ حتی دور ماندن از دید عموم، مانع از تلفیق Deepfake نخواهد شد؛ امروزه این امری اجتناب ناپذیر است و هر کسی در جهان در معرض آن قرار دارد: شما در تصاویر و فیلمهای دوستانتان قرار دارید، موبایل هایتان با قفل تشخیص چهره کار میکنند، تماسهای تصویری برقرار میکنید، ویدئو کنفرانس میگذارید و بوسیله روشهای مختلف به طور ناخواسته تصویر چهره تان را در اینترنت به اشتراک میگذارید.
اگرچه دیپ فیک Deepfake در حالت و اشکال مختلفی و نه فقط برای چهره وجود دارد و حتی سایر اندام بدن انسان و اشیا را نیز میتواند تغییر دهد. ما در اینجا فقط به جعل چهره میپردازیم:
جابجایی یا جعل چهره شاید در نوع سرگرم کننده آن جالب باشد، اینکه چهره فردی لاغر را روی فردی چاق قرار داده یا چهره کودک را روی بدن فرد بزرگسال گذاشته ممکن است خنده دار به نظر آید. اما رفته رفته با قویتر شدن نرم افزارها و پیدایش هوش مصنوعیها، حفرههای سیاهی پیدا شدند؛ جابجایی چهره برای برخی اشخاص به کابوس تبدیل شد، Deepfake، گریبانگیر سلبریتیها شد و آنها را در فیلمهای غیر اخلاقی و یا در حالتهای نامتعارفی جعل کرد و نمایش داد که حتی خودشان به سختی میتوانستند باور کنند که این ویدئوها جعلی است. از معروفترین قربانیهای Deepfake میتوان به بازیگران سرشناسی همچون اسکارلت یوهانسون و جنیفر لارنس اشاره کرد همچنین در ویدئویی نیز اوباما را در حال سخنرانی نشان میدادند که هم تصویر هم صحبتهای وی جعلی بود، پس از مدتی طی شکایتهای متعددی که صورت گرفت، در برخی از وب سایتهایی که پیشتر جابجایی چهره برای سرگرمی به کار میرفت ممنوع شد.
از آنجاییکه Deepfake با روش یادگیری ماشین کار میکند، جهت جعل چهره، Deepfake به داشتن چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. به منظور جابجایی چهره؛ مجموعه دادههای چهره هدف و ویدئو مقصد مورد نیاز است و این یکی از دلایلی است که اشخاص معروف و سیاستمداران بیشتر در خطر هستند و با سادگی با جستجویی سریع در اینترنت میتوان تمام دادههای مورد نیاز را بدست آورد.
بهترین روش حفاظت در برابر Deepfake، بستگی به خود شما دارد که آیا میخواهید عکس خود را از دید عموم حفظ کنید و یا آن را در اینترنت به صورت امن نگه دارید.
شاید تجمیع صدها تصویر از زوایای مختلف سبب ایجاد تصویری بسیار با کیفیت شود، اما نبود این تعداد تصویر و زوایا نیز، باز هم میتواند مورد استفاده Deepfake قرار گیرد با روشهایی همانند کشیدن تصاویر و فریمهای چندگانه میتوان شکافها را پر کرد. برنامه Everytime آیفون تصویری که تهیه میکند، حداقل ۳۰ فریم در ثانیه ضبط میشود.
به هر حال برخی Deepfakeها آنقدر هوشمند شده اند که کیفیت و کمیت مورد نظر تصاویر را میتوانند بدست آوردند. به خصوص اگر زوایای صورت و چهرهها با ویدیو مقصد مورد نظر هماهنگ شود و اگر هم نباشد ممکن است ویدئو و تصاویر مقصد را با مبدا هماهنگ کنند.
البته نمیتوان راهکارهایی به طور کامل امن برای مقابله با Deepfakeها پیدا کرد حتی تصاویر بسیار کوچک هم با نرم افزارهایی قابل بهبود هستند. ولی برای اشخاص عادی توصیه میشود حدالامکان از ارسال بی مورد تصاویر در شبکههای اجتماعی خودداری کنند و یا در عکسها و فیلمهای کسانی که نمیشناسند حضور نیابند یا اگر ناچارند صورت خود را به نحوی دور از دید دوربین نگه دارند.
حتی “هانی فرید” به افراد مشهور خصوصا سیاستمداران گفته است:” هنگامی که با اطرافیان خود صحبت میکنید، هر چند وقت یک بار و فقط یک لحظه دستتان را در مقابل چهره خود قرار داده تا از خودتان در برابر اینگونه تهدیدها محافظت بعمل آورید”
البته این روش او موثر واقع نشد؛ نسبت سرعت و تعداد فریمهای عکاسی بسیار بالا رفته و نمیتواند راهکار مطمئنی برای اشخاص مشهور محسوب گردد.
اما تهدید deepfakes، واقعا تا چه حد پیچیده و جدی است؟ اگر در آینده اعتقاد به این پیدا کنیم که اکثر ویدئوها جعلی هستند پس به چه چیز میتوانیم اعتماد کنیم. تفاوت میان دروغ و درستی چگونه قابل تشخیص خواهد بود؟
هانی فرید میگوید: “مردم باید آگاه باشند که این چیزها وجود دارند …، اما باید درک کنند که ما با فناوری همراه هستیم، و اینکه چه چیزی میتواند و چه چیزی نمیتواند جعلی باشد. ”، “مردم ممکن است یکباره خشمگین شوند و شروع به دیوانگی کنند. اما باید بتوانند این احساسات را کنترل کرده و سطح شناخت خود از اشخاص دور و برشان بالا ببرند به جای اینکه به ویدیوها و تصاویر جعلی اکتفا کنند. ”
بله واقعیت دارد Deepfakes خطرناک است و ممکن است به نوعی تهدیدی جدی برای اشخاص مشهور، سیاستمداران و یا حتی مردم عادی به شمار آید. ولی این فقط Deepfakes نیست که باید از آن ترسید، تهدیدهای بزرگتر دیگری هستند که اکثریت مردم عادی را نیز هدف قرار داده اند. همین دو سال اخیر بود که موضوع حفظ حریم شخصی توسط فیسبوک و گوگل به شدت زیر سوال رفت و به دنبال آن باگ امنیتی فیستایم اپل و برنامههایی که بر روی موبایلها خواسته و ناخواسته نصب میشوند و تمام اطلاعات و فعالیتهای کاربران را با اهداف تجاری یا سوء استفادههای دیگر رصد میکنند. فن آوریها به سرعت پیشرفت میکنند و به راحتی میان مردم منتشر میگردند؛ اما هنوز قوانین جامع و کاملی برای نحوه استفاده از آنها وجود ندارد، هنوز حتی قانونگذاران هم اطلاعات جامعی در خصوص دستگاههایی که میان مردم عرضه میشود ندارند. پس deepfake تنها دغدغه نخواهد بود.
اشخاصی که واکنش خشمگینانهای در قبال موضوع دیپ فیک Deepfake از خود نشان دادند بدین خاطر بود که چهره خود را در فیلمهای غیر اخلاقی دیدند؛ اما سوال این است چرا جوامع غربی که خودشان هم از این مسائل ضربه میخورند باز هم باید به ساختن اینچنین محتوایی ادامه دهند و اینجاست که بحث اصلی مطرح میشود، تکنولوژی فقط ابزار است این انسانها هستند که چگونگی استفاده از آنها را تعیین میکنند. تهدیدها همیشه وجود داشته اند، اما با پیدایش فناوری شکل آنها تغییر کرده و سرعت و وسعت بیشتری پیدا کرده اند. در هر صورت قطع به یقین نمیتوان با تمام تهدیدها مقابله کرد، ولی میتوان حداقل آگاهی در مورد فن آوریهایی که استفاده میکنیم کسب کرده و در حفاظت از اطلاعات شخصی خود و افراد خانواده مان دقیقتر عمل کنیم.
منبع: دیجی طور
سایت تابناک از انتشار نظرات حاوی توهین و افترا و نوشته شده با حروف لاتین (فینگیلیش) معذور است.