جعلی سازی عمیق مرزی بین واقعیت و دروغ نمی گذارد +عکس، ویدئو

© AP Photo / Koji Sasaharaهوش مصنوعی آخرین دستاورد بشر شد
هوش مصنوعی آخرین دستاورد بشر شد - اسپوتنیک ایران
اشتراک
وقتی تکنولوژی دیپ فیک همه را نگران کرده است!

ه گزارش اسپوتنیک، ‏دیپ فیک، یا جعلی سازی عمیق نام تکنولوژی جدیدی بر مبنای هوش‌‌ مصنوعی است که به‌واسطه‌ی آن تصاویر و ویدئو‌های دروغین شبیه واقعی درست می‌شود. این موضوع اخیرا بسیاری را وحشت‌زده کرده است. 

View this post on Instagram

A post shared by آژانس خبری و تحلیلی شهریاران (@shahryaran_news) on

برای مثال خانمی که در اول ویدئو‌ی بالا می‌بینید ادل نیست. همان طور که بقیه شخصیت‌ها هم آنهایی نیستند که نخست تصور می‌کنید. برخلاف اینکه همه شبیه شخصیت های ذکر شده هستند.
همگی اینها توسط فناوری دیپ فیک ساخته شده‌اند.
این تکنیک در واقع جانشینی تقریبا بی‌نقص یک چهره روی کالبد شخص دیگر است که روز به روز دقیق‌تر و همه‌گیرتر می‌شود.

View this post on Instagram

Deepfake |Part 1| 🎭👇🏿 دیپ فیک |بخش اول| ما در حال ورود به عرصه ای از فناوری هستیم که هر فردی میتواند با استفاده از هوش مصنوعی، هر شخصی را در حال گفتن هر چیزی در هر زمانی شبیه سازی کند. طوری که دیگر توان تشخیص فیک و بدل از واقعیت وجود نخواهد داشت. در اسلاید دوم اوباما را میبینید که از طریق همین فناوری ساخته شده و عملا هیچ واقعیتی ندارد. حال به طور مثال فرض کنید در حال تماشای اخبار هستید و نخست وزیر یک کشور در حال اطلاع رسانی یک موضوع بسیار مهم می‌باشد. در حالی که خود واقعی فرد مدت هاست وجود خارجی ندارد. در حالی که رسانه ها با استفاده از تکنولوژی دیپ فیک که از الگوریتم های یادگیری ماشین بهره می‌برد توانسته اند نخست وزیر را برای مدت ها به صورت زنده و فعال در صحنه نگه دارند و نمایش دروغین را به خورد بینندگان دهند. همینطور در اینده ای نزدیک شاهد فیلم هایی خواهیم بود که هیچ بازیگر واقعی در آن نقش آفرینی نمی‌کند و همه کاراکترها فقط شبیه سازی هایی خارق العاده از بازیگران واقعی هستند. ——————————————————————- We’re entering an era in which our enemies or even every single person can make anyone says anything at any point in time. Deepfake is a technique for human image synthesis based on artificial intelligence and also use machine-learning algorithms that take existing images and footage to professional videos. Some experts worry that deepfakes could heighten disinformation and spark violence, war or genocide. Fake videos and audio keep getting better, faster and easier to make, increasing the mind-blowing the technology’s potential for harm if put in the wrong hands. (As you see in second slide which Obama video is fake) ——————————————————————- #تکنولوژی #دیپ_فیک #تحول #هوش_مصنوعی #آینده #پیشرفت #یادگیری_ماشین #یادگیری_عمیق #فناوری #علم #ربات #محسن_سالک ——————————————————————- #artificial_intelligence #ai #future #deepfake #deep_fake #hyperloop #technology #machine_learning #tech #machinelearning #apple #google #MohsenSalek #mohsen_salek_academy

A post shared by Mohsen Salek (@mohsensalek) on


با استفاده از همین تکنیک ویدئویی جعلی از زاکربرگ نیز در اینستاگرام منتشر شده که حرف‌هایی درخورتأمل درباره‌ی قدرت فیسبوک به‌زبان آورده است. این شرکت در گذشته گفته بود چنین ویدئوهایی را از شبکه حذف نمی‌کند.

View this post on Instagram

A post shared by سید داوود نبوی زاده (@sayyed_davood) on


بسیاری از کاربران معتقدند که دیگر علی رغم گذشته حتی نمی توان به ویدئوی منتشر شده از سوی افراد مختلف اعتماد کرد.
به گفته بسیاری از کاربران این تکنولوژی سبب ایجاد شایعه های بسیاری در شبکه های اجتماعی از افراد مختلف خواهد شد.

View this post on Instagram

A post shared by @iran_vatan11 on

نوار خبری
0
loader
بحث و گفتگو
Заголовок открываемого материала