با ظهور رسانههای تولیدشده توسط هوش مصنوعی، ساخت ویدئوهای تقلبی (دیپفیک) و انتشار آنها در اینترنت اکنون آسانتر از همیشه است. برای مثال، یکی از عبارتهای جستجوی محبوب … است.ان هاتاوی دیپفیککه اشارهای است به کلیپهای دستکاریشدهای که این بازیگر در آنها حضور دارد. اگرچه بسیاری از کاربران صرفاً از ظاهر و گسترش این ویدیوها شگفتزده میشوند، اما آنچه واقعاً مهمتر از محتواست، درک فناوری – و خطرات آن – است. این مقاله به شما کمک میکند تا بفهمید چرا ویدیوهای دیپفیک ویروسی میشوند، چگونه ساخته میشوند و چه کارهایی میتوانید انجام دهید تا پیش از اشتراکگذاری، محتوای گمراهکننده را شناسایی کنید.

چگونه فناوری دیپفیک به انفجار وایرال شدن ویدیوهای پورن از سلبریتیها کمک کرد
برنامههای دیپفیک از هوش مصنوعی برای جابهجایی چهره و همگامسازی لبها استفاده میکنند؛ آنها با بهرهگیری از ویدیوی موجود یک فرد، او را طوری نشان میدهند که گویی دارد چیزی را میگوید که هرگز نگفته است. دیپفیک آن هاتاوی یکی از نتایج رایج هنگام جستجوی این عبارت است، به این معنی که کاربران با رسانههای تولیدشده توسط هوش مصنوعی مواجه میشوند که سعی در تقلید ظاهر او و غیره دارند.
ویدیوها به دلایل مختلفی ویروسی میشوند:سلبریتیها توجه و کلیکهای زیادی را به خود جلب میکنند.
الگوریتمها تعامل سریع را پاداش میدهند.
اشتراکگذاری آن آسان است و بررسی منابع آن دشوار است.
و حتی یک ویدیوی کوتاه دستکاریشده میتواند در پلتفرمهای اجتماعی، انجمنها و گروههای بحث هوش مصنوعی منتشر شود و توسط میلیونها نفر دیده شود.
چرا پورن دیپفیک سلبریتیها اینقدر سریع در اینترنت در حال گسترش است؟
چند دلیل وجود دارد که چرا دیپفیکهای مبتنی بر افراد مشهور بهویژه قابل اشتراکگذاری هستند:
ارزش تشخیص بالا
آن هاتاوی بهطور خودکار قابل تشخیص است، بنابراین هر ویدیوی دستکاریشده از چهرهاش جلب توجه میکند. فاصله بین یک چهره آشنا تا چهرهای دیگر کوتاهتر از فاصله بین دو چهره ناشناس است.
کمبود سواد رسانهای
اکثر بینندگان نمیتوانند تصاویر واقعی را از تغییرات جزئی تشخیص دهند. نتیجه، اشتراکگذاری و گسترش ناخواسته اطلاعات نادرست است.
روندهای جستجو و کنجکاوی
اصطلاحاتی مانند «ان هاتاوی دیپفیک» در زمان اکران فیلمها، مصاحبهها یا لحظات ویروسی افزایش مییابند. هرچه جستجوها بیشتر باشد، محتوای نادرست بیشتری دوباره پدیدار میشود.
پلتفرمهای اشتراکگذاری ناشناس
وقتی همهچیز را میتوان بهصورت ناشناس بارگذاری کرد، ردیابی منبع دشوار است.
قبل از اشتراکگذاری: چگونه یک دیپفیک را شناسایی کنیم.
قبل از اینکه ویدیویی را بخرید یا به اشتراک بگذارید، میتوانید از این سرنخها ⁴ استفاده کنید تا بدانید آیا ویدیو گروود شده است یا خیر.
شناسایی مطالب گمراهکننده اهمیت دارد. اینها نشانههای رایجی هستند که یک ویدیو دیپفیک است:
حرکت غیرطبیعی چشم
چشمان ممکن است خارج از فاز باشند یا با ریتمی ضعیف چشمک بزنند.
لبههای نرم اطراف صورت
ابزارهای تعویض چهره هوش مصنوعی همچنین میتوانند خطوط دور را تار یا نورپردازی ناسازگار تولید کنند.
مشکلات همگامسازی لب
بین آنچه آنها میگویند و آنچه دهانشان انجام میدهد، ناهماهنگی وجود دارد.
مشکلات بافت پوست
تغییرات ناگهانی در بافت یا صاف شدن بخشها نشاندهنده دستکاری است.
تحریف پسزمینه
پسزمینههای نامنظم یا غیرطبیعی گاهی اوقات اشتباهات رندرینگ هوش مصنوعی را آشکار میکنند.
خطرات پخش ویدیوهای دیپفیک
اوشنفلاپر، به اشتراک گذاشتن هرگونه دیپفیک سلبریتی، مانند همان موردی که در بالا در این صفحه آن را به عنوان دیپفیک آن هاتاوی تگ کردهاید، پیامدهای منفی برای همه افراد درگیر خواهد داشت:
اثرات زیانبار و گسترده انتشار هرگونه دیپفیک افراد مشهور: آسیب به اعتبار
- اطلاعات نادرست
- توجه ویروسی ناخواسته
- نقض حریم خصوصی و اخلاقی
از آنجا که افراد مشهور در معرض خطر هدف قرار گرفتن توسطسوءاستفاده از هوش مصنوعیضروری است که رفتار مسئولانه در تماشا و اشتراکگذاری تشویق شود.
انتخابهای ایمن و اخلاقی: استفاده مسئولانه از ابزارهای هوش مصنوعی
هوش مصنوعی میتواند بهخوبی مورد استفاده قرار گیرد، مانند بهبود ویدیو، نمایشهای محصول و دوبله یا انیمیشنهای آموزشی. برای مثال، UUinin (https://www.uuinin.com/) ابزارهای هوش مصنوعی ارائه میدهد که هدفشان ویرایش خلاقانه است و نه شناسایی تقلب.
نمونههایی از کاربردهای اخلاقی هوش مصنوعی
تبدیل ویدیوها به انیمیشنهای سبکدار
بهبود ویدیوی با کیفیت پایین
ترجمهی محتوا برای مخاطبان جهانی
تولید جلوههای بصری خلاقانه
نکته این است که هوش مصنوعی باید در خلق به کار گرفته شود، نه در اختیار افراد واقعی.
چگونه با محتوای تولیدشده توسط هوش مصنوعی ایمن بمانیم
نکته: به هیچ ویدیوی مرتبط با افراد مشهور اعتماد نکنید تا منبع آن را نشناسید.
هشدار:ما دانلود یا تعامل با محتوای دیپفیک از منابع ناشناس را توصیه نمیکنیم؛ بخش زیادی از آن حاوی بدافزار یا اطلاعات گمراهکننده است.
توجه:در حال حاضر اکثر پلتفرمها امکان گزارش محتوای دستکاریشده یا خطرناک را فراهم میکنند. هر بار که کلیپهای گمراهکننده را میبینید، از این ابزارها استفاده کنید.
جدول: شاخصهای محتوای واقعی در مقابل دیپفیک
| شاخص | ویدیوی واقعی | ویدیوی دیپفیک |
| نورپردازی صاف صورت | ✓ | اغلب ناهموار |
| بیانهای سازگار | ✓ | نواقص جزئی |
| پلکزدن طبیعی | ✓ | نامنظم یا مفقود |
| پایداری پسزمینه | ✓ | تحریف/تار شدن |
| دقت همگامسازی لب | ✓ | تفاوت چند میلیثانیهای |
چرا باید به ترند دیپفیک آن هاتاوی اهمیت دهید
سوءاستفاده از دیپفیکها محدود به افراد مشهور نیست. و با پیشرفت این فناوری، تصویر هر کسی میتواند بدون اجازهٔ او مورد استفاده قرار گیرد. کلیپهای دیپفیک آن هاتاوی در اینترنت به مشکلی بسیار بزرگتر اشاره دارند: دیپفیکها یا محتوای رسانهای مصنوعی نه تنها برای انتشار دروغها و خدشهدار کردن آبروی افراد استفاده میشوند، بلکه میتوانند در زمینههای مختلف برای ایجاد اطلاعات نادرست بهکار روند.
افزایش آگاهی نخستین گام برای ایجاد یک دنیای آنلاین امنتر و هوشمندتر است.

پرسشهای متداول
س: منظور از «دیپفیک آن هاتاوی» چیست؟
A: به ویدیوهای جعلی تولیدشده توسط هوش مصنوعی که شباهت او را نشان میدهند اشاره میکند. اینها جعلی هستند و باید با احتیاط تلقی شوند.
س. آیا دیپفیکویدیوهای غیرقانونی؟
A: قوانین در هر کشور متفاوت است، اما دیپفیکهای تهاجمی یا مخرب میتوانند جنایی محسوب شوند یا بهعنوان نشر اکاذیب تلقی گردند.
س: چگونه میتوانم اصالت یک ویدیو را تأیید کنم؟
الف: اطلاعات را از منابع خبری معتبر، حسابهای رسمی شبکههای اجتماعی و نشانههای تبلیغاتی تأیید کنید.
نتیجهگیری
ویدیوهای دیپفیک ان هاتاوی تنها یک نمونه از یک روند بزرگتر هستند که در آن رسانههای تولیدشده توسط هوش مصنوعی سریعتر از آنچه بیشتر مردم فرصت تأیید آن را دارند، در اینترنت منتشر میشوند. برای مطلع ماندن و رفتار مسئولانه در فضای آنلاین، همه ما باید بدانیم این ویدیوها چگونه به نظر میرسند، چگونه به اشتراک گذاشته میشوند و چگونه میتوان آنها را شناسایی کرد.
به جای بلعیدن اطلاعات نادرست، ابزارهای هوش مصنوعی اخلاقی را بیابید که هم محترمانه و هم مفید باشند، مانند ویژگیهای موجود در UUinin.
