Deepfake و چالش‌های هویت دیجیتال

Deepfake و چالش‌های هویت دیجیتال

Deepfake و چالش‌های هویت دیجیتال به یکی از موضوعات اصلی رسانه تبدیل شده است. امروزه سایت‌های اجتماعی مانند توییتر، اینستاگرام و فیسبوک بحران اطلاعات و محتوای نادرست مربوط به اخبار جعلی را هدایت می‌کنند؛ اما در آینده نزدیک این سایت‌ها بهترین امید ما برای حل این مشکل خواهند بود. اخیراً مدیران عامل توئیتر و فیسبوک برای ارائه توضیحات به کنگره آمریکا فراخوانده شده‌اند. این امر Techlashing به معنی یک واکنش منفی شدید یا واکنش منفی علیه بزرگ‌ترین شرکت‌های فناوری یا کارمندان یا محصولات آن‌ها نامیده می‌شود.

اعضای کمیته قضایی سنا نگران تعصبات سیاسی، اعتیاد، سخنان نفرت‌انگیز و مهم‌تر از همه بحران اطلاعات غیرمجاز هستند چرا که دولت‌های خارجی، نظریه‌پردازان توطئه و تبلیغات داخلی به راحتی الگوریتم‌های اجتماعی را برای پخش اخبار جعلی از افراد جعلی با مشخصات کاربری جعلی و فاقد هویت واقعی به کار می‌گیرند.

Deepfake و تهدیدات پیش رو

یک سال پیش، بسیاری انتظار داشتند که با استفاده از یک فیلم کاملاً جعلی یک رسوایی سیاسی در انتخابات اخیر ایالات متحده ایجاد شود. ولی این اتفاق نیفتاد و یکی از مهم‌ترین دلایل عدم بروز این مشکل توانایی تشخیص فیلم‌های Deepfake توسط چشم است. با این حال، تصاویر Deepfake تا حدی کامل شده‌اند که مردم نمی‌توانند بین عکس یک فرد واقعی و یک عکس جعلی از یک شخص جعلی و بدون هویت تفاوت قائل شوند و این همان اتفاقی بود که در زمان انتخابات اتفاق افتاد.

مخالفان حزب دموکرات با استفاده از یک صفحه اجتماعی اتهامی به هانتر بایدن، پسر رئیس جمهور منتخب ایالات متحده وارد کردند. این صفحه در ظاهر به Typhoon Investigations با هدایت مارتین آسپن، تحلیلگر امنیتی سوئیسی تعلق داشت ولی در اصل یک صفحه جعلی با هویت دیجیتال ساختگی بود. اطلاعات جعلی بود. شرکت جعلی بود، تحلیل‌گر جعلی بود و حتی عکس پروفایل وی توسط فناوری Deepfake تولید شده است.

اساساً، این نوعی ضربه سیاسی تقویت شده با هوش مصنوعی بود که همه می‌ترسیدند با فیلم‌های جعلی عمیق انجام شود، اما این بیشتر اطلاعات متنی بود که سعی می‌کرد با کمک یک عکس جعلی برگرفته از Deepfake قانونی جلوه کند. همه چیز به خوبی برنامه‌ریزی شده بود و تنها یک نقص در عکس بود که باعث شد روزنامه نگاران با دقت بیشتری به کل پرونده نگاه کنند.

به طور جداگانه، اخیراً یک کمپین اطلاعاتی طرفدار چین توسط شرکت تحقیقاتی Graphika کشف شد که آن‌ها آن را Spamouflage Dragon نامیدند. در این کمپین کاربران جعلی با تصاویر نمایه Deepfake در توییتر و یوتیوب به دنبال تأثیرگذاری بر افکار عمومی در مورد ممنوعیت‌های TikTok بودند. کاربران جعلی فیلم‌های تبلیغاتی با اهداف حمایتی را گسترش می‌دادند.

خطر Deepfake در حال بزرگ‌تر شدن است!

بخشی از مشکل مربوط به Deepfake و چالش‌های هویت دیجیتال از جایی ناشی می‌شود که ساخت Deepfake در حال ساده‌تر شدن است. ساخت Deepfake در سطح مصرف‌کننده و به صورت آسان Cheapfake نامیده می‌شود.

اخیراً یک ربات Deepfake در برنامه پیام‌رسان تلگرام توسط شرکت اطلاعات تهدید بصری Sensity کشف شد. این شرکت ادعا می‌کند که این ربات مسئول یک اکوسیستم Deepfake است که بیش از 100،000 تصویر جعلی ایجاد کرده است. این تصاویر جعلی که بر اساس تصاویر واقعی موجود ساخته می‌شدند افراد با هویت واقعی را به صورت برهنه نمایش می‌داند و برای اخاذی مورد استفاده قرار می‌گرفتند.

همچنین نوعی مسابقه در YouTube در حال انجام است. سازندگان Deepfake سعی می‌کنند با جایگزینی چهره افراد مشهور تصاویر واقعی‌تری ایجاد کنند و افراد بیشتری را به صفحه خود بکشانند. آخرین موارد چهره Jim Carry بازیگر را به شخصیت Joaquin Phoenix در فیلم جوکر تبدیل می‌کند.

در حال حاضر، جوامع بیشتر به تبعات و مسائل اجتماعی Deepfake فکر می‌کنند. اما جعل تولید شده توسط هوش مصنوعی در حال تبدیل شدن به یک مشکل تجاری در حال رشد است. استفاده از فناوری Deepfake در حملات مهندسی اجتماعی در حال حاضر به صورت کامل اثبات شده است

Deepfake صوتی در حال حاضر در تماس‌های تلفنی استفاده می‌شود که شامل استفاده از صدایی است که به نظر می‌رسد از طرف رئیس شما درخواست انتقال پول و موارد مشابه را ارائه می‌دهد و این فقط آغاز راه است.

بیشتر بخوانید: هویت دیجیتال چیست؟

سرقت هویت با Deepfake

سرقت هویت دیجیتال با Deepfake

Deepfake و چالش‌های هویت دیجیتال

در این روش، همانند انواع دیگر سرقت هویت، کلاهبرداران وانمود می‌کنند شخص دیگری برای دسترسی یا ایجاد حساب کاربری، محصولات یا خدمات هستند. با این حال، کشف سرقت هویت با Deepfake دشوارتر است زیرا کلاهبرداران اسناد هویتی را به خوبی جعل می‌کنند و یا با جعل صدای قربانی اقدامات تأیید هویت را دور می‌زنند.

مجرمان اینترنتی به طرق مختلفی داده‌ها را برای سرقت هویت عمیق جعلی جمع‌آوری می‌کنند. آن‌ها ممکن است دستگاه‌هایی را که از بیومتریک به ویژه تشخیص چهره برای جمع‌آوری داده‌ها استفاده می‌کنند، هک کنند. آن‌ها با استفاده از شبکه‌های اجتماعی، نمونه‌های صوتی، تصویری و عکس را برای تغذیه الگوریتم‌های هوش مصنوعی خود گردآوری می‌نمایند.

سرقت عمیق هویت می‌تواند اشکال مختلفی داشته باشد، از جمله:

  • جعل اسناد شناسایی برای دسترسی به حساب‌ها
  • استفاده از چهره و صدای قربانی برای تغییر شماره حساب، گذرواژه و مجوزدهی به کاربران
  • جعل صدای قربانی در تماس تلفنی با خانواده یا دوستانتان به منظور درخواست انتقال وجه

 

راه‌حل این فناوری، فناوری بیشتر است!

محققان در دانشگاه‌ها و شرکت‌های فناوری سخت در تلاش هستند تا تولیدات Deepfake جدید با ابزارها و رویکردهای نوظهور را با استفاده از ابزارهای کشف Deepfake تشخیص دهند. ابزار FakeCatcher دانشگاه بینگهامتون داده‌های جریان خون را در چهره فیلم‌ها رصد می‌کند تا واقعی یا جعلی بودن فیلم را تشخیص دهد.

همچنین دانشگاه میسوری و دانشگاه کارولینای شمالی در شارلوت در حال کار بر روی تشخیص تصویر و فیلم جعلی عمیق به صورت بلادرنگ هستند. موسسه پیشرفته علوم و فناوری کره ابزاری مبتنی بر هوش مصنوعی به نام Kaicatch برای شناسایی عکس‌های تقلبی تولید شده با Deepfake ایجاد کرده است.

اما مهم‌تر از همه اینکه شرکت‌های فناوری در حال کار بر روی این موضوع هستند. مایکروسافت اخیراً ابزار جدیدی را ارائه داده است که سعی در کشف تصاویر و فیلم‌های Deepfake دارد. ابزار احراز هویت کننده (Authenticator) مایکروسافت به جای برچسب‌گذاری محتوای رسانه‌ای به عنوان واقعی یا جعلی یک برآورد با یک امتیاز اطمینان برای هر مصنوع ارائه می‌دهد. بنابراین می‌تواند با دقت بالایی هویت آن را تشخیص دهد.

همچنین فیسبوک سال گذشته چالش تشخیص عمیق (Deepfake Detection Challenge) را راه‌اندازی کرد تا محققان را به مشکل کشف فیلم‌های Deepfake بکشاند.

هویت دیجیتال و Deepfake

با هر پیشرفتی که در ایجاد Deepfake به وجود می‌آید، فناوری جدیدی توسعه می‌یابد تا میزان واقعی بودن آن‌ها برای رایانه‌ها را کمتر کند.

بیشتر بخوانید: چالش‌های مدیریت هویت و دسترسی

چرا شبکه‌های اجتماعی به فضایی امن برای واقعیت تبدیل خواهند شد؟

امروزه مشکل محتوای جعلی تولید شده توسط هوش مصنوعی با شوخی، کمدی، اطلاعات نادرست سیاسی و هجو در شبکه‌های اجتماعی همراه است. ما در حال حاضر در آخرین ماه‌هایی زندگی می‌کنیم که تصاویر و فیلم‌های تولید شده توسط رایانه توسط چشم انسان قابل تشخیص هستند. در آینده، به معنای واقعی کلمه هیچ راهی برای تشخیص تفاوت محتوای رسانه‌ای جعلی با محتوای واقعی وجود نخواهد داشت. فقط هوش مصنوعی قادر به شناسایی محتوای تولید شده توسط هوش مصنوعی خواهد بود.

بنابراین مسئله این است: هنگامی که فناوری تشخیص Deepfake در تئوری وجود داشته باشد، چه زمانی و کجا در عمل استفاده می‌شود؟

اولین و بهترین مکان در خود شبکه‌های اجتماعی خواهد بود. شبکه‌های اجتماعی مشتاق استفاده و توسعه و تکامل چنین فناوری برای شناسایی بلادرنگ رسانه‌های جعلی هستند. فناوری مشابه یا مرتبط قادر به بررسی واقعی بودن محتوا یا هویت دیجیتالی تولید شده در زمان واقعی خواهد بود. این فناوری‌ها به راحتی می‎‌توانند هویت‌های جعلی را با تحلیل پیشرفته و کمک کاربران شبکه‌های اجتماعی شناسایی کنند.

این بدان معنا است که در آینده‌ای نزدیک اطلاعاتی که در شبکه‌های اجتماعی مانند توییتر، اینستاگرام و فیسبوک مشاهده می‌شوند قابل اطمینان‌تر خواهند بود زیرا هوش مصنوعی برای همه موارد بارگذاری شده اعمال خواهد شد. این امر اجتناب‌ناپذیر است.

بدین ترتیب کلاه‌برداران و مبلغین به رسانه‌های دیگر روی خواهند آورد. منابع جعلی روزنامه‌نگاران را با محتوای جعلی و رویکرد مهندسی اجتماعی ترغیب می‌کنند تا با فریب آن‌ها دروغ چاپ کنند. کلاه‌برداران با تماس‌های عمیق جعلی، عکس و فیلم در حملات مهندسی اجتماعی به طور فزاینده‌ای افراد تجاری را فریب خواهند داد.

Deepfake صنعت هویت را به چالش‌های جدیدی مواجه کرده است. با توسعه این فناوری دیگر نمی‌توان به راحتی به هویت دیجیتال افراد، هویت محتوا و حتی هویت اشیاء اعتماد کرد. با این حال فعالیت‌های انجام شده در حوزه تشخیص هویت‌های جعلی تولید شده توسط این فناوری این نوید را به ما می‌دهد که به زودی، با کمک هوش مصنوعی و کاربران شبکه‌های اجتماعی بیش از هر مکان دیگری به اطلاعاتی که در شبکه‌ها می‌خوانید اعتماد خواهید کرد.

نویسنده: تورج اکبری

هویت دیجیتال و آینده Deepfake

Deepfake و چالش‌های هویت دیجیتال

[1] https://www.idginsiderpro.com/

[2] https://i-sight.com/

0 پاسخ

دیدگاه خود را ثبت کنید

تمایل دارید در گفتگوها شرکت کنید؟
در گفتگو ها شرکت کنید.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *