
حقیقت ماجرای کلاهبرداری بازیگر نقش اول بازی مرکب چیست؟
به گزارش خبرمحور به نقل از همشهری، تازهترین نمونه از سوءاستفاده هوش مصنوعی در دنیای دیجیتال، در کرهجنوبی رخ داد؛ جایی که زنی حدوداً ۵۰ ساله از شهر میریانگ، قربانی کلاهبرداری عاشقانه با استفاده از هوش مصنوعی شد و بیش از ۵۰۰میلیون وون (حدود ۳۵۰هزار دلار) را از دست داد.
کلاهبردار با جعل هویت «لی جونگ جه»، بازیگر مشهور سریال پرطرفدار «بازی مرکب» توانست قربانی را فریب دهد. او از تصاویر و ویدیوهای دیپفیک (deepfake) برای شبیهسازی چهره و صدای این بازیگر استفاده کرد و اعتماد زن را بهتدریج جلب نمود.
چگونه فریب آغاز شد
ماجرا از پیامهای ساده در شبکههای اجتماعی شروع شد. فرد کلاهبردار با معرفی خود به عنوان «لی جونگ جه» و ارسال پیامهایی نظیر «برای ارتباط با طرفدارانم پیام میدهم»، وارد گفتوگو با قربانی شد.
به مرور، لحن پیامها عاشقانهتر شد؛ جملاتی مانند «عزیزم» و «دلبرم» باعث شد قربانی احساس کند با فردی صادق و علاقهمند در ارتباط است.
در ادامه، او با ادعای گیر افتادن در فرودگاهی خارجی و نیاز به پول برای بازگشت، از قربانی درخواست کمک مالی کرد. برای اثبات گفتههایش، تصاویر جعلی از کارت شناسایی، پاسپورت و گواهینامه ساختگی ارسال نمود که با فناوری هوش مصنوعی تولید شده بودند.
فریب بزرگ با وعده دیدار
به گزارش رسانههای کرهای، قربانی که کاملاً فریب خورده بود، مبالغ مختلفی را طی چند هفته به حسابهای بینالمللی واریز کرد.
در نهایت، با وعدهی دیدار حضوری و دریافت بلیت VIP، ۷۵۰۰ دلار دیگر نیز پرداخت کرد.
اما پس از چند هفته، ارتباط قطع شد و زن متوجه شد که با هویت جعلی طرف بوده است.
واکنش آژانس بازیگر
آژانس رسمی «لی جونگ جه» پس از انتشار این خبر، با صدور بیانیهای رسمی اعلام کرد:
- ما هیچگونه ارتباطی با حسابهای کاربری جعلی نداریم. از هواداران درخواست میشود به هیچوجه درخواستهای مالی از سوی افراد مدعی ارتباط با این بازیگر را باور نکنند.
این پرونده به سرعت در رسانههای کرهجنوبی بازتاب یافت و تبدیل به یکی از پر سر و صداترین پروندههای کلاهبرداری دیجیتال سال ۲۰۲۵ شد.
هوش مصنوعی چگونه ابزار جرم شد؟
هوش مصنوعی در سالهای اخیر وارد حوزههایی مانند تولید تصویر، ویدیو و صدا شده است.
فناوری دیپفیک (Deepfake) با استفاده از الگوریتمهای یادگیری عمیق، میتواند چهره یا صدای هر فرد را بر روی فرد دیگر قرار دهد و محتوایی کاملاً واقعی تولید کند.
در گذشته ساخت چنین ویدیوهایی نیاز به مهارت و زمان زیاد داشت، اما اکنون با ابزارهای رایگان مانند Sora، DeepFaceLab و HeyGen هر فردی میتواند ظرف چند دقیقه ویدیوهای جعلی بسازد.
این ابزارها در دست کلاهبرداران اینترنتی به سلاحی خطرناک تبدیل شدهاند.
رشد جهانی کلاهبرداریهای عاشقانه با هوش مصنوعی
طبق گزارش سالانه مرکز شکایات جرایم اینترنتی FBI (IC3)، خسارات ناشی از کلاهبرداریهای عاشقانه در سال گذشته میلادی از مرز ۱.۳ میلیارد دلار گذشت.
بخش قابلتوجهی از این پروندهها به استفاده از هوش مصنوعی برای جعل هویت مربوط است.
در آمریکا نیز مردی ۷۹ ساله از ایالت اوهایو، بیش از ۱۲۵ هزار دلار را به زنی جعلی به نام «لیزا لاو» انتقال داد؛ زنی که بعدها مشخص شد یک حساب کاربری هوش مصنوعی و چتبات خودکار بوده است.
مقایسه چند نمونه بینالمللی کلاهبرداریهای عاشقانه با هوش مصنوعی
| کشور | نوع کلاهبرداری | مبلغ تقریبی خسارت | ابزار مورد استفاده |
|---|---|---|---|
| کرهجنوبی | جعل هویت بازیگر مشهور | ۳۵۰ هزار دلار | تصاویر دیپفیک و چت عاشقانه |
| آمریکا (اوهایو) | جعل هویت زن جوان | ۱۲۵ هزار دلار | چتبات هوشمند + صدای مصنوعی |
| ژاپن | جعل هویت تاجر خارجی | ۴۵۰ هزار دلار | ویدیوهای AI + تماس تصویری جعلی |
| آلمان | جعل پروفایل هنرمند | ۲۱۰ هزار دلار | حساب شبکه اجتماعی با چهره ساختگی |
نظر کارشناسان امنیت سایبری
کارشناسان هشدار میدهند که با پیشرفت سریع فناوریهای تولید محتوا و افزایش کیفیت تصاویر و ویدیوهای ساختگی، تشخیص واقعیت از جعل روزبهروز دشوارتر میشود.
«چوی مینهوان»، کارشناس امنیت دیجیتال در دانشگاه سئول، میگوید:
- هوش مصنوعی در حال تغییر ماهیت کلاهبرداریهاست. اگر تا دیروز فریب تلفنی یا پیامکی داشتیم، امروز فریب چهره و احساس داریم.
او تأکید کرد که آموزش عمومی، احراز هویت دومرحلهای، و هشدار رسانهها میتواند جلوی بسیاری از این موارد را بگیرد.
نکات پیشگیرانه برای جلوگیری از فریب با هوش مصنوعی
| نکته | توضیح کاربردی |
|---|---|
| بررسی هویت از منابع رسمی | قبل از اعتماد یا ارسال پول، هویت فرد را از وبسایت یا آژانس رسمی بررسی کنید. |
| عدم ارسال عکس و اطلاعات شخصی | تصاویر شما میتواند برای ساخت پروفایل جعلی استفاده شود. |
| هوشیاری نسبت به درخواست مالی | هیچ فرد مشهور یا سازمان معتبر از طریق پیام شخصی درخواست پول نمیکند. |
| استفاده از ابزارهای تشخیص دیپفیک | وبسایتهایی مانند Deepware یا Sensity برای تشخیص محتوای جعلی مفیدند. |
| گزارش فوری به پلیس سایبری | در صورت شک، سریعا موضوع را از طریق پلیس فتا یا نهاد مشابه گزارش دهید. |
هوش مصنوعی؛ مرز باریک میان پیشرفت و تهدید
فناوری هوش مصنوعی بدون شک دستاورد بزرگی برای بشر است، اما در نبود قوانین کنترلکننده و آموزش عمومی، میتواند به ابزار خطرناکی تبدیل شود.
کلاهبرداریهای عاشقانه دیجیتال تنها یکی از دهها کاربرد مجرمانه این فناوری است.
کارشناسان خواستار ایجاد چارچوبهای بینالمللی برای کنترل تولید محتوای دیپفیک شدهاند تا سوءاستفاده از چهره و صدای افراد مشهور به حداقل برسد.
جمعبندی
📌 هوش مصنوعی، مرز بین واقعیت و جعل را از بین برده است.
📌 زنان و مردان در سراسر جهان قربانی فریبهای عاشقانه دیجیتال میشوند.
📌 راهکار مقابله، افزایش سواد رسانهای و راستیآزمایی منابع است.
📌 هیچ فردی—even مشهورترین چهرهها—از خطر جعل دیجیتال در امان نیست.
هیچ نظر! یکی از اولین.