
این تصویر من نیست؛ خطرات آینده هوش مصنوعی برای هویت و حقیقت
به گزارش خبرمحور به نقل از عصر ایران، با پیشرفت ابزارهای هوش مصنوعی، ساخت تصاویر و ویدئوهای جعلی یا Deepfake دیگر تنها سرگرمی نیست، بلکه میتواند به تهدیدی جدی برای حقیقت و عدالت تبدیل شود. تصور کنید تصویری از شما ساخته شود که در حال انجام عملی شنیع است و با تکنیکهای مختلف آن را کاملاً باورپذیر کنند. حال اگر آن تصویر در فضای مجازی منتشر شود، چگونه میتوان ثابت کرد شما در آن حضور نداشتید؟
این موضوع به پدیدهای به نام «بحران واقعیت» یا Reality Crisis منجر شده است؛ یعنی از بین رفتن معیارهای اعتماد به شواهد دیداری. دیگر نمیتوان صرفاً به تصاویر یا ویدئوها اعتماد کرد، حتی اگر مدرک قاطعی به نظر برسند.
اثر دیپفیک و سود دروغگو
پدیده «اثر دروغ دیپفیک» (the liar’s dividend) به معنای بهرهبرداری افراد از وجود تصاویر جعلی است. وقتی جامعه بداند که تصاویر و ویدئوها ممکن است جعلی باشند، هر کسی میتواند واقعیت را انکار کند. حتی اگر ویدئوی واقعی از یک جنایت منتشر شود، فرد خاطی میتواند ادعا کند این ویدئو ساخته هوش مصنوعی است. این وضعیت اعتماد اجتماعی و پایههای عدالت را به شدت تضعیف میکند.
تشخیص دیپفیک و ابزارهای نوین
متخصصان برای تشخیص تصاویر جعلی به بررسی پیکسلها، متادیتا، سایهها، بازتابها و الگوریتمهای تولید تصویر متوسل میشوند. ابزارهایی مانند AI image forensics و Deepfake Detection توسط شرکتهایی مثل Microsoft و Google در حال توسعهاند. پروژههایی مانند Content Authenticity Initiative (CAI) و Coalition for Content Provenance and Authenticity (C2PA) روی امضای دیجیتال تصاویر کار میکنند تا زنجیره اعتماد (chain of custody) هر تصویر مشخص شود و نشان دهد که تصویر واقعی است یا جعلی.
با این حال، در مقابل هوش مصنوعی که میتواند در چند ثانیه و با نوشتن یک پرامپت ۳۰۰ کلمهای تصویر یا صدای شخصی را جعل کند، تشخیص و مقابله هنوز چالشبرانگیز است.
پیامدهای اجتماعی و حقوقی
با کاهش اعتماد اجتماعی به مدارک تصویری، خبرنگاران و نهادهای قضایی نیز با مشکل مواجه میشوند. دادگاهها ممکن است نتوانند تصاویر را به عنوان مدرک معتبر بپذیرند و افراد صاحب قدرت میتوانند فساد یا جنایت خود را انکار کنند. در نتیجه، نه تنها واقعیت تضعیف میشود، بلکه مجرمان از «پناهگاه دیجیتال» هوش مصنوعی بهره میبرند.
کشورهایی مثل اتحادیه اروپا و آمریکا قوانین ضد دیپفیک را تصویب کردهاند که تولید یا انتشار تصاویر جعلی بدون رضایت شخص جرم محسوب میشود، اما اجرای مؤثر این قوانین و مقابله با ابزارهای عمومی هوش مصنوعی هنوز کافی نیست.
راهحلها و آینده
راهکار اصلی، طراحی مسئولانه هوش مصنوعی است تا هر تصویر واقعی قابل تأیید و هر تصویر جعلی قابل شناسایی باشد. اکنون دنیای ما از «Seeing is believing» (دیدن، باور کردن) وارد «Verifying is believing» (تأیید کردن، باور کردن) شده است. به عبارت دیگر، دیگر آنچه دیده میشود کافی نیست؛ لازم است صحت و اصالت آن نیز تأیید شود.
با این حال، تا زمانی که همه تصاویر دیجیتال افراد از دسترس خارج نشده باشند، هیچ روش صد درصدی برای جلوگیری از سوءاستفاده وجود ندارد. این واقعیت باعث میشود که افراد بیگناه در معرض خطر اتهام و افراد خاطی قادر به انکار رفتار خود باشند.
جمعبندی کوتاه
دیپفیکها و تصاویر جعلی هوش مصنوعی تهدیدی جدی برای واقعیت، عدالت و اعتماد اجتماعی هستند. هر تصویر یا ویدئوی دیجیتال باید قابل راستیآزمایی باشد و فناوری باید مسئولانه طراحی شود تا بین واقعیت و جعل مرز روشنی وجود داشته باشد.
هیچ نظر! یکی از اولین.