سه‌شنبه 17 مهر 1403
portrait man face scan Deepfake
Picture of علی شاکر
علی شاکر
مدرس و پژوهشگر ارتباطات

سال جدید میلادی برای تیلور سوئیفت با اتفاقی جنجال‌برانگیز شروع شد؛ انتشار تصاویر جعلی و هرزه‌نگارانه از این ستاره‌ی پاپ ثروتمند و چهره‌ی سال مجله‌ی تایم در سال 2017.

این اتفاق ناخوشایند، هشداری به همه‌ی ماست که ممکن است برخی از «آدم‌ها» فناوری‌های هوشمند نوین را برای مقاصد غیراخلاقی و آسیب‌زا به کار ببرند.

جنجال‌های اخیر پیرامون تصاویرِ جعل عمیق (Deep Fake) تیلور سوئیفت نمونه‌ای واضح از چالش‌های اخلاقی و قانونی رو به رشدی است که توسط فناوری‌های پیشرفته هوش مصنوعی ایجاد شده است.

انتشار چنین تصاویری در فرهنگ‌هایی با گرایش‌های سنتی‌ و عرفی‌تر جرم است، ولی در جوامعی که این صنعت مشغول کسب درآمد است، موضوع رضایت فرد اهمیت زیادی دارد.

یعنی استفاده از جعل عمیق برای خلق تصاویر هرزه‌نگارانه و تصاویری بدون رضایت فرد داخل تصویر یک بی‌اخلاقی است که باید حدود جرم‌انگارانه‌ی آن نیز مشخص شود.

گذشته از اینکه باید قانون به طور شفاف حدود این «تعرض» و «تجاوز» به حریم خصوصی افراد را مشخص کند، باید بدانیم که نادیده گرفتن یا مواجهه‌ی احساسی با این پدیده مشکلی را از هیچ فرهنگ و دولت/ملتی حل نمی‌کند.

چون چنین رفتارهایی می‌تواند تبعاتی غیرقابل پیش‌بینی برای جوامع به همراه داشته باشد. به‌ویژه جوامعی که کمتر با کاربردهای این فناوری‌ها آشنا هستند، ممکن است بیشتر آسیب ببینند چون برای مواجهه با چنین بحران‌هایی، آماده نشده‌اند.

اینجاست که ممکن است شوخی کودکانه و غیراخلاقی یک نوجوان با اپلیکیشن هوشمند موبایلش تبدیل به فاجعه‌ای ملی شود.

طوفان در راه است. دیر یا زود به همه‌ جای دنیا می‌رسد. بهترین واکنش چیست؟ به جای هجوم بردن به سمت کلیت و تمامیت یک فناوری سودمند و کنار گذاشتن کامل آن، تمامی اطرافیان خود را با سویه‌های منفی و غیراخلاقی این فناوری نیز آشنا کنیم.

علی شاکر، نویسنده‌ی این مقاله یک روزنامه‌نگار و پژوهشگر ارتباطات است. وی ضمن تأیید بر کژکارکردها و تأثیرات منفی هرزه‌نگاری در جامعه، معتقد است برای مواجهه با این پدیده‌ی نوین (یعنی تصاویر جعل عمیق هرزه‌نگارانه یا پورنوگرافیک) می‌بایست، دست‌کم پدر و مادرها را نسبت به این پدیده آشنا کنیم که تا دست‌کم از این فضای ارتباطی خطرناک دور نباشند؛ چرا که نشناختن این فضا ممکن است به ضرر همه‌ی مردم جامعه تمام شود. شناخت این فضا می‌تواند ما و فرزندان‌مان را نسبت به تأثیرات منفی و غیراخلاقی این محصولات رسانه‌ای تا حدی واکسینه کند.

بیشتر بخوانید  تردز رکورد سریع‌ترین برنامه در حال رشد جهان را شکست

البته جای توضیح نیست که «آموزش» و شناخت اصول اولیه‌ی فناوری‌های هوشمند و نوین رسانه‌ای، از میزان هزینه‌ها و خطر‌های این طوفان اجتماعی می‌کاهد.

***

استفاده از هوش مصنوعی برای خلق محتوای هرزه‌نگارانه بدون رضایت سوژه؛ این اعمال، سوالات مهمی در مورد مرزهای اخلاقی فناوری و نیاز به چارچوب‌های قانونی قوی برای حفاظت از افراد در برابر بهره‌کشی دیجیتالی مطرح می‌کند.

در دنیایی که تدوین و طراحی یک ویدئو فقط به کمی اطلاعات اولیه نیاز دارد، محتوای هرزه‌نگارانه به سادگی قابل ساخت است. صنعت فیلم‌های هرزه‌نگارانه، همزمان با تولد سینما به وجود آمد.

اگر زمانی عوامل این‌گونه فیلم‌ها، افرادِ به حاشیه رفته و آسیب‌دیده‌ی اجتماع بودند، اکنون کسانی در دنیا هستند که سعی می‌کنند یک شخصیت شناخته شده (Public Figure) را واژگون کنند تا به واسطه‌ی سازوکار «اقتصاد توجه» در رسانه‌ها، دنبال‌کننده‌ی بیشتری (بخوانید «توجه» بیشتری) جذب کنند.

آسیب‌های جعل عمیق غیراخلاقی و غیرتوافقی

استفاده از فناوری جعل عمیق یا دیپ‌فیک برای ایجاد محتوای غیرتوافقی، نگرانی‌های اخلاقی جدی، مفاهیم چالش برانگیزی در زمینه‌ی حفظ حریم خصوصی را به وجود می‌آورد.

دیپ‌فیک‌های غیرتوافقی منجر به آسیب‌های اجتماعی بی‌شماری می‌شوند که طی سال‌های اخیر درباره‌ی آن پژوهش‌های متعددی انجام شده است.

در بحث‌های مرتبط با نقد آثار هرزه‌نگارانه پژوهش‌های قدیمی‌تر معتقدند که این تصاویر به حریم خصوصی نفوذ کرده و زنان را از انسانیت خارج می‌کند (هولمز، 1980) و زمینه‌ای می‌شود برای بهره‌کشی و سوء‌استفاده‌های بعدی. در واقع این تصاویر منجر به بهره‌کشی، باج‌گیری و از بین رفتن اعتماد در جامعه می‌شود.

همچنین این تصاویر، خشونت و نابرابری‌های مبتنی بر جنسیت را تشدید می‌کنند.  (Okedare et al, 2023)می‌توان گفت انتشار این تصاویر یکی از عواملی است که به زن‌ستیزی جامعه‌ی امروز دامن می‌زند و نگرانی این است که نکند آدم‌ها نتوانند میان تصاویر مجازیِ سیرکِ هرزه‌نگارانه و روابط واقعی با دیگر انسان‌ها تمایز قائل شوند. اینجاست که باید نگرانی خود را از عینیت‌بخشی به اُبژگی جنسی زنان (Burkell and Gosse, 2019) ابراز کنیم.

همین موضوع سبب شده تا تداوم تروما در میان خانم‌های آسیب‌دیده بیشتر باشد. (رحمان و همکاران، 2023) برای همین است که امروز می‌دانیم بیشتر این جور آزارها بر سلامت جسمی و روانی خانم‌ها تأثیر می‌گذارد (هال و همکاران، 2023).

همه‌ی انسان‌ها، قربانی بالقوه‌ی بی‌آبرویی جعلی

موضوع جعل‌عمیق‌‌های غیرتوافقی به شخصیت‌های مشهوری مانند تیلور سوئیفت محدود نمی‌شود، بلکه به شهروندان عادی نیز می‌تواند سرایت کند؛ این یعنی یک نگرانی اجتماعی فراگیر در جهان سلبریتی‌زده‌ی تشنه‌ی توجه.

بیشتر بخوانید  زنگ شروع در باشگاه مُشت‌زنی

پرونده‌های پرمخاطب مربوط به افراد مشهور، توجه‌ها را به خود جلب می‌کند، اما این اتفاق می‌تواند در میان شبکه‌های ارتباطی کوچکتر نیز تکرار شود و افراد معمولی و عادی جامعه را متاثر کند.

کشورهایی مانند بریتانیا با درک شدت و حساسیت موضوع، قانون ایمنی آنلاین سال 2023 را تصویب کردند. این قانون اشتراک‌گذاری هرزه‌نگاری جعل عمیق بدون رضایت و توافق را جرم می‌داند.

البته یادمان باشد تنظیم و اجرای قوانین علیه دیپ‌فیک‌ها به دلیل امکان ناشناس ماندن اینترنت، سهولت ایجاد و توزیع دیپ‌فیک‌ها و مسائل قضایی با چالش‌هایی مواجه است.

برای نمونه، به دلیلِ (کم و بیش) نوظهور بودن فناوری دیپ‌فیک‌های هرزه‌نگارانه بسیاری از نقاط دنیا هنوز قوانین خاصی در این زمینه تصویب نکرده‌اند و قربانیان نمی‌دانند برای شکایت باید به کدام مراجع قانونی و قضایی مراجعه کنند.

چه کنیم؟

فراتر از اقدامات قانونی، دستورالعمل‌های اخلاقی، روش‌های تشخیص بهتر و آگاهی عمومی بسیار مهم است.

ظهور دیپ فیک‌های غیر توافقی، که نمونه‌ی آن مواردی مانند تیلور سویفت است، نیازمند رویکردی چند جانبه برای مبارزه با این تهدید دیجیتال است.

این شامل چارچوب‌های قانونی قوی‌تر، راه‌حل‌های فناوری پیشرفته برای شناسایی و تغییر اجتماعی به سمت آگاهی بیشتر و استفاده‌ی اخلاقی از فناوری‌های هوش مصنوعی است.

بدانیم که آگاه ماندن و حمایت از واکنش‌های دیجیتال مسئولانه برای جلوگیری از انتشار هرزه‌نگاری‌های غیرتواقعی جعلی، حیاتی است. پس همگی کشورها و نهادهای مسئول در این حوزه باید برای اصلاحات قانونی تلاش کنند. ما هم باید از پیشرفت‌های فناوری که به حریم خصوصی افراد احترام می‌گذارند، حمایت کنیم تا بتوانیم محیط‌های دیجیتال امن‌تری برای خود و عزیزان‌مان بسازیم.

منابع

Burkell, J., & Gosse, C. (2019). Nothing new here: Emphasizing the social and cultural context of deepfakes. First Monday, 24(12). https://dx.doi.org/10.5210/fm.v24i12.10287

Okedare, O. O., & Fawole, O. (2023). Intimate partner violence among young women in Ibadan, Nigeria: are there slum and non-slum differences?. BMC Women’s Health. https://dx.doi.org/10.1186/s12905-023-02446-5

Hall, M., Hearn, J., & Lewis, R. (2023). Image-Based Sexual Abuse: Online Gender-Sexual Violations. Encyclopedia, 3(1). https://dx.doi.org/10.3390/encyclopedia3010020

Rahman, S., Lamba, A., Mohajir, N., Ceesay, H., Khayr, Y., Akhtar-Khaleel, W., & Spitz, G. (2023). Examining the Experience of Sexual Dysfunction and Spiritual Abuse among cis-Gender Muslim Women In North America. Journal of Sexual Medicine, 20(Supplement 2). https://dx.doi.org/10.1093/jsxmed/qdad061.004

Picture of علی شاکر
علی شاکر
مدرس و پژوهشگر ارتباطات
Picture of علی شاکر
علی شاکر
مدرس و پژوهشگر ارتباطات
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *