دوشنبه 14 مهر 1404
Picture of علی شاکر
علی شاکر
پژوهشگر ارتباطات و هوش مصنوعی

فهرست

خواندن «دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش» بنیاد ملی علم ایران، حسی دوگانه را القا می‌کند. از یک سو، با سندی مواجهیم که همچون یک نقشه مهندسی دقیق، تمام جزئیات رویه‌ای را با وسواسی ستودنی مشخص کرده است: از نحوه‌ی سیم‌کشی ارجاعات گرفته تا محل نصب کلیدهای شفافیت و خروجی‌های اضطراری اخلاق پژوهش.

این یک راهنمای ضروری برای جلوگیری از «خطاهای اجرایی» در ساخت‌وساز پژوهش‌های نوین است. اما مشکل اینجاست که دقیق‌ترین نقشه‌ها نیز نمی‌توانند استحکام ساختمانی را تضمین کنند که شالوده‌اش بر زمینی با مفروضات لرزان بنا شده است. این دستورالعمل، با تمرکز بر «چگونگی استفاده»، از پرسش‌های بنیادین درباره «چیستی» این ابزار و تأثیر آن بر معرفت‌شناسی علوم اجتماعی، غفلت می‌کند.

از این رو ضمن مبارک دانستن نوشته شدن چنین دستورالعملی باید به نقاط نادیده گرفته شده در رشته‌های علوم انسانی نیز توجه کنیم. منظور شکاف میان این رویه‌های دقیق و شالوده‌های معرفت‌شناختیِ مغفول‌مانده است. در ادامه سعی می‌کنم این نقد را در سه بخش ارائه کنم.

۱. خطای بنیادین: تقلیل هوش مصنوعی از «پدیده فرهنگی» به «ابزاری خنثی»

شالوده فکری این دستورالعمل بر یک فرض تقلیل‌گرایانه استوار است: هوش مصنوعی مولد، «ابزاری کمکی» است که می‌توان خوب یا بد از آن استفاده کرد. این نگاه، وضعیت هستی‌شناختی هوش مصنوعی را در حد یک نرم‌افزار پردازش آماری مثل SPSS یا یک واژه‌پرداز پیشرفته فرو می‌کاهد. از منظر جامعه‌شناسی معرفت و در رشته‌ی مطالعات ارتباطی، این یک خطای بنیادین است. هوش مصنوعی یک ابزار خنثی (axiological neutrality) نیست؛ بلکه یک «مصنوع فرهنگی» است که جهان‌بینی، سوگیری‌ها و ارزش‌های خالقانش در معماری آن تنیده شده است.

مدل‌های زبانی بزرگ، برآمده از داده‌های یک زیست‌بوم اطلاعاتی خاص (بیشتر غربی، انگلیسی‌زبان و تجاری) هستند. در نتیجه، خروجی‌های آن بازتولیدکننده ساختارهای قدرت و گفتمان‌های مسلط در آن زیست‌بوم است.

همچنین این سند به «سوگیری» اشاره می‌کند، اما آن را به مثابه یک «خطای فنی» قابل اصلاح می‌بیند، نه یک «ویژگی ساختاری» جدایی‌ناپذیر. برای پژوهشگر علوم اجتماعی، استفاده از این ابزار برای تحلیل پدیده‌های بومی، صرفاً یک انتخاب روشی نیست؛ بلکه به معنای وارد کردن یک «چارچوب تفسیری وارداتی» به قلب تحلیل است که می‌تواند به طور نامرئی، صورت‌بندی مسئله و نتایج تحقیق را جهت‌دهی کند. این پدیده، فراتر از یک سوگیری ساده و مصداق بارز «هژمونی الگوریتمیک» است که دستورالعمل به ابعاد نظری آن نمی‌پردازد.

بیشتر بخوانید  ذهن‌خوانی هوش مصنوعی

۲. نقطه کور روش‌شناختی: سطحی‌سازی داده‌های کیفی و بحران تفسیر

خطرناک‌ترین بخش دستورالعمل، مجاز شمردن استفاده از هوش مصنوعی در «تحلیل داده» بدون تفکیک کافی میان داده‌های کمی و کیفی است. تحلیل در علوم اجتماعی کیفی، یک فرآیند مکانیکی برای «استخراج الگوهای پرتکرار» نیست؛ بلکه یک کنش هرمنوتیکی برای «تفسیر معنا» است. پژوهشگر کیفی با زمینه، زیرمتن، سکوت‌ها، طعنه‌ها و لایه‌های پنهان معنایی سروکار دارد که اساساً برای یک مدل محاسباتی که بر اساس هم‌رخدادی کلمات (word co-occurrence) کار می‌کند، قابل درک نیست.

استفاده از هوش مصنوعی برای کدگذاری یا خلاصه‌سازی مصاحبه‌های عمیق، تحلیل‌های گفتمان یا داده‌های حاصل از مشاهده مشارکتی، منجر به «سطحی‌‌سازی معرفت‌شناختی»  (Epistemological Flattening) می‌شود. (Bareither,2024)

در این فرآیند، پیچیدگی، ابهام و غنای داده‌های انسانی به مجموعه‌ای از «تم‌های» قابل شمارش و دسته‌بندی‌شده تقلیل می‌یابد. درگیری عمیق و دیالکتیکی پژوهشگر با داده‌ها روح پژوهش‌های کیفی است و این کار می‌تواند به این روح آسیب بزند.

این هشداری است به رساله‌های کم و بیش پر تکراری که متاسفانه کار کیفی را کم‌دردسرتر از کارهای کمّی می‌دانند و مثلاً به جای پیمایش، ترجیح می‌دهند مصاحبه‌ی عمیق انجام دهند.

نکته اینجاست که این اشتباه روش‌شناختی با کمک ابزارهای هوشمند می‌تواند ما را با حجم زیادی از پژوهش‌های بی‌ربط و اشتباه مواجه کند و حتی منجر به تصمیم‌های اشتباه در سطح ملی شود.

بنابراین دستورالعمل باید به صراحت و با قاطعیت، میان استفاده از هوش مصنوعی برای تحلیل‌های آماری و استفاده از آن برای تحلیل‌های تفسیری، مرزی روشن ترسیم می‌کرد و نسبت به خطرات دسته دوم هشدارهای جدی‌تری می‌داد.

۳. غفلت از اقتصاد سیاسی: پژوهشگر به مثابه کاربر یا داده‌پرداز رایگان؟

«دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش» بنیاد ملی علم ایران، رابطه‌ی پژوهشگر با ابزارهای هوش مصنوعی را یک رابطه کاربری ساده در نظر می‌گیرد و بر حفظ حریم خصوصی داده‌ها تأکید می‌کند. این نگاه، از «اقتصاد سیاسی پلتفرم‌های هوش مصنوعی» غافل است. وقتی یک پژوهشگر، داده‌های حساس پژوهشی خود (مانند متن پیاده‌شده مصاحبه‌ها) را در این پلتفرم‌ها وارد می‌کند، این داده‌ها صرفاً پردازش نمی‌شوند؛ بلکه به طور بالقوه به بخشی از سرمایه داده‌ای آن شرکت برای آموزش و بهینه‌سازی مدل‌های آینده تبدیل می‌شوند.

بیشتر بخوانید  گوگل ابزارهای پیشرفته‌تری برای تولید ویدئو با هوش مصنوعی معرفی کرد

در این مدل، پژوهشگر ناخواسته از یک «محقق مستقل» به یک «داده‌پرداز رایگان» برای شرکت‌های بزرگ فناوری تبدیل می‌شود. این مسئله فراتر از حریم خصوصی فردی است و به موضوعاتی چون «مالکیت داده‌های پژوهشی»، «حاکمیت داده‌ها» و «اخلاق در زنجیره تأمین داده‌های الگوریتمیک» مربوط می‌شود. یک دستورالعمل جامع باید پژوهشگران را نسبت به این دینامیک قدرت آگاه کند. همچنین خوب است برویم به سمت استفاده از ابزارهای متن‌باز، محلی یا مدل‌هایی که تضمین‌های روشنی ارائه می‌دهند درباره‌ی عدم استفاده از داده‌های ورودی.

«دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش» یک گام اولیه ضروری و قابل تقدیر در حوزه اخلاق رویه‌ای است. این سند به پژوهشگران کمک می‌کند تا از خطاهای آشکار اجتناب کنند. با این حال، برای پژوهشگران رویکردهای انسانی و حوزه‌هایی مثل علوم اجتماعی و ارتباطات، این سند به تنهایی کافی نیست، چرا که چهارچوبی مشخص برای «اخلاق انتقادی و معرفت‌شناختی» ندارد و در این در آینده می‌تواند روند کارهای جدی علمی را در این رشته‌ها مخدوش کند.

وظیفه ما به عنوان پژوهشگران این حوزه‌ها، فراتر از پیروی از این رویه‌هاست. مسئولیت ما، پرسشگری مداوم از خودِ این ابزارهاست: منطق درونی آن‌ها چیست؟ چه جهان‌بینی‌ای را ترویج می‌کنند؟ و استفاده از آن‌ها چگونه در حال دگرگون کردن خودِ «عمل پژوهش» و «چیستی دانش اجتماعی» است؟ این سند به ما می‌گوید چگونه با ابزار جدید کار کنیم؛ اما مسئولیت اندیشیدن به پیامدهای عمیق‌تر آن، همچنان بر دوش خود ماست.

 

Bareither, C. (2024). Cultures of Artificial Intelligence: AI Assemblages and the Transformations of Everyday Life. Zeitschrift für Empirische Kulturwissenschaft, 120(1).

 

Picture of علی شاکر
علی شاکر
پژوهشگر ارتباطات و هوش مصنوعی
Picture of علی شاکر
علی شاکر
پژوهشگر ارتباطات و هوش مصنوعی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *