خواندن «دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش» بنیاد ملی علم ایران، حسی دوگانه را القا میکند. از یک سو، با سندی مواجهیم که همچون یک نقشه مهندسی دقیق، تمام جزئیات رویهای را با وسواسی ستودنی مشخص کرده است: از نحوهی سیمکشی ارجاعات گرفته تا محل نصب کلیدهای شفافیت و خروجیهای اضطراری اخلاق پژوهش.
این یک راهنمای ضروری برای جلوگیری از «خطاهای اجرایی» در ساختوساز پژوهشهای نوین است. اما مشکل اینجاست که دقیقترین نقشهها نیز نمیتوانند استحکام ساختمانی را تضمین کنند که شالودهاش بر زمینی با مفروضات لرزان بنا شده است. این دستورالعمل، با تمرکز بر «چگونگی استفاده»، از پرسشهای بنیادین درباره «چیستی» این ابزار و تأثیر آن بر معرفتشناسی علوم اجتماعی، غفلت میکند.
از این رو ضمن مبارک دانستن نوشته شدن چنین دستورالعملی باید به نقاط نادیده گرفته شده در رشتههای علوم انسانی نیز توجه کنیم. منظور شکاف میان این رویههای دقیق و شالودههای معرفتشناختیِ مغفولمانده است. در ادامه سعی میکنم این نقد را در سه بخش ارائه کنم.
۱. خطای بنیادین: تقلیل هوش مصنوعی از «پدیده فرهنگی» به «ابزاری خنثی»
شالوده فکری این دستورالعمل بر یک فرض تقلیلگرایانه استوار است: هوش مصنوعی مولد، «ابزاری کمکی» است که میتوان خوب یا بد از آن استفاده کرد. این نگاه، وضعیت هستیشناختی هوش مصنوعی را در حد یک نرمافزار پردازش آماری مثل SPSS یا یک واژهپرداز پیشرفته فرو میکاهد. از منظر جامعهشناسی معرفت و در رشتهی مطالعات ارتباطی، این یک خطای بنیادین است. هوش مصنوعی یک ابزار خنثی (axiological neutrality) نیست؛ بلکه یک «مصنوع فرهنگی» است که جهانبینی، سوگیریها و ارزشهای خالقانش در معماری آن تنیده شده است.
مدلهای زبانی بزرگ، برآمده از دادههای یک زیستبوم اطلاعاتی خاص (بیشتر غربی، انگلیسیزبان و تجاری) هستند. در نتیجه، خروجیهای آن بازتولیدکننده ساختارهای قدرت و گفتمانهای مسلط در آن زیستبوم است.
همچنین این سند به «سوگیری» اشاره میکند، اما آن را به مثابه یک «خطای فنی» قابل اصلاح میبیند، نه یک «ویژگی ساختاری» جداییناپذیر. برای پژوهشگر علوم اجتماعی، استفاده از این ابزار برای تحلیل پدیدههای بومی، صرفاً یک انتخاب روشی نیست؛ بلکه به معنای وارد کردن یک «چارچوب تفسیری وارداتی» به قلب تحلیل است که میتواند به طور نامرئی، صورتبندی مسئله و نتایج تحقیق را جهتدهی کند. این پدیده، فراتر از یک سوگیری ساده و مصداق بارز «هژمونی الگوریتمیک» است که دستورالعمل به ابعاد نظری آن نمیپردازد.
۲. نقطه کور روششناختی: سطحیسازی دادههای کیفی و بحران تفسیر
خطرناکترین بخش دستورالعمل، مجاز شمردن استفاده از هوش مصنوعی در «تحلیل داده» بدون تفکیک کافی میان دادههای کمی و کیفی است. تحلیل در علوم اجتماعی کیفی، یک فرآیند مکانیکی برای «استخراج الگوهای پرتکرار» نیست؛ بلکه یک کنش هرمنوتیکی برای «تفسیر معنا» است. پژوهشگر کیفی با زمینه، زیرمتن، سکوتها، طعنهها و لایههای پنهان معنایی سروکار دارد که اساساً برای یک مدل محاسباتی که بر اساس همرخدادی کلمات (word co-occurrence) کار میکند، قابل درک نیست.
استفاده از هوش مصنوعی برای کدگذاری یا خلاصهسازی مصاحبههای عمیق، تحلیلهای گفتمان یا دادههای حاصل از مشاهده مشارکتی، منجر به «سطحیسازی معرفتشناختی» (Epistemological Flattening) میشود. (Bareither,2024)
در این فرآیند، پیچیدگی، ابهام و غنای دادههای انسانی به مجموعهای از «تمهای» قابل شمارش و دستهبندیشده تقلیل مییابد. درگیری عمیق و دیالکتیکی پژوهشگر با دادهها روح پژوهشهای کیفی است و این کار میتواند به این روح آسیب بزند.
این هشداری است به رسالههای کم و بیش پر تکراری که متاسفانه کار کیفی را کمدردسرتر از کارهای کمّی میدانند و مثلاً به جای پیمایش، ترجیح میدهند مصاحبهی عمیق انجام دهند.
نکته اینجاست که این اشتباه روششناختی با کمک ابزارهای هوشمند میتواند ما را با حجم زیادی از پژوهشهای بیربط و اشتباه مواجه کند و حتی منجر به تصمیمهای اشتباه در سطح ملی شود.
بنابراین دستورالعمل باید به صراحت و با قاطعیت، میان استفاده از هوش مصنوعی برای تحلیلهای آماری و استفاده از آن برای تحلیلهای تفسیری، مرزی روشن ترسیم میکرد و نسبت به خطرات دسته دوم هشدارهای جدیتری میداد.
۳. غفلت از اقتصاد سیاسی: پژوهشگر به مثابه کاربر یا دادهپرداز رایگان؟
«دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش» بنیاد ملی علم ایران، رابطهی پژوهشگر با ابزارهای هوش مصنوعی را یک رابطه کاربری ساده در نظر میگیرد و بر حفظ حریم خصوصی دادهها تأکید میکند. این نگاه، از «اقتصاد سیاسی پلتفرمهای هوش مصنوعی» غافل است. وقتی یک پژوهشگر، دادههای حساس پژوهشی خود (مانند متن پیادهشده مصاحبهها) را در این پلتفرمها وارد میکند، این دادهها صرفاً پردازش نمیشوند؛ بلکه به طور بالقوه به بخشی از سرمایه دادهای آن شرکت برای آموزش و بهینهسازی مدلهای آینده تبدیل میشوند.
در این مدل، پژوهشگر ناخواسته از یک «محقق مستقل» به یک «دادهپرداز رایگان» برای شرکتهای بزرگ فناوری تبدیل میشود. این مسئله فراتر از حریم خصوصی فردی است و به موضوعاتی چون «مالکیت دادههای پژوهشی»، «حاکمیت دادهها» و «اخلاق در زنجیره تأمین دادههای الگوریتمیک» مربوط میشود. یک دستورالعمل جامع باید پژوهشگران را نسبت به این دینامیک قدرت آگاه کند. همچنین خوب است برویم به سمت استفاده از ابزارهای متنباز، محلی یا مدلهایی که تضمینهای روشنی ارائه میدهند دربارهی عدم استفاده از دادههای ورودی.
«دستورالعمل استفاده از ابزارهای هوش مصنوعی در پژوهش» یک گام اولیه ضروری و قابل تقدیر در حوزه اخلاق رویهای است. این سند به پژوهشگران کمک میکند تا از خطاهای آشکار اجتناب کنند. با این حال، برای پژوهشگران رویکردهای انسانی و حوزههایی مثل علوم اجتماعی و ارتباطات، این سند به تنهایی کافی نیست، چرا که چهارچوبی مشخص برای «اخلاق انتقادی و معرفتشناختی» ندارد و در این در آینده میتواند روند کارهای جدی علمی را در این رشتهها مخدوش کند.
وظیفه ما به عنوان پژوهشگران این حوزهها، فراتر از پیروی از این رویههاست. مسئولیت ما، پرسشگری مداوم از خودِ این ابزارهاست: منطق درونی آنها چیست؟ چه جهانبینیای را ترویج میکنند؟ و استفاده از آنها چگونه در حال دگرگون کردن خودِ «عمل پژوهش» و «چیستی دانش اجتماعی» است؟ این سند به ما میگوید چگونه با ابزار جدید کار کنیم؛ اما مسئولیت اندیشیدن به پیامدهای عمیقتر آن، همچنان بر دوش خود ماست.
Bareither, C. (2024). Cultures of Artificial Intelligence: AI Assemblages and the Transformations of Everyday Life. Zeitschrift für Empirische Kulturwissenschaft, 120(1).