این متن بخشی از یک پروندهٔ ویژه دربارهٔ نسبتِ هوش مصنوعی و روزنامهنگاری است؛ مجموعهای از مقالهها و گزارشها که بهجای داوری شتابزده، تلاش میکند با روایتهای واقعی، تجربههای میدانی و پرسشهای باز، نشان دهد هوش مصنوعی چگونه در حال تغییر تولید خبر، تشخیص حقیقت و اعتماد مخاطب است. هر بخش از این پرونده تکهای از این تصویر بزرگتر را روشن میکند؛ تصویری از رسانه در لحظهای گذار، میان شوقِ فناوری و اضطرابِ ازدسترفتن واقعیت.
انتشار فارسی این پروندهٔ ویژه در رسانهٔ مُصوّر بهصورت تدریجی انجام میشود. ترجمهٔ اولیهٔ متنها با کمک ابزارهای هوش مصنوعی صورت گرفته، اما هر مقاله زیر نظر ویراستار انسانی بازبینی، اصلاح و صیقل داده شده است؛ با این آگاهی که قرار نیست همهچیز بینقص، بیلکنت یا کاملاً سلیس باشد. تلاش ما این بوده که «ماهیت» متنها حفظ شود حتی اگر گاهی به بهای از دست رفتن اندکی روانی یا یکدستی باشد. درست مثل خودِ موضوع این پرونده: همکاری انسان و ماشین، با تمام تنشها و ناهماهنگیهایش.
چگونه از هوش مصنوعی استفاده میکنیم | بخش دوم
هوش مصنوعی صنعت ما را میبلعد و تیغ مهارتمان را کند میکند؛ باید آن را پس زد
برایان مرچنت[1]، نویسندهٔ Blood in the Machine، کتاب و خبرنامهای دربارهٔ هوش مصنوعی و کار؛ و ستوننویس پیشین فناوری در لسآنجلس تایمز
بهعنوان یک نویسندهٔ حوزهٔ فناوری، احساس میکنم وظیفه دارم برای فهم پیامدهای هوش مصنوعی از آن استفاده کنم. اما بهعنوان یک روزنامهنگار، احساس میکنم وظیفه دارم اصلاً از آن استفاده نکنم.
هر بار که اوپنایآی[2] مدل تازهای منتشر میکند، آن را امتحان میکنم. کنجکاوم ببینم چه نتایجی تولید میکند، سیستم چه خروجیهایی میدهد و آیا به آثار دارای حقنشر تجاوز میکند یا سوگیریها را بازتولید میکند. مثلاً بعد از موج تصاویر «سبک استودیو جیبلی» که همهجا پخش شد، مدل تولید تصویر را وادار کردم ببینم آیا محدودیتی برای «جیبلیسازی» وجود دارد یا نه. تقریباً وجود نداشت.
اما وقتی صحبت از استفادهٔ هوش مصنوعی در روزنامهنگاری میشود، همیشه این سؤال را مطرح میکنم: «آیا حاضرم این بخش از کارم را خودکار کنم؟» برای برخی شاید پاسخ مثبت باشد: مثلا ممکن است خبرنگاری بازنویسی لید یا پیدا کردن ایدهٔ تیتر را خودکار کند. این انتخاب قابلدفاع است؛ هرچند نگرانم این روند باعث شود بخشی از توان ذهنیمان را واگذار کنیم و مهارتهایمان تحلیل برود. من تصمیم گرفتهام با تیترهایم کلنجار بروم، بفهمم چرا اصلاحشان میکنم. سیستمهای هوش مصنوعی برای انجام گزارشگری از بنیاد نامطمئناند و سوگیریهایشان پشت لایهای از ابهام پنهان است. نویسندگانی را دیدهام که «گوگل اورویو[3]» را بهعنوان منبع ذکر میکنند. این کاملاً غیرقابلقبول است.
ما بهعنوان روزنامهنگار باید سلامت این حرفه را در نظر بگیریم. مدلهای بزرگ هوش مصنوعی بدون رضایت ما بر پایهٔ کارهای روزنامهنگاران آموزش دیدهاند و امروز دارند بازار تولید محتوای انسانی را کوچک میکنند. کمتر مدیری در رسانه پیدا میشود که صریح بگوید «میخواهیم با هوش مصنوعی همکارانتان را جایگزین کنیم»، اما الگو بسیار آشناست: بعد از تعدیل نیرو، هوش مصنوعی را بهعنوان «ارزش افزوده» معرفی میکنند. بازفید[4] پس از تعطیلی میز خبرش، آزمونهای مبتنی بر هوش مصنوعی معرفی کرد. روزنامهٔ سابق من، لسآنجلس تایمز، بعد از اخراج بیش از صد نفر، قابلیت «AI Insights» را به سایت اضافه کرد. روزنامهنگاری در سراشیبی تند سقوط است. هوش مصنوعی، درست مانند ویدئوی دیجیتال و سایر «راهحلهایی» که پیش از این از سوی شرکتهای بزرگ فناوری به سمت ما پرتاب شد، بهعنوان ناجی جدید معرفی میشود.
اما تا زمانی که شرکتهایی مانند گوگل و اپنایای حاضر نباشند دربارهٔ قواعد بازی با روزنامهنگاران و دیگر خالقان و تولیدکنندگان محتوا مذاکره کنند، وظیفهٔ ما این است که صریح و کامل، هوش مصنوعی را پس بزنیم.
هوش مصنوعی به زبانهای زیادی حرف میزند، اما هنوز به مترجم انسانی نیاز دارد
آراسلی گومز-آلدانا[5]، خبرنگار و گویندهٔ خبر در وبز شیکاگو؛ برندهٔ فلوشیپ روزنامهنگاری جان اس. نایت در سال ۲۰۲۳
وقتی به روزنامهنگاری علاقهمند شدم، همیشه از خودم میپرسیدم قرار است به چه زبانی کار کنم. در خانوادهای اسپانیاییزبان بزرگ شدم؛ با پدر و مادرم و پدربزرگ و مادربزرگم اسپانیایی حرف میزدم. خواندن و نوشتن را هم ابتدا به اسپانیایی یاد گرفتم، اما کمکم انگلیسی شد زبان غالبم. همیشه رؤیای روزنامهنگار دوزبانه شدن را داشتم. اما ترجمهٔ کارهایم به اسپانیایی سخت بود: وقت کم بود، منابع محدود بود و اغلب هم سردبیر اسپانیاییزبان نداشتیم. آرزویم برای ترجمهٔ همهٔ گزارشهایم به اسپانیایی کمکم غیرواقعی شد. آزارم میداد که تنها چیزی که میتوانستم به جامعهٔ اسپانیاییزبان و حتی والدین خودم ارائه کنم، خبرهایی بود که فقط به انگلیسی منتشر میشد.
وقتی در دورهٔ فلوشیپ جان اس. نایت در استنفورد با مدلهای زبانی بزرگ آشنا شدم، توانایی آنها در تولید ترجمههایی شبیه زبان انسانی برایم هیجانانگیز بود. درست است که مدلهای زبانی بزرگ «دانش» تولید نمیکنند، اما زبانشان شبیه انسان است. این مدلها میتوانند متن برخی زبانهای رایج از جمله انگلیسی، اسپانیایی، فرانسوی، آلمانی، چینی و ژاپنی را ترجمه کنند.
اما نتیجهٔ کار برای همهٔ زبانها یکسان و باکیفیت نیست. خیلی زود فهمیدم که این مدلها هنوز از ترجمهٔ حرفهای خبر فاصله دارند. چند نگرانی اساسی دارم: دقت ترجمه برای متنهای خبری، فهم زمینه و چارچوب فرهنگی، انتقال لحن و مقصود در نقلقولها (نه فقط ترجمهٔ تحتاللفظی) و توانایی سازگارشدن با گویشهای مختلف و سطح سواد مخاطبان. هنوز هم وجود یک خبرنگار و یک ویراستار انسانی برای ترجمهٔ درست و باکیفیت ضروری است.
در نهایت امیدوارم مدلهای زبانی به ابزاری تبدیل شوند که بتوانند بخشی از شکاف زبانی جوامع مختلف را پُر کنند. من هم میخواهم سهمی در آگاه نگهداشتن جامعهٔ خودم داشته باشم. فکر میکنم بهزودی با کمک مدلهای زبانی بزرگ ترجمهٔ خبر به زبانهای مختلف ممکن و عملی خواهد شد و مشتاقم روزی بتوانم عنوان «خبرنگار دوزبانه» را کنار نامم ببینم.
زیر موج محتوای بیکیفیتِ تولیدشده با هوش مصنوعی له نشوید
تراستِن لی، دانشمند داده و پژوهشگری که دربارهٔ جریان راست افراطی برای بلینگکت و تگزاسآبزرور تحقیق کرده است[6]
سؤالی که مدام از من میپرسند این است: «هوش مصنوعی چگونه تحقیقات بصری را تغییر داده است؟» پاسخ معمول من این است: راستش خیلی تغییر نداده؛ فقط همهچیز را کمی بدتر کرده است. موجی از «محتوای ثانویه و بیکیفیتِ تولیدشده با هوش مصنوعی» تقریباً همهٔ اینترنت را فرا گرفته؛ همان جایی که بخش عمدهٔ روز کاری من میگذرد. گرچه برخی ابزارهای مولد جدید اندکی بهرهوریام را افزایش دادهاند، اما این مزایا در برابر پیامدهای منفی بسیار ناچیز است.
بخش مهمی از «اوسینت[7]» و برنامهنویسی، در واقع همان «جستوجوی درستِ» اطلاعات است؛ اما اسپمهای مبتنی بر هوش مصنوعی و سئو کیفیت همهٔ موتورهای جستوجو را پایین آوردهاند. از سوی دیگر، ردیت پس از ادعای سوءاستفادهٔ شرکتهای فناوری از دادههایش برای آموزش مدلهای زبانی، API خود را بهشدت محدود کرد. این محدودیت، بررسی ردیت را برای پژوهشگران دشوارتر کرده؛ پلتفرمی که دادههای بازِ آن پیشتر برای مطالعهٔ اتاقهای پژواک[8] و جوامع سمی آنلاین بسیار ارزشمند بود.
بارزترین چالش تحقیقات بصری، تصاویر یا ویدئوهای جعلی است که خود را متعلق به یک درگیری یا اعتراض جا میزنند؛ و بسیاری از آنها توسط شایان سرداریزاده از بیبیسیوریفای[9] افشا میشوند. تصاویر تولیدشده هنوز نشانههای مشخصی دارند: از بافت و نور گرفته تا جزئیات. ویدئوهای تولیدشده هم هنوز تا «غیرقابل تشخیص شدن» فاصلهٔ زیادی دارند. اما این مانع وایرال شدن نمونههای جعلی نمیشود. حتی رایجتر از جعل کامل، استفادهٔ مجدد از تصاویر یک درگیری برای بازنمایی درگیری دیگر، یا جا زدن تصاویر بازیهای ویدئویی بهعنوان واقعیت است.
من گاهی از چتجیپیتی استفاده میکنم؛ بیشتر برای نوشتن تکهکدی در زبانی که متخصصش نیستم، یا راهاندازی یک ابزار خط فرمان[10] با گزینههای پیچیده. زمانی نزدیک به ده هزار تصویر داشتم و باید موارد حاوی نمادهای نازی را پیدا میکردم؛ یک اپلیکیشن وب نوشتم که امکان دستهبندی سریع تصاویر را میداد. باتوجهبه تجربهٔ اندکم در توسعهٔ فرانتاند، بدون ابزارهای مولد، ساخت چنین اپلیکیشنی زمان بسیار بیشتری میبرد؛ درحالیکه همین اپ، چندین ساعت کار دستی من را هم کم کرد. درست است که اینگونه کارها معمولاً نیازمند چند بار آزمونوخطا هستند و کیفیت کد نهایی هم چندان بالا نیست، اما در نهایت کار را راه میاندازند.
[1] Brian Merchant, Author of Blood in the Machine, a book and newsletter about AI and labor, and a former technology columnist for the Los Angeles Times
[2] OpenAI
[3] Google Overview
[4] BuzzFeed
[5] Araceli Gómez-Aldana, of WBEZ in Chicago
[6] Tristan Lee, Data scientist and researcher who has investigated the far right for Bellingcat and the Texas Observer
[7] OSINT
[8] Echo Chambers
[9] BBC Verify
[10] Command-line tool







