دوشنبه 14 مهر 1404
Picture of علی شاکر
علی شاکر
پژوهشگر ارتباطات و هوش مصنوعی

فهرست

من علی شاکر هستم؛ روزنامه‌نگار و پژوهشگر هوش مصنوعی که می‌خواهم در این سلسله‌ یادداشت‌ها در درجۀ نخست دربارۀ اصول کاربرد هوش مصنوعی در رسانه بیشتر بدانم و بخوانم و بعد آن را در اختیار شما بگذارم.

در یادداشت شمارۀ 5 «از قلم تا الگوریتم» به نقش هوش مصنوعی در مدیریت بحران‌های روابط‌عمومی با پیش گرفتن رویکرد «نمادین» پرداختیم. به طبع می‌دانیم در دنیای پیچیدۀ روابط‌عمومی، مدیریت بحران نیازمند ترکیبی از دانش، تجربه و واکنش سریع است. اما آیا می‌توان این فرایند پیچیده را به الگوریتم‌ها و قوانین منطقی از پیش طراحی شده سپرد؟

برای همین در یادداشت شمارۀ پنج تلاش‌ها برای فرمالیزه کردن واکنش به بحران در روابط‌عمومی را بررسی کردیم و نشان دادیم چه‌طور با سیستم‌های خبرۀ رایانه‌ای می‌توان برخی بحران‌ها را مدیریت کرد ولی همان‌طور که دیدیم، قصه پیچیده‌تر از این حرف‌هاست که بتوان با منطق پیشینی و از قبل طراحی شده، ماشین‌ها را هوشمند کرد.

برای همین تمامی آن تلاش‌ها در حوزۀ رویکرد نمادین به سمت رویکردهای ارتباط‌گرا (یا پیوندگرا) حرکت کرد؛ چون ماشین‌ها با این رویکرد آن طور که باید و شاید نمی‌توانستند به تجربه و درک انسانی نزدیک شوند. در بخش ششم این یادداشت همچنان منبع اصلی ما برای تشریح اتفاق‌های تاریخی و رویکردهای مختلف هوش مصنوعی، فصل هفتم کتاب «تاریخچۀ مختصر هوش» (2023) است و مثال‌ها بر مبنای تجربه و رشتۀ نگارنده‌ عرضه شده‌اند. در این بخش توضیح می‌دهیم که رویکرد ارتباط‌گرا چیست و چرا عامل تمامی تحولاتی است که اکنون در عرصۀ هوشمندسازی ماشین‌ها می‌بینیم.

پس همان‌طور که تا اینجا توضیح دادیم، با وجود خلاقانه‌ بودن رویکردهای نمادین در حل مسائل به کمک ماشین، ما انسان‌ها نمی‌توانیم برای تمامی پدیده‌های اطراف خود قواعدی منطقی تعیین کنیم. چون بسیاری از پدیده‌ها با منطق انسانی هماهنگ نیست. نمی‌توانیم منطقِ پدیده‌هایی را که کامل نمی‌شناسیم، درک کنیم. البته که در جهان ما این پدیده‌های ناشناخته کم نیست.

از این رو، به‌تدریج دانشمندان دریافتند که می‌بایست از رویکرد نمادین دست کشید و آن را کامل کنار گذاشت و رویکردهای تازه‌ای را برای آموزش ماشین در پیش گرفت.

هوش مصنوعی مبتنی بر ارتباط‌گرایی

دانشمندان ارتباط‌گرای هوش مصنوعی معتقدند که این فناوری از بایومیمیکری (یعنی الگوگیری از سیستم‌های زیستی) به‌ویژه مطالعۀ مدل‌های مغز انسان سرچشمه می‌گیرد. دستاورد شاخص این مکتب، مدل مغزی است که مک‌کالاک فیزیولوژیست و پیتس ریاضیدان سال 1943 طراحی کردند که به مدل MP معروف است. این دو با استفاده از دستگاه‌های الکترونیک راه‌های جدیدی را گشودند برای تقلید از ساختار و عملکرد مغز انسان. این پژوهش‌ها با مطالعۀ نورون‌ها آغاز شد و سپس به مدل‌های شبکۀ عصبی  و مدل‌های مغزی گسترش یافت و مسیر جدیدی برای توسعۀ هوش مصنوعی گشود.

پرسپترون

اولین نمونه از هوش مصنوعی مبتنی بر مغز، پرسپترون بود. این ماشین هوشمند را فرانک روزنبلات روانشناس در دهۀ 1950 اختراع کرد.[1] در این مدل از نحوۀ پردازش اطلاعات نورون‌های مغز الهام گرفته شده بود، همانطور که در شکل 1 نشان داده شده است. یک نورون از سایر نورون‌ها ورودی الکتریکی یا شیمیایی دریافت می‌کند. اگر مجموع تمام ورودی‌ها به یک آستانه معین برسد، نورون [مغز] فعال می‌شود.

شکل 1

ساختار نورونی در مغز انسان شامل سه بخش اصلی است: دندریت‌ها، سوما (بدنۀ سلولی) و آکسون. دندریت‌ها شاخه‌هایی هستند که پیام‌های الکتروشیمیایی را از نورون‌های دیگر دریافت می‌کنند. این پیام‌ها به سمت سوما حرکت می‌کنند، که مرکز پردازش اصلی نورون است. در سوما، این پیام‌ها تجمیع و پردازش می‌شوند. سپس، اگر پیام به اندازۀ کافی قوی باشد، از طریق آکسون به نورون‌های دیگر منتقل می‌شود.

آکسون، بخشی طولانی از نورون است که پیام‌های الکتریکی را به نقاط دیگر ارسال می‌کند. انتهای آکسون، انشعاب‌هایی هست به نام شاخه‌شاخه‌‌شدن آکسون. این انشعاب‌ها به انتقال پیام‌ به دیگر نورون‌ها یا سلول‌های هدف کمک می‌کنند. این ساختار، اساسی‌ترین واحد سیستم عصبی است که امکان انتقال و پردازش اطلاعات را در مغز فراهم می‌کند.

این شکل عملکرد مغز در روزمرگی‌های روزنامه‌نگارها هم به چشم می‌آید. برای مثال ما روزنامه‌نگارها هر روز با حجم زیادی از اطلاعات و داده‌ها مواجه‌ایم؛ از پایگاه‌های خبری و پرتال‌های سازمانی اخبار و گزارش‌های متفاوتی به تحریریه می‌رسد. این داده‌ها را شبیه ورودی‌های متعدد به سیستم عصبی (دندریت‌ها) در نظر بگیرید. روزنامه‌نگار این داده‌ها را در ذهنش (شبیه سوما) پردازش و تجزیه‌وتحلیل می‌کند. در نهایت، وقتی داده‌ها به حدی از اهمیت و صحت می‌رسند که به نوعی آستانۀ فکری دست می‌یابند، او تصمیم می‌گیرد آن‌ها را به شکل یک خبر یا گزارش منتشر کند (مانند آکسون که پیام نهایی را به دیگران منتقل می‌کند).

بیشتر بخوانید  کلیات سند ملی هوش مصنوعی تصویب شد

در مدل‌های شبکۀ عصبی مصنوعی، که از ساختار نورون‌های زیستی الهام گرفته شده‌اند، ورودی‌ها (Inputs) به‌عنوان داده‌های اولیه به سیستم وارد می‌شوند. این ورودی‌ها می‌توانند از لایه‌های پیشین شبکه یا از داده‌های خام گرفته شوند و به نورون موردنظر ارسال شوند. هر ورودی متأثر از وزن‌های سیناپسی (Synaptic Weights) است. این وزن‌ها پارامترهای قابل تنظیمی‌اند که در طول فرایند آموزش مدل بهینه می‌شوند تا تأثیر هر ورودی در خروجی نهایی را مشخص کنند. در واقع، وزن‌های سیناپسی تعیین می‌کنند که کدام ورودی‌ها اهمیت بیشتری دارند و در پیش‌بینی نهایی نقش بیشتری ایفا می‌کنند.

در ادامه، بایاس (Bias) یا گرایش که یک مقدار ثابت است، به مجموع ورودی‌ها اضافه می‌شود. نورون‌ها به کمک بایاس می‌توانند انعطاف‌پذیری بیشتری داشته باشند و تابع فعال‌سازی را به نحوی جابه‌جا کند که بتواند بهتر داده‌ها را مدل کند. در واقع، نورن‌ها با این پارامتر‌ها می‌توانند در شرایط پیچیده، تصمیم‌های دقیق‌تری بگیرند.

مجموعه‌ای از ورودی‌ها که در وزن‌های سیناپسی خود ضرب شده‌اند، به همراه بایاس، در جایگاه جمع‌بندی (Summing Junction) گرد هم می‌آیند. نتیجۀ این عملیات به‌عنوان ورودی تابع فعال‌سازی (Activation Function) در نظر گرفته می‌شود. تابع فعال‌سازی وظیفه دارد که تصمیم بگیرد آیا نورون فعال شود یا خیر. این توابع معمولاً غیرخطی هستند و شامل توابعی مانند ReLU، سیگموید، و هایپربولیک می‌شوند که باعث می‌شود شبکۀ عصبی بتواند روابط غیرخطی میان داده‌ها را یاد بگیرد و به پیش‌بینی‌های دقیق‌تری برسد.

خروجی نهایی پس از عبور از تابع فعال‌سازی به دست می‌آید و می‌تواند به‌عنوان ورودی به نورون‌های دیگر در لایه‌های بعدی یا به‌عنوان نتیجۀ نهایی مدل مورد استفاده قرار گیرد. این ساختار ساده ولی کارآمد از نحوۀ عملکرد نورون‌های مصنوعی، به شبکه‌های عصبی این امکان را می‌دهد تا در حوزه‌های مختلفی مانند یادگیری عمیق (Deep Learning) و تحلیل داده‌های پیچیده، عملکرد بالایی از خود نشان دهند.

در کل، تنظیم وزن‌ها و بایاس‌ها در طول فرایند آموزش، کلید عملکرد بهینۀ شبکۀ عصبی است. این پارامترها باتوجه‌به داده‌های ورودی و خروجی‌های هدف تغییر می‌کنند تا شبکه بتواند به تدریج یاد بگیرد و به نتایج بهتری دست یابد. به‌همین‌دلیل، نورون‌های مصنوعی می‌توانند به گونه‌ای طراحی شوند که فرایندهای پیچیدۀ مغزی را شبیه‌سازی کنند و در کاربردهای متنوعی از جمله تشخیص الگو، طبقه‌بندی داده‌ها و پیش‌بینی آینده استفاده شوند.

هنگام محاسبۀ مجموع ورودی‌های خود، نورون به ورودی‌هایی که از اتصالات قوی‌تر می‌آیند وزن بیشتری می‌دهد. تنظیم قدرت اتصالات بین نورون‌ها یکی از اجزای کلیدی نحوۀ یادگیری در مغز است.
مشابه یک نورون، یک پرسپترون مجموع وزنی ورودی‌های خود را محاسبه می‌کند که اگر این مجموع به یک آستانۀ خاص برسد، خروجی آن 1 خواهد بود.

برای اینکه مفهوم پرسپترون و رویکرد شبکه‌های عصبی مصنوعی در دنیای روزنامه‌نگاری بهتر درک شود، می‌توانیم مثالی مرتبط با پردازش و تحلیل داده‌های خبری ارائه دهیم.

فرض کنید در یک روزنامه، وظیفۀ تحلیل هزاران مقالۀ خبری در مورد یک رویداد خاص به شما سپرده شده است. به جای اینکه خودتان به‌صورت دستی هر مقاله را بخوانید و تحلیل کنید، می‌توانید از یک مدل شبکۀ عصبی مصنوعی مانند پرسپترون استفاده کنید. این مدل می‌تواند تمام مقالات ورودی را دریافت کند و هر کدام از آن‌ها را بر اساس وزن‌های مختلفی که به کلمات یا مفاهیم کلیدی درون آن‌ها داده شده، تحلیل کند. برای مثال، اگر یک مقاله شامل کلماتی باشد که بیانگر «تنش»، «اعتراض» یا «بحران» است، این کلمات وزن بیشتری خواهند داشت، چون به موضوع رویداد مرتبط هستند.

مدل پرسپترون مجموع این وزن‌ها را محاسبه می‌کند و اگر این مجموع به یک آستانۀ خاص برسد، مثلاً تصمیم گرفته می‌شود که این مقاله نشان‌دهندۀ وضعیت بحرانی است و نیاز به انتشار سریع دارد. در واقع، خروجی پرسپترون می‌تواند تصمیم‌گیری کند که آیا یک مقاله باید در اولویت قرار گیرد یا خیر، همان‌طور که نورون‌ها در مغز برای تشخیص اهمیت یک پیام الکتریکی عمل می‌کنند.

در این مثال، «ورودی‌ها» همان مقالات خبری‌اند که هر کدام به لحاظ اهمیت موضوع وزن‌های مختلفی دارند (مثلاً وزن بیشتری برای کلماتی که مربوط به بحران‌ها و مسائل حساس هستند). «وزن‌های سیناپسی» نشان‌دهندۀ میزان تأثیر هر کلمه یا مفهوم در تحلیل نهایی است.

بیشتر بخوانید  تهدید لفظی چت‌بات گوگل علیه انسان

«بایاس» کمک می‌کند که حتی اگر برخی از ورودی‌ها ضعیف باشند، سیستم بتواند انعطاف‌پذیری خود را حفظ کند و تصمیمات بهتری بگیرد و این «تابع فعال‌سازی» است که در نهایت تعیین می‌کند آیا مقاله‌ای باید به‌عنوان بحرانی شناخته شود یا خیر.

پس همانطور که نورون‌ها اطلاعات را پردازش می‌کنند، سیستم‌های هوش مصنوعی نیز می‌توانند برای تحلیل داده‌های خبری و روزنامه‌نگاری به کار آیند و این کار با سرعت و دقت بسیار بیشتری نسبت به روش‌های سنتی انجام می‌شود. این به روزنامه‌نگاران کمک می‌کند تا در مواجهه با حجم زیادی از داده‌ها، سریع‌تر و دقیق‌تر تصمیم‌ بگیرند.

چگونه می‌توان وزن‌ها و آستانه‌ها را در پرسپترون تعیین کرد؟

برخلاف هوش مصنوعی نمادین، که دارای قوانین صریحی است که برنامه‌نویس آن را تعیین می‌کند، پرسپترون این مقادیر را به‌صورت خودکار با مثال‌های آموزشی یاد می‌گیرد. در فرایند آموزش، اگر نتیجه درست باشد، پاداش می‌گیرد؛ در غیر این صورت، تنبیه می‌شود.

اگر با اضافه کردن لایه‌های بیشتری از پرسپترون، این مدل گسترش یابد، می‌توان مشکلات گسترده‌تری را با این رویکرد حل کرد. این ساختار نوین، همان شبکۀ عصبی  چندلایه است که اساس بسیاری از انواع هوش مصنوعی مدرن را تشکیل می‌دهد.

بااین‌حال، در دهل 1950 و 1960، آموزش شبکه‌های عصبی کار دشواری بود؛ چون الگوریتم‌های عمومی برای یادگیری وزن‌ها و آستانه‌ها وجود نداشت. متأسفانه، فرانک روزنبلات در سال 1971 در سن 43 سالگی بر اثر حادثۀ قایقرانی درگذشت. به دلیل محدودیت‌های مدل‌های نظری، پروتوتایپ‌های زیستی و شرایط فنی آن زمان، پژوهش‌ها دربارۀ مدل‌های مغزی در اواخر دهۀ 1970 و اوایل دهۀ 1980 به محاق رفت. بدون حامیان برجسته و حمایت‌های دولتی کافی، پژوهش در زمینۀ شبکه‌های عصبی و سایر هوش‌های مصنوعی مبتنی بر ارتباط‌گرایی تا حد زیادی متوقف شد. به‌ویژه به دلیل انتقادات شدید ماروین مینسکی از پرسپترون، مکتب ارتباط‌گرایی (یا شبکۀ عصبی) تقریباً به مدت یک دهه در رکود بود.

یادگیری ماشینی

اگرچه تأمین مالی برای پژوهش‌های مرتبط با رویکرد ارتباط‌گرایی به شدت کم شد، اما برخی از پژوهشگران این حوزه در دهه‌های 1970 و 1980 به کار خود ادامه دادند. ارتباط‌گرایی تنها پس از انتشار دو مقالۀ مهم توسط پروفسور جان جی. هاپفیلد [برندۀ نوبل فیزیک امسال به همراه جفری هینتون که به او می‌گویند پدرخواندۀ هوش مصنوعی] در سال‌های 1982 و 1984، که پیشنهاد شبیه‌سازی شبکه‌های عصبی در سخت‌افزار را مطرح کرد [2، 3]، دوباره احیا شد.

در سال 1986، راملهارت و همکارانش الگوریتم بازگشت به عقب یا پس‌انتشار (BP) را در شبکه‌های چندلایه پیشنهاد کردند. از آن زمان، ارتباط‌گرایی شتاب گرفت، از مدل به الگوریتم، از تحلیل نظری به پیاده‌سازی مهندسی، و پایه‌ای را برای ورود شبکه‌های عصبی به بازار فراهم کرد.
یادگیری ماشینی از سال 2010 به‌عنوان یک تغییر پارادایم کامل نسبت به سیستم‌های خبره بسیار محبوب شد. یادگیری ماشینی نیازی به کدنویسی قوانین سیستم‌های خبره ندارد، بلکه به رایانه‌ها اجازه می‌دهد قوانین را بر اساس حجم وسیعی از داده‌ها کشف کنند.

یادگیری ماشینی زیرمجموعه‌ای از رویکرد ارتباط‌گرایی به هوش مصنوعی است که مغز را شبیه‌سازی می‌کند. برخلاف هوش مصنوعی نمادین که تلاش می‌کند مفاهیم تفکر سطح بالا را تقلید کند، هوش مصنوعی ارتباط‌گرا شبکه‌های تطبیقی ایجاد می‌کند که می‌توانند «یاد بگیرند» و الگوهایی را از حجم زیادی از داده‌ها بشناسد. با داشتن الگوریتم‌های پیچیده‌تر و کلان‌داده‌های بیشتر، طرفداران ارتباط‌گرایی بر این باورند که می‌توان به سطوح بالاتری از عملکرد هوش مصنوعی رسید که می‌تواند معادل ذهن واقعی انسان باشد.

در یادداشت بعدی (هفتم) از قلم تا الگوریتم، سعی می‌کنیم که به لحاظ فنی و ریاضی توضیح دهیم که داخل این ماشین‌های هوشمند چه اتفاقی می‌افتد که بر اساس فرمول‌های آمار پیشرفته و ریاضی حتی می‌توانند پیش‌بینی انجام دهند.

 

 

  1. Rosenblatt, The Perceptron: A Perceiving and Recognizing Automaton, Report 85–60-1(Cornell Aeronautical Laboratory, Buffalo, New York, 1957)
  2. هاپفیلد، ج. ج. (۱۹۸۲). شبکه‌های عصبی و سیستم‌های فیزیکی با قابلیت‌های محاسباتی جمعی نوظهور. مجله آکادمی ملی علوم ایالات متحده آمریکا, ۷۹(۸)، ۲۵۵۴-۲۵۵۸.
  3. جان جی، اچ. (۱۹۸۴). نورون‌هایی با پاسخ تدریجی دارای خواص محاسباتی جمعی مشابه نورون‌های دو حالتی هستند. مجله آکادمی ملی علوم ایالات متحده آمریکا, ۸۱(۱۰)، ۳۰۸۸-۳۰۹۲.
Picture of علی شاکر
علی شاکر
پژوهشگر ارتباطات و هوش مصنوعی
Picture of علی شاکر
علی شاکر
پژوهشگر ارتباطات و هوش مصنوعی

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *