دوشنبه 14 مهر 1404
هوش مصنوعی گوگل

فهرست

گوگل با معرفی مدل‌های جدید خانوادۀ هوش مصنوعی PaliGemma 2، بحث‌های گسترده‌ای را در جامعۀ هوش مصنوعی به راه انداخته است. این مدل‌ها که توانایی تجزیه‌وتحلیل تصاویر را دارند، می‌توانند توصیف‌هایی دقیق و مرتبط از جمله شناسایی احساسات و روایت کلی صحنه ارائه دهند. گوگل در پست وبلاگی خود اعلام کرده است که این فناوری، فراتر از شناسایی سادۀ اشیا رفته و به توصیف عملکردها، احساسات و زمینۀ کلی تصاویر می‌پردازد.

بااین‌حال، قابلیت شناسایی احساسات این مدل‌ها نیازمند تنظیمات اختصاصی است و همین موضوع نگرانی‌های زیادی را در میان متخصصان برانگیخته است. پروفسور ساندرا واچر از مؤسسۀ اینترنت آکسفورد این فناوری را «مشکل‌زا» توصیف کرده و اظهار داشته است: «فرض اینکه می‌توانیم احساسات افراد را بخوانیم، مثل این است که از گوی جادویی برای تصمیم‌گیری استفاده کنیم.»

چالشی به نام علم و فرهنگ

شناسایی احساسات توسط هوش مصنوعی از پایه‌های علمی بحث‌برانگیزی برخوردار است. بسیاری از این سیستم‌ها بر نظریۀ پل اکمن، روان‌شناسی که شش احساس بنیادین انسان را معرفی کرد، متکی هستند. بااین‌حال، تحقیقات جدید این فرضیه را زیر سؤال برده و به تفاوت‌های فرهنگی و فردی در بیان احساسات اشاره کرده‌اند. دکتر مایک کوک، محقق دانشگاه کینگز لندن، بیان کرده است: «تجربۀ احساسات بسیار پیچیده‌تر از آن است که بتوان آن را به طور عمومی شناسایی کرد.»

علاوه بر این، تحقیقات نشان داده‌اند که سیستم‌های شناسایی احساسات اغلب دارای سوگیری‌هایی هستند که به طور ناخواسته بر طراحی آن‌ها تأثیر می‌گذارد. مطالعه‌ای در سال 2020 نشان داد که برخی مدل‌های هوش مصنوعی سوگیری‌های نژادی دارند و احساسات منفی بیشتری به چهرۀ افراد سیاه‌پوست نسبت به سفیدپوستان اختصاص می‌دهند.

بیشتر بخوانید  گوگل ابزارهای پیشرفته‌تری برای تولید ویدئو با هوش مصنوعی معرفی کرد

پاسخ گوگل و نگرانی‌ها

گوگل مدعی است که آزمایش‌های گسترده‌ای برای بررسی تعصبات جمعیتی و سوگیری‌ها در مدل PaliGemma 2 انجام داده و نتایج مطلوبی به‌دست آورده است. بااین‌حال، جزئیات دقیق این آزمایش‌ها و معیارهای به‌کاررفته مشخص نشده است. این عدم شفافیت نگرانی‌هایی را دربارۀ سوءاستفادۀ احتمالی از این فناوری ایجاد کرده است.

دکتر هیدی خلعاف، دانشمند ارشد مؤسسۀ AI Now، معتقد است که این فناوری می‌تواند به تبعیض‌های ناعادلانه منجر شود: «اگر این فناوری بر پایۀ فرضیات شبه‌علمی بنا شده باشد، پیامدهای بزرگی در حوزه‌هایی مثل استخدام، مرزبانی و اجرای قانون خواهد داشت.»

محدودیت‌های قانونی

درحالی‌که برخی از قوانین، مانند قوانین مربوط به هوش مصنوعی در اتحادیۀ اروپا، استفاده از سیستم‌های شناسایی احساسات را در مدارس و محیط‌های کاری ممنوع کرده‌اند، استفاده از آن‌ها توسط نهادهای انتظامی همچنان مجاز است. این تناقض باعث نگرانی‌هایی دربارۀ نقض حریم خصوصی و تعمیق تبعیض‌ها شده است.

آینده‌ای نامطمئن

پروفسور واچر در پایان هشدار می‌دهد که «نوآوری مسئولانه» نیازمند بررسی مداوم پیامدهای اخلاقی از مرحلۀ طراحی تا مرحلۀ عرضۀ محصول است. او هشدار می‌دهد که ممکن است این فناوری در آینده به دنیایی منجر شود که در آن تحلیل احساسات افراد توسط هوش مصنوعی، تعیین‌کنندۀ شغل، دریافت وام یا پذیرش در دانشگاه باشد.

این فناوری نه‌تنها پتانسیل‌های علمی و کاربردی جدیدی را مطرح می‌کند، بلکه بازتابی از چالش‌های اخلاقی و اجتماعی در دنیای هوش مصنوعی است که نباید نادیده گرفته شود.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *