سه‌شنبه 1 آبان 1403
Picture of علی شاکر
علی شاکر
مدرس و پژوهشگر ارتباطات

تحلیلی بر مقالۀ «DIAMOND: استفاده از مدل‌های انتشار برای مدل‌سازی جهان» و تأثیرات فلسفی و ارتباطی آن

آیا تا به حال به این فکر کرده‌اید که شاید دنیای ما چیزی نباشد جز یک شبیه‌سازی پیچیدۀ رایانه‌ای؟ با پیشرفت‌های چشمگیر در حوزۀ ‌هوش مصنوعی و مدل‌های انتشار، این ایده دیگر صرفاً یک تخیل علمی نیست.  گروهی از پژوهشگران مقاله‌ای منتشر کرده‌اند با عنوان  «دیاموند: استفاده از مدل‌های انتشار برای مدل‌سازی جهان» (2024) که بررسی آن نشان می‌دهد که احتمالاً یک گام به این واقعیت نزدیک‌تر شده‌ایم.

در این تحلیل، نشان می‌دهیم که استفاده از این رویکرد یادگیری تقویتی در هوش مصنوعی، دستاوردهای نوآورانه‌ای به همراه داشته که نمی‌توان تأثیرات فلسفی و ارتباطی آن را در آینده نادیده گرفت؛ اینکه چه‌طور مرز بین واقعیت و شبیه‌سازی دارد محوتر می‌شود و در این جهان‌های شبیه‌سازی‌شده آیا خبری از مسئولیت اخلاقی هست؟ این مدل‌های یادگیری چه تأثیری روی روابط‌ روزمرۀ ما می‌گذارند؟

تیمی از پژوهشگران دانشگاه ژنو، دانشگاه ادینبرا و مایکروسافت‌ریسرچ به تازگی مقاله‌ای منتشر کرده‌اند با عنوان «DIAMOND: DIffusion As a Model Of eNvironment Dreams». این مقاله به معرفی یک مدل هوش مصنوعی نوین می‌پردازد که از مدل‌های انتشار (Diffusion Models) برای شبیه‌سازی محیط‌های پیچیده استفاده می‌کند. هدف اصلی این پژوهش بهبود عملکرد عامل‌های یادگیری تقویتی در محیط‌های شبیه‌سازی‌شده است تا آن‌ها بتوانند با دقت و کارایی بیشتری در دنیای واقعی عمل کنند.

مدل‌های انتشار (Diffusion Models) یک روش پیشرفته در حوزۀ یادگیری ماشین و به‌ویژه در زمینۀ تولید داده‌های تصادفی است. این مدل‌ها به‌طور خاص در حوزه‌هایی مانند تولید تصویر، صدا و داده‌های ترتیبی کاربرد دارند و توانسته‌اند نتایج چشمگیری در بازتولید و شبیه‌سازی داده‌های پیچیده ارائه دهند.

با استفاده از مدل‌های انتشار، هوش مصنوعی می‌تواند تصاویر شبیه‌سازی‌شده و باکیفیتی را «در لحظه» بسازد، بدون اینکه نیاز به سخت‌افزارهای خاص یا پرقدرتی باشد. این مدل‌ها به طور مؤثری داده‌ها را در یک فرایند مرحله‌به‌مرحله پردازش می‌کنند و از داده‌های تصادفی (مثل نویز) به تصاویر واقعی و با جزئیات بالا می‌رسند.

برای بیشتر دانستن نگاهی به این ویدئو بیندازید.

ما هم در زندگی روزمره از این نوع یادگیری کم‌وبیش استفاده می‌کنیم. برای نمونه، وقتی می‌خواهیم دوچرخه‌سواری یاد بگیریم، این فرایند شبیه به مدل‌های انتشار است. ابتدا، هیچ تصور دقیقی از دوچرخه‌سواری نداریم و ذهن‌مان پُر از روش‌های اشتباهی است که ممکن است روی زین بنشینیم یا رکاب بزنیم. این نوعی عدم اطمینان به همراه خود دارد که شبیه همان نویز یا داده‌های تصادفی عمل می‌کند. با تمرین مرحله‌به‌مرحله، کم‌کم تجربه‌ و مهارت ما بیشتر می‌شود؛ چون مدام اشتباه‌های کوچک خود را تصحیح می‌کنیم. سرآخر، پس از تکرار و اصلاح، فرد به تدریج به جایی می‌رسد که می‌تواند دوچرخه‌سواری کند، درست مانند مدلی که در انتهای فرایند انتشار از نویز به تصویر واضح و کامل می‌رسد. پس در اینجا با نوعی یادگیری تقویتی در ماشین مواجه‌ایم.

دستیابی به توانایی ساخت تصاویر در لحظه (real-time image generation) با استفاده از آزمون و خطا کردن نتایج مهم، تحولات گسترده‌ای را در حوزه‌های مختلف فناوری و کاربردهای آن به دنبال دارد.

نویسندگان این مقاله گروهی از پژوهشگران حوزۀ هوش مصنوعی و یادگیری ماشین هستند که از مؤسسه‌های مختلفی روی این پروژه کار کرده‌اند:

  • دانشگاه ژنو: پژوهشگرانی که روی مدل‌های یادگیری تقویتی و شبیه‌سازی محیط‌های پیچیده تخصص دارند.
  • دانشگاه ادینبرا: متخصصانی که در زمینۀ مدل‌های انتشار و کاربردهای آن در هوش مصنوعی تخصص دارند.
  • مایکروسافت‌ریسرچ: تیمی از پژوهشگرانی که بر توسعۀ فناوری‌های نوین در یادگیری ماشین تمرکز دارند.

 

این پژوهشگران مدلی به نام DIAMOND طراحی کرده‌اند که یک عامل یادگیری تقویتی است و از مدل‌های انتشار برای شبیه‌سازی دقیق‌تر و جزئی‌تر محیط‌ها استفاده می‌کند. عامل‌های هوش مصنوعی می‌توانند در این مدل با حفظ جزئیات بصری مهم، تصمیمات بهتری در محیط‌های پیچیده بگیرند.

در مدل‌های پیشین یادگیری تقویتی، فشرده‌سازی داده‌ها جزئیات بصری مهم را در نظر نمی‌گرفت. این امر عملکرد عامل‌های هوش مصنوعی را در محیط‌های پیچیده محدود می‌کرد، زیرا اطلاعات حیاتی برای تصمیم‌گیری‌های بهینه در دسترس نبود.

مدل DIAMOND با استفاده از مدل‌های انتشار، این مشکل را حل کرده است. مدل‌های انتشار می‌توانند جزئیات بصری را با دقت بیشتری حفظ کنند و شبیه‌سازی‌های واقع‌گرایانه‌تری از محیط ارائه دهند. یعنی این عامل‌های هوش مصنوعی می‌توانند با اطلاعات کامل‌تری آموزش ببینند و در نتیجه عملکرد بهتری داشته باشند.

در آزمایش‌های انجام‌شده، DIAMOND توانسته است به امتیاز نرمالیزه‌شده انسانی 1.46 در بنچمارک Atari 100k دست یابد، که یک رکورد جدید برای عامل‌هایی است که کاملاً در یک مدل جهان آموزش دیده‌اند. این نشان می‌دهد که بهبود جزئیات بصری می‌تواند بهبود قابل‌توجهی در عملکرد عامل‌های هوش مصنوعی ایجاد کند.

تبعات فلسفی ساخت تصاویر در لحظه

اما این دستاورد فناورانه می‌تواند تبعات زیادی بر دستگاه فکری و روابط اجتماعی ما داشته باشد. موضوع تولید در لحظه و باکیفیت تصاویر با مدل‌های هوش مصنوعی، به‌ویژه مدل‌های انتشار، مسائلی بنیادین دربارۀ «ماهیت واقعیت» و «بازنمایی» آن مطرح می‌کند.

این مسائل به پرسش‌های فلسفی پیچیده‌ای منجر می‌شوند که به بررسی «ارتباط واقعیت، شبیه‌سازی و آگاهی» می‌پردازند. در ادامه، این بحث‌ها را با جزئیات بیشتری بررسی می‌کنیم و نشان می‌دهیم که چگونه پیشرفت در این حوزه می‌تواند با «فرضیۀ شبیه‌سازی» نیک بوسترم و ایده‌های مرتبط با آن پیوند بخورد.

بیشتر بخوانید  برگزاری‌ کارگاه «هوش مصنوعی و آینده ارتباطات»

ماهیت واقعیت و بازنمایی

وقتی مدل‌های هوش مصنوعی می‌توانند جهان را با دقت و جزئیات بسیار بالا شبیه‌سازی کنند، سؤالاتی اساسی دربارۀ «واقعیت» و «بازنمایی» مطرح می‌شوند. بازنمایی یعنی یک مدل یا شبیه‌سازی به نحوی واقعیت یا بخشی از آن را نمایش می‌دهد. در این زمینه، باید پرسید که تا چه حد این شبیه‌سازی‌ها با «واقعیت فیزیکی» که ما تجربه می‌کنیم، همخوانی دارند؟ آیا تصاویری که به‌طور مصنوعی تولید می‌شوند، به‌نوعی «واقعیت جدید» خلق می‌کنند یا تنها کپی ناقصی از آن هستند؟

این سؤالات به حوزه‌های مختلفی در فلسفه، از جمله «فلسفۀ ذهن»، «معرفت‌شناسی» (مطالعۀ ماهیت دانش)، و «فلسفۀ زبان» بازمی‌گردند. یکی از بحث‌های اصلی در این حوزه این است که اگر هوش مصنوعی بتواند یک جهان شبیه‌سازی‌شده با جزئیات بسیار دقیق و در لحظه تولید کند، آیا آن جهان یک «واقعیت مستقل» است؟ یا اینکه فقط نسخه‌ای مجازی از واقعیت است که هیچ تأثیری بر دنیای واقعی ندارد؟ این سؤالات مرز میان «شبیه‌سازی» و «واقعیت» را کمرنگ‌تر می‌کند.

فرضیۀ شبیه‌سازی نیک بوسترم

«نیک بوسترم»، فیلسوف سوئدی دانشگاه آکسفورد، با الهام گرفتن از قصۀ فیلم ماتریکس خواهران واچوفسکی، در مقاله‌ای معروف به نام «آیا ما در جهان شبیه‌سازی شده زندگی می‌کنیم» (2003) «فرضیۀ شبیه‌سازی» (Simulation Hypothesis) خود را مطرح می‌کند و می‌گوید «احتمال بالایی» وجود دارد که ما در یک شبیه‌ساز باشیم. بوسترم این فرضیه را بر اساس استدلال‌های آماری و احتمالاتی مطرح می‌کند. او سه فرضیۀ اصلی بیان می‌کند:

  1. «تمدن‌های پیشرفته هرگز به مرحله‌ای نمی‌رسند که بتوانند شبیه‌سازی‌های پیچیده و واقع‌گرایانه ایجاد کنند.»
  2. «تمدن‌های پیشرفته به آن مرحله‌ می‌رسند، اما علاقه‌ای به ایجاد شبیه‌سازی‌های پیچیده از واقعیت ندارند.»
  3. «ما احتمالاً در یک شبیه‌سازی زندگی می‌کنیم، چون تمدن‌های پیشرفته تعداد زیادی از شبیه‌سازی‌ها را ساخته‌اند و ما در یکی از آن‌ها هستیم». در این فرضیه، تمدن‌های پیشرفته هم به سطح فناوری لازم می‌رسند و هم می‌خواهند شبیه‌سازی‌های پیچیده‌ای بسازند. اگر این اتفاق بیفتد، باتوجه‌به هزینۀ پایین شبیه‌سازی در مقایسه با خلق یک دنیای واقعی، آن‌ها تعداد بسیار زیادی شبیه‌سازی ایجاد خواهند کرد.

از نظر این فیلسوف، تعداد شبیه‌سازی‌ها به قدری زیاد خواهد بود که احتمال اینکه ما در یک شبیه‌سازی باشیم به شدت بالاست. به بیان ساده، اگر میلیون‌ها شبیه‌سازی ساخته شده باشد و فقط یک جهان واقعی وجود داشته باشد، احتمال اینکه ما در جهان واقعی باشیم بسیار کم است و احتمال اینکه در یک شبیه‌سازی باشیم بسیار زیاد.

پیشرفت در مدل‌های هوش مصنوعی و فرضیۀ شبیه‌سازی

پیشرفت‌های اخیر در مدل‌های هوش مصنوعی، به‌ویژه در زمینۀ «تولید در لحظه و با کیفیت بالا»، می‌توانند به فرضیۀ شبیه‌سازی نیک بوسترم قوت بیشتری ببخشند. این پیشرفت‌ها نشان می‌دهند که ما در حال نزدیک شدن به توانایی ایجاد شبیه‌سازی‌های بسیار پیچیده و واقع‌گرایانه هستیم. این شبیه‌سازی‌ها می‌توانند:

  • «جهان‌هایِ مجازی» بسیار دقیق و پیچیده بسازند که تعاملات انسانی را خیلی شبیه به واقعیت، تجربه کنیم.
  • محیط‌های شبیه‌سازی‌شده‌ای تولید کنند که از نظر بصری و فیزیکی به قدری واقعی به نظر برسند که تشخیص تفاوت بین آن‌ها و دنیای واقعی دشوار باشد.

این فناوری‌ها ما را به سمت ساخت شبیه‌سازی‌هایی می‌برد که می‌تواند از نظر پیچیدگی و واقع‌گرایی به شبیه‌سازی‌هایی که بوسترم دربارۀ آن‌ها صحبت می‌کند، نزدیک شوند.

آیا ما نیز در یک شبیه‌سازی زندگی می‌کنیم؟

باتوجه‌به این پیشرفت‌ها، سؤال اساسی این است که «آیا خود ما نیز در یک شبیه‌سازی زندگی می‌کنیم؟». اگر بتوانیم جهان‌های مجازی بسیار پیچیده و واقع‌گرایانه ایجاد کنیم، پس امکان دارد که ما نیز بخشی از یک شبیه‌سازی باشیم که تمدنی پیشرفته‌تر آن را ساخته است. شبیه‌سازی‌هایی که می‌توانند واقعیت فیزیکی ما را با دقت بسیار زیادی بازنمایی کنند و ما هیچ آگاهی از این موضوع نداشته باشیم.

این بحث از منظر فلسفی به «پرسش‌های وجودی» عمیقی منجر می‌شود. برای نمونه، اگر ما در یک شبیه‌سازی زندگی می‌کنیم:

  • معنای ما به‌عنوان موجودات شبیه‌سازی‌شده چیست؟
  • آگاهی ما از چه جنسی است؟
  • آیا آگاهی ما فقط نتیجۀ الگوریتمی پیچیده است که هوش مصنوعی آن را در فضایی خاص شبیه‌سازی کرده است؟
  • آیا می‌توانیم از اینکه دنیا واقعی است،‌ مطمئن باشیم؟
  • آیا ما موجوداتی مستقل و فیزیکی هستیم که در دنیایی واقعی زندگی می‌کنیم؟

دربارۀ این پرسش‌ها بسیار می‌توان گفت‌وگو کرد، ولی درحالی‌که ما سعی می‌کنیم به پرسش‌هایی مشابه فکر کنیم، این مدل یادگیری ماشین می‌تواند تعاملات ما انسان‌ها را متحول کند.

 بهبود تعاملات انسان-ماشین

ربات‌ها و عامل‌های هوش مصنوعی می‌توانند رفتارهای انسانی را بهتر شبیه‌سازی کنند و در نتیجه ارتباطات مؤثرتری با انسان‌ها برقرار کنند. برای نمونه، همین حالا موقع صحبت با مدل Mini چت‌جی‌پی‌تی به‌راحتی از لهجۀ فارسی ما تقلید می‌کند و می‌تواند به همان شکل با ما وارد گفت‌وگو شود و تشخیص اینکه این صدای ماشین است، ساده نیست. این امر در حوزه‌هایی مانند خدمات مشتری، آموزش و پشتیبانی پزشکی کاربردهای گسترده‌ای دارد.

این مدل‌ها می‌توانند تجربه‌های آنلاین را شخصی‌تر و واقع‌گرایانه‌تر کنند. در شبکه‌های اجتماعی و پلتفرم‌های دیجیتال، محتوا و تعاملات می‌توانند بر اساس رفتارها و ترجیحات کاربران بهینه‌سازی شوند، که این می‌تواند به افزایش تعامل و رضایت کاربران منجر شود.

پژوهشگران و سیاست‌گذاران می‌توانند از این مدل‌ها برای شبیه‌سازی رفتارهای اجتماعی و پیش‌بینی واکنش‌های جمعی استفاده کنند. این امر می‌تواند در مدیریت بحران‌ها، برنامه‌ریزی شهری و توسعۀ سیاست‌های اجتماعی مفید باشد.

بیشتر بخوانید  کلیات سند ملی هوش مصنوعی تصویب شد

همچنین مدل‌های هوش مصنوعی پیشرفته می‌توانند محیط‌های آموزشی تعاملی و شخصی‌سازی‌شده ایجاد کنند. دانش‌آموزان می‌توانند در محیط‌هایی یاد بگیرند که به سبک یادگیری و نیازهای آن‌ها تطبیق داده شده است، که این می‌تواند به افزایش بهره‌وری آموزشی منجر شود.

با افزایش تعامل با عامل‌های هوش مصنوعی که شبیه ما رفتار می‌کنند، مرز بین انسان و ماشین ممکن است مبهم شود. این می‌تواند به چالش‌های هویتی و سؤالاتی دربارۀ ماهیت روابط انسانی منجر شود.

همچنین هوش مصنوعی می‌تواند در تولید محتواهای رسانه‌ای نقش مهمی ایفا کند. با شبیه‌سازی رفتارها و واکنش‌های انسانی، محتواهایی تولید می‌شوند که هدفمندتر و جذاب‌تر هستند. این می‌تواند به تغییر در مصرف رسانه‌ای و تعاملات اجتماعی مرتبط با آن منجر شود.

مسئولیت اخلاقی

قدرتمندتر شدن ماشین در تحلیل داده‌ها، آن را بیشتر و بیشتر شبیه ما می‌کند و همزمان شکل تصمیم‌گیری‌های ما نیز عوض می‌شود. ما همچنان تصمیم‌گیرنده هستیم، ولی بر مبنای تحلیلی که ماشین به ما می‌دهد. اما اگر خود ماشین به کمک یادگیری تقویتی روزبه‌روز مستقل‌تر عمل کند چه‌طور؟

حتی اگر این عامل‌های هوشمند مستقل عمل نکنند، دسترسی بیشتر افراد به سکوهای هوش مصنوعی باعث می‌شود تا تصمیم‌گیری‌ها نیز پیچیده‌تر شود. در این محیط پیچیده مسئولیت اخلاقی تصمیم‌گیری‌ها با کیست؟ اگر یک عامل هوش مصنوعی تصمیم‌های نادرستی بگیرد که نتایج منفی به همراه داشته باشد، این پرسش مطرح می‌شود که چه کسی باید پاسخگو باشد: «توسعه‌دهندگان»، «کاربران»، یا «خودِ هوش مصنوعی»؟

برخی توسعه‌دهندگان را مسئول می‌دانند چون این مدل‌ها را طراحی کرده‌اند و آموزش داده‌اند.. این توسعه‌دهندگان هستند که برای ماشین الگوریتم‌ها و داده‌هایی را فراهم کرده‌اند که به تصمیم‌گیری منجر می‌شوند. (بوسترم، 2014)

بااین‌حال، بسیاری از کاربران دانش کافی برای درک دقیق عملکرد این سیستم‌ها ندارند و ممکن است کنترل کمی بر تصمیم‌های آن‌ها داشته باشند. از سوی دیگر، برخی معتقدند که اگر هوش مصنوعی به سطحی از آگاهی برسد، ممکن است بتواند خود مسئول تصمیماتش باشد، اما درحال‌حاضر، می‌دانیم که فعلاً هوش مصنوعی اراده، آگاهی و شعور ندارد. (بوسترم و یودکوفسکی، 2018)

برخی دیگر نیز می‌گویند که مسئولیت باید به‌صورت جمعی بین توسعه‌دهندگان، کاربران و حتی شرکت‌ها و دولت‌ها تقسیم شود. این تقسیم مسئولیت می‌تواند به بهبود پاسخگویی و جلوگیری از سوءاستفاده‌ها کمک کند. (کوکلبرگ، 1403)

این نکته را نیز می‌بایست در نظر بگیریم که قوانین موجود معمولاً برای مسئولیت‌های انسانی طراحی شده‌اند و چارچوب‌های حقوقی مشخصی برای هوش مصنوعی وجود ندارد. بنابراین، نیاز به «قوانین جدید و بررسی‌های عمیق فلسفی و اخلاقی» در این حوزه بیشتر احساس می‌شود تا به شکل موثرتری با چالش‌های آینده مواجه شویم.

پیشرفت‌های اخیر در حوزۀ هوش مصنوعی، به‌ویژه توسعۀ مدل DIAMOND، نشان‌دهندۀ نقطۀ عطفی در توانایی ما برای شبیه‌سازی و بازنمایی جهان با جزئیات دقیق و در لحظه است. این دستاورد نه‌تنها مرزهای فناوری را جابه‌جا می‌کند، بلکه ما را با پرسش‌های عمیق فلسفی و اخلاقی مواجه می‌کند که نیازمند تأمل و بررسی جدی‌اند.

توانایی ساخت جهان‌های شبیه‌سازی‌شده با دقت بالا، مرز بین واقعیت و مجاز را کمرنگ‌تر می‌کند و ما را به سوی بازاندیشی دربارۀ ماهیت واقعیت، آگاهی و جایگاه خود در کیهان سوق می‌دهد. فرضیۀ شبیه‌سازی نیک بوسترم اکنون بیش از هر زمان دیگری به واقعیت نزدیک به نظر می‌رسد. آیا ممکن است ما نیز در یک شبیه‌سازی پیچیده زندگی کنیم؟ این پرسشی است که با توسعۀ مدل‌هایی مانند DIAMOND، از حوزۀ تخیل علمی به میدان بحث‌های جدی فلسفی منتقل شده است.

علاوه بر این، توسعۀ هوش مصنوعی با قابلیت تصمیم‌گیری در محیط‌های پیچیده، چالش‌های مهمی در زمینۀ مسئولیت اخلاقی ایجاد می‌کند. اگر یک عامل هوش مصنوعی تصمیمی بگیرد که پیامدهای منفی داشته باشد، مسئولیت آن بر عهدۀ کیست؟ توسعه‌دهندگان، کاربران یا خود هوش مصنوعی؟ پاسخ به این پرسش‌ها نیازمند ایجاد چارچوب‌های قانونی و اخلاقی جدیدی است که با سرعت پیشرفت فناوری هماهنگ باشند.

همچنین، تأثیرات اجتماعی و ارتباطی این فناوری‌ها نمی‌تواند نادیده گرفته شود. بهبود تعاملات انسان و ماشین، شخصی‌سازی تجربه‌های کاربری و امکان پیش‌بینی و مدیریت رفتارهای اجتماعی، فرصت‌های بزرگی را فراهم می‌کنند، اما درعین‌حال می‌توانند به چالش‌های هویتی و اخلاقی منجر شوند. مرزهای بین انسان و ماشین در حال محو شدن است و ما باید به دقت به پیامدهای آن بیندیشیم.

در نهایت، مدل DIAMOND نه‌تنها یک پیشرفت فنی است، بلکه نقطۀ آغازی برای بازاندیشی در مورد نقش انسان در دنیای فناورانۀ نوین است. مواجهه با این تحولات نیازمند همکاری بین‌رشته‌ای و گفت‌وگوی مستمر بین فناوری، فلسفه، اخلاق و علوم اجتماعی است. تنها با درک عمیق و جامع از این مسائل می‌توانیم مسیر آینده را به گونه‌ای ترسیم کنیم که فناوری در خدمت بهبود زندگی انسان و ارتقای ارزش‌های انسانی باشد.

برای اطلاعات بیشتر می‌توانید به این لینک سر بزنید.

 

منابع:

1. کوکلبرگ، م. (1403). اخلاق هوش مصنوعی (ا. عارفی فر، مترجم). انتشارات ققنوس. (تاریخ انتشار اصلی 2020)

2. Bostrom, N. (2003). Are we living in a computer simulation?. The philosophical quarterly, 53(211), 243-255.

3. Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies.

4. Bostrom, N., & Yudkowsky, E. (2018). The ethics of artificial intelligence. In Artificial intelligence safety and security (pp. 57-69). Chapman and Hall/CRC.

 

Picture of علی شاکر
علی شاکر
مدرس و پژوهشگر ارتباطات
Picture of علی شاکر
علی شاکر
مدرس و پژوهشگر ارتباطات
دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *