شلینک پرداخت و دانلود *پایین مطلب*
فرمت فایل:Word (قابل ویرایش و آماده پرینت)
تعداد صفحه:89
فهرست و توضیحات:
مقدمه 2
1- عامل و سیستمهای چند عامله 4
1-1- مقدمه 4
1-2- هوش مصنوعی توزیع شده 4
1-3- حوزههای کاری هوش مصنوعی توزیع شده 6
1-4- دلایل گرایش به هوش مصنوعی توزیع شده 9
1-4-1- پایه تکنولوژیکی 9
1-4-2- توزیع ذاتی 10
1-4-3- مزایای طراحی و پیادهسازی 12
1-4-4- دلایل معرفت شناسی 13
1-4-5- بنیاد اجتماعی 14
1-4-6- همجوشی (کلاسهای جدید از مسائل) 14
1-5- مسائل مطرح در هوش مصنوعی توزیع شده 14
1-6- تعریف عامل و عاملهای هوشمند 17
1-6-1- تعریف عامل 18
1-7- عامل به عنوان یک سیستم نرمافزاری 19
1-8- مفهوم عامل از دیدگاه عام 20
1-9- مروری برخصوصیات عامل 20
1-10- ویژگیهای دیگر عاملها 25
1-11- طبقه بندی عاملها 29
1-12- مقایسه عامل با شیء 33
1-13- تفاوتهای سیستم مبتنی بر عامل و سیستمهای خبره 35
1-14- انواع محیط عامل 35
1-14-1- قابل دستیابی / غیر قابل دستیابی 36
1-14-2- محیط قطعی یا غیر قطعی 37
1-14-3- محیط مقطعی یا غیر مقطعی 38
1-14-4- محیط ایستا / پویا 38
1-14-5- محیط گسسته یا پیوسته 38
1-15- سیستمهای چند عامله 39
1-16- خصوصیات سیستمهای چند عاملی: 46
1-17- دلایل استفاده از سیستمهای چندعامله 47
1-17-1- نیاز برخی دامنهها به سیستمهای چندعامله: 47
1-17-2- افزایش سرعت عمل با موازی سازی 48
1-17-3- قابلیت اطمینان 48
1-17-4- توسعه پذیری 48
1-17-5- آسانتر شدن برنامهسازی 49
1-18- آزمون نظریههای سایر رشتههای علمی 49
1-19- معماریهای ارایه شده برای سیستمهای چندعامله 49
1-19-1- مدل OMG 50
1-19-2- استاندارد FIPA 50
1-19-3- استاندارد KAOS 50
1-19-4- مدل General Magic 51
1-20- سازماندهی سیستمهای چندعامله 51
1-20-1- ساختار سلسله مراتبی 51
1-20-2- ساختار مسطح 52
1-20-3- ساختار جزء به کل 53
1-20-4- ساختار پیمانهای 53
1-21- پارامترهای مطرح در ارزیابی سیستمهای چندعامله 54
1-22- سیستمهای مقیاس وسیع(Large Scale systems): 55
1-23- کنترل غیر متمرکز : (Decentralized Control) 56
1-24- نتیجهگیری 57
2- تئوری بازیها و کاربردهای آنها درسیستمهای چند عامله 60
2-1- مقدمه 60
2-2- نظریه بازی ها چیست؟ 60
2-3- تفاوت میان تصمیمگیری و بازی 62
2-4- طبقهبندی نظریه بازیها 63
2-5- برخی مفاهیم و اصطلاحات 68
2-6- موارد استفاده از نظریه بازیها 74
2-7- فرض های اساسی در نظریه بازیها 75
2-8- شاخههای اصلی نظریه بازیها 75
2-9- بازیهای ایستا 77
2-10- نمایش بازی در فرم استراتژیک یا نرمال 79
2-11- فرم ماتریسی بازی 82
2-12- پیدا کردن جواب در بازیهای ایستا 82
2-13- بازیهای رقابتی 83
2-14- بازیهای تصادفی 84
2-15- بازیهای پویا 85
2-16- بازی پویا در فرم بسط یافته 85
2-17- درخت بازی 87
2-18- عناصر فرم بسط یافته: 88
2-19- پیشینه بازی: 88
2-20- مجموعه اطلاعاتی: 89
2-21- استراتژی 90
2-22- پیدا کردن جواب در بازیهای پویا 91
3- بررسی روشهای یادگیری 93
3-1- یادگیری تقویتی 93
3-1-1- خط مشی 94
3-1-2- تابع پاداش 94
3-1-3- تابع مقدار 94
3-1-4- مدل برگرفته شده از محیط 95
3-2- اجزای یادگیری تقویتی 97
3-3- اهداف و پاداش 98
3-4- Q-Learning 99
3-5- خاصیت مارکوف 100
3-6- فرآیند تصمیم گیری مارکوف 101
3-7- روشهای حل فرآیندهای تصمیم گیری مارکوف 103
3-8- تابع ارزش 104
3-9- تابع ارزش بهینه: 105
3-10- فرایند تحلیل سلسله مراتبی (AHP) 106
3-11- ویژگیهای فرایند تحلیل سلسله مراتبی 106
3-12- ساختار سلسله مراتبی 107
3-13- اصول فرایند تحلیل سلسله مراتبی 108
3-14- محاسبه وزن 108
3-15- روشهای محاسبه وزن 109
3-15-1- روش حداقل مربعات ( least squares method ) 109
3-15-2- روش حداقل مربعات لگاریتمی (logarithmic least squares method) 110
3-15-3- روش بردار ویژه ( Eigenvector Method ): 111
3-15-4- روش های تقریبی(Approximation Method) 112
3-16- سازگاری سیستم و ماتریس سازگار 112
3-17- محاسبه نرخ ناسازگاری 113
4- نتیجهگیری 116
5- مراجع 118
6- ABSTRACT 121
چکیده
در این رساله، روش مناسبی جهت محاسبه نقطه تعادل نش در الگوریتمهای یادگیری تقویتی چندعاملی با تعداد زیاد عاملها مطرح شدهاست، که قادراست با ادغام محاسبات مربوط به نقطه تعادل نش و ایجاد مصالحه بین اکتشاف- استخراج، محاسبات را به صورت بهینه کاهش دهند. ترکیب یادگیری تقویتی تک- عاملی و تئوری بازی ایده اصلی اکثر روشهای یادگیری چندعاملی است. این روشها سعی دارند تا کل فرآیند یادگیری را به تعدادی متناهی از حالتهای تصمیمگیری چندعاملی با خاصیت مارکوف تقسیم کرده و با انتخاب نقطه تعادل نش در هر کدام از این مراحل به تدبیر بهینه برای هر عامل همگرا شوند. بنابراین محاسبه نقطه تعادل نش مسئله مهمی است که در حال حاضر مشکلاتی شامل پیچیدگی محاسبات در روشهای شناخته شده محاسبه نقطه تعادل نش، چندگانگی نقطه تعادل نش، و مختلط بودن نقطه تعادل نش باعث شده که اکثر روشهای پیشنهادی یادگیری تقویتی چندعاملی جایگاه مناسبی در حل مسائل دنیای واقعی پیدا نکنند. ناگفته نماند که تقریباً تمام روشهای یادگیری تقویتی چندعاملی مطرح شده، مبتنی بر روشهای off-policy بودهاند که نیازی به در نظر گرفتن مسئله رویه انتخاب عمل و اکتشاف در اثبات همگرایی ندارند. بنابراین در رویههای اجرایی پیشنهاد دادهاند که ابتدا نقطه تعادل نش محاسبه شده و سپس با روش ϵ-greedy مصالحه بین اکتشاف و استخراج برقرار شود.
پایانامه رسی سیستمهای چند عامله با استفاده از تئوری بازیها