دانلود مقاله ISI انگلیسی شماره 113326
ترجمه فارسی عنوان مقاله

پویایی یادگیری اجتماعی تقویت در سیستم های چندگانه تعاونی شبکه ای

عنوان انگلیسی
The dynamics of reinforcement social learning in networked cooperative multiagent systems
کد مقاله سال انتشار تعداد صفحات مقاله انگلیسی
113326 2017 12 صفحه PDF
منبع

Publisher : Elsevier - Science Direct (الزویر - ساینس دایرکت)

Journal : Engineering Applications of Artificial Intelligence, Volume 58, February 2017, Pages 111-122

ترجمه کلمات کلیدی
یادگیری اجتماعی چند گانه، هماهنگی چندگانه، بازی های تعاونی،
کلمات کلیدی انگلیسی
Multiagent social learning; Multiagent coordination; Cooperative games;
ترجمه چکیده
هماهنگی چندگانه در سیستم های چند منظوره تعاونی، به عنوان یکی از مشکلات اساسی در سیستم های چند گانه، و در مواد مختلف مورد مطالعه قرار گرفته است. در محیط های واقعی، تعاملات میان عوامل معمولا پراکنده هستند و توسط ساختار شبکه زیربنایی آنها تنظیم می شوند، که در عین حال، در کار قبلی نسبتا کمی توجه کرده است. برای این منظور، ابتدا به طور سیستماتیک مشکلات هماهنگی چندگانه در محیط های تعاونی تحت چارچوب یادگیری اجتماعی شبکه زیر چهار توپولوژی نمایشی بررسی می شود. یک چارچوب یادگیری اجتماعی شبکه شامل یک جمعیت از عوامل است که هر عامل با یک عامل دیگر که به طور تصادفی از محله خود در هر دور انتخاب شده است، تعامل دارد. هر عامل از طریق تعاملات مکرر با همسایگان خود از طریق یادگیری فردی و یادگیری اجتماعی، سیاست یادگیری خود را به روز می کند. به طور پیشینی مشخص نیست که آیا تمام عوامل قادر به یادگیری در راستای یک سیاست هماهنگ مطلوب هماهنگی هستند. دو نوع یادگیرندگان پیشنهاد شده است: یادگیرنده اقدام فردی و یادگیرنده اقدام مشترک. ما عملکرد یادگیری هر دو زبان آموزان را به طور گسترده در بازی های مختلف همکاری (بازی تک تک و مارکوف) ارزیابی می کنیم. علاوه بر این، تأثیر عوامل مختلف (توپولوژی شبکه، انواع مختلف بازی ها، پارامترهای توپولوژیکی مختلف) مورد بررسی و تحلیل قرار گرفته و بینش های جدید به دست می آید.
پیش نمایش مقاله
پیش نمایش مقاله  پویایی یادگیری اجتماعی تقویت در سیستم های چندگانه تعاونی شبکه ای

چکیده انگلیسی

Multiagent coordination in cooperative multiagent systems, as one of the fundamental problems in multiagent systems, and has been widely studied in the literature. In real environments, the interactions among agents are usually sparse and regulated by their underlying network structure, which, however, has received relatively few attentions in previous work. To this end, we firstly systematically investigate the multiagent coordination problems in cooperative environments under the networked social learning framework under four representative topologies. A networked social learning framework consists of a population of agents where each agent interacts with another agent randomly selected from its neighborhood in each round. Each agent updates its learning policy through repeated interactions with its neighbors via both individual learning and social learning. It is not clear a priori whether all agents are able to learn towards a consistent optimal coordination policy. Two types of learners are proposed: individual action learner and joint action learner. We evaluate the learning performances of both learners extensively in different cooperative (both single-stage and Markov) games. Besides, the influence of different factors (network topologies, different types of games, different topology parameters) is investigated and analyzed and new insights are obtained.