ترجمه فارسی عنوان مقاله
به حداکثر رساندن حداکثر اطلاعات متقابل کلیدی برای متحد کردن رویکردهای منفعل و مثبت برای بهبود تفسیر و تعمیم دادن
عنوان انگلیسی
Collective mutual information maximization to unify passive and positive approaches for improving interpretation and generalization
کد مقاله | سال انتشار | تعداد صفحات مقاله انگلیسی |
---|---|---|
146727 | 2017 | 31 صفحه PDF |
منبع
Publisher : Elsevier - Science Direct (الزویر - ساینس دایرکت)
Journal : Neural Networks, Volume 90, June 2017, Pages 56-71
ترجمه کلمات کلیدی
منفعل، مثبت پتانسیل، تفسیر، تعمیم، اطلاعات متقابل،
کلمات کلیدی انگلیسی
Passive; Positive; Potentiality; Interpretation; Generalization; Mutual information;
ترجمه چکیده
مقاله حاضر با هدف ارائه روش ساده ای برای به حداکثر رساندن اطلاعات متقابل برای تفسیر و تعمیم بهتر است. برای آموزش شبکه های عصبی و به دست آوردن عملکرد بهتر، نورون ها باید بی طرفانه به تعداد زیادی الگوهای ورودی در نظر بگیرند. به طور همزمان، و به ویژه برای سهولت تفسیر، آنها باید ویژگی هایی را که مخصوص الگوهای ورودی خاص هستند، به گونه ای باورنکردنی که ممکن است، نشان دهند. این تضاد را می توان با معرفی اطلاعات متقابل بین نورون ها و الگوهای ورودی حل کرد. با این حال، به دلیل روش های پیچیده محاسباتی مربوط به حداکثر سازی اطلاعات متقابل، استفاده از حداکثر سازی اطلاعات متقابل به مشکلات واقعی دشوار است. اگر چه بسیاری از روش های ساده تا کنون توسعه یافته اند، آنها لزوما با موفقیت به کار گرفته نمی شوند، به ویژه برای مسائل عملی بزرگ در مقیاس. برای ساده سازی بیشتر، در اینجا ما یک روش محاسباتی جدید برای ارائه اطلاعات متقابل پیشنهاد می کنیم. یکی از ویژگی های اصلی این روش جدید، بررسی شبکه های عصبی چندگانه هنگام تعریف اطلاعات متقابل است، بنابراین ساده سازی روش. علاوه بر این، یادگیری نیز با استفاده از یادگیری غیر مستقیم، مستقل و سریع روش بالقوه ساده شده است. این روش به دو مجموعه داده شناخته شده اعمال شد: داده های اعتباری استرالیا و مجموعه داده های محبوبیت آنلاین. نتایج تجربی نشان داد که از طریق روش حاضر می توان اطلاعات متقابل را افزایش داد. علاوه بر این، حداکثر سازی اطلاعات متقابل با افزایش عملکرد تعمیم و تفسیر همراه بود، که عمدتا به دلیل بازنمودهای داخلی ساده بود.