دانلود مقاله ISI انگلیسی شماره 152804
ترجمه فارسی عنوان مقاله

شبکه های مجازی با غیر خطی نرم افزاری برای برنامه نویسی سبک

عنوان انگلیسی
Recurrent networks with soft-thresholding nonlinearities for lightweight coding
کد مقاله سال انتشار تعداد صفحات مقاله انگلیسی ترجمه فارسی
152804 2017 8 صفحه PDF سفارش دهید
دانلود فوری مقاله + سفارش ترجمه

نسخه انگلیسی مقاله همین الان قابل دانلود است.

هزینه ترجمه مقاله بر اساس تعداد کلمات مقاله انگلیسی محاسبه می شود.

این مقاله تقریباً شامل 6137 کلمه می باشد.

هزینه ترجمه مقاله توسط مترجمان با تجربه، طبق جدول زیر محاسبه می شود:

شرح تعرفه ترجمه زمان تحویل جمع هزینه
ترجمه تخصصی - سرعت عادی هر کلمه 90 تومان 12 روز بعد از پرداخت 552,330 تومان
ترجمه تخصصی - سرعت فوری هر کلمه 180 تومان 6 روز بعد از پرداخت 1,104,660 تومان
پس از پرداخت، فوراً می توانید مقاله را دانلود فرمایید.
منبع

Publisher : Elsevier - Science Direct (الزویر - ساینس دایرکت)

Journal : Neural Networks, Volume 94, October 2017, Pages 212-219

ترجمه کلمات کلیدی
کدگذاری ضعیف کارآمد، یادگیری بی نظیر، حافظه کوتاه مدت، نزول شیب پروگزیمال، شبکه های عصبی،
کلمات کلیدی انگلیسی
Efficient sparse coding; Unsupervised learning; Short-term memory; Proximal gradient descent; Neural networks;
پیش نمایش مقاله
پیش نمایش مقاله  شبکه های مجازی با غیر خطی نرم افزاری برای برنامه نویسی سبک

چکیده انگلیسی

A long-standing and influential hypothesis in neural information processing is that early sensory networks adapt themselves to produce efficient codes of afferent inputs. Here, we show how a nonlinear recurrent network provides an optimal solution for the efficient coding of an afferent input and its history. We specifically consider the problem of producing lightweight codes, ones that minimize both ℓ1 and ℓ2 constraints on sparsity and energy, respectively. When embedded in a linear coding paradigm, this problem results in a non-smooth convex optimization problem. We employ a proximal gradient descent technique to develop the solution, showing that the optimal code is realized through a recurrent network endowed with a nonlinear soft thresholding operator. The training of the network connection weights is readily achieved through gradient-based local learning. If such learning is assumed to occur on a slower time-scale than the (faster) recurrent dynamics, then the network as a whole converges to an optimal set of codes and weights via what is, in effect, an alternative minimization procedure. Our results show how the addition of thresholding nonlinearities to a recurrent network may enable the production of lightweight, history-sensitive encoding schemes.

دانلود فوری مقاله + سفارش ترجمه

نسخه انگلیسی مقاله همین الان قابل دانلود است.

هزینه ترجمه مقاله بر اساس تعداد کلمات مقاله انگلیسی محاسبه می شود.

این مقاله شامل 6137 کلمه می باشد.

هزینه ترجمه مقاله توسط مترجمان با تجربه، طبق جدول زیر محاسبه می شود:

شرح تعرفه ترجمه زمان تحویل جمع هزینه
ترجمه تخصصی - سرعت عادی هر کلمه 90 تومان 12 روز بعد از پرداخت 552,330 تومان
ترجمه تخصصی - سرعت فوری هر کلمه 180 تومان 6 روز بعد از پرداخت 1,104,660 تومان
پس از پرداخت، فوراً می توانید مقاله را دانلود فرمایید.