دانلود مقاله ISI انگلیسی شماره 157552
ترجمه فارسی عنوان مقاله

پیش بینی های تصادفی مستقل از داده ها از ویژگی نقشه هسته چند جملهای همگن درجه دو

عنوان انگلیسی
Data-independent Random Projections from the feature-map of the homogeneous polynomial kernel of degree two
کد مقاله سال انتشار تعداد صفحات مقاله انگلیسی
157552 2018 13 صفحه PDF
منبع

Publisher : Elsevier - Science Direct (الزویر - ساینس دایرکت)

Journal : Information Sciences, Volumes 436–437, April 2018, Pages 214-226

ترجمه کلمات کلیدی
پیش بینی تصادفی، کاهش خطی غیر خطی، هسته چند جمله ای، 00-01، 99-00،
کلمات کلیدی انگلیسی
Random Projection; Non-linear dimensionality reduction; Polynomial kernel; 00-01; 99-00;
ترجمه چکیده
این مقاله ارائه یک رشته غیر خطی جدید از روش پیش بینی تصادفی بر اساس هسته چندجملهای همگن درجه 2 است. الگوریتم ما قادر است به طور ضمنی نقاط داده را به فضای ویژگی ابعاد بزرگ آن هسته بسپارد و از آن به بعد یک پروژۀ تصادفی به یک فضای اقلیدس از ابعاد مورد نظر را انجام می دهد. فاصله دو طرفه بین نقاط داده در فضای ویژگی هسته تقریبا در نمایندگی حاصل شده حفظ شده است. همانطور که در مقایسه با نسخه قبلی تصحیح خطی هسته، روش ما مستقل از داده است و بیشتر از سادگی محاسباتی الگوریتم اصلی را حفظ می کند. این با تمرکز بر یک تابع هسته خاصی به دست می آید، که به ما اجازه داد تا اثر نقشه برداری مربوط به آن را در توزیع هیپرپلان های پیش بینی تصادفی تجزیه و تحلیل کنیم. در نهایت، شواهد تجربی شواهدی ارائه می دهیم که روش پیشنهادی از لحاظ حفظ فاصله از لحاظ زوال، روش های جایگزین را بهتر از آن می سازد، در حالیکه به طور قابل توجهی کارآمدتر است. همچنین ما نشان می دهیم که چگونه می توان روش ما را برای تقریب دقت طبقه بندی های غیر خطی با طبقه بندی های کارآمد خطی در برخی از مجموعه داده ها مورد استفاده قرار داد.
پیش نمایش مقاله
پیش نمایش مقاله  پیش بینی های تصادفی مستقل از داده ها از ویژگی نقشه هسته چند جملهای همگن درجه دو

چکیده انگلیسی

This paper presents a novel non-linear extension of the Random Projection method based on the degree-2 homogeneous polynomial kernel. Our algorithm is able to implicitly map data points to the high-dimensional feature space of that kernel and from there perform a Random Projection to an Euclidean space of the desired dimensionality. Pairwise distances between data points in the kernel feature space are approximately preserved in the resulting representation. As opposed to previous kernelized Random Projection versions, our method is data-independent and preserves much of the computational simplicity of the original algorithm. This is achieved by focusing on a specific kernel function, what allowed us to analyze the effect of its associated feature mapping in the distribution of the Random Projection hyperplanes. Finally, we present empirical evidence that the proposed method outperforms alternative approaches in terms of pairwise distance preservation, while being significantly more efficient. Also, we show how our method can be used to approximate the accuracy of non-linear classifiers with efficient linear classifiers in some datasets.