منوی کاربری
  • پشتیبانی: ۴۲۲۷۳۷۸۱ - ۰۴۱
  • سبد خرید

دانلود رایگان مقاله انگلیسی ماشین های بردار پشتیبانی دوگانه غیرمنتظره تصادفی برای مشکلات بزرگ مقیاس - الزویر 2018

عنوان فارسی
ماشین های بردار پشتیبانی دوگانه غیرمنتظره تصادفی برای مشکلات بزرگ مقیاس
عنوان انگلیسی
Insensitive stochastic gradient twin support vector machines for large scale problems
صفحات مقاله فارسی
0
صفحات مقاله انگلیسی
34
سال انتشار
2018
نشریه
الزویر - Elsevier
فرمت مقاله انگلیسی
PDF
نوع مقاله
ISI
نوع نگارش
مقالات پژوهشی (تحقیقاتی)
رفرنس
دارد
پایگاه
اسکوپوس
کد محصول
E10197
رشته های مرتبط با این مقاله
مهندسی کامپیوتر
گرایش های مرتبط با این مقاله
هوش مصنوعی
مجله
علوم اطلاعاتی - Information Sciences
دانشگاه
School of Mathematical Sciences - Inner Mongolia University - P.R.China
کلمات کلیدی
طبقه بندی، ماشین بردار پشتیبانی، ماشین بردار حامی دوتایی، کاهش شیب تصادفی، مشکل مقیاس بزرگ
doi یا شناسه دیجیتال
https://doi.org/10.1016/j.ins.2018.06.007
۰.۰ (بدون امتیاز)
امتیاز دهید
چکیده

Abstract


Within the large scale classification problem, the stochastic gradient descent method called PEGASOS has been successfully applied to support vector machines (SVMs). In this paper, we propose a stochastic gradient twin support vector machine (SGTSVM) based on the twin support vector machine (TWSVM). Compared to PEGASOS, our method is insensitive to stochastic sampling. Furthermore, we prove the convergence of SGTSVM and the approximation between TWSVM and SGTSVM under uniform sampling, whereas PEGASOS is almost surely convergent and only has an opportunity to obtain an approximation to SVM. In addition, we extend SGTSVM to nonlinear classification problems via a kernel trick. Experiments on artificial and publicly available datasets show that our method has stable performance and can handle large scale problems easily.

نتیجه گیری

Conclusion


An insensitive stochastic gradient twin support vector machine (SGTSVM) has been proposed. This method is less sensitive to sampling than PEGA SOS while having better convergence and approximation. The experimental results have shown that our method has a better performance and a higher training speed than PEGASOS and LIBLINEAR. For practical convenience, the corresponding SGTSVM source code (including programs in Matlab and the C language) have been uploaded to http://www.optimal-group.org/ Resources/Code/SGTSVM.html. The possibilities for future research include designing a special sampling for SGTSVM to obtain a better performance and applying SGTSVM to big data problems.


بدون دیدگاه