افزایش سرعت اجرای شبکه‌های عصبی فازی با ورودی های چند بعدی از طریق پردازش موازی در واحد پردازش گرافیک
واتساپ:09141077352 همراه: 09141077352 ثابت: 35250068-041 سفارش سمینار و مقاله سفارش ترجمه تخصصی
 

دانلود فایل با شمار فاکتور

لطفا شماره فاکتور خود را درج نمایید


جدیدترین لغات واژه‌نامه

آمار بازدیدکنندگان

بازدید امروز :53
بازدید روز گذشته :54
بازدید این هفته :313
بازدید این ماه :1056
مجموع آمار بازدید ها :800681

عنوان محصول: افزایش سرعت اجرای شبکه‌های عصبی فازی با ورودی های چند بعدی از طریق پردازش موازی در واحد پردازش گرافیک

دسته‌بندی: مقالات ترجمه شده رشته کامپیوتر
تاریخ انتشار: دوشنبه 18 بهمن 1395
افزایش سرعت اجرای شبکه‌های عصبی فازی با ورودی های چند بعدی از طریق پردازش موازی در واحد پردازش گرافیک افزایش سرعت اجرای شبکه‌های عصبی فازی با ورودی های چند بعدی از طریق پردازش موازی در واحد پردازش گرافیک
توضیحات مختصر: در این مقاله پیاده سازی شبکه عصبی فازی (FNN) نوع ترتیب صفر تاکاجی، ساجنو – کانگ (TSK)، در واحد پردازش گرافیک (GPUs) برای کاهش زمان آموزش پیشنهاد می‌شود. پلت فرم نرم افزاری که در این مقاله استفاده می‌شود، ساختار تجهیزات بکپارچه محاسباتی (CUDA) است. FNN پیاده سازی شده از یادگیری ساختار و پارامتر در شب...
افزایش سرعت اجرای شبکه‌های عصبی فازی با ورودی های چند بعدی از طریق پردازش موازی در واحد پردازش گرافیک افزایش سرعت اجرای شبکه‌های عصبی فازی با ورودی های چند بعدی از طریق پردازش موازی در واحد پردازش گرافیک


قیمت قیمت : 35000 تومان
تخفیف تخفیف: 2000 تومان
تخفیف تخفیف ویژه : 10 درصد
قیمت نهایی قیمت نهایی: 29500 تومان
508 بازدید
کد مقاله: TTC- 3182
نوع فایل : docx
لینک دانلود فایل خریداری شده بلافاصله بعد از خرید موفق فعال خواهد شد.
Journal: IEEE

Speedup of Implementing Fuzzy Neural Networks With High-Dimensional Inputs Through Parallel Processing on Graphic Processing Units
Abstract
This paper proposes the implementation of a zero-order Takagi-Sugeno-Kang (TSK)-type fuzzy neural network (FNN) on graphic processing units (GPUs) to reduce training time. The software platform that this study uses is the compute unified device architecture (CUDA). The implemented FNN uses structure and parameter learning in a self-constructing neural fuzzy inference network because of its admirable learning performance. FNN training is conventionally implemented on a single-threaded CPU, where each input variable and fuzzy rule is serially processed. This type of training is time consuming, especially for a high-dimensional FNN that consists of a large number of rules. The GPU is capable of running a large number of threads in parallel. In a GPU-implemented FNN (GPU-FNN), blocks of threads are partitioned according to parallel and independent properties of fuzzy rules. Large sets of input data are mapped to parallel threads in each block. For memory management, this research suitably divides the datasets in the GPU-FNN into smaller chunks according to fuzzy rule structures to share on-chip memory among multiple thread processors. This study applies the GPU-FNN to different problems to verify its efficiency. The results show that to train an FNN with GPU implementation achieves a speedup of more than 30 times that of CPU implementation for problems with high-dimensional attributes.
Keywords: Classification, compute unified device architecture (CUDA), fuzzy neural networks (FNNs), graphic processing unit (GPU), neural fuzzy systems.

چکیده
در این مقاله پیاده سازی شبکه عصبی فازی (FNN) نوع ترتیب صفر تاکاجی، ساجنو – کانگ (TSK)، در واحد پردازش گرافیک (GPUs) برای کاهش زمان آموزش پیشنهاد می‌شود. پلت فرم نرم افزاری که در این مقاله استفاده می‌شود، ساختار تجهیزات بکپارچه محاسباتی (CUDA) است. FNN پیاده سازی شده از یادگیری ساختار و پارامتر در شبکه واسط فازی عصبی خود ساخت یافته به دلیل کارایی یادگیری قابل توجهش، استفاده می‌کند. یادگیری FNN، به صورت معمول بر روی یک GPU تک نخی پیاده سازی می‌شود که دران هر متغیر ورودی و فازی به صورت سریالی پردازش می‌شوند. این نوع ار یادگیری بسیار وفت گیر بوده و برای FNN با ابعاد بالا که شامل تعداد بسیار زیادی از قوانین است، این مشکل بیشتر می‌شود. یک GPU می‌تواند تعداد بسیار زیادی از نخ‌ها را به صورت همزمان اجرا کند. در یک FNN پیاده سازی شده PU، بلوک نخ‌ها براساس مشخصه‌های مستقل و موازی قوانین فازی، جزبندی می‌شوند. بخش بزرگی از مجموعه داده‌های ورودی به داخل نخ‌های موازی نگاشت می‌شوند. برای مدیریت حافظه، در این تحقیق مجموعه داده‌های GPU-FNN را به تعداد مناسبی از تکه‌ها تقسیم کرده‌ایم که این تکه بندی بر اساس ساختار قوانین فازی برای به اشتراک گذاری حافظه در بین پردازنده‌های مختلف انجام شده است. در این مقاله از GPU-FNN برای حل مسائل مختلف جهت بازبینی کارایی آن استفاده شده است. نتایج نشان می‌دهد که FNN با پیاده سازی GPU می‌تواند به سرعت نزدیک به 30 برابر بیشتر نسبت به پیاده سازی CPU برای مسائلی با ویژگی‌های چند بعدی دست یابد.
کلمات کلیدی: دسته بندی, معماری تجهیزات یکپارچه (CUDA)، شبکه‌های عصبی فازی (FNNs), واحد پردازش گرافیکی (GPU), سیستم های فازی عصبی

تعداد صفحات انگلیسی تعداد صفحات انگلیسی:12 صفحه
تعداد صفحات فارسی تعداد صفحات فـارسـی:25 صفحه

  • آدرس: تبریز، آبرسان، مهرگان چهارم
  • تلفن  تماس: 09016347107
  • تلفن  ثابت : 35250068-041
  •  Mailttcenterاین آدرس ایمیل توسط spambots حفاظت می شود. برای دیدن شما نیاز به جاوا اسکریپت دارید : آدرس  ایمیل
  • @zoodyab :آدرس تلگرام
مرکز  تخصصی  تلاش ترجمه از  سال  1385 شروع به کار نموده است  و تا کنون بیش از ده هزار ترجمه در رشته ها و زمینه های مختلف توسط متخصصین این مرکز انجام  شده  است.

تمامی ترجمه‌های انجام شده توسط موسسه تخصصی تلاش ترجمه، به صورت دستی (غیرماشینی) بوده و توسط مترجمین با سابقه انجام می‌شوند. ترجمه‌های انجام شده توسط موسسه تلاش ترجمه در قالب فایل Word و به صورت کاملا روان و بازخوانی شده و با ضمانت بازگشت وجه 72 ساعته (در صورت عدم رضایت از ترجمه) خدمت مشتریان محترم ارائه می‌شود.