با سلام

یادگیری ماشین یکی از مباحث اساسی و پیچیده در هوش مصنوعی می باشد. با توجه به نداشتن یک منبع آموزشی جامع به زبان فارسی بر آن شدیم تا ویدئوهای آموزشی برای درس یادگیری ماشین تهیه نماییم.

در این مجموعه آموزشی درس یادگیری ماشین (قسمت یادگیری نظارت شده Supervised Learning) با زبانی ساده و به صورت کامل آموزش داده می شود. این مجموعه در  ۳۵ قسمت و در ۹ فصل مجزا تهیه شده است. سطح آموزش از مبتدی برای کسانی که نمی دانند یادگیری ماشین چیست شروع می شود تا پیچیده ترین بخش ها که به راحتی می توان با استفاده از آن مطالب پایان نامه های ارشد و دکتری را به انجام رساند.

تمامی مطالب این مجموعه ابتدا بصورت تئوری آموزش داده شده است و سپس پیاده سازی کدهای آن مطالب در MATLAB تشریح گردیده است. یادگیری پیاده سازی الگوریتم های یادگیری ماشین منجر به درک درست و بسیار بهتری از مفاهیم تئوری می گردد.

مجموعه ویدئوهای آموزشی یادگیری ماشین شامل فصل های زیر است:

فصل اول: آمار مقدماتی

  • بخش اول

    • بیان هدف یادگیری ماشین
    • ببیان مهمترین کاربردهای یادگیری ماشین
    • بیان مدلهای یادگیری ماشین
    •  بیان سرفصل های درس یادگیری ماشین
    • تذکر مراجع درس یادگیری ماشین

فصل دوم: مفهوم یادگیری نظارت شده

  • بخش اول

    • بیان تعریف و مفهوم آمار (توصیفی و استنتاجی)
    • بیان متغیرهای مطلق و کمی با ذکر مثال
    • تعریف مد، میانه و میانگین با ذکر کاربرد آن ها در یادگیری ماشین و احتمالات
    • تعریف محدوده، چارک ها، واریانس و انحراف معیار
    • تعریف Z-score روی نمودار
    • تعریف داده های دور افتاده (outlier) با ذکر مثال
    •  بیان آزمایش تصادفی، فضای نمونه، رخداد و احتمال رخداد
    • بیان دیاگرام درختی با ذکر مثال
    • تعریف احتمال توام و غیر شریطی
    • تعریف احتمال شریطی با ذکر مثال
    • تعریف رخداد های مستقل
    • بیان قاعده مهم بیز Bayes
    • تعریف احتمال توام و غیر شریطی
  • بخش دوم

    • تعریف و بررسی متغیرهای تصادفی و توزیع احتمال
    • تعریف و نحوه محاسبه امید ریاضی و واریانس متغیر تصادفی
    • تعریف و نحوه محاسبه کواریانس و ضریب همبستگی
    • بیان محاسبه و کاربرد ضریب همبستگی Pearson
    • بیان توابع توزیع و چگالی احتمال Binomial، Multinomial، Univariate، Multivariate،  بهمراه مثال
    • بیان و مقایسه روش های یادگیری با سرپرست (Supervise)، بدون سرپرست (UnSupervise)، نیمه نظارتی و تقویتی
    • تشریح روش های رگرسیون (Regresion)، طبقه بندی (Classification)
    • بیان کاربردهای یادگیری بدون سرپرست
    • تعریف خوشه بندی (Clustring) و تخمین چگالی (Density estimation)
    • ارائه مثال های متنوع جهت بررسی و مقایسه هر کدام از روش های یادگیری
  • بخش سوم

    • بیان مجموعه تولباکس های یادگیری ماشین در متلب
    • بیان Help متلب برای درس یادگیری ماشین
    • نحوه استفاده از تابع توزیع و چگالی احتمال در متلب

فصل سوم: رگرسیون خطی و منطقی

  • بخش اول

    • بیان و تعریف مفاهیم رگرسیون خطی (Linear Regression)
    • بیان تابع هزینه
    • تشریح روش بهینه سازی گرادیان نزولی
    • بیان رگرسیون خطی یک متغیره
  • بخش دوم

    • بیان رگرسیون خطی چند متغیره
    •  تشریح روش گرادیان نزولی برای رگرسیون خطی چند متغیره
    • بیان رگرسیون خطی چند جمله ای
    • تشریح معادلات نرمال
    • مقایسه دو روش گرادیان نزولی و معادلات نرمال
    • تشریح نحوه محاسبه RMSE و R2 جهت محاسبه خطا
    • تحلیل Over-fitting و بیان روش های جلوگیری از Over-fitting
    • بررسی Regularization
    • تشریح روش گرادیان نزولی برای Regularized Linear regression
    • بیان و بررسی الگوریتم K-fold Cross Validation
  • بخش سوم

    • آموزش کد نویسی رگرسیون خطی،
    • آموزش استفاده از toolbox متلب برای رگرسیون خطی،
    • تمامی سورس کدها موجود و قابل دانلود می باشد
  • بخش چهارم

    • بیان و تعریف مفاهیم رگرسیون منطقی (Logistic Regression)
    • بیان تابع Logistic یا Sigmoid
    • بررسی خطا و تابع هزینه رگرسیون منطقی
    • بیان تفاوت های رگرسیون خطی و منطقی
    • تشریح الگوریتم One Vs all
    • بررسی Regularized logistic regression در رگرسیون منطقی
    • آموزش گرادیان نزولی برای رگرسیون منطقی
    • بررسی عملکرد رگرسیون Logistic
  • بخش پنجم

    • – آموزش کد نویسی رگرسیون منطقی و …
    • آموزش استفاده از toolbox متلب برای رگرسیون منطقی
    • تمامی سورس کدهای متلب موجود و قابل دانلود می باشد.

 

فصل چهارم: روش های چند متغیره

  • بخش اول

    • بیان مبحث نرخ احتمال (Likelihood Ratio)
    • تشریح روش ماکزیمم نرخ احتمال (Maximum Likelihood Ratio)
    • آموزش تئوری تصمیم گیری بیزین Bayesian
    • توضیح تابع چگالی نرمال یک متغیره
    • بررسی طبقه بندی پارامتریک تک متغیره
  • بخش دوم

    • تشریح فاصله ماهالانوبس Mahalanobis
    • تحلیل حالات مختلف مقادیر کواریانس چند متغیره
    • تحلیل حالات مختلف مقادیر دترمینان چند متغیره
    • بررسی طبقه بندی پارامتریک چند متغیره
    • تفاوت طبقه بندی پارامتریک تک متغیره با چند متغیره
    • توضیح تابع جداکننده Quadratic
    • بیان نحوه عملکرد ماکزیمم احتمال تخمین  MLE و روش LDA
    • بیان محاسن و معایب روش های پارامتریک
  • بخش سوم

    • مقایسه روش طبقه بندی مبتنی بر Likelihood و روش مبتنی بر Discriminant
    • تشریح توابع جداکننده غیرخطی
    • تشریح روش یادگیری توابع جداکننده Logistic
    • تشریح روش گرادیان نزولی برای توابع جداکننده Logistic
    • بیان روش Early Stopping
    • تشریح تابع Softmax
    • تشریح مفهوم و مبنای روش یادگیری رگرسیون
  • بخش چهارم

    • نرخ احتمال (Likelihood Ratio)
    • روش ماکزیمم نرخ احتمال (Maximum Likelihood Ratio)
    • تئوری تصمیم گیری بیزین Bayesian
    • چگالی نرمال یک متغیره
    • طبقه بندی پارامتریک تک متغیره
    • حالات مختلف مقادیر کواریانس چند متغیره
    • حالات مختلف مقادیر دترمینان چند متغیر
    • بررسی طبقه بندی پارامتریک چند متغیر
    • طبقه بندی پارامتریک تک متغیره با چند متغیره
    • تابع جداکننده Quadratic
    • عملکرد ماکزیمم احتمال تخمین  MLE و روش LDA

 

  • بخش پنجم

    • نرخ احتمال (Likelihood Ratio)
    • مقایسه رگرسیون Logistic با روش های LDA و QDA
    • پیاده سازی روش دسته بندی مبتنی بر Discriminant در MATLAB۳- تحلیل خروجی های بدست آمده از برنامه های متلب
    • بررسی رگرسیون خطی توسط توابع آماده متلب
    • آموزش چگونگی بکارگیری توابع رگرسیون از توابع پیش فرض متلب و …

 

فصل پنجم: شبکه های عصبی

  • بخش اول

    • بیان خلاصه ای از جلسه قبل
    • گرادیان نزولی اتفاقی Stochastic gradient descent
    • تشریح تفاوت های batch and Stochastic gradient descent
    • توضیح همگرایی روش گرادیان نزولی اتفاقی
    • تشریح روش های Mini-batch gradient descent
    • آموزش شبکه های عصبی پرسپترون چندلایه
    • تشریح تابع آستانه باینری و مشتق پذیر
    • لایه های مخفی در شبکه عصبی
    • آموزش Feed forward propagation
    • تشریح روش آموزش Back propagation
  • بخش دوم

    • نرون های عصبی
    • نحوه مقداردهی اولیه به وزن های شبکه عصبی
    • همگرایی الگوریتم Back propagation
    • تشریح روش Momentum
    • بیان دلایل Overfitting در شبکه MLP
    • روش های جلوگیری از Overfitting
    • تشریح تئوری نحوه آموزش شبکه های عصبی در نرم افزار MATLAB
    • تشریح کامل بخش های Train, Test, validation در شبکه عصبی
    • تشریح روش های کاهش خطای تعمیم پذیری (Early stopping, Regularization …)
  • بخش سوم

    • پیاده سازی شبکه عصبی پرسپترون بر اساس روش  batch gradient descent در نرم افزار متلب
    • بررسی مشکلات بوجود آمده در روش batch gradient descent و بیان راه حل ها
    • پیاده سازی شبکه عصبی پرسپترون بر اساس روش  Momentum در نرم افزار متلب
    • تحلیل پارامترها و مقادیر بدست آمده (وزن های شبکه عصبی، خطای training و …)
    • پیاده سازی  شبکه عصبی پرسپترون بر اساس روش  Stochastic gradient descent در نرم افزار متلب
    • پیاده سازی شبکه عصبی پرسپترون بر اساس روش  Mini-batch gradient descent در نرم افزار متلب
    • تحلیل پارامترها و مقادیر بدست آمده روی نمودارها
  • بخش چهارم

    • پیاده سازی شبکه عصبی پرسپترون بر اساس روش  batch gradient descent در نرم افزار متلب
    • نحوه دریافت داده های تصویری بعنوان ورودی در شبکه عصبی در متلب
    • استفاده از توابع خاص متلب جهت بهینه سازی تابع هزینه بعلت بالا بودن نمونه آموزشی
    • نحوه مقداردهی وزن ها، لایه های مخفی، پارامترها و …
    • بررسی مقادیر پیش بینی شده توسط شبکه عصبی
    • حل مساله رگرسیون با توابع پیش فرض متلب
    • نحوه تقسیم داده های ورودی به ۳ دسته Train, Test , validation در متلب
    • مقایسه خطای Train, Test , validation
    • پیاده سازی مساله classification با استفاده از توابع پیش فرض متلب
    • تحلیل مقادیر خروجی و خطاها روی نمودار۱۰-پیاده سازی روش Bayesian Regularization در متلب
    • پیاده سازی روش یادگیری  Retraining Neural Network در متلب
    • پیاده سازی روش یادگیری  Multiple Neural Network در متلب
    • آموزش تولباکس های شبکه عصبی متلب
    • بررسی GUI های شبکه عصبی متلب

فصل ششم: روش های غیر پارامتریک

  • بخش اول

    • Histogram estimator
    • Naive estimator
    • Kernel estimator
    • K nearest neighbor estimator
  • بخش دوم

    • بتدا به بیزین کلاسیفایرها با استفاده از روش های Non parametric تشریح شده در ویدئو قبلی (Kernel estimator و Knn estimator) پرداخته شده (با ذکر مثال) و برای هر کلاسیفایر Likelihood ratio محاسبه میشود  و در ادامه Naive bayes classifier تعریف شده و با بیزین کلاسیفایرها مقایسه می شود.
    • در انتها انواع الگوریتم های نزدیکترین همسایگی شامل Knn، Knn اصلاح شده (با استفاده از سه نوع تابع وزن دهی) و r nearest neighbors با ذکر مثال تشریح شده و مزیت های آنها گفته می شود.
  • بخش سوم

    • فاصله اقلیدوسی Euclidean
    • فاصله ماهالانوبیس Mahalanobis
    • فاصله منهتن Manhatan یا City block
    • فاصله کیوبیک Cubic
    • فاصله چبیچب Chebychev
    • فاصله مینکوسکی Minkowski
    • فاصله کوساین Cosine
    • فاصله کورلیشن Correlation
  • بخش چهارم

    • تخمین چگالی Non parametric توسط روش تخمین Kerne
    • تخمین چگالی Non parametric توسط توابع Kernel مختلف
    • روش طبقه‌بندی Non parametric توسط روش تخمین Kernel
    • روش طبقه بندی Naive-bayes با استفاده از روش‌های Parametric
    • روش طبقه بندی Naive-bayes با استفاده از روش‌های Non parametric
    • روش طبقه بندی Knn با استفاده از فواصل Mahalanobis و Euclidean
    • روش طبقه بندی Knn
    • روش طبقه بندی Mknn
    • روش طبقه بندی r near neighbours
    • روش طبقه بندی Knn با استفاده از Cross validation
    • روش رگرسیون Non parametric
    • روش استفاده از تولباکس های Distribution fitter،(Knn) Curve fitting، Classification learner

 

فصل هفتم: درخت تصمیم گیری

  • بخش اول

    • بیان مفهوم درخت تصمیم
    • بیان مفهوم Univariate tree
    • درخت طبقه بندی
    • بیان مفهوم آنتروپی Entropy
    • بیان ویژگی های آنتروپی Entropy
  • بخش دوم

    • بیان مفهوم Information gain با ذکر مثال
    • تشریح توقف رشد درخت تصمیم
    • بیان الگوریتم ID3
  • بخش سوم

    • بیان مفهوم درخت رگرسیون
    • بیان مفهوم Overfitting
    • تشریح روش های جلوگیری از Overfitting۴- بیان روش Post Pruning
    • تشریح درخت های چند متغیره Multivariate trees
    • تشریح درخت تصمیم گیری Omnivariate Trees
    • بیان معایب درخت های تصمیم گیری
    • بیان انواع معیارهای توقف رشد درخت تصمیم گیری
    • بیان درخت های تصمیم گیری در متلب
    • روش داده های Validation در درخت تصمیم گی
    • تشریح روش Cross Validation در درخت تصمیم گیری
    • تشریح روش K-fold Cross Validation در درخت تصمیم گیری
  • بخش چهارم

    • در این قسمت تمامی مباحث تئوری بیان شده در سه قسمت قبل را بصورت عملی در قالب مثال های گوناگون در متلب پیاده سازی می نماییم و مقادیر خروجی را تحلیل و بررسی می کنیم.

فصل هشتم: ماشین بردار پشتیبان

  • بخش اول

    • مقدمه
    • دیدگاه جایگزین Logistic regression
    • مفهوم حاشیه و SVM
  • بخش دوم

    • بهینه سازی توابع با قید نامساوی
    • کلاس های قابل تفکیک
  • بخش سوم

    • کلاس های غیر قابل تفکیک
    •  Hinge Loss
  • بخش چهارم

    •  Kernel trick
    • توابع کرنل مهم
    • Kernel machines برای رگرسیون
  • بخش پنجم

    • پیاده سازی SVM در متلب

فصل نهم: روش های ترکیبی

  • بخش اول

    • مقدمه
    • روش Voting
    • روش ECOC
    • روش Bagging
    • روش Boosting
    • روش Adaboost
    • روش Stacked generalization
    • روش Cascading
    • پیاده سازی در متلب

 

تذکر۱:

هر کدام از فصل ها و قسمت های هر فصل از این مجموعه آموزشی را می توانید بصورت جداگانه از از اینجا مشاهده و دریافت نمایید.

تذکر۲:

این مجموعه از آموزش های گام به گام یادگیری ماشین در متلب برای اولین بار در ایران تهیه و توسط یکی از مجربترین اسانید در زمینه هوش مصنوعی آموزش داده شده است.

این مجموعه آموزشی بسیار مناسب برای محققین و دانشجویان در مقاطع کارشناسی، کارشناسی ارشد و دکتری می باشد که قصد یادگیری این درس و همچنین استفاده از الگوریتم های هوش مصنوعی در مقاله و پایان نامه خود را دارند.

تذکر ۳:

ارزش محتوای پکیج در صورتی که بخواهید از سایت دانلود و یا به صورت جداگانه همگی را خریداری کنید حدود ۱۳۰ هزار تومان می باشد ، که شما می توانید در قالب پکیج تنها با قیمت ۹۰ هزار تومان دریافت نمایید.

امیدوارم این مجموعه آموزشی بتواند کمکی در جهت یادگیری علاقه مندان در این زمینه کرده باشد.

خرید پکیج در سایت متلب یار