شبكه هاي عصبي چند لايه پيشخور و يادگيري پس انتشار خطا تاريخچه • شبكه هاي تك لايه فقط براي طبقه بندي مسائلي كه به طور خطي از هم براي شبكه هاي چند لايه LMS مستقلند، كارايي دارد. ولي 25 سال تعميم الگوريتم به طول انجاميد. • 1959 قانون SLPR • 1960 قانون LMS • 1974 نخستين توصيف BP: پاول وربز • 1985 راملهارت، هينتون، پاركر: الگوريتم BP در شبكه هاي عصبي • شبكه MLP با قانون يادگيري BP داراي بيشترين كاربرد در ...
ادامه مطلب »شبکه عصبی در متلب
الگوريتم BP
الگوريتم BP • تعميمي از الگوريتم LMS • شاخص اجرايي مشابه LMS – SL تعداد نرونها در لايه L • شاخص اجرا روش Sobel يي تابعي از پارامترهاي شبكه • قانون يادگيري: – در LMS مشتقات به سادگي محاسبه ميشد ولي اينجا به دليل توابع غيرخطي كار سخت تر است. • جهت محاسبه ترم اصلاحي نياز به سيگنال خطا داريم – براي نرونهاي خروجي (به دليل قابل رويت ...
ادامه مطلب »معادلات ويدرو-هوف در حالت تك نرون
معادلات ويدرو-هوف در حالت تك نرون • بازنويسي معادله خروجي با فرمول بندي جديد • تابع هزينه ميانگين مربعات خطا • تعيين نقطه ايستا از روي گراديان تابع توجه • اگر بتوانيم معكوس ماتريس را محاسبه كنيم نيازي به الگوريتمهاي مينيمم سازي نداريم. • اگر نخواهيم (يا نتوانيم) معكوس Rرا محاسبه كنيم، الگوريتم مينيمم سازي SD را مي توان به كار برد. – در ...
ادامه مطلب »روند مينيمم سازي
روند مينيمم سازي – الگوريتم كلي • روند بازگشتي: تخمين جديد از روي تخمين فعلي قابل محاسبه است: در روشهاي مختلف مينيمم سازي، بردار جستجو متفاوت است. • (p(k به گونه اي تعيين مي شود كه مقدار تابع F در هر مرحله كاهش يابد. • بردار جستجو از روي اطلاعات گراديان و هسيان تابع محاسبه مي شود. – روش بيشترين نزول (SD) ...
ادامه مطلب »قانون يادگيري پرسپترون تك لايه (SLPR)
قانون يادگيري پرسپترون تك لايه (SLPR) • از نوع يادگيري با ناظر – خطاي يادگيري در دسترس • براي شبكه اي با يك نرون مياني و دو ورودي ديديم: – معادل است با خطي كه فضاي ورودي را به 2 بخش تقسيم ميكند. – خط داراي ضريب زاويه بوده و بر بردار وزن عمود است. – براي تمامي نقاط بالاي خط مرزي (با ...
ادامه مطلب »يادگيري با ناظر در شبكه عصبي
يادگيري با ناظر در شبكه عصبي • زوج داده هاي يادگيري (pi , ti)، i=1,2,…,L • t پاسخ مطلوب و a خروجي واقعي شبكه • سيگنالهاي خطا پارامترهاي شبكه را به نحوي تنظيم مي كنند كه پاسخ شبكه به سمت پاسخ مطلوب حركت كند. يادگيري تشديدي (تقويتي) در شبكه عصبي اشكال يادگيري با ناظر: بدون معلم نمي تواند مواضع جديدي را كه توسط داده هاي تجربي پوشانده ...
ادامه مطلب »خلاصه فرايند يادگيري
خلاصه فرايند يادگيري • سيستم يادگيرنده توسط محيط تحريك شود. • قانون يادگيري با رجوع به نتيجه تحريك، پارامترهاي سيستم يادگيري را تغيير دهد. • سيستم يادگيرنده به خاطر تغييراتي كه در ساختار داخلي آن اتفاق افتاده است، پاسخ مناسبتري به محيط بدهد. شبكه هاي عصبي: سيستمهاي ديناميكي آموزش پذير • شبكه عصبي توانايي تجربه اندوزي از گذشته و بهبود رفتار ...
ادامه مطلب »فرايند يادگيري
فرايند يادگيري ”از علل مشابه انتظار عواقب مشابه را داريم“ • سيستمهاي يادگير صرفا با مشاهده عملكردشان رفتار خود را جهت رسيدن به هدفي خاص بهبود مي بخشند. • اگر مقاصد و اهداف به طور كامل تعريف شده باشد، ديگر احتياجي به فرايند يادگيري نيست. – يادگيري به علت عدم قطعيت در شرايط محيطي لازم مي گردد. • رفتار سيستمهاي يادگير توسط ...
ادامه مطلب »شبكه هاپفيلد
شبكه هاپفيلد • شبكه تك لايه بازگشتي • عملكرد همه نرونها مشابه يكديگر • عدم وجود نرون ورودي يا خروجي • مقادير اوليه نرونها توسط ورودي تعيين شده و سپس شبكه با تكرار به يكي از الگوهاي مرجع همگرا مي شود. انتظار داريم كه اگر در لحظه 0 به شبكه الگوي سيب [ 1;1 ] اعمال شود، شبكه به سمت [ 1;1 ...
ادامه مطلب »مباني بهينه سازي
پايه همه تكنيكهاي يادگيري از نوع عملكردي • در يادگيري عملكردي پارامترهاي شبكه به نحوي تنظيم مي شوند كه عملكرد شبكه بهينه شود. • قدم اول: تعريف عملكرد و تعيين شاخص عملكرد. (معمولا سطح اجرايي ميانگين مربعات خطا) • قدم دوم: جستجو در فضاي پارامترهاي شبكه براي تنظيم آنها به طوريكه معيار اجرايي عملكرد كاهش يابد. مباني بهينه سازي: بسط تيلور و ...
ادامه مطلب »