المحاضرة الخامسة عشر


0066

0067

0068

0069

المحاضرة الخامسة عشر

الثلاثاء، تشرين الثاني 25, 2014

11:08 AM


هي شبكات مؤلفة من عدة طبقات كل طبقة تحتوي عدة عصبونات كل عصبون له تابع تنشيط لا خطي.
Feed Forward ANNs:

والـ Madaline هي حالة خاصة منها، إذا كان لدينا شبكة أمامية بتوابع تفعيل خطية نحصل على شبكة مدالاين.

ليكن لدينا شبكة ذكاء لها شعاع الدخل التالي:

فتكون مصفوفة الدخل هي:

نعلم من هذه الشبكة شعاع الدخل وعدد العصبونات، أما التوبولوجي فهو غير معروف!

إذا كان هناك خطأ في الخرج تقوم الشبكة بتعديل الأوزان بدءا من طبقة الخرج وصولا إلى الطبقة الأولى، وتسمى هذه العملية بالـ Backword phase (BWph). فإما يكون لدينا    أو نقوم بتعديل الأوزان بشكل عكسي، حيث نقوم بحساب تغير الوزن في الدخل بالاعتماد على الخطأ في الخرج (وهو مبدأ bwph)

أشهر توابع التفعيل المستخدمة هي:


أما بالنسبة لتابع الكلفة:

ثم نتبع نفس أسلوب الأدالاين في حساب تغير الوزن:


ليكن تابع التفعيل هو:

إذا:

ومنه:

أما إذا استخدمنا التابع الأخر:


وظيفة تابع تفعيل sin أو cos دون أي تقريب خطي.

نفس الأسلوب عند حساب تغير التحييز، لكن نشتق y_in بالنسبة لتابع التحييز:

يمكن استخدامه كفلتر لحذف الضجيج الموجود في صورة، أو يمكن استخدامه في التعرف على الأحرف.

يمكن استخدامه في تقليد مبدأ عمل معادلات الحالة لأنظمة التحكم، حيث نوفر تكلفة حساسات النظام.

يمكن في أي طبقة أن نقول:

هذا الكلام لا يكون صحيحا عند طبقة الخرج فقط، حيث أنه لا يوجد L=4.

أضف تعليق