المحاضرة السابعة عشر


0076

0077

0078

0079

0080

المحاضرة السابعة عشر

الخميس، كانون الأول 4, 2014

8:17 AM


Exercise1:

Inputs Targets Hidden layer N1 N2
U1 U2 E1 E2 W11 W12 B1 W1 B1 W2 B2
k=1 1.2 0.8 0.5 0.75 -0.1 0.01 0.85 0.56 0.21 0.89 0.3
k=2 1.1 0.7 0.45 0.725 ?? ??
k=3 _ _ _ _ _ _

المطلوب حساب e1, e2, e1^2,e2^2. وضبط الأوزان اللازمة.

or


Assume for k=1:
أول فكرة: بفرض k=1 سيكون:

e_1 does not satisfy e_1d;   d=desired.

And:

e_2 does not also satisfy e_2d

So training is needed.

Weights adjustment adaptation law of layer L=2

بفرض وضعنا تابع ستيب أو ساين، فإنه ليس خطأ، لكن نكتب بالفحص أنه غير قابل للتدريب، لأن مشتق تابع التفعيل سيكون ثابت أو صفر ولن تتعدل الأوزان.

إذا كان w11 خطأ و w12 صح، فستتأثر w11 و w21 بهذا الخطأ، ويجب أن نبحث عن خوارزمية تقوم فقط بضبط w11 دون التأثير على w12.

لهذه المرحلة نكون أنهينا حل 30% من المسألة


Also:

Weights adjustment adaptation low for layer 1 (Midlayer)

(مداخلة: لا يمكن تسمية input node بطبقة لأنها لا تحتوي على جسم خلية.)

معدل التعلم ثابت لكل الشبكة، لا يمكن أن يختلف بين طبقة وأخرى.

الأشخاص اللذين يكتبون باليمين يعانون من صعوبة في الكتابة باليد اليسرى، وذلك لأن الأوزان الخاصة باليد اليسرى غير مدربة على الكتابة.

نتابع:


For layer 1 (Midlayer)

حيث أن ^1 هي رقم الطبقة (الأولى هنا)، ^0 هي طبقة العقد.

حيث أن i=1 هي الدخل و j متغير.


Also:

دائما يتم تحديث الوزن باتجاه الخطأ.

Advertisements

اترك رد

إملأ الحقول أدناه بالمعلومات المناسبة أو إضغط على إحدى الأيقونات لتسجيل الدخول:

WordPress.com Logo

أنت تعلق بإستخدام حساب WordPress.com. تسجيل خروج   / تغيير )

صورة تويتر

أنت تعلق بإستخدام حساب Twitter. تسجيل خروج   / تغيير )

Facebook photo

أنت تعلق بإستخدام حساب Facebook. تسجيل خروج   / تغيير )

Google+ photo

أنت تعلق بإستخدام حساب Google+. تسجيل خروج   / تغيير )

Connecting to %s