المحاضرة الحادية عشر


0046

0047

0048

0049

0050

0051

المحاضرة الحادية عشرة

الخميس، تشرين الثاني 6, 2014

8:16 AM

 


من أجل الحصول على أي شبكة ذكاء صنعي يجب أولا أن نعرف ما هو التارغيت ونسعى إلى تدريب الشبكة على التارغيت هذا، من خلال خوارزميات معينة. من أجل إيجاد خوارزمية شبكة الذكاء الصنعي يجب تحديد تابع الكلفة، وهو المقدار الذي تسعى إلى الشبكة أثناء التدريب.
 Adaline Training Algorithm:

 

 

 

 

نأخذ مربع الخطأ وذلك للتخلص من إشارة الخطأ السالبة في الحالة التي يكون فيها الخرج أكبر من التارغيت.

 

ليكن لدينا تابع الكلفة التالي:

Training Cost Function E=(1/2)  e^2

 

 


في هذه الشبكات نعطي الأوزان قيم عشوائية في البداية، ولا نضع أصفار، إذا كنا محظوظين قد ينتج عن هذه القيم العشوائية خطأ صغير منذ البداية، لكن بالصفر سيكون هناك اعتبارات أخرى (سيكون الخطأ أكبر ما يمكن في حالة الأوزان البدائية الصفرية)
نريد إيجاد قانون استنادا إلى تابع الكلفة، كما أننا نريد تدريب الشبكة بحيث تقوم بهدف معين ولذلك نكتب:

 

 

 

 

 

ليكن لدينا المثال التالي:

n=4

 

K X1 X2 X3 Xn T
k=1 0.9 0.2 1.4 1.7 1.1
k=2 0.7 0.5 -1.2 2.4 2.3
k=3 1.2 1.21 1.6 3 4

 

 

شعاع الوزن الجديد يصلح لتدريب عينات جديدة

دائما ندرب بعينات معينة ونختبر بعينات جديد وذلك لتجنب الـ memorization.

 

عندما نصل إلى n=4 ونحن لا يوجد لدينا k=4 عندها تقوم الشبكة بالانتقال إلى k=1 مرة أخرى بـ epoch جديد.


من أجل التدريب نقول أن:
إذا تمكنت الشبكة من التدريب على عينات جديدة فهي حتما قد حصلت على أوزان صحيحة للعينة السابقة.

 

 

 

مبدأ (ليابونوف Lyapunov) في الكلفة يقول إن التدرج في الخطأ يجب أن يكون سالب لنحصل على نظام مستقر. فإذا كان e2-e1 سالب فهذا يعني أن e2 أصغر من e1 والنظام مستقر، وكلما زاد عدد العينات سيزداد عدد مرات تغير الوزن وبالتالي سيتناقص الخطأ باستمرار. أما في الحالة المعاكسة فتكون e2 أكبر من e1 وهذا يعني أن النظام غير مستقر، والشبكة غير قادرة على التعلم.

 

الآن نحسب تابع الكلفة

 

 

 

 

 

 


في شبكات الذكاء الصنعي لا يمكن أن يكون زيتا أكبر من الواحد، كأن تقول أنني إذا علمت الطالب عملية الاشتقاق فسيكون قادرا على تنفيذ عملية التكامل دون أن أعلمه شيئا منها، وهذا غير ممكن.
ملاحظة في بعض الحالات نصمم شبكات ذكاء صنعي شبيهة بالأدالاين، هذه الشبكات تكون بطبقة واحدة أو عصبون وحيد ويكون تابعها شبه خطي وليس خطي تماما، حيث يظهر الفرق بينهما عند الوصول إلى منطقة الإشباع.

 

 

إذا قام أستاذ بتعليم طالب كتاب أول فصل منه هو مبادئ التعلم، ثم قام الطالب لوحده بتعلم بقية الكتاب نقول أن زيتا له أكبر من الواحد (وهو شيء ممكن أن ينجزه الطالب، لكن لا يمكن أن تنجزه شبكة الذكاء الصنعي.).

في شبكات الذكاء الصنعي إذا كانت  زيتا كبيرة نسبيا فسيصل تعديل الأوزان إلى مرحلة لن تتغير فيها الأوزان عندها نضطر إلى تغيير معدل التعلم لتتابع الأوزان تغيرها (والوصول إلى التارغيت المرغوب)

 

 

 

وهكذا يتم تعليم شبكة الأدالاين، أما إذا كانت شبيهة بالأدالاين عندها ننتبه إلى الحد (dy^hat/dy_in)

 

  • تصميم فلتر من المرتبة الأولى:

مثال: نريد تصميم مرشح ذكي يلغي التأخير الزمني، نبحث أولا عن تابع النقل لهذا النظام:

 

 

 

بالتحويل إلى الزمن المتقطع:

 

 

 

 


هذه الطريقة صحيحة فقط بعد التدريب، لكن أثناء التدريب يجب أن نأخذ الإشارة المرغوبة إلى الدخل الأول، ونأخذ الإشارة المرغوبة نفسها لكن بتأخير زمني إلى الدخل الثاني.
وإذا أردنا تصميم فلتر من المرتبة الثانية والثالثة نقوم فقط بإضافة دخل لـ y(k-2) و y(k-3) وهكذا.

 

 

مثال:

Xi=k T y^hat X2=T(k-1)
1.2 1.01 10 0
1.25 1.02 8 1.01

 

 

Advertisements

اترك رد

إملأ الحقول أدناه بالمعلومات المناسبة أو إضغط على إحدى الأيقونات لتسجيل الدخول:

WordPress.com Logo

أنت تعلق بإستخدام حساب WordPress.com. تسجيل خروج   / تغيير )

صورة تويتر

أنت تعلق بإستخدام حساب Twitter. تسجيل خروج   / تغيير )

Facebook photo

أنت تعلق بإستخدام حساب Facebook. تسجيل خروج   / تغيير )

Google+ photo

أنت تعلق بإستخدام حساب Google+. تسجيل خروج   / تغيير )

Connecting to %s