المحاضرة الثانية عشر


0052

0053

0054

0055

0056

المحاضرة الثانية عشرة

الثلاثاء، تشرين الثاني 11, 2014

11:12 AM


صمم شبكة Adaline بتابع شبه خطي معطى بالعلاقة:

والمطلوب استنتاج خوارزمية التدريب لهذه الشبكة، علما أنه لدينا الجدول التالي:

Iteration # X1 X2 X3 T y^hat e e^2
k=1 0.1 0.3 0.01 0.4
k=2 0.15 0.4 0.03 0.75
k=3 0.2 0.54 0.1 0.85
k=1024

قارن بين الـ iteration و epoch (يمكن يجي سؤال فحص)

 ( قد يكون سؤال الفحص بالطريقة التالية، استنتج تابع التدريب مع العلم أن تابع الكلفة هو


مثلا، ويمكن أن تكون غير هذه العلاقة، وما هي الفائدة من ذلك.)


وصولك إلى هذه المرحلة هو 99 بالمية من المطلوب، لأن الباقي هو فقط تعويض.

إذا كان مدرب الشبكة صحيحا فسيقوم بتعديل قيم التحييز والأوزان حتى الوصول إلى القيمة الصحيحة على الخرج، ويمكن أيضا تثبيت قيمة b وتعديل الأوزان فقط، لكن لا يجوز تثبيت الأوزان وتدريب قيمة b فقط.

(مداخلة:

انتهت المداخلة.)

نتابع في المسألة:

k=1

بما أننا في k=1 نعطي قيم عشوائية للأوزان ثم نقيم الشبكة ونرى الخطأ فإذا كان مقبولا ينتهي التدريب، أو نتابع التدريب.

Evaluate your NN:


If

Else if

التدريب على مستوى مجموع مربع الأخطاء طالما أن هذا المجموع أكبر من 0.1 فأعد الاختبار، أو قد يكون شرط التدريب هو epoch أصغر من 1000 مثلا. حسب رغبة المدرب:

While (e<0.1)

Or

While (epoch<1000)

على مستوى الـ iteration يهمنا الـ error

أما على مستوى الـ epoch يهمنا عامل الكلفة (هنا هو مجموع المربعات).

  • Madaline NN

مطالبين فيها كتوبولوجي للالكترون، أما الميكاترونيكس فلها تطبيقات في المخبر ومطالبين بخوارزميات التدريب في المخبر والنظري (بس الميكا.)

في هذه الشبكة جميع توابع التفعيل خطية أو شبه خطية.


إذا كان لدينا مرشح فيجب أن يكون عدد المخارج يساوي عدد المدروجات التي نريدها (في مثالنا 3)، كما أنه توجد تطبيقات أخرى يمكن أن نأخذها فيما بعد.
ليس من الضروري أن يكون عدد المداخل يساوي عدد العصبونات (مثل أدالاين)

في المحاضرة القادمة سنتحدث عن الشبكات العصبونية متعددة الطبقات.

أضف تعليق