المحاضرة الثامنة عشر


0081

0082

0083

0084

المحاضرة الثامنة عشر

الثلاثاء، كانون الأول 9, 2014

11:05 AM


فكرة بدا شوية انتباه!:

شبكات الذكاء الصنعي التشابهية العكسية:

Artificial Neural Network:

  1. Offline Training (with batch-Data)
  2. On-line Training (real Time), but target is not known!

اللي درسناه لهلأ هو offline training.

Batch data تعني أنه يجب عند تدريب شبكة الذكاء أن نجمع الـ data في كل Iteration Loop.

 أما في real time فيكون العمل على k و k-1 فقط للحصول على معلومات k+1، أي أن المشكلة في هذا النظام هي أن التارغيت غير معلوم، ولذلك تقوم الشبكة بتوليد التارغيت لوحدها.

المشكلة الأولى للـ online training هي أننا نتعامل مع عدد محدود من العينات، two samples only، وفي بعض الأحيان نحتاج إلى ثلاثة (أي k-2 أيضا) كما أن الهدف غير معروف.

في نظام الأونلاين، نعتبر كل iteration loop على أنه epoch ويجب أن يكون الخطأ فيه يساوي الصفر.


Recurrent ANNs:
الآن نتابع الأفكار السابقة:

الشبكات العكسية هي الشبكات التي نستطيع فيها أخذ عينات من الخرج وإيصالها إلى الدخل.

لها نمطين:

  1. Jordan-type NNs
  2. Elman type NNs

الفكرة الرئيسية: ليست بالـ topology (حيث أن تصميمه سهل) لكن بكيفية تدريب الشبكة العصبونية، أي أنه بدون approach تكون الشبكة غير مفيدة، مهما كان التوبولوجي.

  • شبكة جوران:

كيف نستطيع تحويل شبكة feed forward إلى جوردان:

في شبكة جوردان نأخذ عينات من الخرج نضيفها مباشرة إلى الدخل. كما في الرسم.

نرسم جدول التدريب:

ANN inputs targets Recurrent inputs
X1 X2 X3 x_n T_1 T_2 T_3
0.1 0.4 0.01 1.2

نستخدم هذا الجدول أثناء تدريب شبكة جوردان.

 

أثناء التدريب نعطي الخرج للشبكة، فيشكل ذلك مشكلة، حيث أن الشبكة ترى الهدف هو هذه التغذية العكسية فتقوم الشبكة بتصقيل أوزان مداخل التغذية العكسية وتهمل المداخل الحقيقية، ولذلك نقوم بتثبيت أوزان مداخل التغذية العكسية فيكون التركيز على المداخل الحقيقية.

أما في الاختبار فنشكل الجدول التالي، والذي يعبر عن المداخل التي تراها الشبكة:

X1 X2 X3 x_n

  • شبكة إيلمان:

في هذه الطريقة ليس من الضروري أن يكون التغذية العكسية هي من الخرج إلى أول طبقة مخفية، وإنما يمكن أن يكون من خرج لطبقة مخفية تسبقه، أو من مخفية لمخفية تسبقها، أو من مخفية إلى طبقة الدخل التي تسبقها (حصرا يجب أن تكون التغذية من طبقة إلى سابقتها!).

إذا اعتبرنا أن التغذية العكسية هي من الخرج إلى الطبقة المخفية الثالثة (ذات الـ 7 عصبونات) فإن كل عصبون في هذه الطبقة ينظر إلى الدخل وكأنه توجد فيه 7 عصبونات (4 أساسية و 3 من تغذية الخرج).

في هذه الشبكات يجب أن يكون هناك تأخير بمقدار فاصل زمني واحد على الأقل.

 ملاحظة: كل عصبون في كل الطبقات له خرج واحد فقط، لكن هذا الخرج يذهب إلى عصبونات الطبقة التي تليه بأوزان (تصقيل) مختلفة!!!

 في شبكة إيلمان يمكن أن نأخذ التغذية العكسية من خرج واحد أو من الثلاثة، لكن في شبكة جوردان يجب أخذ كل المخارج بعين الاعتبار.

Advertisements

اترك رد

إملأ الحقول أدناه بالمعلومات المناسبة أو إضغط على إحدى الأيقونات لتسجيل الدخول:

WordPress.com Logo

أنت تعلق بإستخدام حساب WordPress.com. تسجيل خروج   / تغيير )

صورة تويتر

أنت تعلق بإستخدام حساب Twitter. تسجيل خروج   / تغيير )

Facebook photo

أنت تعلق بإستخدام حساب Facebook. تسجيل خروج   / تغيير )

Google+ photo

أنت تعلق بإستخدام حساب Google+. تسجيل خروج   / تغيير )

Connecting to %s