المحاضرة الرابعة


0007

 

0008

0009

0010

الثلاثاء، تشرين الأول 14, 2014المحاضرة الرابعة

12:39 PM

المحاضرات الماضية كانت تعريفية

Perceptron ANN:

عصبون الإدراك، شبكة الذكاء الصنعي هذه تحتوي على عصبون وحيد فقط.

يجب تعليم شبكة الذكاء الصنعي للقيام بالوظائف المطلوبة، وبحيث يكون خرج الشبكة مطابقا للنتيجة المرغوبة.

  • أول هدف هو تحديد الـ “توبولوجي” (استنتاج شخصي، تحديد التوبولوجي يعني تحديد النمط الصحيح، أي تعليم الشبكة العصبونية أن شكلا ما هو الشكل الصحيح لكي تقوم بمقارنة الأشكال الجديدة معه بحيث تتطابق أو لا.)
  • الهدف الثاني، إيجاد القيم الأفضل (وليس الأمثلية) على خرج الشبكة. (أفضل نتيجة للشبكات نحصل عليها عندما يكون الخطأ بين خرج شبكة الذكاء الصنعي والهدف معدوما تماما، ونحصل على هذه النتائج في شبكات الذكاء الصنعي الرقمية التي تتعامل مع المنطق صفر أو واحد.)

تابع التفعيل Activation Function:

  • NN Topology (مرحلة التعليم)
  • NN Training (مرحلة التدريب)

نتبع عملية ضبط الأوزان (الأوزان هي w، وهي تحدد أولويات الدخل، الدخل ذو الوزن الأكبر يكون ذو أولوية أكبر.)، بحيث يتناقص مخطط الخطأ بين الهدف والنتيجة إلى الصفر.

عملية التعلم مرتبطة بعملية ضبط الأوزان.

للتبسيط وللتسريع من عملية الضبط نعطي قيم أوزان ابتدائية صفرية في البداية.

  1. Give Random values for weights and bias (for digital NN best initial values are zero)
  2. Evaluate the output using evaluation-function depending on the type of Activation Function.
  3. Examine the error.

In case the error is NOT zero training is needed for all weights and bias (عامل التحييز).

عملية ضبط الأوزان تتبع للتالي:

  • تغير الوزن:

أي أن الوزن الجديد يساوي الوزن الحالي مضافا إليه قيمة تغير الوزن.

  • معدل التعلم (zeta)

يعبر عن مدى تكافؤ التوبولوجي (التوبولوجي هي طريقة توصيل شبكات الاتصال؟-أي الشبكة العصبونية؟) مع المسألة أو القضية.

في شبكات التعلم الرقمية، نفرض أن الشبكة تعمل بمعدل تعلم يساوي الواحد (forever) دائما:

إذا تمكنت الشبكة من التعرف على عينة جديدة بناء على واحدة قديمة فنقول أنها “تعلمت”، إما إن فشلت في التعرف على العينة الجديدة فنقول إنها “حفظت”.

إضافة من عندي: عملية تعليم الشبكة perceptron تعني توليف وضبط الأوزان وفقا للمداخل المعطية في النظام بالإضافة إلى قيمة العتبة (جهد التحييز؟) -مكتوبة في دفتر الدكتور الصفحة 6-

إضافة: إن تدريب الشبكة يعني إيجاد القيم المناسبة لأوزانها.

من <http://ar.wikipedia.org/wiki/%D8%B4%D8%A8%D9%83%D8%A9_%D9%87%D9%88%D8%A8%D9%81%D9%8A%D9%84%D8%AF>

إذا اختبرنا النظام على شيء معين وكانت النتائج خاطئة نقوم بإعطائها اختبار جديد وبأوزان جديدة، لا نكرر التجربة السابقة، وفي الحالة التي تنجح فيها التجربة ونحصل على أوزان صحيحة نثبت التجربة على أنها صحيحة (تم التعلم) ثم ننتقل إلى تجربة جديدة.

أخذنا علاقة ضبط الأوزان، والآن سنأخذ علاقة ضبط عامل التحييز (bias):

معامل التحييز:

ليكن لدينا معادلة:

إذا كان s=0 (جذر واقع على المحور التخيلي) فالنظام على حافة الاستقرار، ومعامل التحييز مشابه تماما، أي شيء بسيط قد يسبب حالة إنذار.

وظيفة الـ b زيادة راحة العصبون.

ليكن لدينا الحرف I يمكن تمثيله بتسع بكسلات، وأيضا الحرف Jمسائل بسيطة:

1 1 1
0 1 0
1 1 1

1 1 1
0 1 0
1 1 0

إذا دربنا الشبكة على التعرف على الحرف I فستعطي نتيجة high(1) إذا حصل تطابق، وتعطي النتيجة low(0,-1) إذا كان الحرف J هو المعروض. ملاحظة هامة: وستعطي النتيجة low في حال تم عرض أي حرف غير الـ I وليس J حصرا!

نتبع الخطوات السابقة: أولا نعطي قيمة عشوائية، لكي تتدرب الشبكة العصبونية

ثم نختبر الفرق في الأوزان من العلاقة w_i (k+1)  بين النموذج المعطى والنموذج الذي قمنا بتعليمها إياه سابقا.

أضف تعليق