المحاضرة الرابعة عشر


0062

0063

0064

0065

المحاضرة الرابعة عشر

الثلاثاء، تشرين الثاني 18, 2014

11:07 AM


استنتج خوارزمية التلاؤم.
نمط الأسئلة الممكن:

  • استنتج خوارزمية تعديل الأوزان.
  • ارسم بنية العصبون الحيوي.
  • ارسم بينة العصبون الصنعي.

مثال للتدريب في البيت (بجوز يجي متلو بجوز لأ)

ادرس آلية الفصل (فصل العينات) الخطي وآلية اللافصل الخطي للعمليات المنطقية التالية nand, nor, xnor.

الحل سيكون مستقيمات ميلها موجب، وفي بعض الحالات قد يلزم أكثر من مستقيم للفصل

كمالة نمط أسئلة الفحص:

  • قارن بين بنية التوبولوجي لشبكة بام وهوبفيلد.
  • كيف نستطيع تعميم خوارزمية التدريب من النوع بيرسيبترون للحصول على خوارزمية تدريب لشبكة من النوع هوبفيلد أو بام. وحدة دخل وحيد وخرج وحيد، والتانية عدة مداخل وعدة مخارج.
  • استنتج خوارزمية التدريب لشبكة أدالاين بتابع كلفة يساوي 1/4 e^4 مع تابع تنشيط sinx cosx من أجل زوايا صغيرة جدا، هنا يصبح y=x لأنه يمكن إلباس الساين بالزاوية والكوساين يساوي الواحد.

إذا أعطيت عينات لا تنتمي لـ x وطلبت منها “هل هذه العينات تنتمي لـ x” ستعطي على الخرج -1 إذا كانت مدربة بشكل صحيح، أما إذا كانت غير مدربة بشكل صحيح فقد تعطي +1 مع أنها لا تنتمي لـ x.

 إذا أردنا للشبكة أن تميز أكثر من حرف واحد، فنستخدم شبكة هوبفيلد! مثلا في شبكات بيرسيبترون ندرب الشبكة على حرفين هما I, J فيمكن للشبكة أن تتعرف على الحرف I ويكون الهدف هو +1 أو لا تتعرف على الحرف I ويكون الهدف هو -1 فهي فقط قادرة على الحكم على حرف واحد هل هو I أو لا. أما هوبفيلد فيمكن تعليمها على أكثر من حرف واحد، حيث يمكن أن تتعرف على جميع الأحرف الأبجدية، إذا عرضت عليها الحرف p تقول إنه الحرف p إذا عرضت الحرف c تقول أنه الحرف c وهكذا، وذلك بشرط أن تكون قد تدربت عليه سابقا.


ما هي تطبيقات الهوبفيلد وبام؟ بام نأخذ جزء من الصورة فتعطينا الصورة كاملة (خريطة العين ثابتة لا يمكن أن تتغير)، أما الهوبفيلد فتتعرف على الوجه بأخذ الصورة الكاملة وتقريبها إلى أكثر صورة مطابقة من الصور الموجودة سابقا، فتقول أن هذه الصورة الجديدة هي للشخص ذاته في الصورة القديمة، أو يمكن القول بأن شبكة هوبفيلد تعمل على فلترة التشوه والاحتفاظ بالمناطق المطابقة للصورة الأصلية وتستخدمها في التعرف على الشخص.

تدريب هوبفيلد وبام يتم في إيبوك واحد، أما بيرسيبترون فيحتاج إلى أكثر من ذلك.

Neural networks generally like non-linearity.

إذا أردنا تصميم شبكة ذكاء صنعي لنظام غير خطي، فيجب أن يكون تابع التفعيل غير خطي أيضا. أما إذا كان النظام خطي فيجب أن يكون تابع التفعيل خطي أيضا.

الأوزان البدائية الصفرية تكون فقط لـ perceptron, Hopfield, BAM، أما الأدالاين فأوزانها

البدائية عشوائية.

مثال (اعتبروه سؤال فحص):

OR

k Y
k=1 0 0 0
k=2 0 1 1
k=3 1 0 1
k=4 1 1 1

XOR

Y
0 0 0
0 1 1
1 0 1
1 1 0

فلسفة الشبكة الصنعية في محاولة التعلم على xor تبدأ بأن الشبكة ترى العينات في البداية على أنها or

ثم عندما نصل إلى الـ iteration الرابع ترى أنها nor وعندما تعود إلى الـ iteration الأول تعود لترى أنها or، وبذلك لن تتعلم الشبكة إذا كان لديها عصبون وحيد، فلذلك نضيف عصبون آخر كما رأينا سابقا، وهو ترجمة لمبدأ اللافصل الخطي، لكن سيكون لدينا خرجين للشبكة، ولذلك نستخدم عصبون ثالث في طبقة تالية يقوم بجمع النتائج وإعطاء نتيجة من بت واحد.


في تدريب الشبكات الصنعية، إذا كان لدينا مجموعة من المعلومات، نقوم بأخذ 75 بالمئة من هذه المعلومات للتدريب، أما الـ 25 بالمئة من المعلومات فنقوم باختبار الشبكة عليها، هذه العملية تضمن أن الشبكة لم تقم بحفظ المعلومات، وإنما تدربت عليها. ؟؟

كيف نستطيع تعميم خوارزمية تدريب للنوع بيرسيبترون على شبكة من النوع هوبفيلد أو بام، الجواب، نستخدم نفس القوانين لكن بيرسيبترون قيم عادية، أما هوبفيلد وبام فتستخدم مصفوفات.

في شبكة بيرسيبترون كل iteration يحتوي على قيم للمداخل (x1 و x2 مثلا)، أما هوبفيلد فكل iteration يمثل image مستقلة.

أضف تعليق