لینک دانلود و خرید پایین توضیحات
فرمت فایل word و قابل ویرایش و پرینت
تعداد صفحات: 24
مقدمه
شبکه های عصبی چند لایه پیش خور1 به طور وسیعی د ر زمینه های متنوعی از قبیل طبقه بندی الگوها، پردازش تصاویر، تقریب توابع و ... مورد استفاده قرار گرفته است.
الگوریتم یادگیری پس انتشار خطا2، یکی از رایج ترین الگوریتم ها جهت آموزش شبکه های عصبی چند لایه پیش خور می باشد. این الگوریتم، تقریبی از الگوریتم بیشترین تنزل3 می باشد و در چارچوب یادگیری عملکردی 4 قرار می گیرد.
عمومیت یافتن الگوریتمBP ، بخاطر سادگی و کاربردهای موفقیت آمیزش در حل مسائل فنی- مهندسی می باشد.
علیرغم، موفقیت های کلی الگوریتم BP در یادگیری شبکه های عصبی چند لایه پیش خور هنوز، چندین مشکل اصلی وجود دارد:
- الگوریتم پس انتشار خطا، ممکن است به نقاط مینیمم محلی در فضای پارامتر، همگرا شود. بنابراین زمانی که الگوریتم BP همگرا می شود، نمی توان مطمئن شد که به یک جواب بهینه رسیده باشیم.
- سرعت همگرایی الگوریتم BP، خیلی آهسته است.
از این گذشته، همگرایی الگوریتم BP، به انتخاب مقادیر اولیه وزنهای شبکه، بردارهای بایاس و پارامترها موجود در الگوریتم، مانند نرخ یادگیری، وابسته است.
در این گزارش، با هدف بهبود الگوریتم BP، تکنیک های مختلفی ارائه شده است. نتایج شبیه سازیهای انجام شده نیز نشان می دهد، الگوریتم های پیشنهادی نسبت به الگوریتم استاندارد BP، از سرعت همگرایی بالاتری برخوردار هستند.
خلاصه ای از الگوریتم BP
از قانون یادگیری پس انتشار خطا (BP)، برای آموزش شبکه های عصبی چند لایه پیش خور که عموماً شبکه های چند لایه پرسپترون 5 (MLP) هم نامیده می شود، استفاده می شود، استفاده می کنند. به عبارتی توپولوژی شبکه های MLP، با قانون یادگیری پس انتشار خطا تکمیل می شود. این قانون تقریبی از الگوریتم بیشترین نزول (S.D) است و در چارچوب یادگیری عملکردی قرار می گیرد.
بطور خلاصه، فرایند پس انتشار خطا از دو مسیر اصلی تشکیل می شود. مسیر رفت6 و مسیر برگشت 7 .
در مسیر رفت، یک الگوی آموزشی به شبکه اعمال می شود و تأثیرات آن از طریق لایه های میانی به لایه خروجی انتشار می یابد تا اینکه
_________________________________
1. Multi-Layer Feedforward Neural Networks
2. Back-Propagation Algorithm
3. Steepest Descent (S.D)
4. Performance Learning
5. Multi Layer Perceptron
6. Forward Path
7. Backward Path
نهایتاً خروجی واقعی شبکه MLP، به دست می آید. در این مسیر، پارامترهای شبکه (ماتریس های وزن و بردارهای بایاس)، ثابت و بدون تغییر در نظر گرفته می شوند.
در مسیر برگشت، برعکس مسیر رفت، پارامترهای شبکه MLP تغییر و تنظیم می گردند. این تنظیمات بر اساس قانون یادگیری اصلاح خطا1 انجام می گیرد. سیگنال خطا، رد لایه خروجی شبکه تشکیل می گردد. بردار خطا برابر با اختلاف بین پاسخ مطلوب و پاسخ واقعی شبکه می باشد. مقدار خطا، پس از محاسبه، در مسیر برگشت از لایه خروجی و از طریق لایه های شبکه به سمت پاسخ مطلوب حرکت کند.
در شبکه های MLP، هر نرون دارای یک تابع تحریک غیر خطی است که از ویژگی مشتق پذیری برخوردار است. در این حالت، ارتباط بین پارامترهای شبکه و سیگنال خطا، کاملاً پیچیده و و غیر خطی می باشد، بنابراین مشتقات جزئی نسبت به پارامترهای شبکه به راحتی قابل محاسبه نیستند. جهت محاسبه مشتقات از قانون زنجیره ای2 معمول در جبر استفاده می شود.
فرمول بندی الگوریتم BP
الگوریتم یادگیری BP، بر اساس الگوریتم تقریبی SD است. تنظیم پارامترهای شبکه، مطابق با سیگنالهای خطا که بر اساس ارائه هر الگو به شبکه محاسبه می شود، صورت می گیرد.
الگوریتم بیشترین تنزل با معادلات زیر توصیف می شود:
(1)
(2)
به طوری WLji و bLj، پارامترهای نرون j ام در لایه iام است. α، نرخ یادگیری2 و F، میانگین مربعات خطا می باشد.
(3)
(4)
(5)
به طوریکه SLj(k)، حساسیت رفتار شبکه در لایه L ام است.
_________________________________
1. Error-Correctting Learning Rule
2. Chain Rule
3. Learning Rate
معایب الگوریتم استاندارد پس انتشار خطا1 (SBP)
الگوریتم BP، با فراهم آوردن روشی از نظر محاسباتی کارا، رنسانسی در شبکه های عصبی ایجاد نموده زیرا شبکه های MLP، با قانون یادگیری BP، بیشترین کاربرد را در حل مسائل فنی- مهندسی دارند.
با وجود، موفقیت های کلی این الگوریتم در یادگیری شبکه های عصبی چند لایه پیش خود، هنوز مشکلات اساسی نیز وجود دارد:
- اولاً سرعت همگرایی الگوریتم BP آهسته است.
همانطور که می دانیم، تغییرات ایجاد شده در پارامترهای شبکه (ماتریس های وزن و بردارهای بایاس)، پس از هر مرحله تکرار الگوریتم BP، به اندازه ، است، به طوریکه F، شاخص اجرایی، x پارامترهای شبکه و α، طول قدم یادگیری است.
از این، هر قدر طول قدم یادگیری، α، کوچکتر انتخاب گردد، تغییرات ایجاد شده در پارامترهای شبکه، پس از هر مرحله تکرار الگوریتم BP، کوچکتر خواهد بود، که این خود منجر به هموار گشتن مسیر حرت پارامترها به سمت مقادیر بهینه در فضای پارامترها می گردد. این مسئله موجب کندتر گشتن الگوریتم BP می گردد. بر عکس با افزایش طول قدم α، اگرچه نرخ یادگیری و سرعت یادگیری الگوریتم BP افزایش می یابد، لیکن تغییرات فاحشی در پارامترهای شکه از هر تکراربه تکرار بعد ایجاد می گردد، که گاهی اوقات موجب ناپایداری و نوسانی شدن شبکه می شود که به اصطلاح می گویند پارامترهای شبکه واگرا شده اند:
در شکل زیر، منحنی یادگیری شبکه برای جدا سازیالگوها در مسأله XOR، به ازای مقادیر مختلف نرخ یادگیری، نشان داده شده است. به ازای مقادیر کوچک، α، شبکه کند اما هموار، یاد نمی گیرد الگوهای XOR را از هم جدا نماید، ددر صورتی که به ازای 9/0= α شبکه واگرا می شود.
_________________________________
1. Standard Back-Propagation Algorithm
شکل (1). منحنی یادگیری شبکه برای نرخ های یادگیری مختلف در مسأله XOR
- ثانیاً احتمالاً به دام افتادن شبکه در نقاط مینیمم محلی وجود دارد.
در شبکه های MLP، میانگین مجوز خطا، در حالت کلی خیلی پیچیده است و از تعداد زیادی نقطه اکسترمم در فضای پارامترهای شبکه برخوردار می باشد. بنابراین الگوریتم پس انتشار خطا با شروع از روی یک سری شرایط اولیه پارامترهای شبکه، به نقطه مینیمم سراسری و با شروع از یک مجموعه شرایط اولیه دیگر به تقاط مینیمم محلی در فضای پارامترها همگرا می گردد، بنابراین زمانی که الگوریتم BP همگرا می شود، نمی توان مطمئن شد که به یک جواب بهینه رسیده باشیم.
- ثالثاً: همگرایی الگوریتم BP، به یقین مقادیر اولیه پارامترهای شبکه عصبی MLP وابسته است، بطوری که یک انتخاب خوب می تواند کمک بزرگی در همگرایی سریعتر الگوریتم BP فراهم آورد. برعکس انتخاب اولیه نادرست پارامترهای شبکه MLP، منجر به گیر افتادن شبکه در نقاط مینیمم محلی در فضای برداری پارامترهای شبکه می گردد که این خود منجر به این می شود که شبکه خیلی زودتر از معمول به موضعی بیفتد که منحنی یادگیری شبکه برای تعداد بزرگی از دفعات تکرار، تغییر نکند.
به عنوان مثال، فرض می کنیم مقدار اولیه پارامترهای شبکه خیلی بزرگ باشند، در حالی که می دانیم توابع تبدیل نرونها مخصوصاً در لایه های میانی از نوع زیگموئید هستند. در این حالت برای نرون i ام، اندازه ورودی تابع تبدیل (ni) خیلی بزرگ می باشد و خروجی نرون (ai) به مقدار 1± میل می کند. لذا مشتق بردار خروجی شبکه، a ، خیلی کوچک می باشد. فرض کنیم که باید مقدار واقعی ai، 1 باشد
لینک دانلود و خرید پایین توضیحات
دسته بندی : پاورپوینت
نوع فایل : .ppt ( قابل ویرایش و آماده پرینت )
تعداد اسلاید : 36 اسلاید
قسمتی از متن .ppt :
مهارت سنجش یادگیری
محمدعلی شفیعا-استاد دانشکده مهندسی صنایع ومدیریت اجرایی
دانشگاه علم وصنعت ایران
omidshafia@gmail.com-09121327677
www.iust.ac.ir
نه معتبر نه
قابل اطمینان
بسیار قابل
اطمینان، اما نامعتبر
بسیار قابل
اطمینان و معتبر
اعتبار و قابلیت اطمینان در وضعیتهای ممکن
اهدافی که دراین مبحث دنبال می شوند
مفهوم اندازه گیری
لایه مقیاس ها ونمونه کاربردآنها
قابلیت اطمینان و معتبربودن
مفهوم مقیاس بندی
مقیاس های دیدگاهی
گزینش نوع مقیاس
مقیاس های سنجش دیدگاه در تصمیم گیری مدیریتی
بیش از یکدهه تمرکز بر اثربخشی یادگیری
درس مهارت های عمومی مدیریت, کارآفرینی ,مدیریت فناوری و نوآوری, روش های تولید و مونتاژمکانیکی
تمرکز بر یادگیری دانشجو بجای تدریس به وی
در دانشکده های صنایع,معماری,مکانیک و مواد
این واقعیت به نحو آشکاری خویش را نمایان ساخت که,دانشجویان در نحوه یادگیری مباحثی که مطرح می شود به دلایل گوناگون یکسان عمل نمی کنند.
لینک دانلود و خرید پایین توضیحات
دسته بندی : پاورپوینت
نوع فایل : .ppt ( قابل ویرایش و آماده پرینت )
تعداد اسلاید : 36 اسلاید
قسمتی از متن .ppt :
مهارت سنجش یادگیری
محمدعلی شفیعا-استاد دانشکده مهندسی صنایع ومدیریت اجرایی
دانشگاه علم وصنعت ایران
omidshafia@gmail.com-09121327677
www.iust.ac.ir
نه معتبر نه
قابل اطمینان
بسیار قابل
اطمینان، اما نامعتبر
بسیار قابل
اطمینان و معتبر
اعتبار و قابلیت اطمینان در وضعیتهای ممکن
اهدافی که دراین مبحث دنبال می شوند
مفهوم اندازه گیری
لایه مقیاس ها ونمونه کاربردآنها
قابلیت اطمینان و معتبربودن
مفهوم مقیاس بندی
مقیاس های دیدگاهی
گزینش نوع مقیاس
مقیاس های سنجش دیدگاه در تصمیم گیری مدیریتی
بیش از یکدهه تمرکز بر اثربخشی یادگیری
درس مهارت های عمومی مدیریت, کارآفرینی ,مدیریت فناوری و نوآوری, روش های تولید و مونتاژمکانیکی
تمرکز بر یادگیری دانشجو بجای تدریس به وی
در دانشکده های صنایع,معماری,مکانیک و مواد
این واقعیت به نحو آشکاری خویش را نمایان ساخت که,دانشجویان در نحوه یادگیری مباحثی که مطرح می شود به دلایل گوناگون یکسان عمل نمی کنند.
لینک دانلود و خرید پایین توضیحات
دسته بندی : وورد
نوع فایل : .doc ( قابل ویرایش و آماده پرینت )
تعداد صفحه : 7 صفحه
قسمتی از متن .doc :
روشهای یادگیری ریاضی
خواستن و توانستن
ریاضیات ، تکیه بر اندیشه و عقل آدمی دارد و سروکارش با استدلال منطقی است و هر انسانی ، ولو با استعدادی نه چندان درخشان ، میتواند با یاری جستن از اندیشه ، عقل و استدلال خود ، به ریاضیات دست یابد و آن را فرا بگیرد. در مرحله کنونی ، کسی از دانشآموزان ما نمیخواهد، ریاضیدان باشد و نایافتههای ریاضی را بیابد (گرچه رسیدن به چنین مرزی هم ، ناممکن نیست). از ما میخواهند، چیزهایی را یاد بگیریم که صدها سال پیش پیدا شده و در طول سدههای متوالی سوهان خورده و به صورتی شفاف و قابل درک به ما رسیدهاند. شاید شعر گفتن کار سادهای نباشد، ولی هر کس میتواند یاد بگیرد، شعر حاضر و آماده دیگران را ، چگونه بخواند: در کجاها مکث کند، روی چه واژههایی تکیه کند. کجا صدای خود را اندکی بالا ببرند و کجا اندکی پایین بیاورد و البته ، به شرطی میتوان غزل حافظ و یا رباعی خیام را درست و بیعیب بخواند که معنای آن را به خوبی درک کرده باشد. و این ، کار دشواری نیست: همت و غیرت میخواهد و اندکی صرف وقت ، تجربه نشان داده است، هر کسی (به شرطی که به مفهوم واقعی کلمه ، عقب افتادگی ذهنی نداشته باشد)، میتواند ریاضیات دبیرستانی را بخوبی فرا بگیرد و بر جنبههای مختلف آن مسلط شود؛ تنها شرط رسیدن به چنین موفقیتی "خواستن" است. هرکسی میتواند ریاضیات را یاد بگیرد، به شرطی که بخواهد.
دفتر خاطرهها
دفتری انتخاب کنید و در صفحه اول آن بنویسید: "دفتر خاطرهها علمی و فرهنگی" و بعد هر وقت به مطلب تازه و جالبی برخوردید (هرچه و در هر هر زمینهای) در آن ثبت کنید. ساعت و روزهای متوالی ، روی مسالهای (و مثلا ، یک مساله ریاضی) اندیشیدهاید، راهها و روشهای مختلف را آزمایش کردهاید، با مراجعه به کتابهای مختلف درسی و غیر درسی ، برای رفع مشکل خود را به جستجو پرداختهاید، ... ولی مساله تسلیم نمیشود. شاید یک معماست و یا شاید با طرح آن ، خواستهاند شما را دست بیندازند... ولی یکباره ، و اغلب ناگهانی ، اندیشهای به ذهنتان میرسد، اندیشهای تازه ... قلم را روی کاغذ میگذارید و آزمایش میکنید، مساله حل میشود ... ممکن است هرگز چنین اندیشهای (که منجر به حل مساله بشود) به ذهن شما نرسد، ولی از زبان معلم ، یا در یک کتاب آشنا و یا به طریق دیگری ، با راه حل آن آشنا شوید ... سپس متوجه میشوید پس راهحل آن ، چنین بود . چقدر جالب! ... این یک خاطره علمی است و باید در دفتر خود یادداشت کنید. اول تاریخ بگذارید و بعد تمام ماجرا را شرح دهید. صورت مساله چیست؟ چه کسی آن را به شما داده و یا در کدام کتاب دیدهاید؟ چند ساعت یا چند روز با آن مشغول بودهاید؟ ... و سرانجام راهحل را بیاورید و در ضمن یادآوری کنید، این راهحل را چگونه و از کجا بدست آوردهاید.
واژهنامه ریاضی
میبینید، حتی در سادهترین موضوعها ، اگر معنا و تعریف درست واژهها را ندانیم، ممکن است دچار چه گمراهیهایی بشویم! شما معمولا ، ضمن عملهایی که انجام میدهید، اغلب از این جملهها استفاده میکنید: "معلوم و مجهول میکنیم" ؛ "طرفین وسطین میکنیم" ؛ "دور در دور ، نزدیک در نزدیک" ؛... این جملهها ، بخودی خود ، هیچ معنایی ندارند؛ آنها را روی کاغذ بنویسید و به کسی نشان دهید که با زبان فارسی آشناست، ولی ریاضیات نمیداند. بدون تردید ، به شما خواهد گفت: این جملهها بیمعنیاند؛ "طرفین وسطین میکنیم" ، هیچ معنای روشنی ندارد. اصلا "طرفین" یا "وسطین" یعنی چه؟ سفارش ما این است" هرگز از این گونه جملات استفاده نکنید. سعی کنید، معنای ریاضی عملی را که انجام میدهید، برای خودتان روشن کنید و بعد ، چیزی را بر زبان بیاورید که معرف آن عمل ریاضی باشد. شما ، عمل را درست انجام میدهید، ولی معنای آن را نمیدانید، یعنی نمی دانید از کدام عمل ریاضی ، به چه دلیل و با چه شرطی استفاده میکنید. مثلا عمل "طرفین وسطین کردن" را این گونه بیان میکنیم: اگر دو نسبت هندسی برابر داشته باشیم:
و و
با یک تناسب هندسی سروکار داریم، که میتوان آن را این طور هم نوشت:
a.d=b.c
چرا باید شک کرد و در کجا و چگونه؟
اگر قرار باشد، ضمن مطالعه درسهای ریاضی ، یا ضمن گوش دادن به درس معلم و یا بعد از آن که مسالهای را حل یا قضیهای را ثابت کردیم، همچنان در "شک" باقی بمانیم و فرض را بر این بگیریم که ممکن است همه اینها نادرست باشند، آیا اعتماد خود را نسبت به ریاضیات (و بطور کلی دانش) از دست نمیدهیم و دچار نوعی سرگردانی فکری نمیشویم، ... اگر "شک" نبود، ریاضیات ، در همان مرحلههای نخستین خود منجمد میشد. و البته ، نه تنها ریاضیات ، که معرفت و فرهنگ آدمی رشد نمیکرد و در همان شرایط ابتدایی خود باقی میماند. اگر به نظریه ارسطو ، درباره سقوط آزاد جسم شک نمیکردند و کسانی پیدا نمیشدند که جرات کنند و بگویند "ممکن است، معلم اول و استاد بزرگ ، اشتباه کرده باشد" قانونهای سقوط آزاد جسم کشف نمیشد.
روش یادگیری در کلاس
وقتی در کلاس ، جذب سخنان دبیر خود شدهاید و همه "هوش و حواس" شما متوجه حرفهای اوست، تقریبا هیچ صدای دیگری را نمیشنوید، در حالی که سروصدای کم و بیش یکنواخت بازی بچهها در حیاط مدرسه و یا عبور اتومبیلها در خیابان ، به طور دایم وجود دارد. ولی اگر به سخنان دبیر خود بیعلاقه باشید، با آن که موجهای حاصل از صدای او به گوش شما میرسد، آنها را نمیشنوید. در زبان فارسی ضربالمثل جالبی وجود دارد که: "با یک دست نمیتوان دو هندوانه برداشت". یعنی به طور هم زمان و با هم ، نمیتوان دو کار را انجام داد. همین اصل روانشناسی است که باید ضمن یادگیری ، مورد توجه قرار گیرد. به چه منظور به مدرسه میروید؟ چرا در کلاس درس حاضر میشوید؟ مگر نمیشود، آن چه را که میخواهید و علاقهمندید، ضمن مطالعه و پیش خود به دست آورید؟
حقیقت این است که همه چیز را نمیتوان در کتاب درسی و یا کتاب دیگر پیدا کرد. گذشته از این ، ضمن پرسشهای دانشآموزان و یا بیانهای درست و نادرستی که از زبان دانشآموزان جاری میشود، خیلی چیزها میتوان آموخت.
هنوز عادت نشده است که معلمان و نویسندگان کتابهای درسی یا کمک درسی ، سعی کنند همه تجربههای دوران
لینک دانلود و خرید پایین توضیحات
فرمت فایل word و قابل ویرایش و پرینت
تعداد صفحات: 41
اطلاعات ناتوانی: ناتوانی های خواندن و یادگیری (Fs17) Fs17 اطلاعات ناتوانی > انتشارات > NZCHCR انتشارات مرکز ترویج بین المللی برای بچه های ناتوان .ناتوانی های خواندن و یادگیری روزنامه توضیح (توجیه) (FS17) .چاپ چهارم 2004. تقریبا حدود 22 صفحه چاپ شده.تفسیر PDF فهرست:معرفی/نگاهی به یادگیری/ناتوانی ها/کمک به کودکتان/ یادگیری/نوجوانان با مشکلات خواندن یا یادگیری /منابع /سازمان
معرفی: مرکز ترویج بین المللی برای بچه های ناتوان (NICHCY) خوشحال است که اطلاعاتی برای شما درباره مشلکاتی که بچه ها ،جوانان ونوجوانان در یادیگری تجربه می کنند بخصوص در یادگیری خواندن فراهم کند. داشتن شکل درخواندن به هیچ وجه غیرعادی نیست.میلیون ها نفر در آمریکا مشکل خواندن دارند. بعضی ممکن است اصلا قادر به خواندن نباشند در حالیکه دیگران مهارت خواندن را دارند اما ممکن است کند خواندن باشند.مفید است که بدانیم که مشکلات خواندن اغلب با مشکلات نوشتن،گوش دادن و یا صحبت کردن همراه است. هر کسی که در یک و یا در هممه این نواحی مشکل دارد باید بداند که کمک فراهم است. دلایل بسیاری در اینکه چرا یک نفر ممکن است در پیشرفت مهارت خواندن مشکل داشته باشد وجود دارد. یکی از رایج ترین دلایل این است که شخص ناتوانی خواندن دارد. خوانش (خواندن) پرشی یکی از ناتوانی های خواندن است. انواع دیگری از ناتوانی های خواندن وجود دارد که می توانند باعث مشکلات یادگیری خواندن و یا به طور کلی یادگیری شوند. اینها د راین راهنما بعدا توصیف می شوند.هممه مشکلات خواندن توسط ناتوانی های خواندن باعث (به وجود نیامده اند) نشده اند. مهم است که تعیین کنیم چه چیزی باعث به وجود آمدن مشکل می شود. بعضی از علت ها غیر از ناتوانی های یادگیری بینایی و یا شنوایی ضعیف است. اختلال احساسی یا کند ذهنی از دلایل دیگر هستند.کسی که مشکل خواندن دارد باید با متخصصان رشته خواندن صحبت کنند و ارزیابی کاهی دریافت کنند. با تست ها و تکنیک های دیگر ارزیابی ریشه مشکل خواندن می تواند تعیین شود. بعد از آن بایدعمل کرد تا به شخص به غلبه یا یادگری جبران برای مشکل خاص خود کمک کرد. این چاپ نشر نشریه با دو هدف اصلی در ذهن توسعه پیدا کرده است. اینها شامل
توصیف بعضی از رایج ترین ناتوانی های یادگیری که می توانند باعث مشکلات خواندن شوند
شما را به سازمان هایی که می توانند بر کمکی که شما نیاز دارید به شما کمک کنند متصل کنیم. پرونده:// A :/ ناتوانی 20% اطلاعات 20% خواندن 20% و20%یادگیری 20% نتوانی 20% تست این نشریه چاپ بدین ترتیب سازمان دهی شده:
1)نگاهی به ناتوانی یادگیری در بچه ها و جوانان
پیشنهادهایی برای والدین در اینکه چگونه به بچه های به سن مدرشان کمک کنند تا یاد بگیرند
3)توجه به نوجوانان دارای مشکلات خواندن و یادگیری شامل گام های (اقداماتی) که نوجوانان