Artwork

محتوای ارائه شده توسط Brian Carter. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Brian Carter یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Let's Get Activated! Why Non-Linear Activation Matters

7:15
 
اشتراک گذاری
 

Manage episode 447355898 series 3605861
محتوای ارائه شده توسط Brian Carter. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Brian Carter یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Let's get RE(a)L, U!

This research paper explores the impact of different activation functions, specifically ReLU and L-ReLU, on the performance of deep learning models. The authors investigate how the choice of activation function, along with factors like the number of parameters and the shape of the model architecture, influence model accuracy across various data domains (continuous, categorical with and without transfer learning). The study concludes that L-ReLU is more effective than ReLU when the number of parameters is relatively small, while ReLU generally performs better with larger models. The paper also highlights the importance of considering the specific data domain and the use of pre-trained models for transfer learning when selecting the most suitable activation function.

Read more: https://github.com/christianversloot/machine-learning-articles/blob/main/why-nonlinear-activation-functions-improve-ml-performance-with-tensorflow-example.md

  continue reading

71 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 447355898 series 3605861
محتوای ارائه شده توسط Brian Carter. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Brian Carter یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Let's get RE(a)L, U!

This research paper explores the impact of different activation functions, specifically ReLU and L-ReLU, on the performance of deep learning models. The authors investigate how the choice of activation function, along with factors like the number of parameters and the shape of the model architecture, influence model accuracy across various data domains (continuous, categorical with and without transfer learning). The study concludes that L-ReLU is more effective than ReLU when the number of parameters is relatively small, while ReLU generally performs better with larger models. The paper also highlights the importance of considering the specific data domain and the use of pre-trained models for transfer learning when selecting the most suitable activation function.

Read more: https://github.com/christianversloot/machine-learning-articles/blob/main/why-nonlinear-activation-functions-improve-ml-performance-with-tensorflow-example.md

  continue reading

71 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع

در حین کاوش به این نمایش گوش دهید
پخش