Artwork

محتوای ارائه شده توسط Anchormen. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Anchormen یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Is A.I. better at avoiding bias?

51:15
 
اشتراک گذاری
 

Manage episode 343942146 series 3238641
محتوای ارائه شده توسط Anchormen. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Anchormen یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

This podcast takes off with Jeroen and Ron talking about how algorithms can become biased and they discuss this on the basis of the gender bias hiring example. How can you avoid black box algorithms and force the neural network to represent its decision making process?

Next, they touch upon the accuracy of face and emotion recognition and how this relates to the 'dream' of Artificial General Intelligence (AGI). Can machines actually point into places where humans didn't go yet? (Spoiler: AlphaGo Zero)

What can companies learn from this: who takes the responsibility to avoid bias and to have a balanced, unbiased data (training) set? Jeroen and Ron explain why Precision and Recall are better metrics (over accuracy) to check whether your algorithm or data set is unbiased or not. And how can recommendation engines combined with post-processing help avoid collaborative filtering.

  continue reading

8 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 343942146 series 3238641
محتوای ارائه شده توسط Anchormen. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Anchormen یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

This podcast takes off with Jeroen and Ron talking about how algorithms can become biased and they discuss this on the basis of the gender bias hiring example. How can you avoid black box algorithms and force the neural network to represent its decision making process?

Next, they touch upon the accuracy of face and emotion recognition and how this relates to the 'dream' of Artificial General Intelligence (AGI). Can machines actually point into places where humans didn't go yet? (Spoiler: AlphaGo Zero)

What can companies learn from this: who takes the responsibility to avoid bias and to have a balanced, unbiased data (training) set? Jeroen and Ron explain why Precision and Recall are better metrics (over accuracy) to check whether your algorithm or data set is unbiased or not. And how can recommendation engines combined with post-processing help avoid collaborative filtering.

  continue reading

8 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع