Artwork

محتوای ارائه شده توسط Philosophy Talk Starters. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Philosophy Talk Starters یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

463: The Ethics of Algorithms

11:15
 
اشتراک گذاری
 

Manage episode 214858210 series 1555508
محتوای ارائه شده توسط Philosophy Talk Starters. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Philosophy Talk Starters یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
More at https://www.philosophytalk.org/shows/morality-algorithms. Recent years have seen the rise of machine learning algorithms surrounding us in our homes and back pockets. They're increasingly used in everything from recommending movies to guiding sentencing in criminal courts, thanks to their being perceived as unbiased and fair. But can algorithms really be objective when they are created by biased human programmers? Are such biased algorithms inherently immoral? And is there a way to resist immoral algorithms? Josh and Ken run code with Angèle Christin from Stanford University, author of "Algorithms in Practice: Comparing Web Journalism and Criminal Justice."
  continue reading

590 قسمت

Artwork

463: The Ethics of Algorithms

Philosophy Talk Starters

373 subscribers

published

iconاشتراک گذاری
 
Manage episode 214858210 series 1555508
محتوای ارائه شده توسط Philosophy Talk Starters. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Philosophy Talk Starters یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
More at https://www.philosophytalk.org/shows/morality-algorithms. Recent years have seen the rise of machine learning algorithms surrounding us in our homes and back pockets. They're increasingly used in everything from recommending movies to guiding sentencing in criminal courts, thanks to their being perceived as unbiased and fair. But can algorithms really be objective when they are created by biased human programmers? Are such biased algorithms inherently immoral? And is there a way to resist immoral algorithms? Josh and Ken run code with Angèle Christin from Stanford University, author of "Algorithms in Practice: Comparing Web Journalism and Criminal Justice."
  continue reading

590 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع