Artwork

محتوای ارائه شده توسط HBR Presents / Brian Kenny. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط HBR Presents / Brian Kenny یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

A Lesson from Google: Can AI Bias be Monitored Internally?

25:10
 
اشتراک گذاری
 

Manage episode 337153337 series 1265537
محتوای ارائه شده توسط HBR Presents / Brian Kenny. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط HBR Presents / Brian Kenny یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Dr. Timnit Gebru was the co-lead of Google’s Ethical AI research team – until she raised concerns about bias in the company’s large language models and was forced out in 2020.

Her departure sent shockwaves through the AI and tech community and raised fundamental questions about how companies safeguard against bias in their own AI. Should in-house ethics research continue to be led by researchers who best understand the technology, or must ethics and bias be monitored by more objective researchers who aren’t employed by companies?

Harvard Business School professor Tsedal Neeley discusses how companies can approach the problem of AI bias in her case, “Timnit Gebru: ‘SILENCED No More’ on AI Bias and The Harms of Large Language Models.”

  continue reading

272 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 337153337 series 1265537
محتوای ارائه شده توسط HBR Presents / Brian Kenny. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط HBR Presents / Brian Kenny یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Dr. Timnit Gebru was the co-lead of Google’s Ethical AI research team – until she raised concerns about bias in the company’s large language models and was forced out in 2020.

Her departure sent shockwaves through the AI and tech community and raised fundamental questions about how companies safeguard against bias in their own AI. Should in-house ethics research continue to be led by researchers who best understand the technology, or must ethics and bias be monitored by more objective researchers who aren’t employed by companies?

Harvard Business School professor Tsedal Neeley discusses how companies can approach the problem of AI bias in her case, “Timnit Gebru: ‘SILENCED No More’ on AI Bias and The Harms of Large Language Models.”

  continue reading

272 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع

در حین کاوش به این نمایش گوش دهید
پخش