Artwork

محتوای ارائه شده توسط Ben Chugg and Vaden Masrani, Ben Chugg, and Vaden Masrani. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Ben Chugg and Vaden Masrani, Ben Chugg, and Vaden Masrani یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

#49 - AGI: Could The End Be Nigh? (With Rosie Campbell)

1:24:53
 
اشتراک گذاری
 

Manage episode 358668352 series 3418237
محتوای ارائه شده توسط Ben Chugg and Vaden Masrani, Ben Chugg, and Vaden Masrani. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Ben Chugg and Vaden Masrani, Ben Chugg, and Vaden Masrani یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

When big bearded men wearing fedoras begin yelling at you that the end is nigh and superintelligence is about to kill us all, what should you do? Vaden says don't panic, and Ben is simply awestruck by the ability to grow a beard in the first place.

To help us think through the potential risks and rewards of ever more impressive machine learning models, we invited Rosie Campbell on the podcast. Rosie is on the safety team at OpenAI and, while she's more worried about the existential risks of AI than we are, she's just as keen on some debate over a bottle of wine.

We discuss:

  • Whether machine learning poses an existential threat
  • How concerned we should be about existing AI
  • Whether deep learning can get us to artificial general intelligence (AGI)
  • If AI safety is simply quality assurance
  • How can we test if an AI system is creative?

References:

Contact us

Prove you're creative by inventing the next big thing and then send it to us at incrementspodcast@gmail.com

Special Guest: Rosie Campbell.

Support Increments

  continue reading

74 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 358668352 series 3418237
محتوای ارائه شده توسط Ben Chugg and Vaden Masrani, Ben Chugg, and Vaden Masrani. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Ben Chugg and Vaden Masrani, Ben Chugg, and Vaden Masrani یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

When big bearded men wearing fedoras begin yelling at you that the end is nigh and superintelligence is about to kill us all, what should you do? Vaden says don't panic, and Ben is simply awestruck by the ability to grow a beard in the first place.

To help us think through the potential risks and rewards of ever more impressive machine learning models, we invited Rosie Campbell on the podcast. Rosie is on the safety team at OpenAI and, while she's more worried about the existential risks of AI than we are, she's just as keen on some debate over a bottle of wine.

We discuss:

  • Whether machine learning poses an existential threat
  • How concerned we should be about existing AI
  • Whether deep learning can get us to artificial general intelligence (AGI)
  • If AI safety is simply quality assurance
  • How can we test if an AI system is creative?

References:

Contact us

Prove you're creative by inventing the next big thing and then send it to us at incrementspodcast@gmail.com

Special Guest: Rosie Campbell.

Support Increments

  continue reading

74 قسمت

Усі епізоди

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع