Artwork

محتوای ارائه شده توسط FuturistGerd and Futurist Gerd Leonhard. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط FuturistGerd and Futurist Gerd Leonhard یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Futurist Gerd Leonhard - AGI By 2030? Think Again!

41:00
 
اشتراک گذاری
 

بایگانی مجموعه ها ("فیدهای غیر فعال" status)

When? This feed was archived on September 13, 2024 01:42 (1y ago). Last successful fetch was on August 13, 2024 09:36 (1y ago)

Why? فیدهای غیر فعال status. سرورهای ما، برای یک دوره پایدار، قادر به بازیابی یک فید پادکست معتبر نبوده اند.

What now? You might be able to find a more up-to-date version using the search function. This series will no longer be checked for updates. If you believe this to be in error, please check if the publisher's feed link below is valid and contact support to request the feed be restored or if you have any other concerns about this.

Manage episode 430214149 series 1172255
محتوای ارائه شده توسط FuturistGerd and Futurist Gerd Leonhard. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط FuturistGerd and Futurist Gerd Leonhard یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
This is the full version of my special livestreamed event on Artificial General Intelligence / AGI on July 18 and 19, 2024 You can watch it on YouTube here https://www.youtube.com/watch?v=W3dRQ7QZ_wc Watch the edited (Q&A) version with @LondonFuturists David Wood on YouTube here https://www.youtube.com/watch?v=yYyTIky2MLc&t=0s In this special livestreamed event I outlined my arguments that while IA (Intelligent Assistance) and some forms of narrow AI may well be quite beneficial to humanity, the idea of building AGIs, i.e., 'generally intelligent digital entities' (as set forth by Sam Altman / #openai and others) represents an existential risk that IMHO should not be undertaken or self-governed by private enterprises, multinational corporations or venture-capital funded startups. I believe we need an AGI-Non-Proliferation-Agreement. I outline what the difference between IA/AI and AGI or ASI (superintelligence) is, why it matters and how we could go about it. IA /AI yes *but with clear rules, standards, and guardrails. AGI: NO, unless we're all on the same page. Who will be Mission Control for humanity?
  continue reading

255 قسمت

Artwork
iconاشتراک گذاری
 

بایگانی مجموعه ها ("فیدهای غیر فعال" status)

When? This feed was archived on September 13, 2024 01:42 (1y ago). Last successful fetch was on August 13, 2024 09:36 (1y ago)

Why? فیدهای غیر فعال status. سرورهای ما، برای یک دوره پایدار، قادر به بازیابی یک فید پادکست معتبر نبوده اند.

What now? You might be able to find a more up-to-date version using the search function. This series will no longer be checked for updates. If you believe this to be in error, please check if the publisher's feed link below is valid and contact support to request the feed be restored or if you have any other concerns about this.

Manage episode 430214149 series 1172255
محتوای ارائه شده توسط FuturistGerd and Futurist Gerd Leonhard. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط FuturistGerd and Futurist Gerd Leonhard یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
This is the full version of my special livestreamed event on Artificial General Intelligence / AGI on July 18 and 19, 2024 You can watch it on YouTube here https://www.youtube.com/watch?v=W3dRQ7QZ_wc Watch the edited (Q&A) version with @LondonFuturists David Wood on YouTube here https://www.youtube.com/watch?v=yYyTIky2MLc&t=0s In this special livestreamed event I outlined my arguments that while IA (Intelligent Assistance) and some forms of narrow AI may well be quite beneficial to humanity, the idea of building AGIs, i.e., 'generally intelligent digital entities' (as set forth by Sam Altman / #openai and others) represents an existential risk that IMHO should not be undertaken or self-governed by private enterprises, multinational corporations or venture-capital funded startups. I believe we need an AGI-Non-Proliferation-Agreement. I outline what the difference between IA/AI and AGI or ASI (superintelligence) is, why it matters and how we could go about it. IA /AI yes *but with clear rules, standards, and guardrails. AGI: NO, unless we're all on the same page. Who will be Mission Control for humanity?
  continue reading

255 قسمت

Todos os episódios

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع

در حین کاوش به این نمایش گوش دهید
پخش