Artwork

محتوای ارائه شده توسط Michael Berk. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Michael Berk یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Beyond Intelligence: GPT-5, Explainability and the Ethics of AI Reasoning (E.24)

42:11
 
اشتراک گذاری
 

Manage episode 515201604 series 3646654
محتوای ارائه شده توسط Michael Berk. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Michael Berk یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

What happens when AI stops generating answers and starts deciding what’s true?

In this episode of Free Form AI, Michael Berk and Ben Wilson dive into GPT-5’s growing role as an interpreter of information — not just generating text, but analyzing news, assessing credibility, and shaping how we understand truth itself.

They unpack how reasoning capabilities, source reliability, and human feedback intersect to build, or break trust in AI systems. The conversation also examines the ethical stakes of explainability, the dangers of “sycophantic” AI behavior and the future of intelligence in a market-driven ecosystem.

Tune in to Episode 24 for a wide-ranging conversation about:
• How GPT-5’s reasoning is redefining “understanding” in AI
• Why explainability is critical for trust and transparency
• The risks of AI echo chambers and feedback bias
• The role of human judgment in AI alignment and evaluation
• What it means for machines to become arbiters of truth

Whether you build, study, or rely on AI systems, this episode will leave you questioning how far we’re willing to let our models think for us.

  continue reading

25 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 515201604 series 3646654
محتوای ارائه شده توسط Michael Berk. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Michael Berk یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

What happens when AI stops generating answers and starts deciding what’s true?

In this episode of Free Form AI, Michael Berk and Ben Wilson dive into GPT-5’s growing role as an interpreter of information — not just generating text, but analyzing news, assessing credibility, and shaping how we understand truth itself.

They unpack how reasoning capabilities, source reliability, and human feedback intersect to build, or break trust in AI systems. The conversation also examines the ethical stakes of explainability, the dangers of “sycophantic” AI behavior and the future of intelligence in a market-driven ecosystem.

Tune in to Episode 24 for a wide-ranging conversation about:
• How GPT-5’s reasoning is redefining “understanding” in AI
• Why explainability is critical for trust and transparency
• The risks of AI echo chambers and feedback bias
• The role of human judgment in AI alignment and evaluation
• What it means for machines to become arbiters of truth

Whether you build, study, or rely on AI systems, this episode will leave you questioning how far we’re willing to let our models think for us.

  continue reading

25 قسمت

सभी एपिसोड

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع

در حین کاوش به این نمایش گوش دهید
پخش