Artwork

محتوای ارائه شده توسط Dev and Doc. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Dev and Doc یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

#22 Explaining Explainable AI (for healthcare) with Dr Annabelle Painter (RSM digital health section Podcast)

58:40
 
اشتراک گذاری
 

Manage episode 434385253 series 3585389
محتوای ارائه شده توسط Dev and Doc. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Dev and Doc یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Dev and Doc is joined by guest Annabelle Painter, doctor, CMO, and podcaster for the Royal Society of Medicine Digital Health Podcast. We deep dive into explainability and interpretability with concrete healthcare examples.

Check out Dr. Painter's Podcast here, she has some amazing guests and great insights into AI in healthcare! - https://spotify.link/pzSgxmpD5yb

👋 Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :)

👨🏻‍⚕️ Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/

🤖 Dev - Zeljko Kraljevic - https://twitter.com/zeljkokr

LinkedIn Newsletter

YouTube Channel

Spotify

Apple Podcasts

Substack

For enquiries - 📧 [email protected]

🎞️ Editor - Dragan Kraljević - https://www.instagram.com/dragan_kraljevic/

🎨 Brand design and art direction - Ana Grigorovici - https://www.behance.net/anagrigorovici027d

Timestamps:

  • 00:00 - Start + highlights
  • 03:47 - Intro
  • 08:16 - Does all AI in healthcare need to be explainable?
  • 15:56 - History and explanation of Explainable/Interpretable AI
  • 20:43 - Gradient-based saliency and heat maps
  • 24:14 - LIME - Local Interpretable Model-agnostic Explanations
  • 30:09 - Nonsensical correlations - When explainability goes wrong
  • 33:57 - Modern explainability - Anthropic
  • 37:15 - Comparing LLMs with the human brain
  • 40:02 - Clinician-AI interaction
  • 47:11 - Where is this all going? Aligning models to ground truth and teaching them to say "I don't know"

References:

  continue reading

30 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 434385253 series 3585389
محتوای ارائه شده توسط Dev and Doc. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Dev and Doc یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Dev and Doc is joined by guest Annabelle Painter, doctor, CMO, and podcaster for the Royal Society of Medicine Digital Health Podcast. We deep dive into explainability and interpretability with concrete healthcare examples.

Check out Dr. Painter's Podcast here, she has some amazing guests and great insights into AI in healthcare! - https://spotify.link/pzSgxmpD5yb

👋 Hey! If you are enjoying our conversations, reach out, share your thoughts and journey with us. Don't forget to subscribe whilst you're here :)

👨🏻‍⚕️ Doc - Dr. Joshua Au Yeung - https://www.linkedin.com/in/dr-joshua-auyeung/

🤖 Dev - Zeljko Kraljevic - https://twitter.com/zeljkokr

LinkedIn Newsletter

YouTube Channel

Spotify

Apple Podcasts

Substack

For enquiries - 📧 [email protected]

🎞️ Editor - Dragan Kraljević - https://www.instagram.com/dragan_kraljevic/

🎨 Brand design and art direction - Ana Grigorovici - https://www.behance.net/anagrigorovici027d

Timestamps:

  • 00:00 - Start + highlights
  • 03:47 - Intro
  • 08:16 - Does all AI in healthcare need to be explainable?
  • 15:56 - History and explanation of Explainable/Interpretable AI
  • 20:43 - Gradient-based saliency and heat maps
  • 24:14 - LIME - Local Interpretable Model-agnostic Explanations
  • 30:09 - Nonsensical correlations - When explainability goes wrong
  • 33:57 - Modern explainability - Anthropic
  • 37:15 - Comparing LLMs with the human brain
  • 40:02 - Clinician-AI interaction
  • 47:11 - Where is this all going? Aligning models to ground truth and teaching them to say "I don't know"

References:

  continue reading

30 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع

در حین کاوش به این نمایش گوش دهید
پخش