Artwork

محتوای ارائه شده توسط GFT Italy. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط GFT Italy یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Dagli algoritmi ClearBox alla Decision Platform. Casi concreti per il settore dei servizi finanziari - Franco Saracco, Banking Sales Director

5:27
 
اشتراک گذاری
 

Manage episode 282662839 series 2858856
محتوای ارائه شده توسط GFT Italy. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط GFT Italy یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

  continue reading

4 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 282662839 series 2858856
محتوای ارائه شده توسط GFT Italy. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط GFT Italy یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal

Le tecnologie core AI si stanno focalizzando nell’aiutare le organizzazioni a far scalare le loro iniziative, magari partite come POC. In particolare le priorità, sul fronte dei dati e analytics, riguardano ambiti quali, per esempio, la “synthetic data generation” (tecnologie che permettono di ottenere dati di training per i modelli di Machine Learning (ML) in presenza di dati scarsi o incompleti o difficili da recuperare), il rendere operativi e scalabili i progetti di AI, il poter lavorare su use case complessi, utilizzando il concetto di explainability, ovvero il poter spiegare il perché di una particolare predizione. Far scalare le iniziative di AI è spesso complicato sia da sfide strategiche (es. aspetti sociali sull’utilizzo dei dati, etica, privacy) sia da sfide tattiche, ovvero trovare i dati corretti ed integrarli nei processi di business e nelle applicazioni.

Il concetto di Explainability, su cui in GFT lavoriamo da tempo, è di notevole importanza in ambito AI. Infatti, algoritmi predittivi che rendono possibile l’explainability, quali i cosiddetti “Clear Box”, permettono agli utenti di comprendere molto di più circa il processo decisionale, passando da “cosa” un modello predice a “come” il modello predice. Comprendere le ragioni che stanno dietro alle predizioni è molto importante quando si sta valutando la fiducia in un modello ML – se il business non ha fiducia in un modello non lo userà.

  continue reading

4 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع