Artwork

محتوای ارائه شده توسط Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Player FM - برنامه پادکست
با برنامه Player FM !

Mensch vs. Maschine: Wer urteilt fairer? - Sam Goetjes

23:52
 
اشتراک گذاری
 

Manage episode 518826122 series 3466870
محتوای ارائه شده توسط Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

فصل ها

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 قسمت

Artwork
iconاشتراک گذاری
 
Manage episode 518826122 series 3466870
محتوای ارائه شده توسط Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung. تمام محتوای پادکست شامل قسمت‌ها، گرافیک‌ها و توضیحات پادکست مستقیماً توسط Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung یا شریک پلتفرم پادکست آن‌ها آپلود و ارائه می‌شوند. اگر فکر می‌کنید شخصی بدون اجازه شما از اثر دارای حق نسخه‌برداری شما استفاده می‌کند، می‌توانید روندی که در اینجا شرح داده شده است را دنبال کنید.https://fa.player.fm/legal
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

فصل ها

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 قسمت

همه قسمت ها

×
 
Loading …

به Player FM خوش آمدید!

Player FM در سراسر وب را برای یافتن پادکست های با کیفیت اسکن می کند تا همین الان لذت ببرید. این بهترین برنامه ی پادکست است که در اندروید، آیفون و وب کار می کند. ثبت نام کنید تا اشتراک های شما در بین دستگاه های مختلف همگام سازی شود.

 

راهنمای مرجع سریع

در حین کاوش به این نمایش گوش دهید
پخش