Artwork

内容由Info Support提供。所有播客内容(包括剧集、图形和播客描述)均由 Info Support 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Player FM -播客应用
使用Player FM应用程序离线!

#20 - Het ontwikkelen van AI modellen die je kunt vertrouwen(met Niels Naglé, Bas Niesink en Joop Snijder)

27:29
 
分享
 

Manage episode 374513126 series 3407233
内容由Info Support提供。所有播客内容(包括剧集、图形和播客描述)均由 Info Support 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

28集单集

Artwork
icon分享
 
Manage episode 374513126 series 3407233
内容由Info Support提供。所有播客内容(包括剧集、图形和播客描述)均由 Info Support 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

In de podcast Business vooruit met IT van Info Support, gaan collega's van Info Support in gesprek over diverse onderwerpen gerelateerd aan de digitale transformatie.

In deze aflevering praten Niels Naglé, Bas Niesink en Joop Snijder over interpeteerbare AI. Ze bespreken hoe het de AI black box openbreekt, waarom het belangrijk is en wat de voor -en nadelen zijn.

Onderwerpen die aan bod komen zijn onder andere:

  • Het verschil tussen black box, glass box en white box AI-modellen
  • Technieken om bestaande modellen uitlegbaar te maken, zoals SHAP en LIME
  • Het belang van uitlegbaarheid voor het opbouwen van vertrouwen in AI-modellen
  • Het voorkomen van data leakage en andere valkuilen bij het bouwen van AI-modellen
  • Het betrekken van verschillende rollen bij het bouwen van interpreteerbare AI, zoals data scientists, business experts en eindgebruikers
  • Tips voor organisaties die aan de slag willen met interpreteerbare AI

Hoofdstukken:
00:00:00: Introductie
00:00:56: Uitleg over interpreteerbare AI
00:02:39: Waarom is interpreteerbare AI belangrijk
00:05:16: Rollen bij interpreteerbare AI
00:07:07: Technieken voor interpreteerbare AI
00:10:58: Nadelen van interpreteerbare AI
00:15:28: Tips voor organisaties
00:17:25: Wetgeving rondom AI
00:19:35: Waar beginnen met interpreteerbare AI
00:21:10: Prioriteit voor interpreteerbare modellen
00:23:46: Onderzoek naar optimale interpreteerbare modellen
00:25:20: Causale verbanden
00:27:00 Afsluiting

Volg ons om op de hoogte te blijven via:
Twitter
LinkedIn
Instagram
Facebook

  continue reading

28集单集

すべてのエピソード

×
 
Loading …

欢迎使用Player FM

Player FM正在网上搜索高质量的播客,以便您现在享受。它是最好的播客应用程序,适用于安卓、iPhone和网络。注册以跨设备同步订阅。

 

快速参考指南