Ep. 041 智能陷阱 - 科技伦理与人类社会系列 -- 廖庆子,王大阔: 以人为本的人工智能【湾区文化沙龙】

1:57:59
 
分享
 

Manage episode 291221303 series 2884481
由Player FM以及我们的用户群所搜索的湾区文化沙龙 — 版权由出版商所拥有,而不是Player FM,音频直接从出版商的伺服器串流. 点击订阅按钮以查看Player FM更新,或粘贴收取点链接到其他播客应用程序里。
系列介绍:科技伦理问题在信息科技领域愈发获得重视。互联网和社交媒体带来了资讯爆炸,也包括真伪难辨的信息;人工智能可以提高效率,但也有人担忧它是否会威胁人类的未来;无孔不入的大数据网络提供了便利,却令网络个人隐私保护成为一个问题。网络技术给大部分人提供了更多资讯和便捷,同时也可能令弱势人群成为被技术抛弃和遗忘的群体。为了厘清技术与人类社会的复杂关系和科技伦理的种种迷思,我们邀请到几位在相关领域的研究专家来一一解读。 主讲人介绍 主讲人:廖庆子 IBM Thomas J. Watson Research Center研究员,UIUC计算机科学博士。主要研究方向为人机交互,人与人工智能交互,可解释性人工智能,和对话机器人。 主讲人:王大阔 IBM Thomas J. Watson Research Center研究员。UC Irvine信息科学博士。主要研究方向为自动化人工智能,对话机器人,人与人工智能合作。 讲座要点: 这期沙龙我们请到IBM Watson研究所的两位科学家为我们解读可解释的人工智能,以及人工智能和人类合作的现状与未来。 [00:00:00] 介绍 [00:03:00] 上半场:以人为本 [00:05:00] 什么是人工智能 -- 目的:预测与分类 [00:10:00] -- 各种AI算法 [00:12:00] -- 人工智能的应用 [00:16:00] 以人为本的AI设计 [00:17:30] -- 案例分析: IBM autoAI [00:19:00] -- 案例分析: responsible and fair AI [00:22:30] -- 案例分析: interpretable and explainable AI [00:26:30] -- 大公司AI设计章程 [00:28:30] AI作为人类的合作伙伴 [00:30:30] -- 案例:医疗健康领域 [00:46:00] -- 案例:教育领域 [00:52:00] 未来展望:具有合作精神的AI [00:54:00] 下半场:可解释性 [00:57:00] 为什么要可解释的人工智能 [01:00:00] 达到可解释性的方法 [01:09:00] 提供ai解释性的开源工具 [01:10:30] 可解释性与AI伦理 [01:12:30] -- 可解释性作为以人为本AI的基础 [01:14:00] -- 无歧视AI [01:19:30] -- 可解释性帮助决策、评估 [01:22:30] 可解释性面临的挑战 -- 挑战1:没有通用答案 [01:27:30] -- 挑战2:人与AI在解释上的区别 [01:30:00] -- 挑战3:可解释性的局限 [01:35:00] Q&A 线上提问:请访问SLI.DO, 输入活动码 #AIFHM 进入提问页面: https://app.sli.do/event/azm0pvxo 给湾区文化沙龙打赏: https://www.venmo.com/Bayers-Shalong ------------------------------------------------------------------------------------------------------- 我们还有其他的信息渠道,欢迎选择你常用的平台,第一时间获得我们的活动信息: 微信公众号: 湾区文化沙龙 我们的网站: http://bayersshalong.org/ 我们的Maillist: https://mailchi.mp/37a9f0bab380/bayersshalong 我们的fb: https://www.facebook.com/bayershalong 我们的微博: https://weibo.com/u/7319836123 我们的matters: https://matters.news/@BayersShalong 我们的podcast: https://pod.link/1490805354

50集单集