【導航AI新未來Ep.13】小心「AI幻覺」!大型語言模型存在何種歧視?台灣如何發展本土語言模型?
Manage episode 434337974 series 3319020
牛津字典(Oxford Dictionary)2023年的年度關鍵字為Hallucination(AI幻覺),所指的正是,2022年底騰空出世的ChatGPT等大型語言模型的熱潮及相關的副作用,該字典編輯即公開發表警示:「當AI製造幻覺,它會產生錯誤的訊息。」
根據新創Vectara地偵測研究顯示,ChatGPT出現幻覺的比例達3%,Meta則有5%以上,必須嚴肅地看待此事。 另一個值得思考的是,大型語言模型由於使用語庫大量仰賴網路資訊,充斥性別、種族的歧視及恐同的刻板印象,更引發各界的質疑
而我們國科會也正大力的投入相關資源,積極地建立一套繁中版的TAIDE(可信賴的AI對話引擎)的大型語言模型的當下,面對AI幻覺及歧視性刻板印象的內容等風險,該如何因應這項挑戰呢?請收聽本集《導航AI新未來》。
主持人:天下雜誌未來城市頻道總監 陳芳毓
來賓:理慈國際科技法律事務所共同創辦人 蔡玉玲
製作團隊:天下實驗室、天下整合傳播部
以上廣告由 數位發展部數位產業署 提供
--
Hosting provided by SoundOn
3221集单集