微軟推出 AI 工具修正「AI 幻覺」問題,但專家仍持保留態度
– 生成式 AI 的「AI 幻覺」問題一直是 AI 難獲人類完全信任的主因,微軟最近推出工具 Correction,可自動修正 AI 的錯誤回答。這項工具的出現,讓人們對 AI 的準確性和可靠性抱持著新的期待。
微軟 Correction 工具的工作原理
微軟新工具首先標記可能有誤的 AI 生成的內容,然後將這些內容與認證「事實」(如文字紀錄)比對核實。Correction 已成為 Microsoft Azure AI Content Safety API 的一部分,可預覽,與任何文字生成 AI 模型搭配使用,如 Meta Llama 和 OpenAI GPT-4。
Correction 的原理是利用一對交叉引用的模型:一個是尋找可能不正確、虛構或不相關的 AI 生成內容的分類器模型,另一個則是根據指定文件糾正幻覺的語言模型。
專家觀點:對 Correction 的疑慮
華盛頓大學的 Os Keyes 認為,試圖消除生成式 AI 幻覺就像試圖拿掉水的氫元素,因是技術運作的基本部分。他認為,AI 幻覺問題的根源在於 AI 模型的訓練資料,而 Correction 工具只是在表面上修補問題,無法從根本上解決問題。
Queen Mary University 的 Mike Cook 則指出,即使 Correction 按預期運作,也可能加劇 AI 信任和可解釋性問題,讓用戶產生錯誤的安全感。他認為,Correction 工具可能會讓使用者過於依賴 AI 的準確性,而忽略了 AI 本身存在的不確定性和局限性。
Correction 的潛在影響
Correction 工具的推出,可能會推動 AI 在醫療、金融等需要高度準確性的領域的應用發展。例如,在醫療領域,Correction 可以幫助醫生更準確地診斷疾病,並提供更有效的治療方案。
Correction 工具的開發和應用也可能引發新的倫理問題,例如,如何確保 Correction 工具不會被用於操縱或欺騙使用者?如何確保 Correction 工具的輸出結果是公正和客觀的?
未來發展趨勢
即使微軟推出 Correction 工具,AI 幻覺問題仍然是 AI 發展的重大挑戰。研究人員需要不斷探索新的方法來解決 AI 幻覺問題,並開發更加可靠和可信的 AI 模型。
未來,AI 倫理規範的建立將變得越來越重要。這些規範應該明確界定 AI 的應用範圍,並確保 AI 的開發和應用符合人類的倫理價值觀。
常見問題QA
A:目前還無法完全消除 AI 幻覺,Correction 工具只能在一定程度上降低 AI 幻覺出現的機率。
A:Correction 工具可應用於各種文字生成 AI 模型,包括 Meta Llama 和 OpenAI GPT-4,以及其他需要準確性的領域。
相關連結:
siuleeboss – 为您提供一站式的有用AI资讯、食谱和数位教学
c:微* – MDBG Chinese Dictionary
Share this content: