Intel Vision 24大會:AI開放平台與RAG技術革新展望

Featured Image
Intel執行長Pat Gelsinger在Intel Vision 24大會上宣佈與合作夥伴共建AI開放平台,並展示了檢索增強生成(Retrieval Augmented Generation,RAG)技術,該技術能夠讓現有大型語言模型(LLM)能夠搭配具有新資訊的資料庫,快速更新AI的「認知」。

目前,使用LLM的一個問題是,它只擁有訓練時輸入的資訊,對於訓練之後的事件一無所知。舉例來說,如果使用截至2023年的資料訓練LLM,它可能很擅長回答2022年的資訊,但對於2024年的資訊可能就會出現錯誤或無法回答的情況。重新訓練LLM並加入新資料是一個耗時且昂貴的過程,需要大量的時間和資源。

然而,檢索增強生成(RAG)技術可以在現有LLM之上「外掛」一個包含新資料、文件、檔案的資料庫,讓LLM能夠自動從資料庫中尋找資訊,從而簡化加入新資料的工作流程。這樣一來,企業可以在現有LLM的基礎上快速追加新資料,提升AI的效能。

此外,Intel還與眾多合作夥伴合作,建立適合企業AI的開放平台,協助企業快速導入LLM與各種AI解決方案。企業AI開放平台可以與RAG相輔相成,企業可以下載開放的LLM,並將其搭配私有資料庫,從而實現包含私有資訊的聊天機器人,提升部署便利性、效能和價值。此外,企業還可以在本地端進行AI推論,降低資安風險,強化企業的生成式AI應用。

在Intel Vision 24大會中,Pat Gelsinger還進行了RAG的實際展示。展示中,RAG能夠協助使用者從資料庫中的文件檔案中找出具有參考價值的回答。這項技術能夠提高AI的回答準確性和效率。

另外,RAG搭配Gaudi 2加速器與Xeon處理器還能帶來TCO(總體擁有成本)的效益。相比於純Llama 2 70B模型,搭配RAG的模型能夠提供1.5倍相對於NVIDIA H100平台的TCO優勢。

最後,我們測試了不同提示詞對回答造成的影響。結果顯示,搭配RAG的模型能夠降低不同提示詞所造成的回答偏差,提高回答的一致性。

Intel的RAG技術和企業AI開放平台為企業提供了更方便、高效、安全的AI解決方案。這些技術不僅能提高AI的回答準確性和效率,還能降低TCO成本。隨著AI的不斷發展,我們相信這些技術將為企業帶來更多的價值和競爭優勢。

以上是關於Intel Vision 24大會上Intel執行長Pat Gelsinger宣佈的檢索增強生成(RAG)技術和企業AI開放平台的介紹。這些技術將為企業帶來更多的便利和效益,提高AI的效能和回答準確性。

Share this content: