AI 產(chǎn)品經(jīng)理,如何理解 RAG 技術(shù)?簡潔版

0 評論 2531 瀏覽 4 收藏 4 分鐘

本文將深入探討增強(qiáng)檢索技術(shù)的關(guān)鍵步驟、應(yīng)用領(lǐng)域及其優(yōu)勢與局限性,揭示如何通過這項(xiàng)技術(shù)提升模型輸出的可信度和專業(yè)性,同時確保對最新數(shù)據(jù)的訪問。

一、什么是增強(qiáng)檢索

LLMs 外掛一個“LLMs 外掛一個“實(shí)時更新的知識庫”,使用外部數(shù)據(jù)提高LLMs的準(zhǔn)確性專業(yè)性。

二、解決了什么問題

模型誤導(dǎo)輸出/知識缺乏實(shí)效性/垂直領(lǐng)域知識不足

三、應(yīng)用領(lǐng)域

很通用,問答系統(tǒng)/內(nèi)容摘要/對話系統(tǒng)/文本生成等

四、關(guān)鍵步驟

1. 在接到輸入時,檢索一組與之相關(guān)的文檔或信息片段

  • 對于于這個輸入構(gòu)建一個或多個查詢。
  • 這些查詢從一個大型的數(shù)據(jù)存儲(如文本數(shù)據(jù)庫或知識庫)中檢索相關(guān)信息。

2. 將這些檢索到的信息與輸入結(jié)合起來,作為生成模型的輸入

  • 模型通過一個檢索系統(tǒng)(通常是預(yù)先訓(xùn)練好的檢索模型或者是簡單的基于關(guān)鍵詞的檢索系統(tǒng))在數(shù)據(jù)存儲中搜索相關(guān)的文檔/信息片段
  • 返回一組與查詢最相關(guān)的文檔/信息片段,隨后被編碼為向量形式。通常使用預(yù)訓(xùn)練的語言模型(如BERT、RoBERTa等)來完成。
  • 融編碼后的文檔向量與原始查詢的表示被融合,作為生成模型的輸入。生成模型(如GPT)然后根據(jù)這些信息生成最終的輸出文本。
  • 生成模型不僅考慮了原始輸入的信息,也考慮了檢索到的相關(guān)信息。

3. 生成更加準(zhǔn)確和信息豐富的文本

  • 生成模型輸出的文本被呈現(xiàn)給用戶,作為對原始查詢的回答或補(bǔ)充信息。

五、優(yōu)勢

1. 成本低,無需模型訓(xùn)練

通過檢索現(xiàn)有的知識庫,增強(qiáng)模型的回復(fù)質(zhì)量,相比fine-tune的微調(diào)模型而言,成本更低,無需對模型進(jìn)行重新訓(xùn)練。

2. 增強(qiáng)模型輸出的可信度

Reg生成的回答可以附帶對應(yīng)的引用來源,用戶點(diǎn)擊引用來源后,可以查看對應(yīng)的引用內(nèi)容,可以隨時驗(yàn)證模型回答的準(zhǔn)確性,從而增加對模型輸出的信任。

3. 增強(qiáng)模型輸出的專業(yè)性

通過檢索知識庫中的信息,可以有效減少模型作出錯誤判斷的可能性,并且通過檢索知識庫加上提示詞的優(yōu)化可以滿足不同行業(yè)或者客群的定制話需求

4. 能夠始終訪問最新的數(shù)據(jù)

知識庫可以實(shí)時更新便于調(diào)用最新的信息和數(shù)據(jù),對于實(shí)時需要獲取信息的領(lǐng)域尤為重要,比如教育醫(yī)療和金融領(lǐng)域。

六、局限性

不能根治LLM的本質(zhì)局限。

不會改變推理能力,模型參數(shù)不變,模型固有能力不變,如果模型本身參數(shù)不足,在理解和推理上存在固有的缺陷,單純用Rag技術(shù),也無法提高模型的輸出質(zhì)量。

本文由 @wanee 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于 CC0 協(xié)議

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!