ChatGPT、Gemini等文本理解、生成方面現出了前所未有的能力,極大地推動了生成式AI的技術創新。但這些模型在實際應用中有時會生成聽起來合理,但實際上并不準確的“幻覺”內容,就是一本正經的胡說八道。
為了解決這一難題,谷歌研究院在官網發布了創新框架AGREE,可增強大模型生成內容和引用的準確性。
研究人員在Llama-2-13b等知名大模型進行了實驗,結果顯示,與現有方法相比,AGREE在提升內容回答準確性和引用性方面非常出色。
論文地址:https://arxiv.org/abs/2311.09533
AGREE的核心技術是通過檢索文檔中的相關段落來增強大模型生成回答的事實基礎,并提供相應的引用。這種方法不僅可以提高回答的準確性,還可以為用戶提供驗證信息真實性的途徑,主要由訓練階段微調和測試時自適應兩大塊組成。
訓練階段微調
訓練階段微調是AGREE提升大模型自我歸因能力的關鍵模塊,在生成每一個回答時都能夠提供支持其聲明的可靠來源。
首先使用基礎的大模型生成一系列回答,作為微調流程的起點。然后,使用了自然語言推理模型(NLI),來評估一個給定的段落是否支持一個特定的聲明。在AGREE框架中,NLI模型被用來從未標記的查詢中自動構建訓練數據集。
構建訓練數據的過程包括將基礎大模型生成的回答與檢索到的文檔進行匹配,NLI模型會為每個聲明找到最相關的支持性段落,并將其作為引用附加到聲明上;如果聲明沒有找到支持的段落,則被標記為未支持。
在微調階段,AGREE框架采用了LORA的輕量級微調技術,通過在大模型的權重矩陣上添加低秩更新,來實現高效且針對性的調整,有助于減少計算資源的消耗,同時保持模型的泛化能力。
測試時自適應
測試時自適應是一種動態、迭代的推理增強方法,可幫助大模型在面對新的內容查詢時,能夠主動地從大型語料庫中檢索相關信息,并對之前生成的回答進行補充和修正。這種方法與傳統的靜態回答生成方式不同,它強調的是在測試時不斷優化和調整回答,以確保生成的內容盡可能準確和全面。
測試時自適應的工作流程開始于接收到一個新的查詢,經過微調的大模型會首先根據其訓練階段學到的知識生成一個初步的回答,然后進入一個自動迭代的過程,大模型會自我評估生成的回答,并識別出其中尚未歸因或需要進一步支持的聲明。
一旦識別出需要額外信息的聲明,測試時自適應就會啟動檢索過程。這一過程涉及到在預先構建的語料庫中搜索與未歸因聲明相關的段落。
這些段落被選出來后,大模型會嘗試將它們與先前的回答結合起來,生成一個更加完善、準確的內容。同時會不斷迭代循環,直至達到預定的推理效果或模型認為回答已足夠完美為止。
本文素材來源AGREE論文,如有侵權請聯系刪除
©1997-2024 網易公司版權所有 About NetEase
未經允許不得轉載:RPA中國 | RPA全球生態 | 數字化勞動力 | RPA新聞 | 推動中國RPA生態發展 | 流 > 谷歌推出AGREE,增強大模型生成回答準確性
熱門信息
閱讀 (14963)
1 2023第三屆中國RPA+AI開發者大賽圓滿收官&獲獎名單公示閱讀 (14079)
2 《Market Insight:中國RPA市場發展洞察(2022)》報告正式發布 | RPA中國閱讀 (13116)
3 「RPA中國杯 · 第五屆RPA極客挑戰賽」成功舉辦及獲獎名單公示閱讀 (13032)
4 與科技共贏,與產業共進,第四屆ISIG中國產業智能大會成功召開閱讀 (11768)
5 《2022年中國流程挖掘行業研究報告》正式發布 | RPA中國