Llama 3超越GPT-4!英偉達推微調新框架RankRAG
佐治亞理工學院與英偉達的兩位華人學者最新共同研發了一款名爲RankRAG的創新微調框架,該框架針對複雜RAG流程實現了顯著簡化,使用單一的LLM對檢索、排名及生成任務進行統一操作,效果遠超傳統流程。RAG技術在輔助大規模文本生成時普遍使用,然而,原有流程敏銳地識別到了如k值選擇的侷限性:當k值過大使長上下文處理變得吃力,或k值偏小削弱了檢索效率。RankRAG創新性地通過微調與擴展LLM能力,使LLM能夠自我適應進行檢索和排名。相較於常規流程,該框架在數據效率和性能方面都有顯著提升。實驗證明,通過微調更高效的Llama模型,在多個通用和生物醫學領域基準測試中,RankRAG的表現具有一定競爭力,甚至超越了前代頂級模型約10%的水平。這項技術引入了高度交互性和可編輯性的元素,允許用戶在生成內容後進行實時編輯與迭代,顯著提升工作效率,並且被推廣至可與任何平臺分享的成果。RankRAG的微調方案分爲指令監督與多階段強化訓練兩個階段,旨在提升LLM在不同指令、檢索與上下文排名能力上的綜合性。通過該框架,AI生成的內容在通用領域性能上超過了目前開源頂級系統。尤其在長尾QA及多跳QA任務中有超10%的性能提升。在適應性應用如生物醫學RAG基準Mirage上,即使是未經專門訓練的模型,RankRAG也展現出對專業領域任務的超越。隨着RankRAG的不斷優化與普及,我們期待AI與人類協作流程更加順利,技術及應用得到更大幅度的發展與創新。欲深入瞭解RankRAG技術,請訪問論文:https://arxiv.org/abs/2407.02485