在 AI 時代,大型語言模型(LLM)就像武林祕籍,其訓練過程耗費巨大算力、數據,就像閉關修煉多年的武林高手。而開源模型的發佈,就像高手將祕籍公之於衆,但會附帶一些許可證(如 Apache2.0和 LLaMA2社區許可證)來保護其知識產權(IP)。然而,江湖險惡,總有“套殼”事件發生。一些開發者聲稱自己訓練了新的 LLM,實際上卻是在其他基礎模型(如 Llama-2和 MiniCPM-V)上進行包裝或微調。 這就好像偷學了別人的武功,卻對外宣稱是自己原創的。爲了防止這種情況發生,模型所有者和第三方迫
在AI領域,大型語言模型(LLMs)展現出了極高的語言理解和生成能力,如GPT-3和Llama-2等。然而,這些模型的龐大參數量對訓練和部署提出了高資源需求的挑戰,傳統的解決辦法是訓練多版本模型以適應不同計算環境,但這種做法效率低下。爲此,NVIDIA和德克薩斯大學奧斯汀分校提出Flextron框架,一種支持無需額外微調的靈活模型架構和優化方法。Flextron能根據特定的延遲和準確性需求,在推理過程中動態調整模型部署,顯著減少對多個模型變體的依賴。通過樣本高效訓練方法和先進的路由算法,Flextron將預訓練的LLMs轉化爲能夠適應各種部署場景的彈性模型,節省計算資源和時間。對比其他最先進的彈性網絡,Flextron在效率和準確性上都有出色表現,並通過彈性多頭注意力層進一步優化資源利用,特別適合資源有限的計算環境。
"美國國防部最近啓動了一項賞金計劃,旨在尋找人工智能模型中的法律偏見。該計劃要求參與者從Meta的開源LLama-270B模型中提取明顯的偏見例證。通過這一舉措,五角大樓希望改"
["Colossal-AI 團隊以低成本構建了性能卓越的中文 LLaMA-2 模型","中文版 LLaMA-2 在多個評測榜單中表現優異","Colossal-AI 開源了完整的訓練流程、代碼及權重","Colossal-AI 提供了評估體系框架 ColossalEval","Colossal-AI 的方案可用於構建任意垂類領域的大模型"]
MerantixMomentum
ACIP項目提供的Llama-2-13b可壓縮版本,支持動態調整壓縮率
Mungert
Llama 2是由Meta開發的7B參數規模的大語言模型,提供多種量化版本以適應不同硬件需求。
SURESHBEEKHANI
基於Llama-2-7b微調的醫學對話模型,用於回答醫學相關問題並提供詳細知識。
matrixportalx
這是一個基於Meta的Llama-2-7b-chat-hf模型轉換而來的GGUF格式版本,採用Q4_K_M量化技術,適用於llama.cpp推理框架,支持高效的文本生成和對話任務。
matrixportal
Meta發佈的Llama 2系列7B參數聊天模型GGUF量化版本,適用於本地部署和推理
diffusionfamily
基於Llama-2-7b微調的擴散語言模型
miulab
LLaMA-2 Reward Model是基於LLaMA-2-7B架構訓練的獎勵模型,通過模型融合技術為獎勵模型賦予領域知識。該模型在argilla/ultrafeedback-binarized-preferences-cleaned數據集上訓練,專門用於文本分類任務,具有重要的研究和應用價值。
tanusrich
基於LLaMA-2-7b微調的心理健康輔助對話模型,提供共情支持和非評判性心理幫助
inceptionai
Jais Adapted 13B是基於Llama-2架構的雙語(阿拉伯語-英語)大語言模型,通過自適應預訓練增強阿拉伯語能力
Jais系列是基於Llama-2架構的雙語大語言模型,專為阿拉伯語優化同時具備強大英語能力。本模型為700億參數規模的阿拉伯語自適應版本,支持4,096上下文長度。
Jais系列是專精阿拉伯語處理的雙語大語言模型,基於Llama-2架構進行阿拉伯語適配預訓練
Jais系列是專為阿拉伯語優化的英阿雙語大語言模型,基於Llama-2架構進行自適應預訓練,具備強大的雙語處理能力。
varma007ut
基於Llama-2-7b微調的印度法律專用對話模型,專注於提供印度法律相關問題的回答。
HiTZ
Latxa是基於LLaMA-2架構的巴斯克語大語言模型,專為低資源語言設計,在42億token的巴斯克語料庫上訓練
NikolayKozloff
這是一個基於Llama-2-7b架構的烏克蘭語和英語語言模型,已轉換為GGUF格式,適用於llama.cpp框架。
sudipto-ducs
InLegalLLaMA是基於Llama-2-7B在印度法律和科學數據集上微調的大語言模型,專門針對法律文本生成任務進行優化,適用於印度法律領域的應用場景。
tartuNLP
Llama-2-7b-烏克蘭語版是一個支持烏克蘭語和英語的雙語預訓練模型,基於Llama-2-7b繼續預訓練,使用了來自CulturaX的50億token數據。
RedHatAI
這是一個基於Meta的Llama 2 7B模型進行微調的算術推理模型,專門針對GSM8K數學問題數據集進行了優化,在數學推理任務上表現出色。
Bohanlu
基於臺語-Llama-2系列模型構建,專注於臺灣閩南語與繁體中文、英語之間的翻譯任務。
ChrisPuzzo
基於Llama2-7B-Chat模型微調的隱私政策問答與摘要工具