Arva AI 近日宣佈成功完成300萬美元的種子融資,由谷歌的早期投資基金 Gradient 領投,Y Combinator、Amino Capital、Olive Tree Capital 以及多位知名金融科技天使投資人也參與了此次融資。這一里程碑標誌着 Arva AI 在利用生成式人工智能重塑金融機構商業驗證流程方面邁出了重要一步。圖源備註:圖片由AI生成,圖片授權服務商Midjourney瞭解商業(KYB)驗證是金融合規中至關重要的環節,旨在防止欺詐和洗錢等行爲。然而,傳統的 KYB 方法往往依賴人工審覈,不僅耗時,而且成本高昂。隨着監管要求的日
在數字化浪潮席捲全球的今天,人工智能就像一個充滿誘惑且難以馴服的野獸。對於缺乏龐大技術團隊的中小企業來說,這頭"野獸"往往令人望而生畏。這就是Cake誕生的意義。這家位於紐約的創業公司,正在用一個劃時代的平臺,幫助中小企業輕鬆駕馭AI的力量。通過近期獲得的 1300 萬美元融資(其中由Google Gradient Ventures領投 1000 萬美元種子輪),Cake正在重新定義企業級AI工具的使用方式。公司的兩位創始人堪稱AI基礎設施領域的"王牌"。CEO米沙·赫斯庫曾創立併成功出售一家專注於放射學
["初創公司Gradient成功融資1000萬美元,用於擴大雲平臺的採用。","開發人員可以在該平臺上託管和定製開源語言模型。","Gradient旨在簡化AI基礎設施管理,提供大型語言模型和自定義數據集。","該平臺已經被大約20家企業使用,並計劃擴大員工團隊。"]
Llama-3 70B模型的LoRA適配器,擴展上下文長度至超過524K。
一款由Gradient AI團隊開發的高性能語言模型,支持長文本生成和對話。
一款由Gradient AI團隊開發的高性能文本生成模型。
快速構建自然語言處理應用
tensorblock
這是基於Meta Llama-3-70B-Instruct模型的GGUF量化版本,由GradientAI開發,支持1048k的超長上下文長度。該模型經過指令微調優化,適用於各種自然語言處理任務,並提供多種量化級別以滿足不同硬件需求。
gradientai
基於Meta-Llama-3-8B-Instruct擴展的長上下文模型,通過RoPE theta參數調整實現4194K上下文長度支持
由Gradient開發的Llama-3 8B長上下文擴展版本,支持超過100萬token的上下文長度,通過優化RoPE theta參數實現高效長文本處理能力。
基於Meta-Llama-3-8B-Instruct擴展的長上下文模型,支持262k tokens上下文長度
rishiraj
CatPPT是一款通過Gradient SLERP方法融合openchat和neuralchat模型的高性能7B聊天模型,在排行榜上表現優異且無評估數據汙染。
oobabooga
CodeBooga-34B-v0.1是由Phind-CodeLlama-34B-v2和WizardCoder-Python-34B-V1.0融合而成的大型代碼生成模型,採用BlockMerge Gradient腳本創建,專注於代碼生成任務。