Arva AI 近日宣布成功完成300万美元的种子融资,由谷歌的早期投资基金 Gradient 领投,Y Combinator、Amino Capital、Olive Tree Capital 以及多位知名金融科技天使投资人也参与了此次融资。这一里程碑标志着 Arva AI 在利用生成式人工智能重塑金融机构商业验证流程方面迈出了重要一步。图源备注:图片由AI生成,图片授权服务商Midjourney了解商业(KYB)验证是金融合规中至关重要的环节,旨在防止欺诈和洗钱等行为。然而,传统的 KYB 方法往往依赖人工审核,不仅耗时,而且成本高昂。随着监管要求的日
在数字化浪潮席卷全球的今天,人工智能就像一个充满诱惑且难以驯服的野兽。对于缺乏庞大技术团队的中小企业来说,这头"野兽"往往令人望而生畏。这就是Cake诞生的意义。这家位于纽约的创业公司,正在用一个划时代的平台,帮助中小企业轻松驾驭AI的力量。通过近期获得的 1300 万美元融资(其中由Google Gradient Ventures领投 1000 万美元种子轮),Cake正在重新定义企业级AI工具的使用方式。公司的两位创始人堪称AI基础设施领域的"王牌"。CEO米沙·赫斯库曾创立并成功出售一家专注于放射学
["初创公司Gradient成功融资1000万美元,用于扩大云平台的采用。","开发人员可以在该平台上托管和定制开源语言模型。","Gradient旨在简化AI基础设施管理,提供大型语言模型和自定义数据集。","该平台已经被大约20家企业使用,并计划扩大员工团队。"]
Llama-3 70B模型的LoRA适配器,扩展上下文长度至超过524K。
一款由Gradient AI团队开发的高性能语言模型,支持长文本生成和对话。
一款由Gradient AI团队开发的高性能文本生成模型。
快速构建自然语言处理应用
tensorblock
这是基于Meta Llama-3-70B-Instruct模型的GGUF量化版本,由GradientAI开发,支持1048k的超长上下文长度。该模型经过指令微调优化,适用于各种自然语言处理任务,并提供多种量化级别以满足不同硬件需求。
gradientai
基于Meta-Llama-3-8B-Instruct扩展的长上下文模型,通过RoPE theta参数调整实现4194K上下文长度支持
由Gradient开发的Llama-3 8B长上下文扩展版本,支持超过100万token的上下文长度,通过优化RoPE theta参数实现高效长文本处理能力。
基于Meta-Llama-3-8B-Instruct扩展的长上下文模型,支持262k tokens上下文长度
rishiraj
CatPPT是一款通过Gradient SLERP方法融合openchat和neuralchat模型的高性能7B聊天模型,在排行榜上表现优异且无评估数据污染。
oobabooga
CodeBooga-34B-v0.1是由Phind-CodeLlama-34B-v2和WizardCoder-Python-34B-V1.0融合而成的大型代码生成模型,采用BlockMerge Gradient脚本创建,专注于代码生成任务。