Midjourney 和纽约大学的研究人员近日联手开发出一种创新方法,旨在显著提升语言模型生成创意文本的多样性,同时将质量损失控制在最低限度。这项发表在最新研究论文中的技术,核心在于将“偏差指标”引入人工智能的训练过程。其运作原理是通过量化每个生成的文本与针对同一提示创建的其他文本之间的差异。研究人员利用嵌入文本及其成对余弦距离来计算这些差异,从而为系统提供了一种理解文本变异性的数学框架。这种新的训练方法能够评估大型语言模型(LLM)响应之间的差异
以AI图像生成技术闻名遐迩的Midjourney,正悄然展现其在人工智能领域的更广阔野心。这家拥有庞大用户群体的科技公司,在自研计算和AI硬件的消息之后,近期携手纽约大学(NYU)的机器学习专家,发布了一项关于训练文本生成大语言模型(LLMs)的最新研究成果。该研究聚焦于提升LLM在创意写作方面的能力,旨在使AI模型能够像Meta的Llama和Mistral等开源模型一样,写出更具创造性的文本。不止于图像:Midjourney发力创意文本生成对于一家以扩散模型AI图像生成技术著称的公司而言,Midjourney此次在文
["35年来,AI是否能像人类一样具有系统泛化能力一直备受争议。","NYU和庞培法布拉大学的研究者首次证明了神经网络可以实现类似人类的系统泛化。","他们提出的MLC模型在任务环境中训练神经网络,使其逐步获得组合词汇含义的系统性推理能力。","MLC模型超越了GPT-4,展现出惊人的人类化思维。","这项研究对人工智能和认知科学有深远影响,为神经网络赋予了系统泛化能力。"]
nyu-dice-lab
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
nyuuzyou
基于SmolLM2-135M微调的俄英双语轻量级语言模型,增强俄语处理能力但存在明显局限
nyu-visionx
寒武纪是一个开源的以视觉为核心设计的 multimodal LLM(多模态大语言模型)。
Intel
ZoeDepth是基于NYU和KITTI数据集微调的深度估计模型,能够以实际度量单位估计深度值。
ZoeDepth是一个用于单目深度估计的模型,特别在NYU数据集上进行了微调,能够实现零样本迁移和度量深度估计。
NYUAD-ComNets
该模型是一个用于检测AI生成图像的分类器,在评估集上取得了97.36%的准确率。
nyu-mll
基于1M tokens小规模数据预训练的RoBERTa模型,采用MED-SMALL架构,适用于文本理解任务。
在1M至1B词元规模数据集上预训练的RoBERTa变体,包含BASE和MED-SMALL两种规格,适用于资源有限场景下的自然语言处理任务
基于不同规模数据集(1M-1B词元)预训练的RoBERTa系列模型,包含BASE和MED-SMALL两种规格
vinvino02
GLPN模型在NYUv2数据集上训练,用于单目深度估计,结合全局和局部路径网络实现高精度深度预测。
基于1B词元规模预训练的RoBERTa基础模型,验证困惑度为3.93,适用于英语文本处理任务。