Midjourney 和紐約大學的研究人員近日聯手開發出一種創新方法,旨在顯著提升語言模型生成創意文本的多樣性,同時將質量損失控制在最低限度。這項發表在最新研究論文中的技術,核心在於將“偏差指標”引入人工智能的訓練過程。其運作原理是通過量化每個生成的文本與針對同一提示創建的其他文本之間的差異。研究人員利用嵌入文本及其成對餘弦距離來計算這些差異,從而爲系統提供了一種理解文本變異性的數學框架。這種新的訓練方法能夠評估大型語言模型(LLM)響應之間的差異
以AI圖像生成技術聞名遐邇的Midjourney,正悄然展現其在人工智能領域的更廣闊野心。這家擁有龐大用戶羣體的科技公司,在自研計算和AI硬件的消息之後,近期攜手紐約大學(NYU)的機器學習專家,發佈了一項關於訓練文本生成大語言模型(LLMs)的最新研究成果。該研究聚焦於提升LLM在創意寫作方面的能力,旨在使AI模型能夠像Meta的Llama和Mistral等開源模型一樣,寫出更具創造性的文本。不止於圖像:Midjourney發力創意文本生成對於一家以擴散模型AI圖像生成技術著稱的公司而言,Midjourney此次在文
["35年來,AI是否能像人類一樣具有系統泛化能力一直備受爭議。","NYU和龐培法布拉大學的研究者首次證明了神經網絡可以實現類似人類的系統泛化。","他們提出的MLC模型在任務環境中訓練神經網絡,使其逐步獲得組合詞彙含義的系統性推理能力。","MLC模型超越了GPT-4,展現出驚人的人類化思維。","這項研究對人工智能和認知科學有深遠影響,爲神經網絡賦予了系統泛化能力。"]
nyu-dice-lab
這是一個託管在Hugging Face Hub上的transformers模型,具體功能和用途待補充。
nyuuzyou
基於SmolLM2-135M微調的俄英雙語輕量級語言模型,增強俄語處理能力但存在明顯侷限
nyu-visionx
寒武紀是一個開源的以視覺為核心設計的 multimodal LLM(多模態大語言模型)。
Intel
ZoeDepth是基於NYU和KITTI數據集微調的深度估計模型,能夠以實際度量單位估計深度值。
ZoeDepth是一個用於單目深度估計的模型,特別在NYU數據集上進行了微調,能夠實現零樣本遷移和度量深度估計。
NYUAD-ComNets
該模型是一個用於檢測AI生成圖像的分類器,在評估集上取得了97.36%的準確率。
nyu-mll
基於1B詞元規模預訓練的RoBERTa基礎模型,驗證困惑度為3.93,適用於英語文本處理任務。
在1M至1B詞元規模數據集上預訓練的RoBERTa變體,包含BASE和MED-SMALL兩種規格,適用於資源有限場景下的自然語言處理任務
vinvino02
GLPN模型在NYUv2數據集上訓練,用於單目深度估計,結合全局和局部路徑網絡實現高精度深度預測。
基於1M tokens小規模數據預訓練的RoBERTa模型,採用MED-SMALL架構,適用於文本理解任務。
基於不同規模數據集(1M-1B詞元)預訓練的RoBERTa系列模型,包含BASE和MED-SMALL兩種規格