《紐約時報》起訴AI搜索公司Perplexity,指控其未經授權大量複製並傳播其新聞、視頻等版權內容,要求法院禁止侵權行爲並賠償損失。這是該報繼去年起訴OpenAI和微軟後,第二起針對生成式AI的版權訴訟。訴狀指出,Perplexity的檢索增強生成技術輸出內容與原文幾乎一致,僅今年8月就向紐時網站發起超17.5萬次爬取請求。
一項新研究顯示,Claude Opus4.5等先進AI模型能利用智能合約漏洞,在模擬攻擊中造成高達460萬美元損失。研究基於405個真實攻擊案例的基準測試,AI還審查了2849個新合約,發現兩個未知漏洞。
OpenAI因視頻生成應用Sora使用“Cameo”功能名稱遭起訴。原告Cameo公司指控其商標侵權,稱該功能允許用戶添加名人影像,與自家註冊商標高度相似,易致消費者混淆並損害品牌價值。訴狀強調此舉可能造成不可彌補損失。
調查顯示,62%的網絡安全負責人稱其員工在過去一年遭遇AI驅動的攻擊,主要包括提示注入和深度僞造音頻或視頻。其中,44%的企業報告了深度僞造音頻電話攻擊,6%的事件造成業務中斷、財務或知識產權損失。
PhotoCat的免費AI圖像擴展器,自然擴展圖像,無水印無畫質損失
免費在線工具,可無質量損失地去除OpenAI Sora2視頻水印
美間AI無損放大,一鍵提升圖片清晰度,讓圖像放大不失真
基於感知損失的擴散模型
Baidu
$0.1
輸入tokens/百萬
$0.4
輸出tokens/百萬
128
上下文長度
01-ai
-
200
Shawon16
這是一個基於VideoMAE-base架構的視頻理解模型,在未知數據集上進行了20個epoch的微調訓練。模型在評估集上表現有限,準確率為0.0041,損失值為7.7839。
Owen777
UltraFlux是一款基於Flux的擴散變換器,專門用於原生4K文本到圖像生成。它通過數據、架構和損失的協同設計,能夠在各種不同縱橫比下保持一致的圖像質量。
advy
本模型是基於meta-llama/Llama-3.1-70B-Instruct在特定數據集上微調得到的大語言模型,專門用於文本生成任務,在評估集上取得了0.6542的損失值表現。
magiccodingman
這是一個基於Qwen3 VL 8B模型的實驗性混合量化版本,採用MXFP4_MOE技術結合高精度權重,在保持接近Q8精度的同時,實現更小的文件體積和更高的推理速度。該模型探索了混合量化方法,在精度損失和性能之間取得了良好平衡。
yueqis
本模型是基於Qwen2.5-Coder-32B-Instruct在swe_only_sweagent數據集上微調的專業代碼生成模型,在評估集上取得了0.1210的損失值,專門針對軟件工程相關任務進行優化。
kmonis48
這是一個基於T5-small架構微調的英語到梵語翻譯模型,在50輪訓練後驗證損失達到0.1564,能夠高效準確地將英語文本翻譯為梵語。
beingbatman
本模型是基於VideoMAE-Large架構在Kinetics數據集上預訓練後,在未知數據集上進行微調的視頻理解模型。在評估集上取得了85.86%的準確率和0.7987的損失值,表現出優秀的視頻分類能力。
merve
這是一個基於DETR架構和DINOv3視覺骨幹網絡微調的車牌檢測模型,在評估集上取得了2.7008的損失值,專門用於車牌識別任務
Simia-Agent
本模型是基於Qwen/Qwen3-8B在特定數據集上微調的大語言模型,在評估集上取得了0.2248的損失值,具備改進的自然語言處理能力。
這是一個基於Qwen2.5-7B-Instruct進行微調的大語言模型,在C2_re_100k_tag5_cleaned_hermes_toolv6_dethink_replacedv1數據集上訓練,在評估集上取得了0.2549的損失值,具備優化的對話和工具使用能力。
本模型是基於Qwen/Qwen2.5-7B-Instruct在2and3_apps_30k_v6數據集上微調的大語言模型,在評估集上取得了0.1593的損失值,表現出良好的性能。
leukas
這是一個在訓練過程中因批量大小過小而意外訓練失敗的模型,訓練損失激增。但有趣的是,該模型在EWoK、實體跟蹤、形容詞名物化、COMPS和AoA等特定任務上表現出色,展現了'失敗中的成功'這一獨特現象。
Salesforce
Moirai 2.0 是一個僅含解碼器的通用時間序列預測Transformer模型,在多個高質量數據集上進行了預訓練,包括GIFT-Eval、Chronos數據集子集、合成時間序列和Salesforce內部運營數據。相比第一版本,在損失函數、預測方式、數據處理等方面進行了重大改進。
nunchaku-tech
Colossus Project Flux 的 Nunchaku 量化版本,旨在根據文本提示生成高質量圖像。該模型在優化推理效率的同時,將性能損失降至最低。
mit-han-lab
經過Nunchaku量化處理的FLUX.1-Kontext-dev版本,能夠根據文本指令編輯圖像,優化推理效率的同時將性能損失降至最低。
boboliu
Qwen3-Reranker-0.6B的GPTQ量化版本,顯存使用優化且精度損失小
這是經過GPTQ量化的Qwen3-Embedding-4B模型,顯存使用量顯著降低,性能損失較小。
Qwen3-Embedding-0.6B的GPTQ量化版本,顯存使用優化,性能損失較小
ConfidentialMind
這是 OpenGVLab/InternVL3-38B 的 FP8 靜態量化版本,針對使用 vLLM 進行高性能推理進行了優化,在視覺語言任務上實現了約 2 倍的加速,同時精度損失極小。
基於Shuttle Jaguar的Nunchaku量化版本,旨在根據文本提示生成高質量圖像,優化了高效推理並最小化性能損失。