阿里雲發佈逆天大模型Qwen2.5-Turbo 一口氣讀完十本小說,推理速度提升4.3倍!
阿里雲重磅推出全新升級的Qwen2.5-Turbo大語言模型,其上下文長度突破至驚人的100萬Token。這相當於什麼概念?相當於10部《三體》,150小時的語音轉錄或3萬行代碼的容量!這回可真是“一口氣讀完十本小說”不是夢了!Qwen2.5-Turbo模型在Passkey Retrieval任務中實現了100%的準確率,並且在長文本理解能力方面超越了GPT-4等同類模型。該模型在RULER長文本基準測試中取得了93.1的高分,而GPT-4的得分僅爲91.6,GLM4-9B-1M的得分則爲89.9。除了超長文本處理能力,Qwen2.5-Turbo還兼具短文本處理的精準性,在短文本