最新物理基準測試“CritPt”顯示,頂尖AI模型如Gemini3Pro和GPT-5距離成爲自主科學家仍有巨大差距。該測試由全球50多位物理學家開發,重點考覈博士級科研實戰能力,而非單純知識記憶,突顯AI在創造性研究中的侷限性。
Vercel雲平臺公司通過訓練AI代理優化銷售流程,將10人銷售團隊縮減至1人加機器人,旨在提升效率,讓員工專注於創造性任務。
意大利出版商協會FIEG投訴谷歌AI概述功能,稱其AI摘要直接顯示在搜索結果中,導致原創新聞內容被擠壓到頁面下方,影響新聞可見性並造成出版商收入下降。
斯坦福等大學團隊提出“語言化採樣”方法,通過在提示中要求模型“生成5個響應及其概率”,有效提升生成式AI的創作多樣性。該方法適用於語言和圖像模型,能激發更豐富的創造力輸出。
與逼真的 AI 角色聊天,創造個性化角色,生成 AI 圖像。
Huggingfans - 通過AI頭像實現創造力變現。創作者,構建並賺取;粉絲,訂閱獨特個性化體驗。
先進的視頻生成模型,具備更高的真實性和創造力。
DeckSpeed是一款革命性的AI演示工具,通過對話生成專業個性化幻燈片,擺脫模板束縛,展現真正的創造力。
Google
$2.1
輸入tokens/百萬
$17.5
輸出tokens/百萬
1k
上下文長度
Anthropic
$21
$105
200
Alibaba
-
$3.9
$15.2
64
Bytedance
Tencent
$15
Huawei
32
Chatglm
128
$8
$16
$0.8
$2
Xai
256
$140
$280
Clemylia
皮卡丘語言模型是Clemylia發起的一項獨特的實驗性語言項目,完全從零開始訓練,僅基於'皮卡丘'的聲音語料庫,展示了小型語言模型創造原生語言身份的能力。
vanta-research
Atom-Olmo3-7B是基於Olmo-3-7B-Instruct微調的語言模型,專門為協作式問題解決和創造性探索而設計。該模型在處理複雜問題時能提供深思熟慮且結構化的分析,同時保持引人入勝的對話風格,具有Apache 2.0開源許可證。
Lam-3是Lamina系列的一個小型語言模型(SLM),基於Clemylia/lamina-suite-pretrain進行微調。該模型能夠回答問題,具有創造性,但有時回答可能比較奇特。模型從零開始創建,在包含1358個問答對的Clem27sey/Nacid數據集上訓練了3小時。
Lam-2是基於自定義架構Aricate V4開發的第二代小型語言模型(SLM),在問答任務中表現出色,具有卓越的語言連貫性和創造力。相比前代產品,Lam-2在語法正確性和文本生成質量上有顯著提升。
LAM-1是lamina系列中的首個完整版本的小型語言模型,由Clemylia開發。該模型專注於創造性內容生成,經過優化能夠生成富有想象力、詩意和敘事性的回答,而非事實性信息。
Fentible
Cthulhu是一個基於Mistral Small v3.2和v3.1的大型模型融合項目,通過融合多個尖端微調模型創建的超強24B參數語言模型。它具有章魚般的多面性特徵,提供無審查的創造性文本生成能力,擅長散文創作、指令遵循和深奧知識表達。
prithivMLmods
基於Qwen3架構構建的專業模型,專注於科學、人工智能設計和通用推理領域。該模型在高難度科學推理數據集上進行了微調,具備出色的通用和創造性推理能力,體積小巧適合本地設備和服務器部署。
ArliAI
ArliAI推出的高性能角色扮演與創意寫作推理模型,基於320億參數的QwQ-32B基礎模型微調,專注於長對話連貫性和創造性輸出
TheMindExpansionNetwork
基於Qwen3-14B大語言模型的高性能GGUF轉換版本,專為創造性推理、深層夢境邏輯、智能體交互和多語言指令優化
maldv
Qwentile Λ 2.5 32B指導模型是基於多個優秀模型進行標準化去噪傅里葉插值融合的成果,融合了思維能力和創造性輸出。
PsycheFoundation
Nous Consilience 40B是一個400億參數的生成式文本模型,通過去中心化方式從零開始預訓練,支持多種語言,代表人類多元創造性產出。
Nous Consilience 40B 是一個通過互聯網以去中心化方式預訓練的生成式文本模型,代表人類廣泛多樣的創造性成果。
Nous Consilience 40B 是一個400億參數的生成式文本模型,通過去中心化方式從零開始預訓練,支持多種語言,旨在代表人類廣泛的創造性產出。
QwQ-32B-ArliAI-RpR-v3是基於QwQ-32B微調的推理模型,專注於角色扮演和創意寫作,具有出色的創造力和長對話連貫性。
ayazfau
基於GPT-2進行微調的詩歌生成模型,使用強化學習在古騰堡詩歌語料庫上訓練,針對詩歌生成進行了優化,在韻律、連貫性和創造性等風格特性上表現出色。
Tarek07
本項目通過融合多個70B規模的預訓練語言模型,旨在創造出性能更優的語言模型。以Llama 3.3指令模型為基礎,運用Linear DELLA融合方法進行模型融合。
EVA-UNIT-01
EVA LLaMA 3.33 70B v0.1 是一個專注於角色扮演和故事寫作的專業大語言模型,基於Llama-3.3-70B-Instruct進行全參數微調。通過使用合成數據與自然數據的混合訓練集,該模型在通用性、創造性和獨特風格方面有顯著提升,特別擅長長上下文理解和減少重複內容。
EVA LLaMA 3.33 70B v0.0 是一款專注於角色扮演和故事創作的專業大語言模型,基於 Llama-3.3-70B-Instruct 進行全參數微調,使用了合成數據和自然數據的混合數據集,顯著提升了模型的通用性、創造性和獨特風格。
Llama-3.1-8B-ArliAI-RPMax-v1.1是基於Meta-Llama-3.1-8B的變體模型,專注於創意寫作和角色扮演任務。該模型在精心策劃的多樣化數據集上訓練,強調去重和創造性,能夠適應各種角色和情境,具有高度非重複性的特點。
Sao10K
基於Llama 3的多模型融合方案,平衡創造力與邏輯性,適用於角色扮演和通用任務
DeepLucid3D UCPF服務器是一個基於統一認知處理框架的MCP服務,提供高級認知分析、創造性問題解決和結構化思維工具。
CAN MCP服務器通過並行激活網絡實現關聯思維,採用概念節點網絡和激活傳播機制替代傳統順序思考,適用於創造性問題解決和多視角分析。
基於Gemini API的深度思考與分析服務器,提供多角度問題分析、批判性與創造性思維整合、代碼質量評估及優化建議,支持技術決策與解決方案設計。