前OpenAI首席科學家Andrej Karpathy利用AI技術對2015年Hacker News的930條討論進行自動評分,實驗展示了AI分析歷史公共表達的能力,並引發對未來網絡討論質量的思考。
AI專家Andrej Karpathy在訪談中指出,當前智能體如Claude和Codex雖令人驚歎,但距離真正實用還需十年。它們更像缺乏經驗的多模態實習生,AGI成熟度仍待提升。
特斯拉前高管Andrej Karpathy評論開源OCR論文時提出,圖像可能比文本更適合作爲大語言模型的輸入方式。他認爲當前文本token輸入效率低下,建議未來研究轉向圖像輸入,這一觀點在AI社區引發熱議。
OpenAI聯合創始人Andrej Karpathy認爲,當前AI智能體仍處早期階段,預計需十年才能成熟。他指出現有智能體功能有限、智能水平不足,缺乏多模態能力,無法操作電腦或持續學習,且記憶用戶信息能力欠缺。
深入理解語言模型中的標記化過程
Karpathy推出的用於BPE算法的簡潔代碼項目
onnx-community
nanochat-d32是一個輕量級聊天模型,專門針對ONNX運行時進行了優化,提供了高效的文本生成能力。該模型基於karpathy的nanochat-d32模型轉換而來,支持在JavaScript環境中運行。
rhysjones
該模型源自karpathy的llm.c項目,為研究bfloat16性能而轉換為HuggingFace格式,訓練過程消耗了1500億token。
karpathy
該模型是一個基於transformers庫的模型,具體用途和功能需要進一步信息確認。
在FineWeb-EDU數據集上訓練的GPT-2模型,展現自然語言處理能力