世界のAIイノベーションの瞬間をお見逃しなく
毎日の3分AI業界トレンド
AI業界のマイルストーン
すべてのAIハードウェアをリストアップします。
AIマネタイズ事例の共有
AI画像生成マネタイズ事例
AIビデオ生成マネタイズ事例
AIオーディオ生成マネタイズ事例
AIコンテンツ作成マネタイズ事例
最新のAIチュートリアルを無料で共有
AIウェブサイトの総訪問数ランキングを表示
トラフィックによる最も急速に成長しているAIウェブサイトを追跡
トラフィックが大幅に減少しているAIウェブサイトに焦点を当てる
AIウェブサイトの週間訪問数ランキングを表示
米国のユーザーに最も人気のあるAIウェブサイト
中国のユーザーに最も人気のあるAIウェブサイト
インドのユーザーに最も人気のあるAIウェブサイト
ブラジルのユーザーに最も人気のあるAIウェブサイト
AI画像生成ウェブサイトの総訪問数ランキング
AIパーソナルアシスタントウェブサイトの総訪問数ランキング
AIキャラクター生成ウェブサイトの総訪問数ランキング
AIビデオ生成ウェブサイトの総訪問数ランキング
GitHubの人気のあるAIプロジェクトを総スター数でランキング
GitHubの人気のあるAIプロジェクトを成長率でランキング
GitHubの人気のあるAI開発者ランキング
GitHubの人気のあるAI組織ランキング
GitHubの人気のあるDeepseekオープンソースプロジェクト
GitHubの人気のあるTTSオープンソースプロジェクト
GitHubの人気のあるLLMオープンソースプロジェクト
GitHubの人気のあるChatGPTオープンソースプロジェクト
GitHubの人気のあるAIオープンソースプロジェクトの概要
High-Performance Transformers for Table Structure Recognition Need Early Convolutions
??? 60+ Implementations/tutorials of deep learning papers with side-by-side notes ?; including transformers (original, xl, switch, feedback, vit, ...), optimizers (adam, adabelief, sophia, ...), gans(cyclegan, stylegan2, ...), ? reinforcement learning (ppo, dqn), capsnet, distillation, ... ?
Unified Efficient Fine-Tuning of 100+ LLMs & VLMs (ACL 2024)
Implementation of Vision Transformer, a simple way to achieve SOTA in vision classification with only a single transformer encoder, in Pytorch
DocsGPT is an open-source genAI tool that helps users get reliable answers from knowledge source, while avoiding hallucinations. It enables private and reliable information retrieval, with tooling and agentic system capability built in.
RWKV (pronounced RwaKuv) is an RNN with great LLM performance, which can also be directly trained like a GPT transformer (parallelizable). We are at RWKV-7 "Goose". So it's combining the best of RNN and transformer - great performance, linear time, constant space (no kv-cache), fast training, infinite ctx_len, and free sentence embedding.
Machine Learning Engineering Open Book
State-of-the-art Machine Learning for the web. Run ? Transformers directly in your browser, with no need for a server!
Ongoing research training transformer models at scale
This repository contains demos I made with the Transformers library by HuggingFace.
An implementation of model parallel GPT-2 and GPT-3-style models using the mesh-tensorflow library.