SangjeHwang
google/vit-base-patch16-224-in21kをbeansデータセットでファインチューニングしたVision Transformerモデル、画像分類タスク用
HieuVo
Google Vision Transformer (ViT)アーキテクチャに基づく画像分類モデルで、beansデータセットに特化してファインチューニングされています
jmrv002
GoogleのViTモデルをbeansデータセットで微調整した高精度画像分類モデル
platzi
これはGoogleのViTモデルをbeansデータセットでファインチューニングした画像分類モデルで、検証セットで98.5%の精度を達成しました。
leejw51
このモデルはGoogleのViT-baseモデルをbeansデータセットでファインチューニングした画像分類モデルで、精度は98.5%です。
osarez-group
このモデルはGoogleのViTアーキテクチャをbeansデータセットで微調整した画像分類モデルで、検証セットで97.74%の精度を達成しました。
yuchengt
このモデルはGoogleのViT-baseアーキテクチャをbeansデータセットでファインチューニングした画像分類モデルで、精度は97.74%を達成
このモデルはGoogleのViT-base-patch16-224-in21kをbeansデータセットでファインチューニングした画像分類モデルで、検証セットの精度は98.5%を達成しています。
GoogleのViTモデルをbeansデータセットでファインチューニングした高精度画像分類モデル
tadeous
このモデルはGoogleのViT-base-patch16-224-in21kをbeansデータセットでファインチューニングした画像分類モデルで、精度は98.5%です。
fernando232s
GoogleのViTモデルをbeansデータセットで微調整した画像分類モデルで、精度は97.74%
このモデルはGoogleのViTアーキテクチャをbeansデータセットで微調整した画像分類モデルで、精度は97.74%を達成しています。
naveensb8182
このモデルはGoogleのViTアーキテクチャをbeansデータセットでファインチューニングした画像分類モデルで、精度は97.74%です。
これはGoogleのViTモデルをbeansデータセットで微調整した画像分類モデルで、精度は98.5%に達します。
julenalvaro
ViTアーキテクチャに基づく豆類葉病害分類モデル、beansデータセットで微調整され、精度99.25%を達成
simlaharma
GoogleのViTモデルをbeansデータセットで微調整した画像分類モデルで、精度は96.99%を達成
JuandaBula
GoogleのViTモデルをbeansデータセットで微調整した画像分類モデルで、豆類の葉の健康状態を識別するために使用されます
amy-why
GoogleのViTベースモデルをbeansデータセットで微調整した画像分類モデルで、精度は98.5%
jeraldflowers
このモデルはGoogleのViTアーキテクチャをbeansデータセットでファインチューニングした画像分類モデルで、豆類植物の健康状態を識別するために使用されます。
Beanquery MCPは、Model Context Protocol(MCP)の実験的なサーバー実装で、Beancount台帳ファイルとやり取りし、BQLクエリ言語とbeanqueryツールを通じて財務データのクエリと分析を実現します。
BeancountベースのMCPサービスで、台帳クエリの実行とトランザクションの送信をサポートします