speakleash
これはBielik-1.5B-v3.0-Instructモデルを基にしたFP8動的量子化バージョンで、vLLMまたはSGLang推論フレームワークに適応しています。AutoFP8量子化技術により、パラメータのビット数を16ビットから8ビットに削減し、ディスク容量とGPUメモリ要件を大幅に削減しました。