Apple hat sein eigenes großes Sprachmodell MM1 vorgestellt, ein multimodales LLM mit bis zu 30 Milliarden Parametern. Durch Pretraining und SFT (Supervised Fine-Tuning) erreicht MM1 in mehreren Benchmark-Tests Spitzenleistungen und zeigt überzeugende Eigenschaften wie In-Context-Vorhersagen, Multi-Image-Inferenz und Few-Shot-Learning.