Le modèle Gemini 1.5 Pro, lancé par Google, porte la longueur du contexte à 10 millions de jetons, ce qui a suscité un débat au sein de l'industrie sur l'avenir de la technologie RAG (Retrieval Augmented Generation). Certains pensent qu'une entrée de texte longue pourrait remplacer le RAG, tandis que d'autres estiment que le RAG continuera à jouer un rôle important. L'avantage de Google en termes de puissance de calcul lui permet de prendre de l'avance sur les autres entreprises dans l'exploration de la longueur du contexte, ce qui pourrait avoir un impact sur certaines startups.
La longueur de contexte des modèles atteint 10 000 000 : la fin pour une nouvelle vague de startups ?

品玩
Cet article provient d'AIbase Daily
Bienvenue dans la section [AI Quotidien] ! Voici votre guide pour explorer le monde de l'intelligence artificielle chaque jour. Chaque jour, nous vous présentons les points forts du domaine de l'IA, en mettant l'accent sur les développeurs, en vous aidant à comprendre les tendances technologiques et à découvrir des applications de produits IA innovantes.