Googles Veröffentlichung des Gemini 1.5 Pro-Modells mit einer Kontextlänge von 10 Millionen Token hat eine Branchendebatte über die Zukunft der RAG-Technologie ausgelöst. Einige glauben, dass die Eingabe langer Texte RAG ersetzen könnte, während andere der Meinung sind, dass RAG weiterhin eine wichtige Rolle spielen wird. Googles Vorsprung in Sachen Rechenleistung ermöglicht es dem Unternehmen, bei der Erforschung der Kontextlänge führend zu sein, was sich möglicherweise auf einige Start-ups auswirken wird.