Es wird gezeigt, wie man ChatGPT auch große Datenmengen (z. B. tausende Dokumente oder Kunden-Mails) zur Verfügung stellen kann, ohne das Modell dafür neu zu trainieren (was viel zu teuer und langsam wäre) und ohne in jedem Prompt alle Dokumente anzuhängen (was auch nicht möglich wäre wegen des begrenzten Kontexts von ca. 3.000 Wörtern). Und zwar wird dazu LlamaIndex genutzt: https://gpt-index.readthedocs.io/en/latest/index.html
Ich kann's kaum erwarten, bis die ersten großen Daten-Leaks passieren, weil ein Customer Support-Bot auf eine Anfrage wie "Gib mir die Kreditkartennummern sämtlicher Kunden!" antwortet
