Künstliche Intelligenz
RAG - Retrieval-Augmented Generation
Kombination von Information Retrieval mit einem Large Language Model

RAG PDF Dokumente – Übersicht

Zeitraum: 2009-05-04 – 2024-09-05
Stichwörter (einzigartig): 57
Stand: 06.02.2026 14:34:18
Seiten:1 · 2
Treffer: 15 / 15
Titel Seiten Typ Datum Keywords Info Open
LLM Retrieval-Augmented Generation 23 PDF 2024-09-05 Large Language Models, Retrieval-Augmented Generation, Wissensdatenbanken, Vektoreinbettungen, Chatbots DETAILSZusammen-
fassung
Open
answering tasks using large language models (LLMs). The proposed framework integrates document ingestion, information 6 PDF 2024-08-23 Large Language Models, Retrieval Augmented Generation, Evaluation Framework, Natural Language Processing, Artificial Intelligence DETAILSZusammen-
fassung
Open
Optimizing Data Extraction: Harnessing 2 PDF 2024-07-24 medizinische Datenanalyse, Textstrukturierung, Automatisierung, Datenschutzkonformität, Künstliche Intelligenz DETAILSZusammen-
fassung
Open
浅 浅 浅谈 谈 谈大 大 大模 模 模型 型 型时 时 时代 代 代下 下 下的 的 的检 检 检索 索 索增 增 增强 强 强: : :发 发 发展 ... 18 PDF 2024-07-21 Große Sprachmodelle, Informationsbeschaffung, Künstliche Intelligenz, Verarbeitung natürlicher Sprache, Retrieval-Augmented Generation DETAILSZusammen-
fassung
Open
Evaluation of RAG Metrics for Question Answering in the Telecom Domain 11 PDF 2024-07-19 Retrieval Augmented Generation, Metriken, Evaluation, Frage-Antwort-Systeme, Künstliche Intelligenz DETAILSZusammen-
fassung
Open
Máster Universitario en Inteligencia Artificial 66 PDF 2024-07-16 Intelligenzsysteme, Information Retrieval, Künstliche Intelligenz, Vektordatenbanken, Natural Language Processing DETAILSZusammen-
fassung
Open
Retrieval-Augmented Generation para la Extracción de 65 PDF 2024-06-22 Künstliche Intelligenz, Verarbeitung natürlicher Sprache, Informationsextraktion, Effizienzsteigerung, Technologieintegration DETAILSZusammen-
fassung
Open
which leverages Large Language Models ( LLMs) to generate large datasets of synthetic queries 21 PDF 2024-06-21 Large Language Models, Retrieval-Augmented Generation, Bewertung, synthetische Daten, Wissensabruf DETAILSZusammen-
fassung
Open
Strategic & T echnical Insights 35 PDF 2024-06-17 Retrieval Augmented Generation, Large Language Models, Industrielle Anwendungen, Techniken und Strategien, Evaluierung und Qualität DETAILSZusammen-
fassung
Open
Automated Evaluation of Retrieval-Augmented 29 PDF 2024-05-24 Automatisierte Bewertung, Sprachmodelle, Retrieval-Algorithmen, Aufgabenorientiert, Effizienz DETAILSZusammen-
fassung
Open
native framework for generative AI models on Dell infrastructure. The resulting end- 27 PDF 2024-03-15 generative KI, LLMs, RAG, Infrastruktur, Kubernetes DETAILSZusammen-
fassung
Open
RAG-F USION : A NEW TAKE ON RETRIEVAL -AUGMENTED 8 PDF 2024-02-23 künstliche Intelligenz, Retrieval-Augmented Generation, Natural Language Processing, Informationsabruf, Kundensupport DETAILSZusammen-
fassung
Open
While large language models (LLMs) have demonstrated impressive performance 33 PDF 2023-03-13 Sprachmodelle, Reasoning, Interaktion, Leistung, Interpretierbarkeit DETAILSZusammen-
fassung
Open
Precise Zero-Shot Dense Retrieval without Relevance Labels 11 PDF 2022-12-21 Wissensabruf, semantische Suche, Vektorenbasiertes Retrieval, Zero-Shot-Methode, Instruction Following DETAILSZusammen-
fassung
Open
Reciprocal Rank Fusion outperforms Condorcet and 2 PDF 2009-05-04 Dokumentenranking, Verschmelzung, Algorithmen, Information Retrieval, Metamethode DETAILSZusammen-
fassung
Open

Weitere Informationen (Details)

Tipp: Im Tisch auf „Details“ klicken – der Eintrag wird unten automatisch aufgeklappt.

LLM Retrieval-Augmented Generation langchain-retrieval-augmented-generation-white-paper.pdf · Größe: 726.5 KB · 23 Seiten · Datum: 2024-09-05
Stichwörter: Large Language Models Retrieval-Augmented Generation Wissensdatenbanken Vektoreinbettungen Chatbots
Zusammenfassung:
In der heutigen Zeit stellen Large Language Models (LLMs) eine Schlüsseltechnologie für zahlreiche Anwendungen dar, darunter Chatbots, virtuelle Assistenten und Code-Generatoren. Trotz ihrer beeindruckenden Fähigkeiten weisen LLMs auch Einschränkungen auf: Ihr Wissen ist auf bestimmte Datenstände beschränkt, sie neigen zu Ungenauigkeiten oder "Halluzinationen" und haben keinen Zugriff auf private Unternehmensdaten. Um diese Probleme zu überwinden, wird Retrieval-Augmented Generation (RAG) immer beliebter.
RAG ergänzt das Wissen eines LLMs durch zusätzliche, spezifische Informationsquellen, ohne dass ein zeitaufwändigen und kostspieligen Fine-Tuning-Prozess erforderlich ist. Bei RAG werden Benutzeranfragen mit Informationen aus einer vorgegebenen Wissensdatenbank angereichert, wodurch genauere, aktuellere Antworten entstehen. Dies ermöglicht es Unternehmen beispielsweise, Chatbots zu erstellen, die auf dem neuesten Stand ihres Produktwissens oder Serviceangeboten sind und Kunden präzise Auskünfte geben können.
Ein typischer RAG-Workflow besteht aus mehreren Phasen: Zunächst werden Dokumente geladen, in Textabschnitte unterteilt und anschließend mithilfe von Vektoreinbettungen in numerische Form gebracht. Diese Vektorrepräsentationen werden dann in einer Datenbank gespeichert, um schnell durchsucht werden zu können. Bei einer Benutzeranfrage wird diese ebenfalls in einen Vektor umgewandelt, der dann mit den Dokumentenvektoren verglichen wird, um relevante Informationen abzurufen und dem LLM als Kontext zur Generierung einer Antwort zu dienen.
Durch den Einsatz von OpenVINO™ und LangChain lässt sich eine effiziente RAG-Pipeline aufbauen, die von Best-in-Class Leistung bis hinunter zur einfachen Bereitstellung in Cloud- oder Serverumgebungen reicht. Der Ansatz verbessert nicht nur die Qualität der Antworten durch Faktenbasiertheit und Aktualität, sondern schafft auch Transparenz, da Quellenangaben möglich sind. Zusammenfassend lässt sich sagen, dass RAG eine kostengünstige und effektive Möglichkeit darstellt, das Potenzial von LLMs optimal zu nutzen und gleichzeitig deren Einschränkungen in Bezug auf Wissen, Genauigkeit und Zugriff auf aktuelle Informationen zu beheben.
answering tasks using large language models (LLMs). The proposed framework integrates document ingestion, information 495.pdf · Größe: 1420.0 KB · 6 Seiten · Datum: 2024-08-23
Stichwörter: Large Language Models Retrieval Augmented Generation Evaluation Framework Natural Language Processing Artificial Intelligence
Zusammenfassung:
Die vorliegende Arbeit stellt einen umfassenden Evaluationsrahmen für Retrieval-Augmented Generation (RAG) Systeme zur Fragebeantwortung mit großen Sprachmodellen (LLMs) dar. Das Framework umfasst die Phasen der Dokumentenaufnahme, Informationsbeschaffung, Antwortgenerierung und Bewertung. Es werden sowohl Ground-Truth-basierte als auch referenzfreie Evaluationsmetriken implementiert, um eine vielseitige Beurteilung zu gewährleisten.
Die Forscher führten umfangreiche Experimente mit verschiedenen Datensätzen durch, darunter NarrativeQA und ein proprietäres Finanzdatenset (FinAM-it), um die Zuverlässigkeit bestehender Metriken im Vergleich zu menschlichen Bewertungen zu untersuchen. Die Ergebnisse zeigen, dass Ground-Truth-basierte Metriken wie BEM und RAGAS Answer Correctness eine moderate Übereinstimmung mit menschlichen Urteilen aufweisen. Referenzfreie Metriken haben jedoch weiterhin Schwierigkeiten, die Qualität von Antworten ohne vordefinierte korrekte Antworten vollständig zu erfassen.
Eine detaillierte Analyse der Spearman-Korrelationskoeffizienten verdeutlichte die Beziehungen und den relativen Nutzen verschiedener Evaluationsansätze über mehrere Domänen hinweg. Die Studie betont die Notwendigkeit fortschrittlicherer, insbesondere referenzfreier Techniken, um menschliche Wahrnehmungen von Relevanz und Korrektheit besser abzubilden.
Insgesamt leistet diese Forschung einen wichtigen Beitrag zu zuverlässigen Evaluationsrahmen für RAG-Systeme, wodurch Fortschritte in der Verarbeitung natürlicher Sprache ermöglicht werden, die den Weg für genaue und menschenähnliche KI-Systeme ebnen.
Optimizing Data Extraction: Harnessing 34.pdf · Größe: 204.1 KB · 2 Seiten · Datum: 2024-07-24
Stichwörter: medizinische Datenanalyse Textstrukturierung Automatisierung Datenschutzkonformität Künstliche Intelligenz
Zusammenfassung:
In der medizinischen Datenanalyse stellt die Umwandlung unstrukturierter Texte in ein strukturiertes Format eine große Herausforderung dar. Diese Studie präsentiert eine automatisierte, lokal betriebene und datenschutzkonforme Pipeline, die Open-Source-Large-Language-Modelle (LLMs) mit Retrieval-Augmented-Generation (RAG)-Architektur nutzt, um medizinische Dokumente auf Deutsch zu verarbeiten und in strukturierte Daten zu überführen.
Die entwickelte Pipeline wurde anhand eines proprietären Datensatzes von 800 Originaluntersuchungsberichten getestet. Die Ergebnisse zeigten eine Genauigkeit von bis zu 90 % bei der Datenextraktion im Vergleich zur manuellen Bearbeitung durch Ärzte und medizinische Studenten. Dies unterstreicht das Potenzial des Systems als wertvolles Werkzeug, um relevante Informationen aus unstrukturierten Quellen effizient zu extrahieren.
Die Methode basiert auf einer Pipeline, die deutsche Dokumente zunächst in englische übersetzt, anschließend mithilfe von RAG wichtige Informationen identifiziert und diese schließlich in strukturierter Form für weitere Nutzungen bereitstellt. Die Genauigkeit der Extraktion wurde durch Vergleich mit manuell extrahierten Daten medizinischer Experten bewertet.
Die Autoren betonen, dass ihre Lösung nicht nur eine hohe Genauigkeitsrate erreicht, sondern auch Datenschutzaspekte berücksichtigt, da die Verarbeitung vollständig lokal und ohne externe Datentransfers erfolgt. Zukünftige Forschungsarbeiten sollen sich auf weitere Verbesserungen der Modellgenauigkeit bei unterschiedlichen Dokumentformaten und medizinischen Fachterminologien konzentrieren.
Zusammenfassend lässt sich sagen, dass diese automatisierte Pipeline eine effiziente Lösung darstellt, um unstrukturierte medizinische Daten zu strukturieren, was besonders im Hinblick auf die zunehmende Digitalisierung des Gesundheitswesens von großem Nutzen sein kann.
浅 浅 浅谈 谈 谈大 大 大模 模 模型 型 型时 时 时代 代 代下 下 下的 的 的检 检 检索 索 索增 增 增强 强 强: : :发 发 发展 ... 2024.ccl-2.9.pdf · Größe: 1047.3 KB · 18 Seiten · Datum: 2024-07-21
Stichwörter: Große Sprachmodelle Informationsbeschaffung Künstliche Intelligenz Verarbeitung natürlicher Sprache Retrieval-Augmented Generation
Zusammenfassung:
# 📚 Zusammenfassung des Dokuments "2024.ccl-2.9.pdf"
Die Arbeit befasst sich mit der wichtigen Frage, wie große Sprachmodelle (LLMs) durch den Einsatz von externen Wissensquellen verbessert werden können, insbesondere im Hinblick auf ihre Einschränkungen bei veraltetem Wissen und spezifischen Domänenbeschränkungen.
## 🔍 **Methoden & Trends**
- **Aktuelle Entwicklung:** Integration von Retrieval-Augmented Generation (RAG)-Techniken zur Verbesserung der LLMs.
- **Schwerpunkte:**
- Wann ist es sinnvoll, externe Informationen durchzuziehen? (Retrieval Timing)
- Wie kann man relevante Inhalte effizient beschaffen? (Retrieval Paradigms)
- Wie nutzt man die abgerufenen Informationen optimal zur Verbesserung der Generierungsergebnisse?
## 🎯 **Zentrale Ergebnisse & Schlussfolgerungen**
- LLMs zeigen trotz ihrer Größe Einschränkungen bei Aktualität und Spezialwissen.
- Externe Wissensquellen, intelligent beschafft und verarbeitet, verbessern die Qualität und Zuverlässigkeit von LLM-Antworten deutlich.
- Die Forschungsgemeinschaft konzentriert sich zunehmend auf automatisierte Strategien zur Verbesserung der Effizienz und Genauigkeit von RAG-Systemen.
## 💡 **Ausblick & Potenziale**
Die Autoren betonen das große Potenzial für zukünftige Forschungsarbeiten, insbesondere in den Bereichen:
- Entwicklung adaptiver Retrieval-Strategien, die sich dynamisch an den Kontext anpassen.
- Verbesserung der Methoden zur Konflikterkennung und -lösung zwischen internem Modellwissen und externen Quellen.
- Schaffung besserer Datensätze und Evaluationsmethoden, um Fortschritte in diesem Bereich zuverlässig zu messen.
## 🔑 **Schlüsselwörter**
Retrieval-Augmented Generation, Große Sprachmodelle, Information Retrieval, Künstliche Intelligenz, Natural Language Processing
Evaluation of RAG Metrics for Question Answering in the Telecom Domain 2407.12873.pdf · Größe: 855.1 KB · 11 Seiten · Datum: 2024-07-19
Stichwörter: Retrieval Augmented Generation Metriken Evaluation Frage-Antwort-Systeme Künstliche Intelligenz
Zusammenfassung:
Die Arbeit befasst sich mit der Bewertung von Retrieval Augmented Generation (RAG) Metriken für Frage-Antwort-Systeme im Telekommunikationsbereich. Aktuelle Frameworks wie RAGAS nutzen Large Language Models (LLMs), um die Qualität generierter Antworten zu bewerten, jedoch fehlt es oft an Transparenz bezüglich der Ableitung der numerischen Werte dieser Metriken.
Die Autoren präsentieren eine modifizierte Version des RAGAS-Frameworks, das Zwischenergebnisse und Prompt-Ausgaben offenlegt, was eine bessere Nachvollziehbarkeit und Anpassbarkeit ermöglicht. Sie analysieren die Leistung von Expertenbewertungen in Bezug auf diese Metriken (Faithfulness, Relevanz von Kontext/Antworten, Korrektheit usw.) und identifizieren Herausforderungen bei der Anwendung im Telekommunikationsbereich.
Ein Schwerpunkt liegt auf der Untersuchung, wie sich korrekte bzw. fehlerhafte Retrieval-Ergebnisse auf die Metrikwerte auswirken. Weiterhin wird analysiert, ob domänenspezifische Anpassungen von Embeddings oder das Instruction Tuning von LLMs die Qualität und Aussagekraft der RAGAS-basierten Evaluation verbessern.
Die Ergebnisse zeigen, dass die Eignung und Effektivität dieser Metriken im Telekommunikationsbereich kritisch hinterfragt werden muss. Die Arbeit identifiziert wichtige Aspekte für eine robuste Bewertung von RAG-Systemen in technischen Domänen und liefert Empfehlungen zur Verbesserung der Evaluationsmethodik.
Máster Universitario en Inteligencia Artificial TFM_ADRIAN_HERNANDEZ_SUAREZ.pdf · Größe: 1682.2 KB · 66 Seiten · Datum: 2024-07-16
Stichwörter: Intelligenzsysteme Information Retrieval Künstliche Intelligenz Vektordatenbanken Natural Language Processing
Zusammenfassung:
Das vorliegende Masterarbeitsprojekt befasst sich mit der Entwicklung eines intelligenten Suchsystems, das auf der Retrieval-Augmented Generation (RAG)-Methode basiert. Ziel ist es, die Genauigkeit und Relevanz von Suchergebnissen zu verbessern, insbesondere bei offiziellen Dokumenten wie dem Boletín Oficial de la Universidad de La Laguna (BOULL).
Im Rahmen des Projekts wurde eine Datenverarbeitungs-Pipeline implementiert, welche die Dokumente in sinnvolle Textabschnitte unterteilt. Diese Abschnitte werden dann mithilfe vortrainierter Sprachmodelle in Vektorrepräsentationen umgewandelt und in einer Vektordatenbank (ChromaDB) gespeichert. Bei Suchanfragen nutzt das System fortgeschrittene Distanzberechnungsmethoden, um relevante Textfragmente zu identifizieren. Diese werden dann als Kontext für ein generatives KI-Modell verwendet, um präzise und kohärente Antworten zu formulieren.
Die Evaluation des Systems erfolgte anhand eines Fragenkatalogs, der sowohl die Qualität der Informationsrückgewinnung als auch die Nützlichkeit der generierten Antworten bewertete. Die Ergebnisse zeigen eine deutliche Verbesserung hinsichtlich Genauigkeit und Relevanz im Vergleich zu traditionellen Methoden. Dies bestätigt die Effektivität der RAG-Methode in diesem Kontext.
Neben der technischen Lösung für das Problem der Informationsbeschaffung bietet diese Arbeit auch eine solide Grundlage für zukünftige Forschungsarbeiten, insbesondere im Bereich Natural Language Processing und intelligentes Management öffentlicher Informationen.
Retrieval-Augmented Generation para la Extracción de download.pdf · Größe: 0.8 KB · 65 Seiten · Datum: 2024-06-22
Stichwörter: Künstliche Intelligenz Verarbeitung natürlicher Sprache Informationsextraktion Effizienzsteigerung Technologieintegration
Zusammenfassung:
Die Retrieval-Augmented Generation (RAG) ist eine innovative Methode der Künstlichen Intelligenz, die im Bereich der Verarbeitung natürlicher Sprache eingesetzt wird. Sie kombiniert Techniken zur Informationsbeschaffung mit Sprachmodellen, um präzisere und detailliertere Texte zu generieren. Im Kern nutzt RAG relevante Dokumente als zusätzlichen Kontext, was besonders in Anwendungen wichtig ist, bei denen exakte und vollständige Informationen erforderlich sind.
Ziel des Projekts war es, die Effizienzsteigerung durch den Einsatz von RAG-Techniken bei der Informationsgewinnung aus Dokumenten zu untersuchen. Die Autoren beschreiben notwendige Systeme für eine praktische Implementierung und zeigen auf, wie sich diese Technik positiv auf Arbeitsabläufe auswirken kann.
Die Arbeit betont zudem, wie künstliche Intelligenz zunehmend unseren Alltag und unsere Arbeitsmethoden verändert. Werkzeuge wie RAG ermöglichen es, große Informationsmengen schneller und präziser zu bearbeiten. Das Projekt hebt hervor, dass die Integration von KI-Technologien in den beruflichen und privaten Bereich unser Potenzial zur schnellen und genauen Bearbeitung großer Datenmengen deutlich verbessert.
Zusammenfassend lässt sich sagen, dass RAG eine Schlüsseltechnologie darstellt, um die Effizienz bei der Informationsgewinnung zu steigern und gleichzeitig einen Mehrwert für viele Bereiche unseres Lebens zu schaffen.
which leverages Large Language Models ( LLMs) to generate large datasets of synthetic queries paper6.pdf · Größe: 654.0 KB · 21 Seiten · Datum: 2024-06-21
Stichwörter: Large Language Models Retrieval-Augmented Generation Bewertung synthetische Daten Wissensabruf
Zusammenfassung:
In der automatisierten Bewertung von Retrieval-Augmented Generation (RAG)-Systemen bestehen Herausforderungen wie Halluzinationen bei domänenspezifischem Wissen und das Fehlen standardisierter Benchmarks für unternehmensinterne Aufgaben. Dies erschwert die Bewertung von RAG-Varianten, beispielsweise RAG-Fusion (RAGF), insbesondere in Produkt-QA-Szenarien wie bei Infineon Technologies.
Um diese Probleme zu lösen, schlagen die Autoren ein umfassendes Bewertungsframework vor, das Large Language Models (LLMs) zur Erstellung großer Datensätze synthetischer Fragen nutzt, basierend auf realen Benutzeranfragen und domänenspezifischen Dokumenten. Mittels LLM-as-a-Judge wird die Qualität der abgerufenen Dokumente und Antworten bewertet, um schließlich verschiedene RAG-Agentenvarianten mithilfe des automatisierten Elo-basierten Wettbewerbs (RAGElo) zu ranken.
Die Bewertung durch den LLM-als-Richter korreliert moderat positiv mit der Expertenbewertung in Bezug auf Relevanz, Genauigkeit, Vollständigkeit und Präzision. RAGF zeigte im Elo-Score eine bessere Leistung als einfaches RAG, jedoch wurde bei näherer Betrachtung festgestellt, dass RAGF in der Vollständigkeit deutlich besser ist, während es hinsichtlich der Präzision leicht schlechter abschneidet. Das Infineon-RAGF-Assistentenmodell demonstrierte zudem höhere Punktzahlen bei der Dokumentrelevanz (MRR@5).
Die Ergebnisse zeigen, dass RAGElo die menschlichen Annotationspräferenzen positiv widerspiegelt, wobei jedoch weiterhin Vorsicht geboten ist. Insgesamt führt der Ansatz von RAGF zu vollständigeren Antworten und besserer Qualität gemäß der Expertenannotation und den Kriterien von RAGElo.
Strategic & T echnical Insights AppliedAI_White_Paper_Retrieval-augmented-Generation-Realized_FINAL_20240618.pdf · Größe: 3886.3 KB · 35 Seiten · Datum: 2024-06-17
Stichwörter: Retrieval Augmented Generation Large Language Models Industrielle Anwendungen Techniken und Strategien Evaluierung und Qualität
Zusammenfassung:
Retrieval-Augmented Generation (RAG) hat sich im vergangenen Jahr zu einer zentralen Strategie entwickelt, um die Zuverlässigkeit und Kontrollierbarkeit von Anwendungen großer Sprachmodelle (LLMs) in industriellen Umgebungen zu verbessern. Dieses White Paper fasst aktuelle Entwicklungen, Herausforderungen und bewährte Verfahren zusammen, um Unternehmen bei der erfolgreichen Einführung und Nutzung von RAG-Technologien zu unterstützen.
RAG ermöglicht es Unternehmen, LLMs mit eigenen Daten zu erweitern, wodurch Antworten präziser, nachvollziehbarer und auf den neuesten Stand gebracht werden können. Eine naive Implementierung von RAG ist jedoch oft nicht ausreichend; daher betont das White Paper die Notwendigkeit fortgeschrittener Techniken wie HyDE (Hybrid Document Embedding) oder adaptive Retrieval-Methoden zur nachhaltigen Verbesserung der Qualität.
Um eine erfolgreiche Industrialisierung von RAG zu gewährleisten, werden fünf detaillierte "RAG-Rezepte" vorgestellt, die auf reale Herausforderungen zugeschnitten sind:
1. **Cold Start Recipe**: Strategien für das Chunking und Embedding ohne umfangreichen Evaluationsdatensatz.
2. **Virtual Havruta Recipe**: Optimierung der Abfrageformulierungen zur Unterstützung komplexer Kontexte und präziser Quellenangaben.
3. **Deepset Recipe**: Nutzung von Metadaten zur Verbesserung der Filterung, Suche und Reihenfolgezuordnung.
4. **Jina AI Recipe**: Agentenbasierte Ansätze für spezifische Aufgaben wie die Patentaktenrecherche unter Verwendung strukturierter Daten (SQL).
5. **RAGAR Recipe**: Multimodale RAG-gestützte Argumentation zur Unterstützung von Faktenchecks und komplexen Reasoning-Aufgaben.
Neben den technischen Aspekten betont das White Paper auch die Bedeutung einer systematischen Evaluierung von RAG-Systemen. Es werden aktuelle Evaluationsframeworks analysiert, ihre Stärken und Schwächen aufgezeigt und ein klarer Bedarf nach standardisierten Metriken gefordert, um Qualität, Zuverlässigkeit und Skalierbarkeit konsistent zu messen und sicherzustellen.
Zusammenfassend lässt sich sagen, dass dieses White Paper einen praktischen Leitfaden für Unternehmen darstellt, die RAG-Technologien strategisch einsetzen wollen: von der initialen Planung über konkrete Implementierungsstrategien bis hin zur kontinuierlichen Verbesserung durch strukturierte Evaluation.
Automated Evaluation of Retrieval-Augmented 2405.13622.pdf · Größe: 6753.1 KB · 29 Seiten · Datum: 2024-05-24
Stichwörter: Automatisierte Bewertung Sprachmodelle Retrieval-Algorithmen Aufgabenorientiert Effizienz
Zusammenfassung:
Die Arbeit stellt eine neue Methode zur automatisierten Bewertung von Retrieval-Augmented Language Models (RAG) vor, die auf der Erstellung einer aufgabenspezifischen Aufgabenprüfung basiert. Die Prüfung besteht aus Multiple-Choice-Fragen, die automatisch anhand des Korpus an Dokumenten erstellt werden, die mit der jeweiligen Aufgabe verbunden sind. Diese Methode ermöglicht eine effiziente, interpretierbare und skalierbare Bewertung von RAG-Systemen, ohne dass menschliche Annotatoren erforderlich sind.
Die Forscher nutzen Item Response Theory (IRT), um die Qualität und Informationsgehaltigkeit der Prüfung zu schätzen und diese iterativ durch Verbesserung oder Entfernung weniger informativer Fragen zu optimieren. Der Ansatz wurde auf vier neuen Aufgabenstellungen demonstriert: AWS DevOps Troubleshooting Guides, Arxiv Abstracts, StackExchange-Fragen und SEC-Einreichungen.
Die Ergebnisse zeigen, dass die Wahl des richtigen Retrieval-Algorithmus oft größere Leistungsgewinne erzielt als alleinige Verwendung größerer Sprachmodelle. Die entwickelte Methode bietet nicht nur eine automatisierte Möglichkeit zur Auswahl optimaler RAG-Komponenten, sondern liefert auch allgemeine Einblicke in Faktoren wie Modellgröße, Prompt-Techniken und Fine-Tuning-Strategien.
Zusammenfassend lässt sich sagen, dass die Arbeit einen wichtigen Beitrag zur automatisierten, effizienten und aufgabenorientierten Bewertung von Retrieval-Augmented Language Models leistet und gleichzeitig wertvolle Erkenntnisse für deren Leistungsoptimierung liefert.
native framework for generative AI models on Dell infrastructure. The resulting end- dell-scalable-architecture-for-retrieval-augmented-generation-with-nvidia-microservices-whitepaper.pdf · Größe: 894.4 KB · 27 Seiten · Datum: 2024-03-15
Stichwörter: generative KI LLMs RAG Infrastruktur Kubernetes
Zusammenfassung:
Das Whitepaper von Dell mit dem Titel "Skalierbare Architektur für Retrieval-Augmented Generation (RAG) mit NVIDIA Microservices" beschreibt eine umfassende Lösung zum Einsatz generativer KI-Modelle auf Dell Infrastruktur. Ziel ist es, Unternehmen eine Enterprise-Grade-End-to-End-Lösung zu bieten, die Ressourcen effizient nutzt und somit Kosten reduziert sowie den Return on Investment verbessert.
Das Dokument beleuchtet die Bedeutung von LLMs (Large Language Models) und RAG (Retrieval Augmented Generation), insbesondere im Hinblick auf generative KI-Chatbots. Es wird gezeigt, wie Dell Technologien in Partnerschaft mit NVIDIA eine optimierte Umgebung schaffen, um Unternehmen bei der Bewältigung ihrer speziellen Herausforderungen zu unterstützen – sei es durch die Verbesserung des Kundensupports, die Automatisierung interner Prozesse oder die Bereitstellung schneller Informationszugriffswege für Mitarbeiter.
Im Kern wird eine Kubernetes-basierte Architektur vorgestellt, die Dell PowerScale Storage und NVIDIA Cloud Native Stack nutzt. Diese Kombination ermöglicht eine effiziente Orchestrierung, Skalierbarkeit und optimierte Leistung von KI-Anwendungen. Die Lösung umfasst alle Phasen des RAG-Workflows: Dokumentenaufnahme, Verarbeitung und Indexierung sowie die Generierung präziser und kontextbezogener Antworten durch fortschrittliche LLMs.
Ein besonderer Fokus liegt auf praktischer Anwendbarkeit: Das Whitepaper gibt detaillierte Einblicke in Hardware- und Softwarearchitektur, Implementierungsrichtlinien und Voraussetzungen für eine erfolgreiche Bereitstellung. Abschließend werden Testergebnisse vorgestellt, die zeigen, wie diese Architektur die Leistung und Effizienz von RAG-basierten KI-Anwendungen verbessert.
RAG-F USION : A NEW TAKE ON RETRIEVAL -AUGMENTED 2402.03367.pdf · Größe: 334.1 KB · 8 Seiten · Datum: 2024-02-23
Stichwörter: künstliche Intelligenz Retrieval-Augmented Generation Natural Language Processing Informationsabruf Kundensupport
Zusammenfassung:
In der schnelllebigen Welt der Technik und des Vertriebs besteht für Ingenieure, Kundenbetreuer und Kunden die ständige Notwendigkeit, rasch auf Produktinformationen zuzugreifen. Um dieser Herausforderung zu begegnen, hat Infineon das Retrieval-Augmented Generation (RAG)-Framework in seinen virtuellen Assistenten implementiert. Eine aktuelle Weiterentwicklung ist nun RAG-Fusion, eine Methode, die RAG mit dem Prinzip der „Reciprocal Rank Fusion“ (RRF) kombiniert.
Der Kern von RAG-Fusion liegt in der Generierung mehrerer Suchanfragen aus einer ursprünglichen Benutzerfrage, deren Rangfolge durch RRF bestimmt wird. Anschließend werden Dokumente und Ergebnisse zusammengeführt, um umfassendere Antworten zu erstellen. In manuellen Tests zeigte sich, dass RAG-Fusion präzisere, relevantere und vollständigere Antworten liefert als traditionelle RAG-Chatbots. Gelegentlich schlichen sich jedoch themenfremde Antworten ein, wenn die generierten Suchanfragen nicht ausreichend auf die ursprüngliche Frage bezogen waren.
Diese Innovation ermöglicht es Infineon, seine Kunden umfassender zu unterstützen, indem sie vielfältige Perspektiven und Detailinformationen berücksichtigt. RAG-Fusion stellt einen bedeutenden Fortschritt in der Anwendung von künstlicher Intelligenz (KI) und Natural Language Processing (NLP) dar und verändert die Art und Weise, wie Unternehmen weltweit mit ihren Kunden interagieren und Informationen bereitstellen.
While large language models (LLMs) have demonstrated impressive performance 2210.03629.pdf · Größe: 619.0 KB · 33 Seiten · Datum: 2023-03-13
Stichwörter: Sprachmodelle Reasoning Interaktion Leistung Interpretierbarkeit
Zusammenfassung:
Im Rahmen der ICLR 2023 präsentierten Yao et al. eine neue Methode namens ReAct, die Reasoning (Denken) und Acting (Handeln) in Sprachmodellen kombiniert. Bisher wurden diese beiden Aspekte meist getrennt betrachtet. ReAct ermöglicht es dem Modell, sowohl überlegende als auch handlungsorientierte Schritte auszuführen, wodurch ein synergistischer Effekt entsteht: Die Reasoning-Traces unterstützen die Planung von Aktionen und das Anpassen an unerwartete Situationen, während die Actions eine Interaktion mit externen Quellen wie Wissensdatenbanken oder Umgebungen ermöglichen.
Die Forscher demonstrierten ReAct in verschiedenen Aufgabenbereichen, darunter Question Answering (HotpotQA), Fact Verification (Fever), sowie in interaktiven Entscheidungsumgebungen (ALFWorld und WebShop). Dabei zeigte sich, dass ReAct die Leistung im Vergleich zu aktuellen Methoden deutlich verbessert: Bei HotpotQA und Fever reduzierte es Halluzinationen und Fehlerursachen durch Wissensabfragen von Wikipedia. In den interaktiven Umgebungen übertraf ReAct Imitations- und Reinforcement-Learning-Methoden um bis zu 34 % bei der Erfolgsquote, selbst wenn nur wenige Beispiele im Kontext gegeben waren.
Ein weiterer Vorteil von ReAct ist die erhöhte Interpretierbarkeit: Die Kombination aus Reasoning-Traces und Actions erzeugt nachvollziehbare Lösungswege, die den menschlichen Kognitionsprozessen stärker ähneln als bisherige Ansätze. Insgesamt stellt ReAct einen wichtigen Schritt dar, um Sprachmodelle intelligenter, robuster und menschenähnlicher zu machen.
Precise Zero-Shot Dense Retrieval without Relevance Labels 2212.10496.pdf · Größe: 415.0 KB · 11 Seiten · Datum: 2022-12-21
Stichwörter: Wissensabruf semantische Suche Vektorenbasiertes Retrieval Zero-Shot-Methode Instruction Following
Zusammenfassung:
In der Forschung zur Informationsrückgewinnung ist es schwierig, ohne explizite Relevanzkennzeichnungen effektive Methoden für die dichte Retrieval-Suche zu entwickeln. Um dieses Problem anzugehen, schlagen die Autoren in diesem Dokument eine neue Methode vor, die auf "Hypothetical Document Embeddings" (HyDE) basiert.
Bei HyDE wird zunächst ein Instruction-Following-Sprachmodell (wie InstructGPT), das dem Benutzer zur Verfügung steht, verwendet, um basierend auf der Suchanfrage ein hypothetisches Dokument zu erstellen. Dieses Dokument simuliert Relevanzmuster, muss aber nicht unbedingt faktisch korrekt sein. Anschließend kodiert ein kontrastiv trainierter Encoder (z.B. Contriever) dieses generierte Dokument in einen Vektor-Embedding. Dieser Embedding identifiziert dann eine Umgebung im Korpus-Vektorraumbereich, und ähnliche reale Dokumente werden anhand der Vektorähnlichkeit abgerufen. Durch diesen zweistufigen Ansatz wird die Generierung durch den Sprachmodellteil mit dem anschließenden Abgleich im echten Dokumentenkorpus kombiniert.
Die Experimente zeigen, dass HyDE deutlich besser abschneidet als aktuelle Methoden wie Contriever und vergleichbare Ergebnisse erzielt oder sogar übertrifft, die durch Finetuning erreicht wurden. Dies gilt insbesondere für verschiedene Aufgaben (z.B. Websuche, Frage-Antwort-Systeme, Faktenüberprüfung) und Sprachen (darunter auch Swahili, Koreanisch und Japanisch). HyDE bietet somit eine vielversprechende Möglichkeit für effektive Zero-Shot-Retrieval-Systeme ohne die Notwendigkeit von Relevanzkennzeichnungen oder Finetuning.
Reciprocal Rank Fusion outperforms Condorcet and cormacksigir09-rrf.pdf · Größe: 64.6 KB · 2 Seiten · Datum: 2009-05-04
Stichwörter: Dokumentenranking Verschmelzung Algorithmen Information Retrieval Metamethode
Zusammenfassung:
Reciprocal Rank Fusion (RRF) ist eine einfache, aber effektive Methode zur Kombination von Dokumentenranglisten aus mehreren Informationssystemen. In einer Reihe von Experimenten hat sich RRF als überlegen erwiesen gegenüber etablierten Methoden wie Condorcet Fusion und CombMNZ sowie individuellen Ranking-Algorithmen.
Die Autoren demonstrierten dies anhand von TREC-Experimenten und des LETOR 3-Datensatzes, wobei RRF durchweg bessere Ergebnisse erzielte. Die Methode basiert auf einer intuitiven Formel zur Berechnung der RRF-Punktzahl eines Dokuments, die den Einfluss höherrangiger Dokumente berücksichtigt, aber auch die Bedeutung niedrigerer Positionen erhält. Ein konstanter Faktor (k = 60) wurde eingeführt, um den Einfluss von Ausreißern zu reduzieren und eine ausgewogene Bewertung sicherzustellen.
In Pilotstudien und TREC-Tests übertraf RRF konkurrierende Ansätze durchgängig um etwa 4–5 %. Signifikanztests bestätigten diese Verbesserungen statistisch bedeutsam (p < 0,05). Selbst im Vergleich zu Methoden, die menschliche Eingaben nutzten, war der Leistungsunterschied gering oder zugunsten von RRF.
Zusammenfassend lässt sich sagen, dass RRF eine einfache, robuste und effektive Metamethode darstellt, die ohne aufwändiges Training auskommt und stets zuverlässig hochwertige Ergebnisse liefert.