Vicuna AI favicon
Vicuna AI

Vicuna AI

Vicuna: Ein Open-Source-Chatbot, der GPT-4 mit 90 %* ChatGPT-Qualität beeindruckt

Zugang

Vicuna AI Details

Produktinformation

Soziale Medien

Produktbeschreibung

<p>Wir stellen Vicuna-13B vor, einen Open-Source-Chatbot, der durch die Feinabstimmung von LLaMA auf von ShareGPT gesammelten, von Benutzern geteilten Konversationen trainiert wird. Vorläufige Bewertung ...

Vicuna AI Einführung

Vicuna: Ein Open-Source-Chatbot, der GPT-4 mit 90 %* ChatGPT-Qualität beeindruckt

Überblick

Die rasante Weiterentwicklung großer Sprachmodelle (LLMs) hat Chatbot-Systeme revolutioniert und zu beispiellosen Ergebnissen geführt Intelligenzniveaus, wie sie im ChatGPT von OpenAI zu sehen sind. Doch trotz seiner beeindruckenden Leistung bleiben die Trainings- und Architekturdetails von ChatGPT unklar, was die Forschung und Open-Source-Innovation in diesem Bereich behindert. Inspiriert durch das Projekt Meta LLaMA und Stanford Alpaca stellen wir Vicuna-13B vor, einen Open-Source-Chatbot, der auf einem erweiterten Datensatz und einer benutzerfreundlichen, skalierbaren Infrastruktur basiert. Durch die Feinabstimmung eines LLaMA-Basismodells auf der Grundlage von von ShareGPT.com gesammelten von Benutzern geteilten Gesprächen hat Vicuna-13B im Vergleich zu anderen Open-Source-Modellen wie Stanford Alpaca eine wettbewerbsfähige Leistung gezeigt. Dieser Blogbeitrag bietet eine vorläufige Bewertung der Leistung von Vicuna-13B und beschreibt seine Trainings- und Serviceinfrastruktur. Wir laden die Community außerdem ein, mit unserer Online-Demo zu interagieren, um die Fähigkeiten dieses Chatbots zu testen.

Wie gut ist Vicuna?

Nach der Feinabstimmung von Vicuna mit 70.000 von Benutzern geteilten ChatGPT-Gesprächen stellen wir fest, dass Vicuna leistungsfähiger wird im Vergleich zu Alpaca (siehe Beispiele unten) detailliertere und besser strukturierte Antworten zu generieren, mit einer Qualität, die mit ChatGPT vergleichbar ist.

Online-Demo

Probieren Sie hier die Vicuna-13B-Demo aus!

Training

Vicuna entsteht durch die Feinabstimmung eines LLaMA-Basismodells unter Verwendung von etwa 70.000 von Benutzern geteilten Konversationen, die von ShareGPT.com mit öffentlichen APIs gesammelt wurden. Um die Datenqualität sicherzustellen, konvertieren wir den HTML-Code zurück in Markdown und filtern einige ungeeignete oder minderwertige Beispiele heraus. Darüber hinaus unterteilen wir längere Konversationen in kleinere Segmente, die zur maximalen Kontextlänge des Modells passen.
  • Multi-Turn-Konversationen: Wir passen den Trainingsverlust an, um Multi-Runden-Konversationen zu berücksichtigen, und berechnen den Feinabstimmungsverlust ausschließlich anhand der Ausgabe des Chatbots.
  • Speicheroptimierungen: Um Vicunas Verständnis von langen Kontexten zu ermöglichen, erweitern wir die maximale Kontextlänge von 512 in Alpaca auf 2048, was den GPU-Speicherbedarf erheblich erhöht. Wir bekämpfen den Speicherdruck durch den Einsatz von Gradient Checkpointing und Flash Attention.
  • Kostenreduzierung durch Spot-Instanz: Der 40-mal größere Datensatz und die 4-fache Sequenzlänge für das Training stellen eine erhebliche Herausforderung bei den Trainingskosten dar. Wir nutzen den von SkyPilot verwalteten Spot, um die Kosten zu senken, indem wir die günstigeren Spot-Instanzen mit automatischer Wiederherstellung für vorzeitige Unterbrechungen und automatischem Zonenwechsel nutzen. Diese Lösung senkt die Kosten für das Training des 7B-Modells von etwa 140 und des 13B-Modells von etwa 300.

Serving

Wir bauen ein Serving-System auf, das in der Lage ist, mehrere Modelle verteilt zu bedienen Arbeiter. Es unterstützt das flexible Plug-in von GPU-Workern sowohl aus lokalen Clustern als auch aus der Cloud. Durch die Verwendung eines fehlertoleranten Controllers und einer verwalteten Spot-Funktion in SkyPilot kann dieses Bereitstellungssystem gut mit günstigeren Spot-Instanzen aus mehreren Clouds zusammenarbeiten, um die Bereitstellungskosten zu senken. Es handelt sich derzeit um eine leichtgewichtige Implementierung und wir arbeiten daran, weitere unserer neuesten Forschungsergebnisse darin zu integrieren.

Wie bewertet man einen Chatbot?

Die Bewertung von KI-Chatbots ist eine herausfordernde Aufgabe, da sie die Prüfung des Sprachverständnisses, des logischen Denkens und der Argumentation erfordert. und Kontextbewusstsein. Da KI-Chatbots immer fortschrittlicher werden, reichen die aktuellen offenen Benchmarks möglicherweise nicht mehr aus. Beispielsweise kann der in Stanfords Alpaca, self-instruct, verwendete Bewertungsdatensatz effektiv von SOTA-Chatbots beantwortet werden, was es für Menschen schwierig macht, Leistungsunterschiede zu erkennen. Weitere Einschränkungen umfassen die Kontamination von Trainings-/Testdaten und die potenziell hohen Kosten für die Erstellung neuer Benchmarks. Um diese Probleme anzugehen, schlagen wir ein auf GPT-4 basierendes Bewertungsframework vor, um die Bewertung der Chatbot-Leistung zu automatisieren.

Einschränkungen

Wir haben festgestellt, dass Vicuna, ähnlich wie andere große Sprachmodelle, bestimmte Einschränkungen aufweist. Es ist beispielsweise nicht gut bei Aufgaben, die logisches Denken oder Mathematik erfordern, und es kann Einschränkungen bei der genauen Identifizierung seiner selbst oder der Sicherstellung der sachlichen Richtigkeit seiner Ergebnisse haben. Darüber hinaus wurde es nicht ausreichend optimiert, um die Sicherheit zu gewährleisten oder potenzielle Toxizität oder Verzerrungen abzuschwächen. Um die Sicherheitsbedenken auszuräumen, verwenden wir die OpenAI-Moderations-API, um unangemessene Benutzereingaben in unserer Online-Demo herauszufiltern. Dennoch gehen wir davon aus, dass Vicuna als offener Ausgangspunkt für zukünftige Forschungen zur Beseitigung dieser Einschränkungen dienen kann.

Veröffentlichung

In unserer ersten Veröffentlichung werden wir den Trainings-, Bereitstellungs- und Evaluierungscode in einem GitHub-Repo teilen: https://github.com/lm-sys/FastChat. Wir haben auch die Modellgewichte Vicuna-13B herausgebracht. Eine Veröffentlichung des Datensatzes ist nicht geplant. Treten Sie unserem Discord-Server bei und folgen Sie unserem Twitter, um die neuesten Updates zu erhalten.

Wie gut ist Vicuna?

Nach der Feinabstimmung von Vicuna mit 70.000 von Benutzern geteilten ChatGPT-Gesprächen stellen wir fest, dass Vicuna im Vergleich zu Alpaca detailliertere und besser strukturierte Antworten generieren kann (siehe Beispiele unten). ), mit einer Qualität, die mit ChatGPT vergleichbar ist.

Online-Demo

Probieren Sie die Vicuna-13B-Demo hier< aus /a>!

Überblick

Die rasante Weiterentwicklung großer Sprachmodelle (LLMs) hat Chatbot-Systeme revolutioniert und zu einem beispiellosen Maß an Intelligenz geführt, wie im ChatGPT von OpenAI zu sehen ist. Doch trotz seiner beeindruckenden Leistung bleiben die Trainings- und Architekturdetails von ChatGPT unklar, was die Forschung und Open-Source-Innovation in diesem Bereich behindert. Inspiriert durch das Projekt Meta LLaMA und Stanford Alpaca stellen wir Vicuna-13B vor, einen Open-Source-Chatbot, der auf einem erweiterten Datensatz und einer benutzerfreundlichen, skalierbaren Infrastruktur basiert. Durch die Feinabstimmung eines LLaMA-Basismodells auf der Grundlage von von ShareGPT.com gesammelten von Benutzern geteilten Gesprächen hat Vicuna-13B im Vergleich zu anderen Open-Source-Modellen wie Stanford Alpaca eine wettbewerbsfähige Leistung gezeigt. Dieser Blogbeitrag bietet eine vorläufige Bewertung der Leistung von Vicuna-13B und beschreibt seine Trainings- und Serviceinfrastruktur. Wir laden die Community außerdem ein, mit unserer Online-Demo zu interagieren, um die Fähigkeiten dieses Chatbots zu testen.

Schulung

Vicuna wird durch die Feinabstimmung eines LLaMA-Basismodells unter Verwendung von etwa 70.000 Benutzern erstellt. gemeinsame Konversationen, die von ShareGPT.com mit öffentlichen APIs gesammelt wurden. Um die Datenqualität sicherzustellen, konvertieren wir den HTML-Code wieder in Markdown und filtern einige ungeeignete oder minderwertige Beispiele heraus. Darüber hinaus unterteilen wir längere Gespräche in kleinere Segmente, die zur maximalen Kontextlänge des Modells passen.

Bereitstellung

Wir bauen ein Bereitstellungssystem auf, das in der Lage ist, mehrere Modelle mit verteilten Mitarbeitern zu bedienen. Es unterstützt das flexible Plug-in von GPU-Workern sowohl aus lokalen Clustern als auch aus der Cloud. Durch die Verwendung eines fehlertoleranten Controllers und einer verwalteten Spot-Funktion in SkyPilot kann dieses Bereitstellungssystem gut mit günstigeren Spot-Instanzen aus mehreren Clouds zusammenarbeiten, um die Bereitstellungskosten zu senken. Es handelt sich derzeit um eine einfache Implementierung und wir arbeiten daran, weitere unserer neuesten Forschungsergebnisse darin zu integrieren.

Wie So bewerten Sie einen Chatbot?

Die Bewertung von KI-Chatbots ist eine herausfordernde Aufgabe, da sie die Prüfung des Sprachverständnisses, der Argumentation und des Kontextbewusstseins erfordert. Da KI-Chatbots immer fortschrittlicher werden, reichen die aktuellen offenen Benchmarks möglicherweise nicht mehr aus. Beispielsweise kann der in Stanfords Alpaca verwendete Bewertungsdatensatz self-instruct effektiv beantwortet werden SOTA-Chatbots machen es für Menschen schwierig, Leistungsunterschiede zu erkennen. Weitere Einschränkungen umfassen die Kontamination von Trainings-/Testdaten und die potenziell hohen Kosten für die Erstellung neuer Benchmarks. Um diese Probleme anzugehen, schlagen wir ein auf GPT-4 basierendes Bewertungsframework vor, um die Leistungsbewertung von Chatbots zu automatisieren.

Einschränkungen

Wir haben festgestellt, dass Vicuna ähnlich wie andere große Sprachmodelle über diese verfügt gewisse Einschränkungen. Es ist beispielsweise nicht gut bei Aufgaben, die logisches Denken oder Mathematik erfordern, und es kann Einschränkungen bei der genauen Identifizierung seiner selbst oder der Sicherstellung der sachlichen Richtigkeit seiner Ergebnisse haben. Darüber hinaus wurde es nicht ausreichend optimiert, um die Sicherheit zu gewährleisten oder potenzielle Toxizität oder Verzerrungen abzuschwächen. Um Sicherheitsbedenken auszuräumen, verwenden wir die OpenAI- Moderations-API, um unangemessene Benutzereingaben in unserer Online-Demo herauszufiltern . Dennoch gehen wir davon aus, dass Vicuna als offener Ausgangspunkt für zukünftige Forschung zur Beseitigung dieser Einschränkungen dienen kann.

Mehr anzeigen

Vicuna AI FAQ

Vorläufige Auswertungen mit GPT-4 als Richter zeigen, dass Vicuna AI mehr als 90 % der Qualität von ChatGPT und Google Bard erreicht. Das bedeutet, dass Vicuna AI in den meisten Fällen genauso hilfreiche, relevante, genaue und detaillierte Antworten liefern kann wie ChatGPT und Bard.

Vicuna AI wurde durch Feinabstimmung eines LLaMA-Basismodells trainiert auf einem Datensatz von 70.000 von Benutzern geteilten Gesprächen, die von ShareGPT gesammelt wurden. Diese Konversationen wurden in Markdown konvertiert und vor dem Training nach Qualität gefiltert.

Vicuna AI weist wie andere große Sprachmodelle bestimmte Einschränkungen auf. Dazu gehören:
  • Schwierigkeiten im Denken und in der Mathematik
  • Potenziell ungenaue sachliche Genauigkeit
  • Eingeschränkte Sicherheitsgarantien und mögliche Toxizität oder Voreingenommenheit

Die Entwickler arbeiten daran, diese Einschränkungen durch fortlaufende zukünftige Forschung zu beheben.

Vicuna AI Website-Traffic

Besuche

DatumBesuche
2024-06-012207473
2024-07-012143625
2024-08-012099531

Metrik

MetrikWert
Absprungrate59.33%
Seiten pro Besuch1.99
Durchschnittliche Besuchsdauer177.02 s

Geographie

LandTeilen
🇨🇳

China

14.42%

🇺🇸

Vereinigte Staaten von Amerika

14.22%

🇷🇺

Russische Föderation

12.08%

🇻🇳

Vietnam

5.55%

🇩🇪

Deutschland

5.30%

Quelle

QuelleWert
Direkter Zugriff55.07%
Suche33.37%
Verweise8.26%
Soziale Medien3.06%
Bezahlte Verweise0.16%
E-Mail0.07%

Vicuna AI Alternative Produkte

View details for 绘AI
https://www.ai016.com

绘AI(opens in a new tab)

Bildgenerierung

Erstellen Sie atemberaubende Bilder mit KI-Technologie. Unsere Plattform ermöglicht es Ihnen, aus Textaufforderungen einzigartige Bilder zu generieren, was sie ideal für Designer, Künstler und Content-Ersteller macht. Probieren Sie es jetzt aus!

1.9KBesuche
42%Suche
View details for AI Art
https://aiart.chuangkit.com

AI Art(opens in a new tab)

Bildgenerierung

Die Online-Kollaborationsplattform für intelligentes Design von Maker Post ist ein Grafikdesign-Tool und eine Online-Grafikdesign-Software, die eine große Anzahl von Postervorlagen, neuen Mediengrafiken und E-Mails bereitstellt. E-Commerce-Vorlagen, Hauptbildvorlagen, Einladungen, Ankündigungen, gute Nachrichten, Logos und andere kostenlose Designmaterialien und -vorlagen – die Maker Poster AI Toolbox bietet intelligente Online-Erstellung von Postern, Ausschneiden mit einem Klick, Entfernen mit einem Klick und Entfernen von Wasserzeichen mit einem Klick , hochauflösende Bildwiederherstellung, verlustfreie Vergrößerung, intelligentes Puzzle und viele andere intelligente KI-Tools.

90.9KBesuche
7%Suche
View details for AIDesign
https://aidesign.click

AIDesign(opens in a new tab)

Text-zu-Bild-Umwandlung

Generieren Sie KI-Bilder aus Textbeschreibungen und mehr Text in Bilder

View details for MagicShot.ai
https://magicshot.ai

MagicShot.ai(opens in a new tab)

Bildgenerierung

Verwandeln Sie Ihre Ideen mit MagicShot.ai in atemberaubende KI-Kunst. Erstellen Sie sofort Bilder mit unserem KI-Fotogenerator. Lassen Sie Ihrer Kreativität freien Lauf!

33.9KBesuche
38%Suche
View details for Stockimg AI
https://stockimg.ai/

Stockimg AI(opens in a new tab)

Bildgenerierung

Stockimg ist ein All-in-One-Tool für Design und Inhaltserstellung, das auf KI basiert. Sie können ganz einfach Logos, Illustrationen, Hintergrundbilder, Poster und mehr erstellen.

265.5KBesuche
48%Suche
View details for AI Logo Creator
https://chromewebstore.google.com/detail/ai-logo-creator/ljgimpibhgleapaoedngmcicjoifojea

AI Logo Creator(opens in a new tab)

Grafikdesign

AI-Logo-Ersteller-Tool zum Erstellen schöner Embleme. Bester KI-Logo-Generator mit einfacher Benutzeroberfläche für Ihr Unternehmen.