Das KI-Unternehmen Anthropic, in welches Google sowie Amazon hohe Summen investiert haben, hat im März 2024 mit Claude Opus, Sonnet und Haiku drei hochmoderne KI-Lösungen vorgestellt – und diese im Juni 2024 mit dem Launch von Claude 3.5 Sonnet noch einmal übertroffen. Das Modell ist laut Anthropic doppelt so schnell wie Claude 3 Opus, kann komplexe Anweisungen besser verstehen und in einigen Tests sogar OpenAIs GPT-4o übertreffen. Auf Basis der neuesten Technologie hat das Unternehmen jetzt neue Features für die Developer Console entwickelt, mit welchen die User Prompts generieren, testen, vergleichen und auswerten können.
We’ve added new features to the Anthropic Console.
Claude can generate prompts, create test variables, and show you the outputs of prompts side by side. pic.twitter.com/H6THdoja7Z
— Anthropic (@AnthropicAI) July 9, 2024
Prompts generieren, vergleichen und bewerten
Die Console bietet Entwickler:innen jetzt einen eingebauten Prompt Generator, welcher auf Claude 3.5 Sonnet basiert. Nutzer:innen können hier eine bestimmte Aufgabe für das Tool eingeben (beispielsweise „Priorisiere eingehende Kund:innenanfragen“), woraufhin dieses einen hochwertigen Prompt erstellt.
Developer können mit Claude Eingabevariablen für Prompts generieren und diese ausführen, um die Antwort des Tools einzusehen. Alternativ können verschiedene Testfälle manuell eingegeben werden.
Use Claude to generate input variables for your prompt. Then run the prompt to see Claude’s response.
You can also enter variables manually. pic.twitter.com/pJRKMJjCQ2
— Anthropic (@AnthropicAI) July 9, 2024
Darüber hinaus hat das KI-Unternehmen ein Feature eingeführt, mit welchem User die Outputs von zwei oder mehr Prompts direkt vergleichen können. Die Antworten, welche nebeneinander angezeigt werden, können von einem Punkt („Schlecht“) bis fünf Punkte („Ausgezeichnet“) bewertet werden.
We’ve also added the ability to compare the outputs of two or more prompts side by side.
As you iterate on different versions of the prompt, your subject matter experts can compare responses and grade them on a 5-point scale. pic.twitter.com/FpHvgka6z5
— Anthropic (@AnthropicAI) July 9, 2024
Artifacts können jetzt geteilt werden
Der neue Evaluate Tab soll erstellte Prompts mit Real World Inputs vergleichen und es Developern ermöglichen, ihre Testfälle bei Bedarf anzupassen und alle mit einem Klick auszuführen. Anthropic erklärt:
Testing prompts against a range of real-world inputs can help you build confidence in the quality of your prompt before deploying it to production. With the new Evaluate feature you can do this directly in our Console instead of manually managing tests across spreadsheets or code.
The new Evaluate tab enables you to automatically create test cases to evaluate your prompt against real-world inputs.
Modify your test cases as needed, then run all of them in one click. pic.twitter.com/HnNzzaXuYh
— Anthropic (@AnthropicAI) July 9, 2024
Neben den neuen Features für die Entwickler:innen-Console hat Anthropic auch ein Update für die im Juni 2024 eingeführten Artifacts angekündigt. Im Artifacts-Arbeitsbereich können User Claude Inhalte wie Code-Schnipsel, Textdokumente oder Website Designs erstellen lassen. Diese werden in einem separaten Fenster angezeigt. Seit Neuestem können User mit Claude kreierte Artifacts auch veröffentlichen und teilen, wie das Unternehmen auf X verkündet. Zudem können Artifacts anderer Nutzer:innen mit einem Remix Feature umgestaltet werden.
Artifacts made with Claude can now be published and shared.
You can also remix Artifacts shared by others. https://t.co/AjARvS0TDo pic.twitter.com/d7D0n96tfr
— Anthropic (@AnthropicAI) July 9, 2024
Ein ähnliches Feature wie Anthropics Artifacts bietet das AI Tool Poe von Quora, mit welchem die User Content und sogar Web Apps direkt im Chat erstellen können.