Legal Prompting: Tipps für effektive Prompts für Anwältinnen und Anwälte
KI-gestützte Sprachmodelle wie ChatGPT oder Copilot (oder auch die KI-Produkte von C.H.Beck wie der beck-chat, die Chat-Books oder Beck Noxtua) eröffnen Juristinnen und Juristen neue Möglichkeiten – von der Recherche über die Vertragsanalyse bis hin zur Mandantenkommunikation. Doch der Schlüssel zu guten Ergebnissen liegt in der richtigen Eingabe: dem sogenannten Prompt. Auf dieser Seite zeigen wir Ihnen, wie Sie mit gezieltem Legal Prompting bessere Resultate im juristischen Kontext erzielen können.
Was ist Legal Prompting?
Definition
- Ein Prompt (deutsch: Aufforderung) ist eine Eingabe oder Anweisung an ein KI-Modell, mit der eine bestimmte Antwort oder Handlung ausgelöst werden soll. Ein Prompt kann ein Satz, eine Frage oder ein komplexer Text sein.
- Prompting bezeichnet den Vorgang, bei dem Eingaben (Prompts) formuliert werden, um von einer KI oder einem anderen System eine gewünschte Reaktion oder ein bestimmtes Ergebnis zu erhalten.
- Legal Prompting (auch: Legal Prompt Engineering) ist die gezielte Erstellung von Eingaben (Prompts) für KI-Systeme, um rechtlich relevante Aufgaben effizient und korrekt zu bearbeiten. Legal Prompting ist ein Spezialgebiet des Prompt Engineerings und konzentriert sich auf juristische Anwendungsfälle.
Was bedeutet das konkret?
Mit Legal Prompting ist die gezielte Formulierung von Eingaben an KI-Systeme gemeint, mit der juristische Aufgaben präzise und effizient bearbeitet werden sollen. Dabei geht es nicht nur darum, eine Frage zu stellen, sondern diese so zu strukturieren, dass die KI den rechtlichen Kontext versteht und eine fachlich korrekte Antwort liefern kann.
Zum Beispiel kann ein Prompt so gestaltet sein, dass er eine Vertragsklausel analysiert, rechtliche Risiken identifiziert oder eine rechtssichere Formulierung vorschlägt. Die Kunst liegt darin, die Sprache der Juristinnen und Juristen mit der Funktionsweise der KI zu verbinden, um Missverständnisse zu vermeiden und verlässliche Ergebnisse zu erzielen.
Warum ist das wichtig?
Legal Prompting ist bedeutsam, weil es maßgeblich die Qualität und Verlässlichkeit KI-gestützter juristischer Anwendungen beeinflusst: Eine präzise formulierte Eingabe kann den Unterschied machen zwischen einer hilfreichen, rechtlich fundierten Antwort und einer ungenauen, falschen oder sogar irreführenden Auskunft.
Gerade im juristischen Bereich, wo Fehler weitreichende Konsequenzen haben können, ist es entscheidend, dass die KI auf Basis klarer und kontextgerechter Prompts arbeitet. Wer als Juristin oder Jurist effektives juristisches Prompten beherrscht, kann sich bei Routineaufgaben erheblich Zeit sparen und seine juristischen Dienstleistungen damit deutlich effizienter gestalten.
Wer nutzt Legal Prompting?
- Juristinnen und Juristen, die KI-Tools in ihrer täglichen Arbeit einsetzen,
- Legal Tech-Unternehmen, die KI-basierte Lösungen entwickeln,
- und zunehmend auch Prompt Engineers, die sich auf juristische Kontexte spezialisieren.
Best Practices: So erstellen Sie effektive Prompts im juristischen Kontext
Ein guter Prompt ist wie ein präziser Auftrag an eine Kollegin oder einen Kollegen – je klarer Sie formulieren, was Sie erwarten, desto besser wird das Ergebnis. Im juristischen Kontext gilt das ganz besonders. Hier sind unsere Best Practices für Legal Prompting, die sich bei uns in der Praxis bewährt haben:
1. Anforderungen an einen guten Prompt
Ein effektiver Prompt im juristischen Kontext muss vor allem eines sein: spezifisch und beschreibend. Je detaillierter Sie die Eingabe formulieren, desto präziser und relevanter ist die Antwort, die ein Sprachmodell liefern kann. Allgemeine oder vage Anfragen führen häufig zu ungenauen oder oberflächlichen Ergebnissen – ein Risiko, das sich Juristinnen und Juristen in ihrer täglichen Arbeit nicht leisten können.
Ein hilfreiches Gedankenexperiment ist es, sich vorzustellen, Sie arbeiten mit einem neuen Referendar oder einer neuen Kollegin, die zwar juristisch hervorragend ausgebildet ist, aber mit der Sie heute zum ersten Mal zusammenarbeiten. Diese Person müssten Sie in Ihre Workflows ganz neu einarbeiten und ihr jeden (nächsten) Schritt erklären. Genau so sollten Sie das Sprachmodell sehen.
Dazu gehört es, den rechtlichen Kontext, das Stimmungsbild, die gewünschte Länge der Antwort sowie den Adressatenkreis klar zu benennen. Viele Nutzerinnen und Nutzer gehen fälschlicherweise davon aus, dass ein Sprachmodell diese Informationen automatisch „mitdenkt“. Doch das ist ein Trugschluss: Was nicht ausdrücklich im Prompt enthalten ist, kann auch nicht zuverlässig berücksichtigt werden. Wer also erwartet, dass die KI juristisch präzise und kontextgerechte Texte erstellt, muss ihr auch die dafür nötigen Informationen mitgeben – so, wie Sie es auch bei der Einarbeitung eines neuen Teammitglieds tun würden.
Tipp: Auch wenn eine KI auf dasselbe juristische Wissen zugreifen kann wie Sie, wird sie dieses Wissen nicht automatisch anwenden. Verlassen Sie sich daher nicht auf implizite Annahmen – formulieren Sie Ihre Erwartungen und den Kontext stets so klar, wie Sie es bei einem neuen Kollegen tun würden, der Ihre Arbeitsweise noch nicht kennt.
2. Klar und kompakt: Warum kurze Sätze entscheidend sind
Ein häufiger Stolperstein beim Arbeiten mit Sprachmodellen ist die Tendenz, in langen, verschachtelten Sätzen zu schreiben – eine Art „Berufskrankheit“ vieler Juristinnen und Juristen. Doch genau das kann die Qualität der KI-Antworten erheblich beeinträchtigen. Sprachmodelle verarbeiten Texte, indem sie diese in sogenannte Tokens aufteilen – also in kleine Einheiten, die das Modell analysiert. Bei sehr langen Prompts oder umfangreichen Texten kann es passieren, dass das Modell den Zusammenhang verliert oder wichtige Informationen überliest.
Dieses Phänomen ist unter dem Begriff „Lost in the Middle“ bekannt: Informationen, die im mittleren Teil eines langen Textes stehen, werden vom Modell oft schlechter verarbeitet als solche am Anfang oder am Ende. Das liegt daran, dass Sprachmodelle dazu neigen, sich stärker auf den Anfang und das Ende eines Textes zu konzentrieren – ähnlich wie Menschen, die sich an den Beginn und Schluss eines Gesprächs besser erinnern als an Details dazwischen.
Die Lösung: Schreiben Sie kurze, klare Sätze. Gliedern Sie Ihre Gedanken in übersichtliche Abschnitte und vermeiden Sie lange Textblöcke. So stellen Sie sicher, dass alle relevanten Informationen vom Modell erfasst und verarbeitet werden – unabhängig davon, an welcher Stelle sie im Prompt stehen.
Tipp: Denken Sie beim Schreiben von Prompts nicht wie ein Jurist, sondern wie ein Redakteur: klar, präzise, strukturiert. Ihre KI wird es Ihnen mit besseren Ergebnissen danken.
3. Aufbau eines effektiven Prompts: Schritt für Schritt
Ein gut strukturierter Prompt ist der Schlüssel zu hochwertigen Ergebnissen bei der Arbeit mit KI-Systemen. Damit Sie das volle Potenzial der Technologie ausschöpfen können, empfiehlt es sich, den Prompt in einer klaren, logischen Reihenfolge aufzubauen – vom Wichtigsten zum weniger Wichtigen. Für juristische Anwendungsfälle hat sich folgende Struktur bewährt:
- Beginnen Sie mit einer klaren Anweisung.
Formulieren Sie zu Beginn eindeutig, was Sie von der KI erwarten. Verwenden Sie dabei ein Aktionswort wie „erstelle“, „generiere“, „vergleiche“ oder „analysiere“. So geben Sie dem Modell eine klare Richtung.
Beispiel: „Erstelle mir einen Schriftsatz zur Klageeinreichung beim Amtsgericht München.“ - Geben Sie den vollständigen Kontext mit.
Ohne Kontext können auch menschliche Kolleginnen oder Kollegen keine sinnvolle Arbeit leisten – das gilt umso mehr für ein Sprachmodell. Juristinnen und Juristen neigen dazu, mit viel implizitem Wissen zu arbeiten und vermeintlich Selbstverständliches nicht zu erwähnen. Genau das sollten Sie im Umgang mit KI vermeiden. Beschreiben Sie, wer Sie sind, was Sie erreichen möchten und wie ein erfolgreiches Ergebnis für Sie aussieht.
Zum Beispiel: „Ich bin Rechtsanwalt mit Schwerpunkt im Mietrecht und benötige einen Schriftsatz, den ich direkt an das Gericht weiterleiten kann.“ - Arbeiten Sie mit Beispielen.
Sprachmodelle liefern deutlich bessere Ergebnisse, wenn Sie ihnen Beispiele zur Verfügung stellen. Das kann ein Auszug aus einem früheren Schriftsatz sein oder ein Zitatstil, den Sie bevorzugen.
Formulieren Sie Ihren Prompt etwa so: „Schreibe mir einen Schriftsatz an einen Mandanten, der sich sprachlich und strukturell an folgendem Beispiel orientiert: [Beispiel einfügen].“ - Definieren Sie Rollen.
Teilen Sie dem Modell mit, wer Sie sind – oder wer das Modell sein soll. Das hilft der KI, sich auf den passenden Wissensbereich zu konzentrieren. Dadurch kann das Modell gezielter recherchieren und relevante Argumentationsmuster aufgreifen.
Beispiel: „Du bist ein erfahrener Rechtsanwalt mit Spezialisierung im Gesellschaftsrecht.“ - Bestimmen Sie Tonfall und Format.
Geben Sie an, in welchem Stil und Format die Antwort erfolgen soll. Soll der Text formell oder locker sein? Ist er für eine juristisch versierte Kollegin gedacht oder für einen Mandanten ohne Fachkenntnisse? Auch das gewünschte Format – etwa E-Mail, Executive Summary oder Schriftsatz – sollte klar benannt werden.
Beispiel: „Formuliere den Text in einem sachlich-freundlichen Ton für einen Mandanten. Das Ergebnis soll als E-Mail versendet werden.“
Tipp: Sie sind unsicher, wie Sie einen Prompt optimal formulieren sollen? Fragen Sie einfach die KI selbst! Ein Beispiel: „Ich schreibe gerade einen Prompt und suche nach der besten Formulierung – wie würdest du das angehen?“ Sprachmodelle sind nicht nur Werkzeuge zur Texterstellung, sondern können auch super dabei helfen, effektive Prompts zu erstellen.
Hinweis: Diese Reihenfolge ist eine bewährte Orientierung, kann aber je nach Zielsetzung angepasst werden. Wenn Ihnen zum Beispiel der Tonfall besonders wichtig ist, können Sie diesen auch früher im Prompt platzieren.
4. Klare Rollenverteilung beim Prompting
Formulierungen wie „Du bist ein Rechtsanwalt mit 40 Jahren Berufserfahrung“ oder „Du bist ein erfahrener Jurist mit umfassender Praxis im Gesellschaftsrecht“ helfen dem Modell, sich besser auf die Aufgabe einzustellen.
Durch diese Rollenbeschreibung verändert sich die Art und Weise, wie das Modell an die Aufgabe herangeht: Es denkt strukturierter, recherchiert tiefer und prüft seine Ergebnisse am Ende oft noch einmal selbstständig auf Plausibilität.
So erhalten Sie nicht nur juristisch fundiertere, sondern auch stilistisch und inhaltlich besser abgestimmte Antworten.
Tipp: Rollenbeschreibungen funktionieren auch in Kombination mit anderen Angaben – etwa zur Zielgruppe, zum Tonfall oder zum Format. Je klarer das Modell weiß, „wer es sein soll“, desto besser kann es sich in die Aufgabe hineinversetzen.
5. Grenzen setzen: Was in der Antwort nicht enthalten sein soll
Ein unterschätzter, aber wirkungsvoller Bestandteil eines guten Prompts ist die gezielte Eingrenzung des Suchraums – also die klare Angabe, was nicht Teil der Antwort sein soll. Indem Sie bestimmte Inhalte oder Themenbereiche explizit ausschließen, helfen Sie dem Sprachmodell, sich auf das Wesentliche zu konzentrieren und irrelevante Informationen von vornherein auszublenden.
Ein Beispiel: Wenn Sie eine juristische Analyse im Bereich Gesellschaftsrecht benötigen, können Sie bereits im Prompt festlegen, dass arbeitsrechtliche oder mietrechtliche Aspekte nicht berücksichtigt werden sollen. Eine Formulierung wie „Bitte berücksichtige bei der Generierung der Antwort keine Aspekte aus dem Arbeitsrecht oder Mietrecht“ kann die Qualität und Relevanz der Antwort deutlich erhöhen. So verwandeln Sie eine allgemeine Suche in eine gezielte, spezialisierte Recherche.
Diese Technik ist besonders wichtig, weil Sprachmodelle nicht automatisch zwischen relevanten und irrelevanten Rechtsgebieten unterscheiden – es sei denn, Sie sagen es ihnen. Das spielt direkt in die Kategorie des impliziten Wissens: Dinge, die für Sie selbstverständlich erscheinen, sind es für das Modell nicht unbedingt. Ein klassisches Beispiel ist die Hierarchie zwischen Gerichten – etwa, dass der Bundesgerichtshof über dem Amtsgericht steht – oder der Unterschied zwischen einer Verordnung und einem Gesetz. Wenn solche Informationen für Ihre Fragestellung entscheidend sind, sollten Sie sie im Prompt entweder erklären oder zumindest darauf hinweisen, dass das Modell darauf achten soll.
Tipp: Hinterfragen Sie bei jedem Prompt, ob Sie stillschweigend von Wissen ausgehen, das das Modell möglicherweise nicht automatisch berücksichtigt. Je klarer Sie formulieren, was relevant ist – und was nicht –, desto präziser wird das Ergebnis.
6. Vorsicht vor Verzerrungen: Wie Sie mit Bias im Prompting umgehen
Wichtig ist, dass Sie sich beim Arbeiten mit Sprachmodellen möglicher Vorurteile (Bias) in den Antworten bewusst sind. Diese kommen zustande, da die Modelle auf der Grundlage großer Mengen menschlicher Texte trainiert wurden – und damit auch auf Daten, die selbst nicht frei von Voreingenommenheit sind. Das bedeutet: Auch wenn die KI objektiv erscheinen mag, kann sie dennoch menschliche Denkmuster und Wertungen übernehmen, die in den Trainingsdaten enthalten waren.
Ein klassisches Beispiel aus dem juristischen Bereich: Entscheidungen des Bundesgerichtshofs werden häufig als „besser“ oder „richtiger“ dargestellt als solche eines Amtsgerichts – nicht unbedingt, weil sie es inhaltlich immer sind, sondern weil sich diese Wertung in vielen juristischen Texten widerspiegelt. Solche impliziten Hierarchien oder Bewertungen können sich unbemerkt in die Antworten der KI einschleichen.
Um dem entgegenzuwirken, können Sie bereits im Prompt darauf hinweisen, dass das Modell mögliche Verzerrungen reflektieren oder bewusst ausblenden soll. Eine Formulierung wie „Bitte berücksichtige mögliche Bias in der Bewertung von Gerichtsentscheidungen und versuche, neutral zu argumentieren“ kann helfen, differenziertere Ergebnisse zu erhalten.
Darüber hinaus lohnt es sich, bei der Auswertung der Antwort kritisch zu bleiben. Wenn Ihnen eine Aussage ungewöhnlich einseitig oder voreilig erscheint, fragen Sie ruhig nach: „Bist du dir bei dieser Einschätzung sicher? Ich habe dazu schon einmal eine andere Auffassung gehört.“ Solche Rückfragen sind besonders dann sinnvoll, wenn Sie selbst über Fachwissen verfügen oder bereits andere Quellen kennen, die zu einem abweichenden Ergebnis kommen.
Tipp: Sprachmodelle sind keine neutralen Instanzen – sie spiegeln die Welt, wie sie in Texten dargestellt wurde. Je bewusster Sie mit möglichen Verzerrungen umgehen, desto fundierter und ausgewogener wird Ihre Arbeit mit der KI.
7. In kleinen Schritten denken lassen: Chain of Thought
Ein besonders wirkungsvoller Ansatz beim Prompting ist das sogenannte „Chain of Thought“-Verfahren. Dabei geben Sie dem Sprachmodell nicht nur eine Aufgabe, sondern fordern es auf, in mehreren Schritten zu denken, seine Ergebnisse zu überprüfen und gezielt zu reflektieren. Das Modell arbeitet dadurch strukturierter und liefert differenziertere Antworten.
Beispiel: „Suche mir alle relevanten Argumente aus einer Gerichtsentscheidung. Wenn du meinst, diese gefunden zu haben, überprüfe sie noch einmal anhand der Urteilsbegründung und achte besonders auf systematische Argumentationslinien und abweichende Meinungen.“
Solche mehrstufigen Anweisungen führen dazu, dass das Modell nicht nur einmalig, sondern mehrfach über die Aufgabe nachdenkt – mit unterschiedlichen Perspektiven. Es entsteht ein Denkprozess, der dem juristischen Arbeiten näherkommt: analysieren, prüfen, verfeinern.
Tipp: Nutzen Sie Chain of Thought gezielt, wenn Sie komplexe Aufgaben stellen. Das Modell wird dadurch gründlicher und nachvollziehbarer in seiner Argumentation.
8. Schritt für Schritt zum Ziel: Mehrstufige Prompts sinnvoll einsetzen
Ein besonders wirkungsvoller Ansatz bei der Arbeit mit Sprachmodellen besteht darin, komplexe Aufgaben in einem einzigen Prompt in logisch aufeinanderfolgende Schritte zu gliedern. Anstatt das Modell nacheinander mit mehreren Prompts zu steuern, formulieren Sie eine zusammenhängende Anweisung, die alle Teilschritte in sich vereint. Auf diese Weise fördern Sie eine strukturierte Bearbeitung innerhalb eines klar definierten Kontexts – ohne zwischenzeitliche Rückfragen oder manuelles Nachsteuern.
Beispiel:
„Erstelle zunächst einen Schriftsatz zur Klageeinreichung. Verwende anschließend eine typische E-Mail eines Mandanten (z. B. mit der Bitte um Klageerhebung) als Grundlage, um daraufhin eine passende Antwort-E-Mail an den Mandanten zu formulieren, die sich auf den zuvor erstellten Schriftsatz bezieht.“
Durch diese Methode bleibt der Bearbeitungsprozess für das Modell klar nachvollziehbar und inhaltlich kohärent. Gleichzeitig behalten Sie als Nutzerin oder Nutzer die Kontrolle über den Ablauf, ohne jeden Schritt einzeln abfragen zu müssen. Gerade in juristischen Zusammenhängen, in denen mehrere Aspekte und Zielgruppen berücksichtigt werden müssen, erweist sich ein gut strukturierter, mehrschrittiger Einzelprompt als besonders effektiv.
Tipp: Formulieren Sie den Prompt wie eine kleine Aufgabenliste mit klaren Teilzielen. Das hilft dem Modell, die Aufgabe Schritt für Schritt abzuarbeiten – innerhalb eines einzigen, durchdachten Eingabefelds.
9. Rückfragen einbauen: Hat das Modell die Aufgabe verstanden?
Gerade bei komplexen oder mehrteiligen Prompts kann es sinnvoll sein, das Sprachmodell aktiv zu fragen, ob es Ihre Anweisung verstanden hat. So vermeiden Sie Missverständnisse und stellen sicher, dass alle relevanten Informationen berücksichtigt werden.
Beispiel: „Erstelle einen Schriftsatz für einen Mandanten. Du bist ein erfahrener Anwalt für Gesellschaftsrecht. (...) Hast du meine Anweisung verstanden? Wenn nicht, sag mir bitte, welche Informationen dir noch fehlen.“
Diese Rückfrage macht das Prompting dialogischer und eröffnet die Möglichkeit, das Modell bei Bedarf nachzuschärfen. Besonders hilfreich ist das, wenn Sie selbst merken, dass Ihre Anweisung noch unklar oder unvollständig sein könnte.
Tipp: Wenn Sie sich nicht sicher sind, ob Ihr Prompt vollständig ist, lassen Sie das Modell mitdenken. Es kann Ihnen oft selbst sagen, welche Informationen noch fehlen – und so die Qualität der Antwort deutlich verbessern.
10. Wenn die Antwort nicht passt: Mit Feedback zum besseren Ergebnis
Gerade wenn Sie anfangen, mit Sprachmodellen zu arbeiten, kann es vorkommen, dass Sie nicht die gewünschte Antwort erhalten. Das ist völlig normal – und kein Grund zur Frustration. Wichtig ist, zu wissen, wie Sie in solchen Fällen sinnvoll reagieren können. Grundsätzlich haben Sie zwei Möglichkeiten:
- Den Prompt unverändert erneut senden.
Sie können dieselbe Anfrage in einem neuen Chat einfach noch einmal stellen. Da Sprachmodelle probabilistisch arbeiten, kann es zu leichten Variationen in der Antwort kommen. In der Regel bleibt das Ergebnis jedoch ähnlich – grundlegende Änderungen sind eher unwahrscheinlich. - Feedback geben.
Effektiver ist es, dem Modell im selben Chat mitzuteilen, warum Ihnen die erste Antwort nicht gefallen hat. Sprachmodelle können sich innerhalb eines Gesprächsverlaufes merken, was sie zuvor getan haben – und ihr Verhalten entsprechend anpassen. Besonders hilfreich ist es, wenn Sie anhand von Beispielen erklären, was konkret nicht gepasst hat: etwa der Tonfall, die Struktur, fehlende Argumente oder ein falscher Fokus.
Der Vorteil: Ihre ursprüngliche Arbeit war nicht umsonst. Sie bauen auf dem bestehenden Prompt auf und entwickeln ihn weiter – Schritt für Schritt zu einem besseren Ergebnis.
Tipp: Prompting ist ein Lernprozess – mit einer steilen Lernkurve. Je öfter Sie mit dem Modell arbeiten, desto besser werden Ihre Ergebnisse. Sehen Sie jede unpassende Antwort als Chance, Ihre Anweisungen zu verfeinern und Ihre Kommunikation mit der KI zu verbessern.
Disclaimer: Die hier vorgestellten Tipps und Beispiele beruhen auf unseren eigenen Erfahrungen und bieten eine gute Orientierung. Bitte haben Sie jedoch Verständnis, dass wir keine Garantie geben können, dass Sie damit verbindlich gute Ergebnisse erzielen. Achten Sie außerdem darauf, in Tools wie ChatGPT keine vertraulichen oder sensiblen Informationen preiszugeben.
Weiterführende Themen
Stand: Juni 2025