Darf ich ChatGPT in meiner Kanzlei nutzen? § 203 StGB erklärt
ChatGPT, Claude und Co. sind verlockend - aber für Berufsgeheimnisträger gelten andere Regeln. Was § 203 StGB bedeutet und welche sicheren Alternativen es gibt.
KI in der Kanzlei: Zwischen Produktivitätssprung und Strafbarkeitsrisiko
Wer einmal erlebt hat, wie ChatGPT einen 40-seitigen Vertragsentwurf in 30 Sekunden zusammenfasst, will nicht mehr zurück. KI-Sprachmodelle können Mandantenschreiben entwerfen, Recherche-Ergebnisse strukturieren, Schriftsätze gegenlesen und DATEV-Auswertungen verständlich aufbereiten. Für Kanzleien, die ohnehin unter Fachkräftemangel und Zeitdruck leiden, klingt das nach der Lösung.
Und genau hier liegt das Problem: Die Verlockung ist so groß, dass viele Berufskollegen bereits KI nutzen - ohne sich über die strafrechtlichen Konsequenzen im Klaren zu sein.
Was § 203 StGB für Ihre Kanzlei bedeutet
Der Kern des Gesetzes
§ 203 StGB schützt das Berufsgeheimnis. Rechtsanwälte, Steuerberater, Wirtschaftsprüfer und ihre Mitarbeiter machen sich strafbar, wenn sie unbefugt fremde Geheimnisse offenbaren, die ihnen in ihrer beruflichen Eigenschaft anvertraut wurden. Die Strafandrohung: Freiheitsstrafe bis zu einem Jahr oder Geldstrafe.
Das Entscheidende: „Offenbaren” bedeutet nicht, dass die Information öffentlich wird. Es reicht, dass sie einer einzelnen unbefugten Person oder Stelle zugänglich gemacht wird - und dazu gehören auch Unternehmen, deren Server Ihre Eingaben verarbeiten.
Wann wird die Eingabe in ChatGPT zum Problem?
Sobald Sie mandantenbezogene Informationen in ChatGPT eingeben, werden diese Daten an OpenAI übermittelt. OpenAI ist ein US-amerikanisches Unternehmen mit Servern in den USA. In dem Moment, in dem der Mandantenname, eine Aktennummer, ein Sachverhalt oder auch nur eine ungewöhnliche Fallkonstellation das Endgerät verlässt, liegt potenziell eine Offenbarung im Sinne des § 203 StGB vor.
Daran ändert auch ein „Opt-out” aus dem Training nichts. Die Daten werden trotzdem übertragen und verarbeitet - nur eben nicht zum Trainieren neuer Modelle verwendet. Für § 203 StGB ist das irrelevant.
Warum DSGVO-konform nicht gleich § 203-konform ist
Dieser Punkt wird in der Praxis am häufigsten missverstanden - und er ist der wichtigste in diesem Artikel.
Die DSGVO regelt den Schutz personenbezogener Daten. Wenn ein KI-Anbieter einen Auftragsverarbeitungsvertrag (AVV) anbietet, Standardvertragsklauseln nutzt und ein angemessenes Datenschutzniveau sicherstellt, kann die Nutzung DSGVO-konform sein.
§ 203 StGB geht weiter. Das Berufsgeheimnis schützt nicht nur personenbezogene Daten, sondern alle mandantenbezogenen Informationen - auch rein sachliche, nicht personenbezogene Fakten. Der Umstand, dass ein Mandant überhaupt einen Rechtsanwalt eingeschaltet hat, ist bereits geschützt.
Konkret heißt das:
- Ein DSGVO-konformer Cloud-Dienst kann trotzdem gegen § 203 StGB verstoßen.
- Die seit 2017 in § 203 Abs. 3 StGB eingeführte Möglichkeit, „sonstige Mitwirkende” einzubinden, erfordert eine vertragliche Verpflichtung zur Geheimhaltung - die kein großer US-KI-Anbieter in der nötigen Form anbietet.
- Selbst Anonymisierung hilft nur, wenn sie vollständig ist. Schon ein ungewöhnlicher Sachverhalt kann zur Re-Identifizierung führen.
Was passiert, wenn Sie Mandantendaten in ChatGPT eingeben
Lassen Sie uns den technischen Weg nachvollziehen:
- Ihre Eingabe verlässt Ihren Rechner und wird über das Internet an OpenAI-Server übertragen - typischerweise in die USA.
- Das Modell verarbeitet die Eingabe auf OpenAI-Infrastruktur. Dabei haben OpenAI-Mitarbeiter prinzipiell Zugriff auf die Daten (etwa für Sicherheitsprüfungen und Missbrauchserkennung).
- Der CLOUD Act erlaubt US-Behörden den Zugriff auf Daten, die bei US-Unternehmen gespeichert sind - unabhängig davon, wo der Server physisch steht.
- Die Antwort wird zurückgesendet. Die Eingabe kann je nach Einstellung für bis zu 30 Tage gespeichert bleiben.
Für einen Berufsgeheimnisträger ist jeder einzelne dieser Schritte problematisch. Und: Eine Einwilligung des Mandanten in die Weitergabe an ChatGPT ist zwar theoretisch denkbar, in der Praxis aber kaum umsetzbar - und im Ergebnis auch kein sinnvoller Weg.
Drei sichere Alternativen für Ihre Kanzlei
Die gute Nachricht: Sie müssen nicht auf KI verzichten. Es gibt Wege, die sowohl § 203 StGB als auch die DSGVO einhalten.
1. Claude über EU-Cloud (AWS Bedrock Frankfurt)
Anthropics Sprachmodell Claude ist über Amazon Bedrock in der AWS-Region Frankfurt (eu-central-1) verfügbar. Der entscheidende Unterschied zu ChatGPT:
- Die Daten verlassen die EU nicht.
- AWS bietet als europäischer Auftragsverarbeiter eine vertragliche Struktur, die die Anforderungen von § 203 StGB an „sonstige Mitwirkende” erfüllen kann.
- Keine Speicherung der Eingaben über die Sitzung hinaus, kein Training mit Ihren Daten.
- Claude bietet aktuell eine der besten Modellqualitäten für juristische und steuerliche Texte.
In der Praxis lässt sich Claude über eine API direkt in bestehende Kanzlei-Workflows integrieren - etwa als Assistent beim Schreiben von Schriftsätzen oder für die Aufbereitung von Steuerbescheiden.
2. On-Premise: Open-Weight-Modelle auf eigener Hardware
Wer maximale Kontrolle will, betreibt KI auf eigener Hardware. Modelle wie Llama 3 (Meta) oder Mistral laufen auf modernen Apple-Silicon-Rechnern (Mac Studio, Mac Pro) oder einem kleinen lokalen Server:
- Kein Datenabfluss - die Informationen verlassen Ihr Netzwerk nicht.
- Volle Kontrolle über Modellversion, Updates und Zugriff.
- Einmalige Investition in Hardware, keine laufenden API-Kosten.
- Besonders geeignet für standardisierte Aufgaben: Zusammenfassungen, Textbausteine, interne Recherche.
Die Qualität liegt für viele Kanzleiaufgaben nah an Cloud-Modellen - bei besonders komplexen juristischen Argumentationen haben Cloud-Modelle wie Claude aktuell noch einen Vorsprung.
3. Anonymisierung vor der Eingabe
Der pragmatischste Einstieg: Alle identifizierenden Merkmale entfernen, bevor Sie einen Text in ein KI-Tool eingeben. Das bedeutet:
- Namen durch Platzhalter ersetzen (Mandant A, Gegenseite B)
- Daten, Orte, Aktennummern, Geschäftszeichen entfernen
- Besonders ungewöhnliche Sachverhalte abstrahieren
Dieser Ansatz funktioniert als Übergangslösung, ist aber fehleranfällig und zeitaufwendig. Für den dauerhaften Einsatz empfehlen wir eine der ersten beiden Alternativen.
So starten Sie heute sicher mit KI
Unser konkreter Rat für Managing Partner, die KI in ihrer Kanzlei einführen wollen:
- Sofort: Klare interne Richtlinie aufsetzen - was darf in welches Tool eingegeben werden? Sensibilisieren Sie alle Mitarbeiter, auch die Azubis und wissenschaftlichen Mitarbeiter.
- Kurzfristig (4-6 Wochen): Einen sicheren KI-Zugang einrichten - entweder über Claude via EU-Cloud oder ein lokales Modell. Zwei bis drei konkrete Anwendungsfälle definieren, die echten Zeitgewinn bringen (z. B. Zusammenfassungen von Urteilen, Entwurf von Standardschreiben, Aufbereitung von Jahresabschlüssen).
- Mittelfristig: KI schrittweise in bestehende Tools integrieren - neben RA-MICRO, beA oder DATEV. Nicht als Ersatz, sondern als Assistenz.
Fazit
ChatGPT in seiner Standardform ist für Berufsgeheimnisträger nicht sicher einsetzbar - jedenfalls nicht mit mandantenbezogenen Daten. Die Kombination aus US-Datenverarbeitung, fehlendem § 203-konformem Vertragskonstrukt und CLOUD Act macht es unmöglich, die Pflichten als Berufsgeheimnisträger zu erfüllen.
Das bedeutet aber nicht, dass KI tabu ist. Mit der richtigen Infrastruktur - ob EU-Cloud oder On-Premise - können Sie die Produktivitätsvorteile nutzen, ohne berufsrechtliche oder strafrechtliche Risiken einzugehen.
Der entscheidende Schritt ist, jetzt eine bewusste Entscheidung zu treffen - bevor Ihre Mitarbeiter die Entscheidung für Sie treffen, indem sie ChatGPT einfach auf eigene Faust nutzen.
Sie möchten KI in Ihrer Kanzlei einführen und brauchen einen klaren Fahrplan? Erfahren Sie mehr über unsere KI-Einführungsberatung oder informieren Sie sich über datensouveräne KI-Lösungen.