KI und kognitive Entwicklung von Anwälten
Die These: Kanzleien verlagern Trainingszeit in KI-Urteilskraft
Ropes & Gray, eine US-Großkanzlei mit weltweit über 1.500 Anwält:innen, hat im Februar 2026 das Programm „TrAIlblazers" gestartet. Berufseinsteiger:innen reservieren 400 von rund 1.900 Jahresstunden für KI-Training. Das sind 20 Prozent der Arbeitszeit, angerechnet wie billable hours. Der Anlass ist nicht Tooling. Der Anlass ist Sorge um juristisches Reasoning bei Junioren, die mit ChatGPT-Output aufwachsen (Law Careers Net 2026).
Im Trainingsfokus steht nicht die Bedienung der Tools. Im Fokus steht die Bewertung dessen, was die Tools liefern. Junior-Anwält:innen sollen lernen, KI-Output zu prüfen, Argumentationen eigenständig aufzubauen und Halluzinationen zu erkennen, bevor diese in Schriftsätze wandern. Das ist ein Eingeständnis: KI-Nutzung allein erzeugt keine Urteilskraft. Sie muss separat trainiert werden.
Der Datenkern: 72 Prozent Defizit-Wahrnehmung
Eine LexisNexis-Studie unter 873 britischen Anwält:innen liefert die empirische Grundlage. 72 Prozent der befragten Senior:innen sehen bei KI-nutzenden Junior-Kolleg:innen Defizite im juristischen Reasoning. 69 Prozent sorgen sich um fehlende Verifikationskompetenz, also die Fähigkeit, KI-Aussagen gegen Primärquellen abzugleichen. Nur 2 Prozent der jungen Anwält:innen selbst glauben, dass KI ihr Lernen stärkt (Artificial Lawyer 2026).
Bemerkenswert ist eine andere Zahl aus derselben Studie. 65 Prozent der Befragten befürworten KI als „Denkpartner", nicht als Shortcut. Das ist nicht Maschinenfeindlichkeit. Das ist eine differenzierte Position: Tool ja, Auslagerung der Urteilskraft nein.
Mechanismus: Cognitive Offloading bei wissensbasierter Arbeit
Warum entsteht der Effekt? Drei aktuelle Studien deuten in dieselbe Richtung. Shen und Tamkin untersuchten im Februar 2026 52 Programmierer:innen. KI-Nutzer schnitten in einem nachgelagerten Wissenstest 17 Prozent schlechter ab als die Kontrollgruppe. Tempo identisch, Lernverlust messbar. Anfänger:innen und Erfahrene waren gleichermaßen betroffen. Wer von der KI nicht nur das Ergebnis, sondern auch eine Erklärung anforderte, schnitt deutlich besser ab.
Eine MIT-Media-Lab-Studie aus 2025 begleitete 54 Proband:innen über vier Monate per EEG. Die KI-Nutzungsgruppe zeigte die schwächste neuronale Konnektivität aller Vergleichsgruppen, und zwar auch nach Ende der KI-Phase. Das Phänomen wurde „cognitive debt" getauft: ein Lernrückstand, der nicht automatisch verschwindet, sobald das Tool weggelegt wird.
Gerlich (peer-reviewed, n=666+50) misst eine Korrelation von 0,72 zwischen KI-Nutzung und kognitivem Offloading. Zwischen Offloading und kritischem Denken liegt eine Korrelation von minus 0,75. Jüngere Teilnehmer:innen sind signifikant stärker betroffen. Das passt zur Sorge der Senior-Anwält:innen.
Gegenkräfte: KI als Beschleuniger strategischer Arbeit
Die Deskilling-These ist nicht unwidersprochen. T. Kyle Turner von der Vanderbilt Law School argumentiert im Januar 2026, dass KI Associates früher zu strategischer Arbeit befähigen kann, vorausgesetzt das Training ist gezielt. Routinetätigkeiten, die früher das erste Berufsjahr füllten (Dokumentensichtung, Standardklauseln, einfache Recherche), entfallen. Der freigewordene Raum kann mit Mandantenkontakt, Verhandlungstaktik und Strategiearbeit gefüllt werden, statt mit verlängerter Routine.
Die Kanzleilandschaft folgt diesem Muster. Latham & Watkins führt eine Pflicht-AI-Academy für mehr als 400 First-Year Associates ein, mit Fokus auf Governance und Verifikationsdisziplin. Freshfields hat eine strategische Allianz mit Google Cloud geschlossen und rollt Gemini firmenweit aus, bis zu 50 Prozent des Trainee-Jahrgangs 2026 sind in KI-Schulungen eingebunden. Clifford Chance meldet 60 Prozent tägliche KI-Nutzung mit dem hauseigenen Tool „CC Assist" auf Azure OpenAI.
Soenke Lund von der International Bar Association formuliert die Gegenseite scharf: „The young lawyer will not have contact from the beginning with the basics." Die eigentliche Sorge betrifft weniger den Ersatz durch KI als den Bruch in den Ausbildungspfaden, sobald niemand mehr die Grundlagen durchläuft. Scott Milner von Morgan Lewis ergänzt einen technischen Punkt: „Hallucinations become harder, not easier, to detect as AI improves." Je besser die Modelle, desto unauffälliger der Fehler.
Was bedeutet das für Payroll und HR?
Das Muster ist nicht auf Anwält:innen beschränkt. Überall dort, wo wissensbasierte Routinearbeit das erste Berufsjahr füllt, stellt sich dieselbe Frage: Wenn KI die Routine übernimmt, woran lernt der Nachwuchs? Payroll Fuchs sieht in Mandanten-HR-Strukturen drei wiederkehrende Beobachtungen.
Die formale Ausbildungszeit verschiebt sich vom „learning by doing" zum strukturierten Curriculum. Wer früher in den ersten zwölf Monaten durch repetitive Aufgaben in Lohnbuchhaltung, Stammdatenpflege oder Personaladministration die Logik verinnerlicht hat, kann das nicht mehr. KI erledigt diese Aufgaben, oft sauber, manchmal falsch. Trainee-Programme brauchen explizite Verifikationsmodule: KI-Output gegen DATEV-Stammdaten abgleichen, gesetzliche Bezugsgrößen prüfen, Plausibilitätskontrolle bei Lohnsteuer und Sozialabgaben. Das ist die HR-Variante der Ropes-&-Gray-Logik.
Dokumentationspflichten werden härter, nicht weicher. Wenn KI Beratungsvorschläge formuliert, muss nachvollziehbar bleiben, welche Empfehlung von welcher Quelle stammt und wer sie freigegeben hat. Das ist auch eine arbeitsrechtliche Frage, sobald Mitarbeiter:innen sich auf KI-generierte HR-Antworten verlassen.
Die Compensation-Struktur wird mehrgleisiger. Mitarbeiter:innen mit ausgeprägter Verifikations- und Urteilskompetenz werden teurer, weil sie genau das absichern, was die Modelle nicht leisten. Parallel sinkt der Marktwert reiner Routinerollen. Lohnabrechnung muss diese Spreizung in Bonusmodellen, Zulagen und individuellen Vereinbarungen sauber abbilden, nicht in pauschalen Erhöhungen.
Die Frage ist nicht, ob KI Junior-Rollen verändert. Die Frage ist, ob das Training mitwächst.
FAQ
Was genau ist „cognitive debt"?
Ein Begriff aus der MIT-Media-Lab-Studie 2025: Lernrückstand durch KI-Auslagerung, der auch nach Ende der KI-Nutzung messbar bleibt. Schwächere neuronale Konnektivität bei Aufgaben, die zuvor mit KI-Unterstützung gelöst wurden.
Warum 400 Stunden bei Ropes & Gray?
Etwa 20 Prozent der typischen Jahresarbeitszeit. Anrechnung wie billable hours, also als bezahlte Arbeitszeit, nicht als Zusatzpensum. Damit signalisiert die Kanzlei: KI-Urteilskraft ist Kerngeschäft, nicht Nebenfach.
Sehen junge Anwält:innen den Effekt selbst?
Nur 2 Prozent in der LexisNexis-Studie glauben, dass KI ihr Lernen stärkt. Die Mehrheit befürwortet KI als „Denkpartner", lehnt aber die Auslagerung des Reasonings ab.
Lässt sich der Effekt auf andere Wissensberufe übertragen?
Die Shen-und-Tamkin-Studie an 52 Programmierer:innen zeigt denselben 17-Prozent-Lernverlust. Auch in Beratungs-, HR- und Buchhaltungsrollen ist das Muster plausibel: Routine wandert in die KI, Urteilskraft muss separat trainiert werden.
Was ist der Unterschied zwischen KI als Tool und KI als Denkpartner?
Tool: Ergebnis übernehmen. Denkpartner: Ergebnis hinterfragen, Erklärung anfordern, Quellen prüfen. Die Studienlage zeigt, dass nur Variante zwei den Lernverlust abfedert.
Was sollten Mittelständler aus dem Ropes-&-Gray-Modell mitnehmen?
Nicht die 400-Stunden-Zahl, sondern das Prinzip: Verifikations- und Urteilskompetenz als formaler Ausbildungsbestandteil, nicht als Nebeneffekt. In HR und Payroll lässt sich das in strukturierten Trainee-Modulen abbilden.
Quellen
- LexisNexis “The Mentorship Gap” — Auswirkungen von KI auf juristische Urteilsfähigkeit junger Anwälte (Februar 2026): https://www.artificiallawyer.com/2026/02/03/young-lawyers-need-better-judgment-ai-verification-skills/
- Ropes & Gray “TrAIlblazers” — 400 Stunden KI-Training pro Jahr für Berufseinsteiger (Februar 2026): https://www.lawcareers.net/Explore/News/Ropes-Gray-junior-lawyers-to-dedicate-20-of-billable-time-to-AI-training-191120