Aktuelle Nachrichten
21/4674: Kleine Anfrage Forschungssicherheit und wissenschaftliche Kooperationen mit China und Kohärenz mit neuen Regelungen zu Horizon Europe (PDF)
21/4665: Kleine Anfrage Robotikstandort Deutschland: Marktposition, Mittelstandsdiffusion, Förderwirkung und Schutz kritischer Technologien (PDF)
21/4664: Kleine Anfrage Aussetzung der Zulassungen zu Integrationskursen nach § 44 Absatz 4 des Aufenthaltsgesetzes (PDF)
Schulgeld für Privatschule: Anspruch auf ALG II erhöht sich nicht
Auszubildende, die neben Leistungen aus dem BAföG auch ALG II erhalten, können das anfallende Schulgeld ihrer privaten kostenpflichtigen Berufsfachschulen nicht von diesem Einkommen absetzen. Das hat das BSG entschieden.
Weiterlesen
Claude Legal Plugin: AI Act Pflichten und Quick-Win-Checkliste zur AI-Compliance
Das Claude-Legal-Plugin verspricht juristische Arbeit wesentlich zu beschleunigen. Dieser Beitrag zeigt, welche AI Act Pflichten zählen und was Sie umsetzen sollten, wenn Sie das Plugin einsetzen möchten.
Was ist das Claude-Legal-Plugin – und welche KI-Compliance-Relevanz hat es?
Kurz gesagt: Das Claude-Legal-Plugin ist eine strukturierte „Arbeitsanweisung“ (Workflow) speziell für juristische Aufgaben. Beispielsweise für Vertrags‑Triage und Zusammenfassungen. Es erhöht die Konsistenz der Ergebnisse (Outputs), weil es das große Sprachmodell Claude in definierte Schritte, Rollen und Ausgabeformate zwingt. Wichtig: Dadurch entsteht kein neues KI‑System, sondern eine kontrollierte Nutzungsweise des bestehenden Modells.
Das Plugin ist also eher eine Produktivitäts‑ und Standardisierungsschicht als eine „eigene juristische KI“. Für KI-Compliance ist die entscheidende Frage: Wie wird dieser Workflow so eingesetzt, dass Daten, Verantwortung und Nachweisführung stimmen – auch wenn später geprüft wird?
Das Plugin kann Qualität und Nachvollziehbarkeit verbessern – aber nur, wenn Sie den Einsatz wie einen regulierten Prozess behandeln. Typische Stolpersteine sind nicht die KI an sich, sondern
- Daten
- Verantwortlichkeiten
- fehlende Kontrollen
Dabei gibt es drei typische Risikofelder:
- Vertraulichkeit und Mandatsgeheimnis: Sobald Originalverträge, Schriftsätze oder Mandantenkommunikation eingegeben werden, entsteht ein reales Risiko.
- Fehlerhafte Outputs: Auch mit sauberem Workflow bleibt das Modell fehlbar; der Unterschied ist nur, wie gut Sie Fehler verhindern.
- Fehlende Nachweise: Im Zweifel entscheidet der Nachweis, dass klare Regeln bestehen, KI-Kompetenz vorhanden ist und der Einsatz kontrolliert und dokumentiert erfolgt.
Worauf es bei der Rollen‑Einordnung ankommt:
Wenn Sie das Plugin unternehmensintern nutzen, gelten Sie unter dem AI Act typischerweise als Betreiber (Deployer). Wichtig: Sollten Sie daraus ein Angebot für Mandanten, Tochterunternehmen oder Dritte machen (z. B. White‑Label) oder den Workflow so erweitern, dass er autonom in Systeme eingreift, rücken Anbieter‑ähnliche Pflichten näher.
In welche Risikokategorie fällt das Legal-Plugin?
Bei typischer Nutzung – Zusammenfassungen, Klausel-Vorschläge und Triage als Vorarbeit mit menschlicher Überwachung – ist das Plugin meist im Minimal- bis Limited-Risk-Bereich einzuordnen. Der Grund: Ein reiner Zusammenfassungs-Workflow trifft keine autonomen Entscheidungen und betrifft keine natürliche Person unmittelbar. Er liefert Vorarbeit, die ein Mensch bewertet und verantwortet.
Sobald ein Output ohne substanzielle menschliche Prüfung in eine behördliche oder gerichtliche Entscheidung einfließt – oder der Workflow faktisch zum Entscheidungstreiber wird –, rückt eine Einordnung in den High-Risk-Bereich näher. Dann gelten deutlich strengere Anforderungen.
Daher gilt: Analysieren Sie zuerst Ihren speziellen Use-Case und gleichen Sie ihn mit Annex III des AI Acts ab.
Zusätzlich relevant sind Transparenzpflichten. Sobald KI-Outputs nach außen genutzt werden (z. B. veröffentlichte Inhalte) oder Personen mit einem KI-System interagieren, sollten Sie kenntlich machen, dass KI eingesetzt wurde.
Welche Fristen gibt es?
Der AI Act ist stufenweise anwendbar. Drei Meilensteine sind besonders relevant:
Seit 2. Februar 2025 gelten u. a. die Nachweispflicht für KI-Kompetenz gemäß Artikel 4 des AI Acts: Alle Betreiber, die KI im Unternehmen einsetzen, müssen ein ausreichendes Kompetenzniveau der Nutzer mit KI-Systemen durch Schulung und Dokumentation nachweisen.
Ab 2. August 2026 ist der AI Act „weitgehend voll anwendbar“. Spätestens dann sollten Governance, Regeln, KI-Inventar, Freigaben und Kontrollen im Tagesbetrieb funktionieren.
Bis 2. August 2027 gibt es eine verlängerte Übergangsfrist für High‑Risk‑Regeln bei KI, die in bestimmte regulierte Produkte eingebettet ist. Das wird relevant, wenn Sie selbst KI‑Funktionen „bereitstellen“ oder tief in eigene Produkte integrieren.
Wichtig: Der Digital-Omnibus on AI von der Europäischen Kommission, der als Gesetzgebungsvorschlag (COM(2025)0836) am 19. November 2025 vorgestellt wurde, kann zukünftige Pflichten des AI Acts verschieben. Ein konkreter Abstimmungstermin ist derzeit aber nicht festgelegt. Im Europäischen Parlament ist das Dossier aktuell in der Ausschussphase.
Was heißt das praktisch für Claude‑Workflows in 2026?
Sie sollten 2026 so aufgestellt sein, dass Sie jederzeit zeigen können:
- Wofür das Legal-Plugin genutzt wird (Use‑Cases)
- Welche Daten hineindürfen
- Wer es nutzt
- Welche Kontrollen gelten
- Wie Sie Fehler dokumentieren und behandeln
Das ist keine Bürokratie um der Bürokratie willen, sondern schützt Ihr Unternehmen vor typischen Risiken: Reputationsschäden, Haftung, unklarer Verantwortlichkeit und fehlerhafter Anwendung.
Praxis-Fahrplan zur KI-Compliance:
Die folgenden Maßnahmen lassen sich in zwei Kategorien einteilen: „Quick Wins“, die sich kurzfristig umsetzen lassen, und mittelfristige Maßnahmen, die mehr Aufwand und Abstimmung erfordern.
Direkt umsetzbar
- Red‑Flag‑Liste: Legen Sie fest, wo KI nie eingesetzt werden darf.
- Menschliche Überwachung festlegen: Outputs sind Vorarbeit – finale Verantwortung bleibt immer beim Nutzer.
- Logging‑Minimum: Datum, Use‑Case, verantwortliche Person, Ergebnisart; relevante Outputs in ein Audit‑Archiv / Zur Akte.
- Prompt‑Standards: Ziel, Quellenbasis, Annahmen, Grenzen, gewünschte Ausgabeform – als Template für alle Nutzer.
- Anbieter‑Check im Kurzformat: Datenverarbeitung, Training / Opt‑out, Löschung, Sub‑Prozessoren, Incident‑Kontakt, SLA.
- Schulungen für Anwender durchführen: Seit dem 02.02.2025 verpflichtend für jeden, der KI im Unternehmen nutzt. Dokumentieren Sie Teilnahme und Inhalte.
Mittelfristig
- KI‑Inventar erstellen: KI-Systeme/Modelle, Zweck, Nutzergruppe, Datenkategorien, Schnittstellen, Owner.
- KI-Richtlinie erstellen: Um jedem im Unternehmen klar zu kommunizieren: Was darf rein? Was ist tabu? Wann ist zwingend eine Überprüfung nötig?
- Datenklassifizierung: Mandatsgeheimnisse / hochvertraulich nur unter klarer Freigabe‑Logik und passenden Einstellungen.
- Minimierung: Nur die Informationen eingeben, die für die Aufgabe nötig sind; am besten keine personenbezogenen Daten.
- Eskalationsweg: Wer wird informiert, wenn ein falscher Output „in der Welt“ landet oder vertrauliche Daten doch einmal betroffen sind?
- Versionsdisziplin: Wenn Sie Prompts / Workflows ändern, dokumentieren Sie kurz „was / warum“ und testen Sie 2–3 Referenzfälle.
Fazit
Der AI Act verlangt nicht, dass Sie KI-Systeme nur unter strengsten Voraussetzungen einsetzen, sondern dass Sie KI kontrolliert betreiben und kompetent nutzen. Wer 2026 Dokumentation, Eingaberegeln, menschliche Überwachung und KI-Kompetenz sauber etabliert, wird 2027 nicht überrascht, sondern kann auf den Erfolgen mit KI aufbauen und hat weniger Arbeit, neue KI-Systeme sicher zu implementieren. KI-Compliance muss kein Großprojekt sein, wenn der Grundstein für einen erfolgreichen Einsatz früh gelegt wird.
Autor: Patrick Wenzek ist Gründer von Regulint. Regulint bietet praxisnahe Schulungen und Zertifikate zum Nachweis der KI-Kompetenz und zum Aufbau der AI-Governance-Struktur in Ihrem Unternehmen. Von Unsicherheit zu Souveränität in 60 Minuten.
Der Beitrag Claude Legal Plugin: AI Act Pflichten und Quick-Win-Checkliste zur AI-Compliance erschien zuerst auf .
17.03.2026 | Modell Europa Parlament (MEP) tagt im Bundesrat | Bundesrat, Plenarsaal
ACCC confirms 2026–27 compliance and enforcement priorities: Manipulative conduct in the digital economy, pricing claims and essential services in the spotlight
Assets: What to Do During Divorce
“I’ve filed for divorce, now what?” Often couples get anxious about how property will be divided and want to ensure their own financial safety during the divorce process. Thus, one person may withdraw a lump sum of money from the joint bank account or transfer their paychecks into their own account even though the marital bills continue to be paid from the joint account.
CFTC Issues Significant Staff Advisory on Prediction Markets
On March 12, 2026, the Division of Market Oversight (“DMO”) of the US Commodity Futures Trading Commission (“CFTC”) issued Staff Advisory Letter No. 26-08, directed to all designated contract markets (“DCMs”), potentially signaling the agency’s favorable orientation toward the growth and development of prediction markets.
Greener Deals Ahead: Dentons Insights on ESG, Energy Renovation and Green Leases Across Europe
EU: In the above link you will find a selection of previous updates from our Real Estate ESG Task Force team across Europe, covering key developments in EU energy renovation frameworks, the evolving EU deforestation regime, and the practical implementation of ESG in real estate contracts.
