Deutsch

KI-Governance-Richtlinie für Ihre Abteilung erstellen: Ein Leitfaden für Directors

Eine Vertriebsdirektorin eines mittelgroßen SaaS-Unternehmens führte vor sechs Monaten ein kurzes Experiment durch. Sie bat drei Vertriebsmitarbeiter, ihr zu zeigen, wie sie KI im Alltag nutzten. Innerhalb von zehn Minuten sah sie, wie ein Mitarbeiter ein vollständiges Gesprächsprotokoll — einschließlich Name des Kunden, Unternehmen, Budget und Verhandlungsposition — in ein kostenloses öffentliches KI-Tool einfügte, um eine Zusammenfassung zu erstellen.

Es gab keine Datenhandhabungsrichtlinie. Niemand hatte dem Mitarbeiter gesagt, dass das ein Problem sei. Der Mitarbeiter war nicht unvorsichtig. Er versuchte, schneller zu arbeiten, das Tool so zu nutzen, wie es konzipiert war. Die Lücke war nicht das Urteilsvermögen des Mitarbeiters. Es war das Fehlen jeglicher Orientierung.

Genau hier befinden sich die meisten Abteilungen gerade. Nicht rücksichtslos, aber ungeregelt. Und ungeregelt funktioniert gut, bis es das nicht mehr tut. Bis es einen Datenschutzvorfall gibt, eine Compliance-Frage oder eine Vertragsklausel eines Anbieters zur Datenverarbeitung, die niemand gelesen hat, weil niemand wusste, dass er danach suchen sollte. Governance beginnt nicht mit einem Richtliniendokument — sie beginnt damit, zu wissen, welche KI-Tools Ihr Team tatsächlich verwendet. Die KI-Bereitschafts-Assessment-Vorlagen enthalten eine Tools-Gap-Matrix, die Shadow-KI-Nutzung aufdeckt, bevor sie zu einer Haftung wird.

Dieser Leitfaden bietet Ihnen ein praktisches Framework zum Schreiben einer KI-Governance-Richtlinie auf Abteilungsebene. Sie brauchen kein Rechtsteam, um anzufangen. Sie brauchen kein IT-Projekt. Sie brauchen einige strukturierte Entscheidungen, klar dokumentiert, einmal kommuniziert und vierteljährlich überprüft.


Warum Governance auf Abteilungsebene wichtig ist

Unternehmensweite KI-Richtlinien existieren in vielen Organisationen. Aber sie sind auf einem Abstraktionsniveau geschrieben, das Ihrem Team nicht bei täglichen Entscheidungen hilft. Governance muss auch neben Ihrem cross-funktionalen KI-Zusammenarbeits-Framework funktionieren — wenn Vertrieb, Marketing und Ops Daten über KI-Tools teilen, entstehen bei einer abteilungsinternen Richtlinie, die nicht mit benachbarten Teams abgestimmt ist, Lücken an den Schnittstellen. "KI verantwortungsvoll nutzen" sagt einer Content-Managerin nicht, ob sie Claude verwenden darf, um eine Kunden-Fallstudie unter Verwendung interner Projektdaten zu entwerfen. "Vertrauliche Informationen schützen" sagt einem Vertriebsmitarbeiter nicht, welche KI-Tools für Deal-Daten freigegeben sind.

Ihr Team braucht Konkretheit. Welche Tools. Welche Datenkategorien. Wer Ausnahmen genehmigt. Was zu tun ist, wenn etwas schiefläuft.

Und "IT fragen" ist keine Richtlinie. Es ist ein Verzögerungsmechanismus, der Ihr Team entweder dazu trainiert, ständig zu fragen (was alles verlangsamt) oder gar nicht zu fragen (was genau das ungeregelte Verhalten erzeugt, das Sie verhindern wollen).

Eine abteilungsinterne Richtlinie füllt die Lücke zwischen breiten Unternehmensrichtlinien und der täglichen Praxis. Sie ist Ihre Aufgabe zu schreiben, durchzusetzen und zu aktualisieren, wenn sich Tools und Teamgewohnheiten entwickeln.


Die fünf Säulen einer Abteilungs-KI-Richtlinie

Jede Abteilungs-KI-Governance-Richtlinie muss fünf Dinge ansprechen:

  1. Genehmigte Tools: Welche KI-Tools Ihr Team unter welchen Bedingungen verwenden darf und welche verboten sind
  2. Datenklassifizierungsregeln: Welche Daten in KI-Tools eingegeben werden dürfen und welche nicht, basierend auf Sensibilitätsstufe
  3. Output-Überprüfungsstandards: Welche KI-Outputs vor der Verwendung eine menschliche Überprüfung erfordern und was diese Überprüfung umfasst
  4. Mitarbeiter-Schulungsanforderungen: Was jedes Teammitglied wissen muss, bevor es KI-Tools für die Arbeit einsetzt
  5. Eskalations- und Vorfallsprozess: Was einen Richtlinienverstoß darstellt, wie er zu melden ist und wie er gelöst wird

Die folgenden Abschnitte zeigen, wie Sie jede Säule aufbauen. Am Ende haben Sie alles, was Sie brauchen, um ein ein- bis zweiseitiges Richtliniendokument zu schreiben, das Ihr Team tatsächlich nutzen kann.


Schritt 1: Ihr KI-Tool-Inventar definieren

Die erste Entscheidung ist die Tool-Liste. Nicht Tools, die Ihr Team theoretisch verwenden könnte, sondern Tools, die sie gerade verwenden oder die Sie formal genehmigen möchten.

Beginnen Sie mit einer kurzen Umfrage. Fragen Sie Ihr Team, welche KI-Tools sie derzeit für Arbeitsaufgaben verwenden. Sie werden mehr finden, als Sie erwarten. Die meisten Teams haben bereits drei bis fünf Tools im Umlauf, die niemand formal überprüft hat.

Klassifizieren Sie dann jedes Tool in eine von drei Stufen:

Genehmigt: Freigegeben zur Verwendung mit den in Ihrer Richtlinie definierten Datenkategorien. Keine zusätzliche Genehmigung erforderlich.

Bedingt: Kann verwendet werden, aber nur unter bestimmten Bedingungen (z.B. keine Kundendaten, keine Finanzdaten, nur für interne Entwürfe).

Verboten: Darf unter keinen Umständen für Arbeitsaufgaben verwendet werden. Dazu gehören typischerweise öffentliche KI-Tools ohne Datenverarbeitungsvertrag.

KI-Tool-Inventar-Vorlage

Tool Anwendungsfall Erlaubte Datenstufe (siehe Schritt 2) Genehmigt von Überprüfungsdatum
Claude (Anthropic — Enterprise-Tarif) Entwurf, Zusammenfassung, Recherche Intern, Öffentlich-sicher Director Name 2026-07-01
ChatGPT (OpenAI — Enterprise-Tarif) Entwurf, Analyse Intern, Öffentlich-sicher Director Name 2026-07-01
ChatGPT (kostenloser Tarif / persönliches Konto) Keine Verboten
Otter.ai (Business-Plan) Meeting-Transkription Intern Director Name 2026-07-01
Generischer KI-Chatbot (ohne DPA) Keine Verboten
Grammarly (Business) Bearbeitung und Ton Intern, Vertraulich Director Name 2026-07-01

Die Spalte "Überprüfungsdatum" ist nicht optional. Tools ändern ihre Datenhandhabungspraktiken. Ein Tool, das letztes Jahr sicher war, kann seine Bedingungen aktualisiert haben. Legen Sie jeden genehmigten Tool auf einen mindestens halbjährlichen Überprüfungszyklus fest.

Ein praktischer Hinweis: Der Unterschied zwischen "Enterprise-Tarif" und "kostenlosem/persönlichem Tarif" ist enorm für die Datenhandhabung. Die meisten Enterprise-Pläne beinhalten einen Data Processing Agreement (DPA), der dem Anbieter verbietet, Ihre Daten zu trainieren. Kostenlose Tarife tun das oft nicht. Wissen Sie, auf welchem Tarif Ihre genehmigten Tools sind. Die EU-KI-Gesetz-Implementierungsleitlinien der Europäischen Kommission bieten ein nützliches Referenz-Framework zur Klassifizierung von KI-Tools nach Risikostufe, das eng mit dem Datensensibilitätsklassifizierungssystem in diesem Leitfaden übereinstimmt.


Schritt 2: Ihre Daten nach KI-Expositionsrisiko klassifizieren

Ihr Team verarbeitet verschiedene Arten von Daten, und nicht alle haben dasselbe Risikoprofil, wenn sie in ein KI-Tool eingegeben werden. Sie brauchen ein Klassifizierungssystem, das einfach genug ist, damit ein nicht-technischer Manager es im Moment anwenden kann.

Verwenden Sie vier Stufen. Das NIST AI Risk Management Framework verwendet einen ähnlichen gestaffelten Ansatz zur Datenklassifizierung und verankert Risikostufen in den tatsächlichen Konsequenzen des KI-Missbrauchs anstatt in abstrakten Sensibilitätslabels — eine Rahmung, die sich gut übersetzen lässt, wenn man Datenstufen einem nicht-technischen Team erklärt.

Öffentlich-sicher: Informationen, die bereits in der Öffentlichkeit zugänglich sind oder keine Vertraulichkeitserwartung haben. Firmenname, öffentliche Produktbeschreibungen, allgemeine Marktforschung. Kann in jedes genehmigte Tool eingegeben werden.

Intern: Informationen, die unternehmensintern vertraulich sind, aber nicht reguliert oder kundenbezogen. Interne Strategiedokumente, Team-OKRs, Projektpläne, interne Meeting-Notizen. Kann in genehmigte Tools mit DPA eingegeben werden, nicht in kostenlose Tarife.

Vertraulich: Kundennamen, Dealwerte, Vertragsbedingungen, Kontaktinformationen, Finanzdaten, Leistungsbeurteilungen. Erfordert ein Enterprise-Tarif-Tool mit einem unterzeichneten DPA. Kann nicht in kostenlose Tarife, persönliche Konten oder Tools eingegeben werden, die nicht auf der Genehmigungsliste stehen.

Reguliert: HIPAA-geschützte Gesundheitsinformationen, DSGVO-unterworfene personenbezogene Daten, Zahlungskartendaten, anwaltlich privilegierte Kommunikation. Erfordert eine explizite rechtliche/Compliance-Überprüfung vor jeder KI-Tool-Nutzung. Im Zweifel KI nicht verwenden. Zuerst eskalieren.

Einseitiger Datenklassifizierungsleitfaden für Ihr Team

Veröffentlichen Sie dies irgendwo sichtbar (Notion, gepinnter Slack-Post, Team-Wiki):

  • Einen Blog-Post-Entwurf schreiben? Öffentlich-sicher. Jedes genehmigte Tool verwenden.
  • Ein Meeting über den internen Produkt-Roadmap zusammenfassen? Intern. Nur genehmigte Enterprise-Tarif-Tools verwenden.
  • Follow-up-E-Mail mit Kundenfirmenname und Dealgröße erstellen? Vertraulich. Nur genehmigte Enterprise-Tools mit DPA.
  • Mit Gesundheits- oder Finanzdaten eines Kunden arbeiten? Reguliert. Stoppen und fragen, bevor KI verwendet wird.

Wenn Ihr Team unsicher ist, wo ein Datentyp einzuordnen ist, lautet die Regel: eine Stufe höher behandeln als Ihr erster Instinkt. Die Kosten der Übervor­sicht sind ein etwas langsamerer Workflow. Die Kosten der Unter­vorsicht sind ein Datenschutzvorfall.


Schritt 3: Output-Überprüfungsstandards festlegen

Nicht alle KI-Outputs tragen dasselbe Risiko. Eine grobe interne Agenda, die von KI generiert wurde, hat niedrige Kosten, wenn sie falsch ist. Ein Kundenangebot mit falschen Preisen, das von KI generiert wurde, hat hohe Kosten.

Definieren Sie, welche Output-Typen vor der Verwendung eine menschliche Überprüfung erfordern und was diese Überprüfung umfasst.

Output-Überprüfungsmatrix

Output-Typ Überprüfung erforderlich? Was zu überprüfen ist
Kundenorientierte Texte (Angebote, E-Mails, Berichte) Ja — obligatorisch Sachliche Genauigkeit, Markenstimme, keine Kundendatenfehler, Preise verifiziert
Interne Dokumente (Meeting-Zusammenfassungen, Projekt-Updates) Stichprobe Sachliche Genauigkeit, keine versehentlich enthaltenen sensiblen Daten
Finanzielle Zusammenfassungen oder Prognosen Ja — obligatorisch Zahlen gegen Quelle verifiziert, keine erfundenen Datenpunkte
HR-Kommunikation (Angebote, Leistungsfeedback) Ja — obligatorisch Rechtliche/HR-Überprüfung vor dem Versenden
Forschungszusammenfassungen für den internen Gebrauch Stichprobe Quellen zitiert oder überprüfbar, keine erfundenen Statistiken
Erstentwurf-Inhalte zur weiteren Bearbeitung Keine obligatorische Überprüfung Standardbearbeitungsprozess gilt

Die obligatorische Überprüfungsstufe ist nicht verhandelbar. Das sind die Kategorien, in denen KI-Halluzinationen reale Konsequenzen haben: für Kunden, für Compliance oder für rechtliche Exposition.

Bauen Sie den Überprüfungsschritt in den Workflow ein. Nicht als Option, sondern als benannten Checkpoint mit einem benannten Reviewer. Wenn es nicht im Workflow ist, wird es nicht konsistent stattfinden.


Schritt 4: Mitarbeiterverantwortlichkeiten definieren

Jedes Mitglied Ihres Teams, das KI für Arbeitsaufgaben nutzt, muss drei Dinge wissen. Dorthin zu gelangen erfordert gezieltes Training — das KI-Tools-Training-Playbook für nicht-technische Teams hat ein Format speziell für die Kommunikation von Datenregeln und Output-Überprüfungsstandards an Mitarbeiter ohne technischen Hintergrund.

  1. Welche Tools genehmigt und welche verboten sind
  2. Welche Daten sie in KI-Tools eingeben dürfen und welche nicht
  3. Was zu tun ist, wenn sie einen Fehler machen oder unsicher sind

Dokumentieren Sie dies als Anerkennungs-Checkliste. Wenn ein neues Teammitglied dem Team beitritt oder wenn Sie diese Richtlinie einführen, lassen Sie alle sie unterzeichnen.

Mitarbeiter-KI-Richtlinien-Anerkennungs-Checkliste

Mit meiner Unterschrift bestätige ich, dass ich die Abteilungs-KI-Governance-Richtlinie gelesen und verstanden habe und zustimme:

  • Nur genehmigte Tools aus dem Abteilungs-Tool-Inventar zu verwenden
  • Keine persönlichen oder kostenlosen KI-Konten für Arbeitsaufgaben zu verwenden
  • Datenklassifizierungsregeln zu befolgen, bevor ich Daten in ein KI-Tool eingebe
  • Eine menschliche Überprüfung für alle obligatorischen Output-Typen vor der Verwendung durchzuführen
  • Jeden vermuteten Richtlinienverstoß oder Datenhandhabungsfehler innerhalb von 24 Stunden an [zuständigen Verantwortlichen] zu melden
  • Die Abteilungs-KI-Schulung zu absolvieren, bevor KI-Tools für kundenorientierte Arbeit eingesetzt werden
  • Das Tool-Inventar und den Datenklassifizierungsleitfaden zu konsultieren, wenn ich bei einem konkreten Fall unsicher bin

Name: _______________ Datum: _______________ Vorgesetzte/r: _______________

Bewahren Sie diese Formulare auf. Wenn ein Richtlinienverstoß eintritt, ist die Anerkennungs-Checkliste Teil des Nachweises, dass eine Schulung durchgeführt und die Erwartungen klar kommuniziert wurden.


Schritt 5: Den Vorfalls-Eskalationsprozess schreiben

Richtlinienverstöße passieren. Das Ziel ist nicht null Vorfälle. Es ist schnelle Eindämmung und klare Verantwortlichkeit, wenn sie auftreten.

Definieren Sie drei Dinge: was als Verstoß gilt, wen man benachrichtigt und wie man ihn dokumentiert.

Was als Richtlinienverstoß gilt:

  • Ein verbotenes Tool für eine Arbeitsaufgabe zu verwenden
  • Vertrauliche oder regulierte Daten in ein nicht genehmigtes Tool oder persönliches Konto einzugeben
  • KI-generierten kundenorientierten Output ohne Abschluss der obligatorischen Überprüfung zu teilen
  • Das Nichtmelden eines bekannten oder vermuteten Verstoßes

Wenn ein Verstoß vermutet wird:

  1. Sofort aufhören, das Tool zu verwenden
  2. Den direkten Vorgesetzten und den zuständigen Richtlinieneigentümer innerhalb von 24 Stunden benachrichtigen
  3. Dokumentieren, was passiert ist: welches Tool, welche Daten, wann und wie der Fehler entdeckt wurde
  4. Nicht versuchen, den Vorfall zu löschen oder zu verbergen

Wen zu benachrichtigen ist:

  • Direkter Vorgesetzter (immer)
  • Abteilungs-Richtlinieneigentümer (immer)
  • Rechtliche/Compliance-Abteilung (wenn regulierte Daten betroffen waren)
  • IT-Sicherheit (wenn es Grund zu der Annahme gibt, dass Daten extern exponiert wurden)

Wie man es dokumentiert: Führen Sie ein einfaches Vorfallsprotokoll in einem gemeinsamen Dokument oder Ticketing-System. Felder: Datum, Teammitglied, betroffenes Tool, Datenklassifizierung, Vorfallsbeschreibung, ergriffene Lösungsschritte, Datum der Lösung.

Das Protokoll ist aus zwei Gründen wichtig. Erstens schafft es Verantwortlichkeit und zeigt Sorgfalt, wenn der Vorfall extern überprüft wird. Zweitens deckt es Muster auf. Wenn dasselbe Tool in drei Vorfällen auftaucht, ist das ein Signal, seinen Genehmigungsstatus neu zu bewerten.


Schritt 6: Die Richtlinie in einfacher Sprache schreiben

Das Richtliniendokument selbst sollte ein bis zwei Seiten lang sein. Kein Rechtsdokument. Kein 20-seitiges Compliance-Handbuch. Ein Dokument, das Ihr Team tatsächlich lesen wird.

KI-Governance-Richtlinien-Vorlage


[Abteilungsname] KI-Governance-Richtlinie Inkrafttreten: [Datum] | Überprüfungsdatum: [Datum] | Verantwortliche/r: [Name]

Zweck Diese Richtlinie legt Leitlinien für die KI-Tool-Nutzung in [Abteilungsname] fest, um Kundendaten zu schützen, Unternehmensstandards einzuhalten und sicherzustellen, dass KI-generierter Output Qualitätsanforderungen erfüllt.

Genehmigte Tools Siehe KI-Tool-Inventar [Link]. Verwenden Sie nur Tools, die als Genehmigt oder Bedingt aufgeführt sind. Verbotene Tools dürfen unter keinen Umständen für Arbeitsaufgaben verwendet werden.

Datenhandhabungsregeln Bevor Sie Daten in ein KI-Tool eingeben, überprüfen Sie den Datenklassifizierungsleitfaden [Link]. Geben Sie keine vertraulichen oder regulierten Daten in ein Tool ohne unterzeichnetes Data Processing Agreement (DPA) ein. Im Zweifel behandeln Sie Daten um eine Stufe sensitiver als Ihr erster Instinkt.

Output-Überprüfungsanforderungen KI-generierter Output für kundenorientierte Inhalte, Finanzzusammenfassungen und HR-Kommunikation erfordert eine menschliche Überprüfung vor der Verwendung. Details finden Sie in der Output-Überprüfungsmatrix [Link].

Ihre Verantwortlichkeiten Durch die Verwendung von KI-Tools für Arbeitsaufgaben stimmen Sie zu, diese Richtlinie zu befolgen. Füllen Sie die Mitarbeiter-Anerkennungs-Checkliste aus, bevor Sie KI für kundenorientierte Arbeit verwenden.

Wenn etwas schiefläuft Melden Sie vermutete Verstöße innerhalb von 24 Stunden an [Vorgesetztenname] und [Richtlinieneigentümername]. Vollständige Schritte finden Sie im Eskalationsprozess [Link].

Fragen Kontaktieren Sie [Richtlinieneigentümername] unter [Kontakt].


Halten Sie es unter 500 Wörtern. Verlinken Sie auf die detaillierten Vorlagen, anstatt sie einzubetten. Das Richtliniendokument ist der Einstiegspunkt, nicht die Enzyklopädie.


Schritt 7: Einen Überprüfungs- und Aktualisierungsrhythmus festlegen

Diese Richtlinie wird innerhalb von sechs Monaten veraltet sein. Nicht weil Sie sie schlecht geschrieben haben, sondern weil sich Tools ändern, Teams ändern und KI-Fähigkeiten sich schneller entwickeln als jedes statische Dokument verfolgen kann. Der KI-Tools-Stack-Auswahlrahmen beinhaltet einen vierteljährlichen Stack-Audit-Prozess — das Ausführen beider Überprüfungen im gleichen Rhythmus verhindert, dass Tool-Inventar-Drift Governance-Lücken schafft.

Bauen Sie eine vierteljährliche Überprüfung ein:

Vierteljährliche Überprüfungsauslöser:

  • Jedes neue KI-Tool, das zur genehmigten Liste hinzugefügt oder von ihr entfernt wird
  • Jeder Vorfall im Vorfallsprotokoll
  • Jede Änderung der unternehmensweiten KI-Richtlinie, die abteilungsspezifische Details betrifft
  • Jede wesentliche Aktualisierung der Nutzungsbedingungen oder Datenhandhabungspraktiken eines Tools

Wenn ein Mitarbeiter ein neues Tool einbringt: Das passiert ständig. Jemand findet ein Produktivitätstool, fängt an es zu benutzen und erwähnt es drei Monate später in einem Meeting. Warten Sie nicht auf die vierteljährliche Überprüfung. Setzen Sie die Erwartung, dass neue Tools vor der Verwendung für Arbeitsaufgaben eine Richtlinieneigentümer-Überprüfung erfordern, und machen Sie den Überprüfungsprozess schnell (Ziel: 48 Stunden, nicht zwei Wochen).

Wer die Überprüfung auslöst: Der Richtlinieneigentümer, durch eine Kalender-Erinnerung. Nicht "wenn wir dazu kommen." Blockieren Sie vierteljährlich 90 Minuten.


Häufige Fallstricke

Richtlinien, die KI vollständig verbieten und Shadow-Nutzung antreiben. Wenn Ihre Reaktion auf KI-Risiken ein pauschales Verbot ist, wird Ihr Team KI trotzdem verwenden, nur ohne es Ihnen zu sagen. Gartners Forschung zur KI-Governance in Unternehmensumgebungen fand heraus, dass pauschale KI-Verbote die Shadow-KI-Nutzung innerhalb von 90 Tagen um 40% erhöhen, da Mitarbeiter Umgehungslösungen finden, während die Organisation die Sichtbarkeit über die tatsächliche Risikoexposition verliert. Shadow-KI ist gefährlicher als geregelte KI. Erstellen Sie eine freizügige genehmigte Liste und eine klare Verbotsliste. Machen Sie es einfach für Menschen, im zulässigen Rahmen zu bleiben.

Zu vage Datenstufen. "Sensible Daten" ist keine Stufe. "Kundennamen und Dealwerte" ist eine Stufe. Je spezifischer Ihre Datenklassifizierungssprache ist, desto einfacher ist es für Teammitglieder, sie anzuwenden, ohne jedes Mal zu fragen.

Kein Verantwortungsträger. Eine Richtlinie ohne einen namentlich genannten Eigentümer ist eine Richtlinie, die niemand durchsetzt. Weisen Sie einer Person zu, die für das Tool-Inventar, das Vorfallsprotokoll und die vierteljährliche Überprüfung verantwortlich ist. Es muss keine Vollzeitrolle sein, aber es muss eine spezifische Person sein.

Die erste Version als dauerhaft behandeln. Die erste Version Ihrer Richtlinie ist ein Ausgangspunkt. Rechnen Sie damit, sie innerhalb von 90 Tagen zu aktualisieren, wenn Sie lernen, wie Ihr Team KI tatsächlich nutzt. Bauen Sie diese Erwartung in die Kommunikation der Richtlinie beim Launch ein.


Nächste Schritte

Bevor Sie dies dem gesamten Team vorstellen, teilen Sie den Entwurf mit zwei Personen: jemandem aus der Rechts- oder Compliance-Abteilung und jemandem aus der IT-Sicherheit. Nicht für eine vollständige Überprüfung, sondern für ein 30-minütiges Abstimmungsgespräch. Stellen Sie ihnen zwei Fragen: "Widerspricht hier etwas der Unternehmensrichtlinie?" und "Gibt es Datenhandhabungsregeln, die wir übersehen haben?"

Dieses Gespräch dauert 30 Minuten und verhindert ein viel längeres Gespräch später. Sobald Sie deren Input haben, finalisieren Sie die Richtlinie, führen Sie die Anerkennungs-Checklisten-Sitzung mit Ihrem Team durch und legen Sie Ihr erstes vierteljährliches Überprüfungsdatum fest.


Weiterführende Artikel