KI und Datenschutz: Was Schweizer KMU wissen müssen
Weniger als ein Viertel der kleinen KMU haben Datenschutzregeln für KI. Dieser Artikel zeigt, wie Sie das ändern — inkl. kostenloser Muster-Richtlinie zum Herunterladen.
Hier Muster-Richtlinie herunterladen
Die Grafik aus der AXA KMU-Arbeitsmarktstudie spricht Bände: Nur rund ein Drittel der KMU, die KI einsetzen, haben eine Datenschutzregelung für den Umgang mit KI. Bei kleinen KMU ist es sogar weniger als ein Viertel.

Das ist ein Problem. Denn was viele nicht wissen: Alles, was Sie in ChatGPT & Co. eingeben, kann zum Training zukünftiger Modelle verwendet werden. Denn alles was Sie in KI eingeben, fliesst gewissermassen in einen grossen Topf, aus dem jemand anderes diese Daten wieder herausfischen kann.
Die nächste Stufe: KI-Agenten
Noch gefährlicher als ChatGPT im Browser sind sogenannte KI-Agenten wie "OpenClaw" (früher Moltbot oder ClawdBot). Diese Tools laufen dauerhaft im Hintergrund auf dem Computer und haben Zugriff auf E-Mails, Kalender, Dateien – teils sogar Bankkonten. Sie handeln proaktiv, ohne dass jemand einen Befehl gibt.
Das Risiko: Im Januar 2026 ging "Moltbook" viral – ein soziales Netzwerk, auf dem sich über eine Million solcher KI-Agenten austauschen. Dabei wurden vertrauliche Informationen ihrer "Besitzer" öffentlich geteilt, darunter Passwörter und E-Mail-Inhalte. Die Plattform wurde innerhalb von Minuten gehackt.
Für KMU bedeutet das: In einer KI-Richtlinie sollte klar geregelt sein, dass die Installation von KI-Agenten auf Firmengeräten nicht erlaubt ist – oder nur nach expliziter Freigabe durch die IT.
Wie Ihre Daten konkret abfliessen können
Viele denken: «Die Daten landen irgendwo in einem Server – aber das ist doch sicher.» Leider ist es nicht so einfach. Hier sind die wichtigsten Wege, wie Ihre Eingaben anderen zugänglich werden können:
1. Training der KI-Modelle Ihre Eingaben können verwendet werden, um die KI zu verbessern. Die KI «lernt» dann von Ihren Daten und könnte sie später – in leicht veränderter Form – an andere Nutzer ausgeben. Ein Beispiel: Sie geben vertrauliche Produktnamen oder interne Abkürzungen ein. Monate später könnte jemand eine ähnliche Frage stellen und die KI antwortet mit Informationen, die nur aus Ihren Eingaben stammen können. (So geschehen bei Samsung 2023: https://t3n.de/news/samsung-semiconductor-daten-chatgpt-datenleck-1545913/)
2. Menschliche Qualitätskontrolle Viele KI-Anbieter lassen Menschen stichprobenartig Konversationen lesen, um die Qualität zu prüfen. Diese Mitarbeiter – oft externe Dienstleister in anderen Ländern – sehen dann Ihre vertraulichen Daten.
3. Datenpannen und Sicherheitslücken Auch die Server der KI-Anbieter können gehackt werden. Im März 2023 gab es bei ChatGPT einen Bug, bei dem Nutzer kurzzeitig die Chat-Verläufe anderer Personen sehen konnten – inklusive deren vertraulicher Eingaben (s. https://www.computerbase.de/news/apps/datenleck-chatgpt-zeigt-chat-verlaeufe-in-fremden-konten-an.86859/). Solche Vorfälle sind selten, aber sie passieren.
4. Rechtliche Herausgabepflichten Die meisten KI-Anbieter haben ihren Sitz in den USA. Dort können Behörden unter bestimmten Umständen Zugriff auf gespeicherte Daten verlangen – oft ohne dass Sie davon erfahren. Für Schweizer KMU bedeutet das: Ihre Daten könnten plötzlich ausserhalb Ihrer Kontrolle sein.
Warum ein Verbot oft das Gegenteil bewirkt
Die naheliegende Reaktion vieler Geschäftsleitungen: ChatGPT & Co. sperren. Problem gelöst. Würde man meinen.
Leider wird das Problem dadurch erst recht verstärkt, denn ein Verbot führt oft zu einer Schatten-IT (Nutzung auf eigene Faust). Mitarbeitende nutzen KI-Tools dann einfach auf ihren privaten Geräten oder über private Accounts. Die Geschäftsdaten landen trotzdem in der KI – nur auf einem noch unsichereren Weg. Sie haben keine Kontrolle mehr darüber, was wohin fliesst.
Statt zu verbieten, sollten Sie ermöglichen. Aber richtig.
Was Sie konkret tun können
1. Eine sichere Alternative bereitstellen
Wenn Ihr Unternehmen bereits Microsoft 365 nutzt, haben Sie wahrscheinlich Zugang zu Microsoft Copilot. Der Vorteil: Copilot verarbeitet Ihre Daten nicht für das Training von KI-Modellen. Die Daten bleiben in Ihrer Microsoft-365-Umgebung.
Falls Sie ChatGPT oder ähnliche Tools nutzen möchten: Die kostenpflichtige Team- oder Enterprise-Version verspricht, dass eingegebene Daten nicht zum Training verwendet werden. Die kostenlose Version tut das hingegen sehr wohl.
2. Klare Regeln aufstellen
Was darf in KI-Tools eingegeben werden? Was nicht? Diese Frage sollte nicht jeder Mitarbeitende für sich selbst beantworten müssen.
Grundregel: Vertrauen Sie einem KI-Tool nichts an, was Sie nicht auch Ihrer Konkurrenz anvertrauen würden.
Ein einfaches Ampel-System hilft bei der Orientierung:
- ✅ Grün (Öffentlich): Informationen, die sowieso auf Ihrer Website stehen. Hier dürfen Sie jedes Tool nutzen.
- ⚠️ Gelb (Intern): z.B. interne Kalkulationen, Strategiepapiere, Prozessdokumentationen. Nur mit Business-Lizenzen nutzen, bei denen das Training deaktiviert ist.
- 🛑 Rot (Vertraulich/Personen): z.B. Lohnlisten oder Kundendaten. Diese gehören nie in einen Chatbot – es sei denn, sie sind vollständig anonymisiert.
Tipp zur Anonymisierung: Ersetzen Sie Namen durch Platzhalter ("Kunde A" statt "Herr Müller") und entfernen Sie alle Details, die Rückschlüsse auf Personen zulassen.
3. Die Trainings-Funktion deaktivieren
In den Einstellungen von ChatGPT und ähnlichen Tools können Sie verhindern, dass Ihre Eingaben zum Training zukünftiger Modelle verwendet werden. Das reduziert das Risiko – beseitigt es aber nicht vollständig.

4. Mitarbeitende sensibilisieren
Die beste Richtlinie nützt nichts, wenn niemand davon weiss. Sprechen Sie das Thema aktiv an. Erklären Sie, warum Datenschutz bei KI wichtig ist – nicht mit erhobenem Zeigefinger, sondern mit konkreten Beispielen wie dem Samsung-Fall.
Wichtig ist auch: KI-Modelle können "halluzinieren", d.h. sie erfinden Fakten, die überzeugend klingen, aber falsch sind. Mitarbeitende sollten wissen, dass sie KI-Outputs immer kritisch prüfen müssen, bevor sie diese verwenden. Besonders bei rechtlichen Texten, Zahlen oder Faktenbehauptungen.
Die Lösung: Eine einfache KI-Richtlinie
Sie brauchen kein 50-seitiges Compliance-Dokument. Eine einfache, verständliche Richtlinie reicht für den Anfang. Sie sollte folgende Punkte abdecken:
- Welche KI-Tools sind erlaubt? (Liste der freigegebenen Anwendungen)
- Was darf eingegeben werden? (Was ist ok, was ist tabu)
- Wer ist verantwortlich? (Ansprechperson für Fragen)
- Was tun bei Unsicherheit? (Im Zweifel nachfragen)
Damit Sie schnell starten können, habe ich eine Muster-Richtlinie für KMU erstellt. Einfach herunterladen und anpassen. Keine juristischen Fachbegriffe, keine komplizierten Formulierungen – einfach verständlich und sofort einsetzbar.
Muster-Richtlinie herunterladen
💡 Tipp: Done is better than perfect. Starten Sie mit einer ersten Version und passen Sie sie laufend an.
Was sagt das Gesetz?
Das Schweizer Datenschutzgesetz (DSG) ist technologieneutral formuliert. Das heisst: Es gilt auch für KI. Konkret bedeutet das:
- Transparenzpflicht: Betroffene Personen müssen wissen, wenn ihre Daten verarbeitet werden – auch durch KI.
- Zweckbindung: Daten dürfen nur für den angegebenen Zweck verwendet werden.
- Datensicherheit: Angemessene technische und organisatorische Massnahmen sind Pflicht.
Wenn Mitarbeitende Kundendaten in ChatGPT eingeben, ohne dass die Kunden davon wissen, kann das ein Verstoss gegen das DSG sein. Die Sanktionen? Bis zu 250'000 Franken Busse – und zwar für die verantwortliche Person persönlich, nicht für das Unternehmen.
Wichtig für Business-Accounts: Sobald Sie Personendaten in ein KI-Tool eingeben, wird der Anbieter rechtlich zu Ihrem "Auftragsbearbeiter". Das bedeutet: Es sollte ein Auftragsbearbeitungsvertrag (AVV oder englisch “Data Processing Agreement (DPA)”) vorliegen. Dieser ist meist nur bei Business-Versionen verfügbar und muss oft aktiv in den Admin-Einstellungen unterzeichnet werden. Ohne diesen Schritt bewegen Sie sich in einer rechtlichen Grauzone.
Fazit: Ermöglichen statt verbieten
KI-Tools sind gekommen, um zu bleiben. Sie zu ignorieren oder zu verbieten ist keine Lösung. Ihre Mitarbeitenden werden sie trotzdem nutzen – nur dann ohne Ihre Kontrolle.
Die bessere Strategie: Sichere Alternativen bereitstellen, klare Regeln kommunizieren und Mitarbeitende sensibilisieren. Das kostet vielleicht einen Tag Arbeit. Ein Datenleck hingegen kann Sie Monate kosten – ganz zu schweigen von den rechtlichen Konsequenzen.
KI ist wie ein Akkubohrer: Ein mächtiges Werkzeug, das die Arbeit erleichtert. Aber man muss wissen, wie man es richtig hält. Sonst bohrt man sich ins eigene Bein.
Sie möchten KI in Ihrem Betrieb einsetzen, aber sicher? Ich helfe Schweizer KMU dabei, KI-Lösungen datenschutzkonform umzusetzen – von der Richtlinie bis zur Implementierung.