Der EU AI Act betrifft viele Schweizer Unternehmen bereits heute, obwohl die Schweiz kein EU-Mitglied ist. Die Rechtsgrundlage liegt im territorialen Anwendungsbereich aus Art. 2: Er erfasst nicht nur Unternehmen in der EU, sondern auch Anbieter und bestimmte Akteure in Drittstaaten, wenn KI-Systeme auf den EU-Markt gelangen oder ihr Output in der EU genutzt wird. Für Schweizer Geschäftsleitungen ist damit nicht die Postleitzahl entscheidend, sondern der Marktzugang, der Kundenkreis und der tatsächliche Einsatz der KI.
Der praktische Hebel heißt Brussels Effect. Gemeint ist ein bekanntes Muster aus der Regulierung: Wer Zugang zum EU-Markt behalten will, übernimmt EU-Standards oft freiwillig oder faktisch zwingend, weil Vertrieb, Beschaffung und Due Diligence sonst ins Stocken geraten. Ein Zürcher SaaS-Anbieter mit Kunden in München, Wien und Mailand wird deshalb regelmäßig nicht gefragt, ob er Schweizer Recht oder EU-Recht sympathischer findet, sondern ob seine Prozesse bis zum 2. August 2026 belastbar dokumentiert sind.
Für Schweizer Unternehmen ist das keine akademische Frage, sondern eine Priorisierung für 2026. Seit dem 2. Februar 2025 gilt bereits die Pflicht zur KI-Kompetenz nach Art. 4, während zentrale Betreiber-, Transparenz- und Hochrisiko-Pflichten ab dem 2. August 2026 in der Praxis deutlich schärfer relevant werden. Wenn Sie die Grundpflicht zu Art. 4 zuerst einordnen wollen, ist der Beitrag KI-Schulungspflicht nach Artikel 4 der sinnvollste Einstieg.
Warum der EU AI Act Schweizer Firmen trotz Nicht-EU-Sitz erreicht
Schweizer Firmen sind nicht deshalb betroffen, weil Brüssel globale Symbolpolitik betreibt, sondern weil Art. 2 den Anwendungsbereich bewusst extraterritorial formuliert. Betroffen sein kann erstens ein Schweizer Anbieter, der ein KI-System in die EU verkauft, zweitens ein Unternehmen außerhalb der EU, dessen KI-Output in der EU genutzt wird, und drittens ein Geschäftsmodell, das gezielt EU-Kunden adressiert. Schon ein deutschsprachiges KI-Tool mit EU-Verträgen, Euro-Preisen oder Vertrieb in die EU kann diese Schwelle praktisch überschreiten.
Der Marktzugang ist der eigentliche Druckpunkt. Schweizer Medtech-, Fintech-, HR- und Software-Unternehmen verkaufen häufig nicht nur in die Schweiz, sondern in den DACH- und EU-Raum; genau dort erwarten Beschaffungsabteilungen, Investoren und Großkunden inzwischen dieselbe Governance, die sie auch von einem Anbieter aus Deutschland verlangen würden. Ein Beispiel: Verkauft ein Genfer Anbieter ein KI-gestütztes Recruiting-Tool an einen Arbeitgeber in Frankreich, geht es nicht mehr nur um Produktfunktion, sondern um Risikoklasse, menschliche Aufsicht und Dokumentation.
Der Unterschied zur DSGVO liegt im Detail, nicht in der Grundlogik. Der AI Act fragt stärker danach, welche Rolle Sie im System einnehmen, welche Risikoklasse vorliegt und wo der Output verwendet wird. Für die operative Einordnung hilft der Vergleichsartikel KI-Verordnung vs. DSGVO, weil dort die Parallelität beider Regime sauber beschrieben ist.
Die drei Szenarien für Schweizer Unternehmen
Szenario 1: Reiner Schweizer Markt ohne EU-Bezug
Ein Unternehmen mit reinem Schweizer Markt kann außerhalb des unmittelbaren AI-Act-Kerns liegen, wenn weder ein KI-System in die EU vermarktet wird noch sein Output in der EU genutzt wird. Ein Treuhandbüro in Bern, das interne KI nur für Schweizer Mandate verwendet und keine EU-Kunden bedient, hat deshalb eine andere Ausgangslage als ein Exporteur. Das entbindet aber nicht von Vorbereitung, weil dieselben Tools, dieselben Mitarbeitenden und dieselben Lieferketten oft innerhalb weniger Monate auch EU-Bezug bekommen.
Auch im reinen Schweiz-Szenario ist eine Vorstufe sinnvoll. Ein KI-Inventar, eine kurze Rollenmatrix und eine dokumentierte Mindestschulung kosten deutlich weniger als ein späterer Ad-hoc-Rollout in 30 Tagen. Wer dafür einen kompakten Startpunkt sucht, kann die AI-Act-Checkliste für Unternehmen als Arbeitsliste nutzen.
Szenario 2: Schweizer Firma exportiert KI oder KI-gestützte Leistungen in die EU
Ein Schweizer Anbieter mit EU-Export fällt regelmäßig in den harten Anwendungsbereich des AI Act. Wenn Sie ein KI-System, ein KI-Feature oder ein KI-gestütztes Produkt in die EU verkaufen, zählt nicht der Firmensitz in Zürich oder Zug, sondern die Bereitstellung auf dem EU-Markt gemäß Art. 2. Bei Hochrisiko-Fällen kommen dann je nach System weitere Anforderungen hinzu, die sich aus Einstufung, Konformität, Dokumentation und Governance ergeben.
Das Risiko steigt sprunghaft, wenn Ihr Produkt in einem Bereich aus Anhang III eingesetzt wird. Ein Schweizer HR-Tech-Anbieter, der CV-Screening an deutsche Arbeitgeber verkauft, bewegt sich näher an Hochrisiko-KI als ein internes Marketing-Tool; die Folge sind ab dem 2. August 2026 andere Erwartungen an menschliche Aufsicht, Datenqualität und Betreiberprozesse. Für diese Einordnung ist Hochrisiko-KI nach Annex III der passende Vertiefungsartikel.
Szenario 3: Schweizer Firma hat EU-Kunden oder EU-Niederlassungen und nutzt Standard-KI
Das häufigste Szenario ist nicht der eigene KI-Export, sondern die Nutzung von Standard-KI mit EU-Kundenbezug. Wer in Basel, Lausanne oder St. Gallen mit ChatGPT, Copilot oder einer branchenspezifischen KI arbeitet und damit Output für Kunden in Deutschland oder der EU erzeugt, sollte die Reichweite von Art. 2 nicht unterschätzen. Genau hier greift der Brussels Effect besonders hart, weil Verträge, Sicherheitsfragebögen und Vendor-Assessments häufig vor der Behörde kommen.
In diesem dritten Szenario ist Art. 4 meist die erste belastbare Pflicht. Mitarbeitende müssen seit dem 2. Februar 2025 über ein ausreichendes Maß an KI-Kompetenz verfügen, und diese Kompetenz muss sich am konkreten Einsatz orientieren: Vertrieb braucht andere Leitplanken als HR, Compliance oder Produktteam. Für typische Fehlannahmen bei Standard-Tools lohnt sich zusätzlich der Beitrag ChatGPT im Unternehmen unter dem AI Act.
Welche Pflichten in der Praxis ausgelöst werden
Die erste Pflicht für viele Schweizer Unternehmen ist nicht CE-Kennzeichnung, sondern Organisationsfähigkeit. Art. 4 verlangt Maßnahmen zur KI-Kompetenz bei Anbietern und Betreibern; praktisch heißt das Schulung, Rollendefinition, Nutzungsregeln und Nachweis. Ein Beispiel aus der Praxis: Wenn ein Sales-Team Angebote mit generativer KI vorbereitet, muss klar geregelt sein, welche Daten eingegeben werden dürfen, wer Ergebnisse prüft und wann ein Mensch die Freigabe stoppt.
Sobald Hochrisiko-KI im Spiel ist, reicht Grundwissen nicht mehr aus. Für Betreiber hochriskanter Systeme wird Art. 26 relevant, etwa bei menschlicher Aufsicht, Nutzung nach Anleitung, Überwachung und Dokumentation. Ein Schweizer Unternehmen mit KI im Recruiting oder Kreditscoring braucht deshalb nicht nur eine allgemeine Schulung, sondern definierte Verantwortliche mit Autorität, Kompetenz und Eskalationsweg.
Transparenzpflichten werden für Schweizer Anbieter und Nutzer mit EU-Kontakt ebenfalls handfest. Art. 50 betrifft bestimmte Systeme, etwa wenn Nutzer mit KI interagieren oder bestimmte Inhalte künstlich erzeugt oder manipuliert werden. Ein Beispiel: Ein Schweizer Kundenservice-Chatbot auf einer deutschsprachigen Seite für EU-Kunden muss bis zur breiten Anwendbarkeit der Transparenzpflichten sauber als KI-Interaktion ausgestaltet werden.
Die Bußgeldfrage sollte nüchtern eingeordnet werden. Art. 99 nennt bis zu 35 Mio. EUR oder 7 Prozent des weltweiten Jahresumsatzes für verbotene Praktiken sowie bis zu 15 Mio. EUR oder 3 Prozent für verschiedene Betreiber- und Transparenzpflichten; ein eigener unionsweiter Bußgeldtatbestand nur für Art. 4 steht dort nicht. Wer das falsch als Entwarnung liest, blendet das eigentliche Risiko aus: fehlende KI-Kompetenz verschlechtert Ihre Sorgfaltsposition bei Vorfällen, Audits und Vertragsverhandlungen. Die Bußgeldlogik ist im Detail in AI Act Bußgelder und Strafen aufbereitet.
Welche Schritte Schweizer Unternehmen jetzt gehen sollten
Der pragmische Start besteht aus vier Arbeitspaketen in den nächsten 30 bis 90 Tagen. Erfassen Sie zuerst alle eingesetzten KI-Systeme samt Zweck, Fachbereich und Kundenbezug; trennen Sie danach strikt zwischen rein internem Schweiz-Einsatz, EU-Kundenbezug und echter Vermarktung in die EU. Diese Inventur ist die Voraussetzung dafür, Art. 2, Art. 4, Art. 26 und Art. 50 überhaupt sauber auf Ihr Unternehmen anzuwenden.
Definieren Sie anschließend die drei Rollenebenen. Ebene 1 sind allgemeine Nutzer von Standard-KI, Ebene 2 sind Fachverantwortliche in Funktionen wie HR, Compliance oder Vertrieb, Ebene 3 sind Eigentümer kritischer Prozesse oder hochriskanter Anwendungsfälle. Diese Staffelung reduziert Streuverluste und passt zur Logik von Art. 4, weil die Verordnung kein Einheitsseminar für alle verlangt, sondern angemessene Maßnahmen im konkreten Kontext. Für die Umsetzung im Unternehmen hilft der Leitfaden KI-Kompetenz im Team.
Dokumentieren Sie drittens, bevor ein Kunde danach fragt. Ein belastbarer Nachweis enthält mindestens Schulungsdatum, Inhalte, Zielgruppe, Testergebnis, Verantwortliche und Versionsstand; wer erst bei einer Ausschreibung oder einem Audit damit beginnt, verliert Wochen. Für Schweizer Unternehmen ist dieser Nachweis doppelt nützlich, weil er EU-Compliance sichtbar macht und parallel bei Förder- oder Steuerargumentation intern anschlussfähig bleibt. Wenn Sie die Schweiz-Perspektive zu Finanzierung und Absetzbarkeit vertiefen wollen, ergänzt KI-Schulung-Förderung Schweiz den Compliance-Blick sinnvoll.
Planen Sie viertens nicht bis August 2026 auf Sicht, sondern rückwärts ab diesem Datum. Wer im zweiten Quartal 2026 erst feststellt, dass HR, Vertrieb und Produktteam unterschiedliche Pflichten haben, wird weder Schulung noch Richtlinien noch Vertragsunterlagen rechtzeitig harmonisieren. Der schnellste Weg ist deshalb: Inventar in 30 Tagen, Rollen- und Pflichtenzuordnung in 60 Tagen, dokumentierter Rollout in 90 Tagen.
Schweizer Unternehmen brauchen für den EU AI Act keinen Alarmismus, sondern einen sauberen Filter: Wo endet rein schweizerische KI-Nutzung, wo beginnt EU-Marktbezug und welche Pflicht wird dadurch konkret ausgelöst? Wer diese drei Fragen mit Bezug auf Art. 2, Art. 4, Art. 26 und Art. 50 beantwortet, reduziert Rechtsunsicherheit schneller als mit allgemeinen Debatten über die Reichweite von Brüssel.