Veröffentlicht am März 15, 2024

Die ethische Nutzung von KI in der Schweiz ist keine abstrakte Debatte, sondern ein konkretes Werkzeug des Risikomanagements, das die persönliche Haftung von Führungskräften direkt beeinflusst.

  • Das revidierte Datenschutzgesetz (nDSG) sieht persönliche Bussen für verantwortliche Manager vor, nicht nur für das Unternehmen.
  • Die unkritische Übernahme von KI-Ergebnissen untergräbt die fachliche Sorgfaltspflicht und führt zu nachweisbaren Qualitätsverlusten.

Empfehlung: Etablieren Sie einen systematischen Prüfprozess für alle KI-generierten Inhalte und delegieren Sie niemals die finale Entscheidung an eine Maschine.

Künstliche Intelligenz ist mehr als nur ein Schlagwort; sie ist bereits ein fester Bestandteil des beruflichen Alltags vieler Schweizer Fach- und Führungskräfte. Von der automatisierten Erstellung von Berichten bis hin zur Analyse von Marktdaten versprechen KI-Tools eine nie dagewesene Effizienz. Doch mit dieser Macht geht eine neue Form der Verantwortung einher, die oft unterschätzt wird. Die Diskussionen drehen sich häufig um allgemeine Ratschläge wie „seien Sie transparent“ oder „vermeiden Sie Voreingenommenheit“. Diese gut gemeinten Appelle bleiben jedoch abstrakt und helfen im konkreten Arbeitsalltag wenig.

Die eigentliche Herausforderung liegt nicht in der Frage, *ob* wir KI nutzen, sondern *wie*. Insbesondere im Schweizer Rechts- und Wirtschaftsraum, der von Präzision und Verlässlichkeit geprägt ist, kann ein naiver Umgang mit KI schnell zu einem Bumerang werden. Es geht um rechtliche Fallstricke im neuen Datenschutzgesetz (nDSG), um subtile Qualitätsverluste durch unbemerkte Fehler und um die langfristige Erosion kritischer Denkfähigkeiten. Doch was wäre, wenn der Schlüssel zur Lösung nicht in technischer Zurückhaltung, sondern in einem neuen, ethisch fundierten Kompetenz-Framework liegt? Wenn Ethik nicht als Bremse, sondern als Beschleuniger für qualitativ hochwertige und rechtssichere Arbeit verstanden wird?

Dieser Artikel positioniert KI-Ethik als praktisches Werkzeug des Risikomanagements. Wir zeigen Ihnen, wie Sie die typischen Fallen vermeiden, Ihre persönliche Haftung minimieren und KI als das einsetzen, was sie sein sollte: ein leistungsstarkes Instrument in den Händen eines kompetenten Experten – und nicht umgekehrt. Anhand konkreter Schritte und schweizspezifischer Beispiele bauen Sie eine robuste Brücke zwischen technologischer Innovation und beruflicher Sorgfaltspflicht.

Der folgende Leitfaden ist strukturiert, um Sie von den rechtlichen Grundlagen über die praktische Qualitätskontrolle bis hin zu strategischen Anwendungsfällen zu führen. Jeder Abschnitt bietet Ihnen konkrete Werkzeuge für Ihren Arbeitsalltag.

Warum unkritische KI-Nutzung 50% der Schweizer Firmen datenschutzrechtlich gefährdet?

Die Einführung des revidierten Schweizer Datenschutzgesetzes (nDSG) im September 2023 hat die Spielregeln für den Umgang mit Personendaten fundamental verändert. Viele Unternehmen sind sich jedoch nicht bewusst, in welchem Ausmass der unreflektierte Einsatz von KI-Tools, insbesondere von US-amerikanischen Anbietern, ein direktes rechtliches und finanzielles Risiko darstellt. Das Hauptproblem liegt in der Übermittlung von Daten an Server ausserhalb der Schweiz und der EU, was oft ohne explizite Einwilligung oder ausreichende rechtliche Absicherung geschieht. Geben Mitarbeitende beispielsweise Kundendaten in ein KI-Tool ein, dessen Server in den USA stehen, findet ein internationaler Datentransfer statt, der strengen Regeln unterliegt.

Die Konsequenzen sind gravierend. Im Gegensatz zu früheren Regelungen zielt das nDSG direkt auf die verantwortlichen Einzelpersonen ab. Eine Studie zeigt, dass das revidierte Schweizer Datenschutzgesetz Bussen von bis zu CHF 250’000 vorsieht, die nicht dem Unternehmen, sondern der verantwortlichen natürlichen Person auferlegt werden können. Dies betrifft in der Regel die Geschäftsführung oder die zuständige Projektleitung. Die persönliche Haftung wird somit zu einem zentralen Motiv für eine sorgfältige KI-Governance. Schon die Nutzung von KI zur Verarbeitung von Kundendaten kann als Bearbeitung mit „hohem Risiko“ eingestuft werden, was eine proaktive Datenschutz-Folgenabschätzung (DSFA) zwingend erforderlich macht.

Ihre Checkliste für den nDSG-konformen KI-Einsatz

  1. Prüfen Sie, ob Ihre KI-Tools US-basiert sind und führen Sie eine Risikoanalyse für den Datentransfer durch.
  2. Erstellen Sie eine Datenschutz-Folgenabschätzung (DSFA), wenn KI zur Verarbeitung von Personendaten mit hohem Risiko genutzt wird.
  3. Implementieren Sie Standardvertragsklauseln (SCCs) für jeden internationalen Datentransfer, der nicht vermieden werden kann.
  4. Dokumentieren Sie alle Datenverarbeitungsprozesse, die KI involvieren, lückenlos in Ihrem Verarbeitungsverzeichnis.
  5. Richten Sie ein klares Verfahren zur Meldung von Datenschutzverletzungen an den Eidgenössischen Datenschutz- und Öffentlichkeitsbeauftragten (EDÖB) ein.

Wie Sie KI-generierte Inhalte in 4 Schritten auf Verzerrungen und Fehler prüfen?

Sobald die datenschutzrechtlichen Hürden genommen sind, beginnt die eigentliche Arbeit an der Qualität. KI-Systeme, insbesondere grosse Sprachmodelle, sind darauf trainiert, statistisch wahrscheinliche Wortfolgen zu generieren. Sie besitzen kein echtes Verständnis, keine Moral und kein Faktenwissen. Das Resultat können Texte sein, die oberflächlich plausibel klingen, aber subtile Fehler, veraltete Informationen oder kulturelle Fehlinterpretationen enthalten. Für eine Schweizer Führungskraft, deren Ruf auf Präzision und Zuverlässigkeit basiert, ist die unkritische Übernahme solcher Inhalte inakzeptabel. Sie werden zum Qualitäts-Gatekeeper.

Ein strukturierter Prüfprozess ist daher unerlässlich, um die KI als Werkzeug zu nutzen, ohne ihre Schwächen zu übernehmen. Dieser Prozess agiert als Filter zwischen dem rohen KI-Output und der finalen Veröffentlichung oder Entscheidung. Die untenstehende Abbildung symbolisiert diesen präzisen, fast handwerklichen Prüfvorgang, der im Schweizer Qualitätsdenken tief verwurzelt ist.

Makroaufnahme einer präzisen Schweizer Qualitätskontrolle bei KI-generierten Inhalten

Besonders wichtig ist die Anpassung der Prüfung an den schweizerischen Kontext. Ein generischer deutscher Text kann schnell als fremd und unprofessionell wahrgenommen werden. Der folgende Vergleich zeigt auf, wo die kritischen Unterschiede liegen und worauf Sie achten müssen.

Die folgende Tabelle verdeutlicht, warum eine spezifische, kontextbezogene Kontrolle für den Schweizer Markt unerlässlich ist, wie eine Analyse der spezifischen Herausforderungen von KI zeigt.

Vergleich: Generische KI-Prüfung vs. Schweiz-spezifische Kontrolle
Prüfaspekt Generische KI-Prüfung Schweiz-spezifische Kontrolle
Sprachliche Genauigkeit Standard Deutsch Helvetismen, Kantonsbezeichnungen
Kultureller Kontext Allgemeine Referenzen Föderalismus, direkte Demokratie
Rechtliche Begriffe EU/DE Rechtsbegriffe OR, ZGB, revDSG Terminologie
Datenquellen-Validierung Internationale Quellen BFS, EDÖB, Bundesrat

KI als Werkzeug oder als Entscheider: Wo verläuft die ethische Verantwortungsgrenze?

Die zentrale ethische Frage bei der Nutzung von KI im Beruf lautet: Wer trägt die finale Verantwortung? Die Antwort ist im Schweizer Rechtsverständnis eindeutig: immer der Mensch. Eine KI kann ein mächtiges Analyse- und Vorbereitungswerkzeug sein, doch die finale Entscheidung, die eine rechtliche oder finanzielle Konsequenz hat, darf niemals an die Maschine delegiert werden. Diese rote Linie zu überschreiten, bedeutet, die eigene berufliche Sorgfaltspflicht zu verletzen und sich einem erheblichen Haftungsrisiko auszusetzen.

Das neue Datenschutzgesetz ist hier besonders explizit. Bei Verstössen können Bussen direkt der verantwortlichen, natürlichen Person auferlegt werden. Laut Analysen zum nDSG haften natürliche Personen persönlich, nicht nur das Unternehmen. Diese Regelung unterstreicht, dass die Letztverantwortung nicht an eine Technologie oder eine juristische Person abgeschoben werden kann. Eine Führungskraft, die eine Personalentscheidung, eine Kreditvergabe oder eine medizinische Diagnose allein auf Basis eines KI-Outputs trifft, handelt fahrlässig.

In verschiedenen Branchen haben sich bereits spezifische Richtlinien etabliert, die diese Grenze klar definieren:

  • Finanzsektor: Die FINMA-Richtlinien verlangen, dass kritische Entscheidungen (z.B. Kreditvergaben) von qualifizierten Mitarbeitenden getroffen und dokumentiert werden. KI darf lediglich zur Risikoanalyse und Unterstützung dienen.
  • Gesundheitswesen: Die Richtlinien der Schweizerischen Akademie der Medizinischen Wissenschaften (SAMW) schreiben vor, dass die KI als „Zweitmeinung“ fungieren kann, die finale Diagnose und Therapieentscheidung aber ausschliesslich beim behandelnden Arzt liegt.
  • Personalwesen: Das Schweizer Arbeitsrecht (OR) schützt Arbeitnehmende vor rein automatisierten Entscheidungen, die erhebliche Auswirkungen haben (z.B. Kündigungen). Der menschliche Faktor ist hier zwingend vorgeschrieben.

Die KI-Delegations-Falle, die Ihre kritischen Denkfähigkeiten in 12 Monaten abbaut

Neben den unmittelbaren rechtlichen und qualitativen Risiken existiert eine schleichende, langfristige Gefahr: die KI-Delegations-Falle. Sie beschreibt den kognitiven Prozess, bei dem wir durch übermässiges Vertrauen in KI-Systeme schrittweise unsere eigenen kritischen Denk- und Problemlösungsfähigkeiten verkümmern lassen. Wenn wir aufhören, grundlegende Entwürfe selbst zu schreiben, Daten kritisch zu hinterfragen oder komplexe Zusammenhänge eigenständig zu recherchieren, trainieren wir unser Gehirn ab. Die Bequemlichkeit von heute wird so zum Kompetenzverlust von morgen.

Diese Entwicklung ist besonders für hochqualifizierte Fach- und Führungskräfte gefährlich, deren Wert auf Expertise und Urteilsvermögen beruht. Die Balance zwischen effizienter Unterstützung durch KI und dem Erhalt der eigenen geistigen Schärfe wird zur entscheidenden Managementkompetenz. Die symbolische Waage zwischen traditioneller Expertise und moderner Technologie muss im Gleichgewicht gehalten werden.

Symbolische Darstellung der Balance zwischen menschlicher Expertise und KI-Unterstützung

Ein starkes Gegenmittel zu dieser Entwicklung findet sich im Kern des Schweizer Erfolgsmodells: dem dualen Bildungssystem. Es zeigt, wie die Verbindung von theoretischem Wissen und praktischer Anwendung kritisches Denken nicht nur lehrt, sondern aktiv erhält und stärkt. Unternehmen können dieses Prinzip adaptieren.

Fallbeispiel: Das duale Prinzip als Schutz vor Kompetenzverlust

Eine Untersuchung zur Verbindung von KI und Ethik zeigt, dass KI uns zwar produktiver macht, aber die Gefahr der Abhängigkeit real ist. Das Schweizer Modell der Berufsbildung, das praktische Arbeit und theoretischen Unterricht kombiniert, dient als Vorbild. Lernende wenden Wissen direkt an und entwickeln so ein tiefes, kritisches Verständnis, das eine rein akademische oder eine rein KI-basierte Wissensaneignung nicht bieten kann. Grosse Unternehmen wie die Deutsche Telekom haben bereits reagiert und Leitlinien entwickelt, die die menschliche Kontrolle und Verantwortlichkeit im Umgang mit KI betonen. Sie institutionalisieren damit eine Form der „geistigen Qualitätskontrolle“, um der Delegations-Falle aktiv entgegenzuwirken.

Wie Sie KI in 5 Anwendungsfällen ethisch einwandfrei und effizient nutzen?

Verantwortungsvoller Umgang mit KI bedeutet nicht Verzicht, sondern bewusste und gezielte Integration. Wenn die rechtlichen Rahmenbedingungen und die ethischen Leitplanken klar sind, kann KI ihre volle Stärke als Effizienz- und Kreativitätsmotor entfalten. Der Schlüssel liegt darin, Anwendungsfälle zu definieren, bei denen die KI als Assistent agiert und die finale, wertschöpfende und entscheidende Tätigkeit beim Menschen verbleibt. Ein entscheidender Faktor hierbei ist die Datensouveränität. Gerade seitdem mit dem revidierten Schweizer Datenschutzgesetz (nDSG) die gesetzlichen Anforderungen gestiegen sind, wird die Wahl von KI-Tools mit Schweizer oder europäischem Datenhosting zur Priorität.

Die folgenden fünf Beispiele aus verschiedenen Schweizer Branchen illustrieren, wie eine ethisch einwandfreie und gleichzeitig hocheffiziente Nutzung von KI in der Praxis aussehen kann:

  1. Uhrmacher im Jura: Ein Designer nutzt KI, um Hunderte von Designvariationen für ein neues Zifferblatt zu generieren. Die KI liefert Inspiration und eine breite Basis an Entwürfen. Die finale Auswahl, Verfeinerung und handwerkliche Umsetzung der Kreation bleibt jedoch vollständig in der Hand des Meisteruhrmachers. Der Ethik-Check ist erfüllt: Die genutzten Trainingsdaten sind anonymisiert und die Entscheidungshoheit bleibt beim Menschen.
  2. Treuhandbüro in Zug: Eine KI-Software sortiert und kategorisiert automatisch Tausende von Belegen und Rechnungen. Dies spart enorm viel Zeit. Die steuerliche Bewertung, die Interpretation von Grenzfällen und die strategische Beratung des Klienten erfolgen jedoch ausschliesslich durch den diplomierten Treuhänder, der den Output der KI kontrolliert und validiert.
  3. Baufirma in Graubünden: Eine KI analysiert Wetterdaten, um die sichersten Zeitfenster für hochalpine Bauarbeiten zu prognostizieren. Sie liefert eine Risikoeinschätzung. Die finale Entscheidung, ob ein Team aufsteigt oder nicht, trifft aber immer der erfahrene Bauführer vor Ort, basierend auf der KI-Prognose, seiner eigenen Erfahrung und der aktuellen Lage.
  4. Bank in Zürich: Ein KI-System unterstützt den Kundenberater bei der Risikoanalyse für einen KMU-Kredit, indem es Finanzkennzahlen und Marktdaten aufbereitet. Die finale Kreditentscheidung, das persönliche Gespräch mit dem Unternehmer und die Festlegung der Konditionen bleiben aber zwingend beim menschlichen Berater, um FINMA-Konformität zu gewährleisten.
  5. Spital in Genf: In der Radiologie markiert eine KI auf einem Röntgenbild Bereiche, die auf Anomalien hindeuten könnten. Sie agiert als unermüdliches „zweites Augenpaar“. Die eigentliche Diagnose, die Einordnung im Gesamtkontext des Patienten und die Therapieempfehlung werden jedoch ausschliesslich vom Facharzt für Radiologie gestellt, konform mit den SAMW-Richtlinien.

Wie Sie KI-generierte Inhalte in 4 Schritten auf Verzerrungen und Fehler prüfen?

Wir haben bereits die praktischen Schritte zur Überprüfung von KI-Inhalten skizziert. Doch um wirklich kompetent mit KI umzugehen, müssen wir verstehen, *warum* diese Fehler und Verzerrungen überhaupt entstehen. Eine KI ist ein Spiegel ihrer Trainingsdaten. Wenn diese Daten historische Vorurteile, kulturelle Einseitigkeiten oder schlicht Faktenfehler enthalten, wird die KI diese unweigerlich reproduzieren und sogar verstärken. Sie hat keine eingebaute „Wahrheitsprüfung“, sondern nur eine „Wahrscheinlichkeitsberechnung“. Dieses Verständnis ist die Grundlage für eine tiefere, kognitive Form der Qualitätskontrolle.

Der erste Schritt der praktischen Prüfung ist daher immer die Quellenkritik, auch wenn die KI selbst keine Quellen nennt. Fragen Sie sich: Auf welcher Art von Daten wurde dieses Modell wahrscheinlich trainiert? Ein Modell, das primär mit amerikanischen Internetforen trainiert wurde, wird zwangsläufig eine andere Sicht auf politische oder gesellschaftliche Themen haben als eines, das auf wissenschaftlichen Publikationen basiert. Der zweite Schritt ist die Faktenüberprüfung durch eine Drittquelle. Nehmen Sie niemals eine von der KI genannte Zahl, ein Datum oder eine Tatsachenbehauptung für bare Münze. Überprüfen Sie die Kernaussage mit einer schnellen Suche bei einer vertrauenswürdigen Quelle (z.B. eine anerkannte Nachrichtenagentur, eine offizielle Behördenseite oder eine wissenschaftliche Datenbank).

Der dritte Schritt ist der Plausibilitäts- und Kohärenz-Check. Passt die Aussage zum Rest des Textes? Gibt es logische Brüche oder Widersprüche? KI-Texte neigen manchmal dazu, innerhalb weniger Absätze ihre Meinung zu ändern oder inkonsistente Argumente zu liefern. Schliesslich folgt als vierter Schritt der Kontext- und Tonalitäts-Check. Spricht der Text die Zielgruppe richtig an? Werden die spezifischen kulturellen und sprachlichen Normen (z.B. Helvetismen für ein Schweizer Publikum) eingehalten? Dieser letzte Schritt ist entscheidend, um nicht nur korrekte, sondern auch wirksame und professionelle Inhalte zu erstellen. Das Ziel ist es, eine Haltung der „professionellen Skepsis“ zu kultivieren – die gleiche kritische Haltung, die man gegenüber den Informationen eines neuen, unbekannten menschlichen Mitarbeiters an den Tag legen würde.

Wie Sie in 5 Schritten jede Nachricht auf Glaubwürdigkeit und Manipulation prüfen?

Die Fähigkeit, KI-generierte Inhalte kritisch zu prüfen, ist nicht nur für interne Dokumente relevant. Sie ist eine überlebenswichtige Kompetenz im Umgang mit der Flut an Informationen von aussen, insbesondere im Zeitalter von KI-generierter Desinformation und „Fake News“. Die gleichen Prinzipien, die für die Qualitätskontrolle von KI-Texten gelten, lassen sich auf die Bewertung jeder Art von Nachricht anwenden. Es geht darum, eine systematische Routine zur Glaubwürdigkeitsprüfung zu etablieren. Eine Analyse des Health Ethics and Policy Lab der ETH Zürich hat gezeigt, wie schwierig eine Einigung auf ethische Prinzipien ist, aber fünf Werte tauchen immer wieder auf: Transparenz, Gerechtigkeit, Schadensvermeidung, Verantwortung und Datenschutz.

Eine systematische Analyse des Health Ethics and Policy Lab der ETH Zürich ergab jedoch, dass in 84 einschlägigen Dokumenten kein einziges gemeinsames ethisches Prinzip zu finden war. Immerhin wurden in mehr als der Hälfte der Erklärungen fünf grundsätzliche Werte erwähnt: Transparenz, Gerechtigkeit und Fairness, Verhindern von Schaden, Verantwortung, Datenschutz und Privatsphäre.

– ETH Zürich Health Ethics and Policy Lab, Die Maschine und die Moral – SWI swissinfo.ch

Diese Werte können als Kompass für unsere eigene Prüfung dienen. Eine Nachricht, die intransparent über ihre Quellen ist oder potenziell Schaden anrichtet, muss mit höchster Skepsis behandelt werden. Für den Schweizer Kontext lassen sich spezifische Warnsignale identifizieren, die auf eine mögliche Manipulation hindeuten.

Erkennung von KI-generierter Desinformation im Schweizer Kontext
Prüfkriterium Authentische Schweizer Quelle Mögliche KI-Manipulation
Sprachliche Marker Korrekte Helvetismen, lokale Ausdrücke Generisches Hochdeutsch, fehlende CH-Spezifika
Quellenangaben admin.ch, kantonale Webseiten Vage oder nicht-existente Schweizer Quellen
Politischer Kontext Verständnis für Konkordanz, Föderalismus Vereinfachte Darstellung, Unkenntnis CH-System
Zeitliche Konsistenz Korrekte Abstimmungstermine, Vernehmlassungsfristen Falsche oder erfundene Termine

Das Wichtigste in Kürze

  • Persönliche Haftung: Das Schweizer nDSG macht Führungskräfte persönlich für Datenschutzverstösse durch KI haftbar (Bussen bis 250’000 CHF).
  • Mensch als letzte Instanz: Delegieren Sie niemals finale, folgenreiche Entscheidungen an eine KI. Ihre Expertise und Ihr Urteilsvermögen bleiben unverzichtbar.
  • Qualität vor Geschwindigkeit: Implementieren Sie einen strikten, mehrstufigen Prüfprozess für alle KI-generierten Inhalte, um Fehler, Bias und rechtliche Risiken zu minimieren.

Wie Sie mit Datenanalyse bessere Geschäftsentscheidungen ohne Bauchgefühl treffen?

Der verantwortungsvolle Umgang mit KI mündet in einer fundamentalen Veränderung der Entscheidungskultur: weg vom reinen Bauchgefühl, hin zu datengestützten, aber menschlich validierten Entscheidungen. Viele Führungskräfte verlassen sich traditionell auf ihre Intuition und Erfahrung – wertvolle Ressourcen, die jedoch in einer immer komplexeren Welt an ihre Grenzen stossen. Datenanalyse, oft unterstützt durch KI, bietet die Möglichkeit, diese Intuition zu überprüfen, zu objektivieren und zu schärfen. Es geht nicht darum, das Bauchgefühl zu ersetzen, sondern es mit Fakten zu untermauern oder zu korrigieren.

Dennoch herrscht eine gesunde Skepsis. Eine Umfrage ergab, dass viele Praktiker sich nicht auf die Risiken neuer generativer KI-Tools vorbereitet sind. Genau hier schliesst sich der Kreis zur Ethik. Eine „bessere“ Geschäftsentscheidung ist nicht nur profitabler, sondern auch fairer, transparenter und rechtssicherer. Ethische Leitplanken sind somit keine Fesseln, sondern das Geländer auf dem Weg zu robusteren Entscheidungen. Ein Schweizer Detailhändler kann beispielsweise von intuitiven Bestellmengen über eine reine Verkaufszahlenanalyse zu einem prädiktiven KI-Modell übergehen. Dieses Modell wird aber nur dann erfolgreich sein, wenn es nDSG-konform implementiert wird und die Logik seiner Vorschläge für den Einkäufer nachvollziehbar bleibt.

Der Prozess ist eine schrittweise Annäherung. Er beginnt mit der Sammlung und Analyse valider Daten, geht über zur Nutzung von KI als Analyse-Werkzeug und endet stets bei der kritischen Interpretation und finalen Entscheidung durch den Menschen. So wird die Datenanalyse vom reinen Selbstzweck zu einem integralen Bestandteil einer verantwortungsvollen Unternehmensführung. Sie ermöglicht es, Chancen und Risiken zu erkennen, die dem Bauchgefühl allein verborgen geblieben wären, ohne die Kontrolle aus der Hand zu geben.

Dieser Wandel in der Entscheidungskultur ist die Krönung eines ethischen KI-Einsatzes. Die Fähigkeit, Datenanalyse und menschliches Urteilsvermögen zu kombinieren, definiert die Führungskraft der Zukunft.

Häufig gestellte Fragen zum Thema KI-Verantwortung in der Schweiz

Wer haftet bei KI-Fehlentscheidungen in Schweizer Banken?

Nach FINMA-Richtlinien und dem Schweizer Obligationenrecht (OR) liegt die letzte Verantwortung immer beim menschlichen Entscheidungsträger (z.B. dem Kundenberater oder dem Kreditausschuss), niemals bei der KI selbst. Die KI darf nur als unterstützendes Analysewerkzeug eingesetzt werden.

Kann KI im Schweizer Gesundheitswesen eigenständig diagnostizieren?

Nein. Gemäss den Richtlinien der Schweizerischen Akademie der Medizinischen Wissenschaften (SAMW) muss die finale medizinische Entscheidung und Diagnosestellung immer durch einen qualifizierten Arzt erfolgen. KI-Systeme können als „zweite Meinung“ zur Bildanalyse oder Datenmustererkennung dienen, aber sie ersetzen nicht die ärztliche Verantwortung.

Wie ist die KI-Verantwortung im HR-Bereich geregelt?

Das Schweizer Arbeitsrecht (Teil des OR) verlangt, dass Personalentscheidungen mit erheblicher Tragweite (wie Einstellungen, Beförderungen oder Kündigungen) nicht vollautomatisiert getroffen werden dürfen. Eine menschliche Überprüfung und finale Entscheidung sind zwingend erforderlich, um die Rechte der Arbeitnehmenden zu wahren.

Geschrieben von Thomas Hofmann, Thomas Hofmann ist Digitalisierungsberater und KI-Stratege mit 14 Jahren Erfahrung in der digitalen Transformation von Schweizer KMU. Er hat Wirtschaftsinformatik an der ETH Zürich studiert und verfügt über Zertifizierungen in Cloud-Architektur (AWS, Azure), künstlicher Intelligenz und Prozessautomatisierung. Aktuell leitet er als Senior Consultant Digitalisierungsprojekte bei einer Schweizer IT-Beratung mit Fokus auf produzierende KMU.