Künstliche Intelligenz: Transparenz statt Angst
Italien hat ChatGPT verboten, Elon Musk treibt die Politik mit seiner Forderung nach einem Moratorium für Künstliche Intelligenz vor sich her. Untaugliche Massnahmen und Angstmacherei begleiten die Forderungen nach Regulierung, und auch auf EU-Ebene wird ein KI-Gesetz debattiert.
Swico legt nun für die Schweiz konkrete Handlungsempfehlungen für die Industrie vor: Transparenz als Ausgangspunkt für die Nachvollziehbarkeit von Algorithmen. Aus der festen Überzeugung, dass nur eine ethische und verantwortungsvolle Digitalisierung nachhaltig sein kann, betreibt Swico, der Verband der digitalen Schweiz, seit nunmehr drei Jahren den Digital Ethics Circle. Dieser setzt sich aus SpezialistInnen aus der Industrie und ExpertInnen zusammen und hat eine Reihe von einfach verständlichen und konkreten Handlungsempfehlungen zu diversen Aspekten datengetriebener Geschäftsmodelle erarbeitet. Das neue Dokument «Nachvollziehbarkeit von Algorithmen» ist angesichts der Hilflosigkeit der staatlichen Akteure hochrelevant und appelliert an die Eigenverantwortung der Digitalindustrie.
Orientierungslosigkeit in der Politik
Europa arbeitet derzeit an einer Regulierung zu Künstlicher Intelligenz (KI). Diese jedoch ist insbesondere aufgrund ihres technologiespezifischen und risikobasierten Ansatzes schwerfällig und könnte am Ziel vorbeischiessen. Italien hat in einem Schnellschuss ChatGTP verboten, und Elon Musk verbreitet mit einer offenen Forderung nach einem Moratorium für Künstliche Intelligenz Verunsicherung in der Gesellschaft. Während die internationale Gemeinschaft einig ist, dass KI reguliert werden soll, herrscht weitgehend Orientierungslosigkeit über sinnvolle Regulierungsansätze, so auch in der Schweiz. Das Merkblatt von Swico bietet erstmals konkrete, umsetzbare und eigenverantwortliche Handlungsempfehlungen für Unternehmen in der Schweiz.
Transparenz in vier Schritten
Ausgangspunkt ist die Schaffung von Transparenz in vier Schritten: zunächst müssen die AdressatInnen definiert werden, was schon sehr anspruchsvoll werden kann. So muss etwa ein Anbieter von KI für die Personalrekrutierung nicht nur das Unternehmen, sondern auch die Rekrutierungsperson und die/den KandidatIn in seine Transparenzüberlegungen einbeziehen. Alsdann soll deklariert werden, dass überhaupt eine KI-Anwendung zum Einsatz kommt und warum. Der schwierigste Schritt ist die Erklärung, wie der Algorithmus funktioniert. Während eine Offenlegung des Algorithmus für Endbetroffene nicht sinnvoll wäre, müssen diese wenigstens dessen Funktionsweise verstehen können. Zunehmend kann der Mensch jedoch nicht mehr erklären, wie Algorithmen zu einem bestimmten Ergebnis kommen resp. wie sie lernen. Deshalb muss bisweilen zu Hilfsmitteln gegriffen werden. In jedem Fall ist aber die Deklaration über die Datengrundlage ein wichtiger Bestandteil der Transparenz.
Fehler müssen korrigiert werden
Zuletzt muss für Endbetroffene eine Korrekturmöglichkeit, ein «Feedback Loop», eingebaut werden, wenn ein Algorithmus zu einem falschen oder diskriminierenden Ergebnis kommt. Ausserdem verfügt im Idealfall jedes Unternehmen, das datenbasierte Geschäftsmodelle entwickelt oder einsetzt, über ethische Grundsätze resp. einen Kodex, auf die sich Mitarbeitende, DatenwissenschafterInnen und die Geschäftsleitung stützen. Swico hat bereits vor 18 Monaten eine entsprechende Charta für den ethischen Umgang mit Daten erarbeitet und zur Verfügung gestellt.
«Wenn jedes Unternehmen die einzelnen Schritte zur Nachvollziehbarkeit von Algorithmen konsequent anwenden würde, müssten die Auswirkungen von KI-Anwendungen vollständig durchdacht werden.» Das wäre ein elementarer Schritt in Richtung verantwortungsvolle Digitalisierung und gäbe darüber hinaus der Politik Anhaltspunkte für eine zielführende Regulierung.