Der digitale Verrat
GenAI Anwendungen erbringen eine Palette an Services – von der Recherche und dem Verfassen von Texten über die Kundenbetreuung bis hin zur psychologischen Unterstützung. Menschenähnliche Interaktionen zu simulieren, birgt allerdings das Risiko der Täuschung und Manipulation.
Angesichts dieser Problematik hat der Swico Digital Ethics Circle ein Merkblatt herausgegeben. Es benennt sieben Fallstricke im Einsatz generativer KI-Technologien und illustriert diese mit Use Cases und realen Szenarien.
Besondere Aufmerksamkeit ist gefordert, wenn es um Firmengeheimnisse geht, wenn Mitarbeitende im KI-Chatbot sensible Unternehmensdaten eingeben, zum Beispiel für die Zusammenfassung von Sitzungsprotokollen oder um Programmcode zu generieren. Denn diese Daten könnten für das Training der KI-Modelle verwendet werden und die Informationen in den Ergebnissen für andere Nutzer landen. Sensible Daten könnten ausserdem in falsche Hände gelangen und missbraucht werden, etwa um Identitäten zu stehlen. Sogenannte «Prompt-Injections»-Angriffe könnten die KI-Tools sogar dazu bringen, Informationen preiszugeben, die sie nicht preisgeben sollten.
I han es Zündhölzli azündt
Folgendes fiktives Szenario zeigt, wie ein einziger unbedachter Moment schwerwiegende Folgen für ein ganzes Unternehmen und seine Kunden haben kann. Die hochfliegende Geschichte von Markus Schneider ist eine mahnende Erinnerung daran, dass mit grossen Datenmengen und fortschrittlicher Technologie auch eine grosse Verantwortung einhergeht.
Die Geschichte: Markus Schneider war als Versicherungsberater bei einer renommierten Versicherungsgesellschaft tätig. Er verstand sich auf komplexe Kundenanliegen und war immer auf der Suche nach innovativen Lösungen. Als eine Tech-Firma seinen neuen KI-Chatbot vorstellte, war Markus sofort fasziniert von dessen Potenzial und beschloss, ihn für interne Prozessoptimierungen zu nutzen.
Ohne die möglichen Risiken vollständig zu bedenken, begann Markus, den Chatbot mit sensiblen internen Daten zu füttern, darunter auch vertrauliche Kundendaten. Er war überzeugt, dass der Chatbot die Effizienz und Kundenbetreuung zu verbessern vermag. Was er jedoch nicht ahnte, war, dass der virtuelle Agent eine Sicherheitslücke aufwies, die es externen Parteien ermöglichte, auf diese sensiblen Daten zuzugreifen.
Bald darauf begannen Kunden der Versicherungsgesellschaft, Berichte über ungewöhnliche Aktivitäten und Identitätsdiebstahl zu melden. Die Versicherungsgesellschaft stand plötzlich im Zentrum eines massiven Datenschutzskandals. Ermittlungen ergaben, dass Markus' Verwendung von generativer KI zum Datenleck geführt hatte.
Das Finale: Die Versicherungsgesellschaft musste schnell handeln, um den Schaden zu begrenzen. Sie sah sich mit einer Flut von Beschwerden, rechtlichen Herausforderungen und einem massiven Vertrauensverlust ihrer Kunden konfrontiert. Markus wurde sofort suspendiert und die Geschäftsleitung entschied, den Chatbot nicht mehr zu verwenden. Zusätzlich musste das Unternehmen erhebliche Summen in die Verbesserung der IT-Sicherheit und in Entschädigungszahlungen an die betroffenen Kunden investieren.
Die Medien berichteten ausführlich über den Vorfall, was das Image der Versicherungsgesellschaft stark beschädigte. Viele Kunden kündigten ihre Verträge und wechselten zu Konkurrenten. Die Aktien des Unternehmens fielen, und es dauerte Monate, bis das Vertrauen der Kunden und der Öffentlichkeit wiederhergestellt werden konnte.
Learnings
- Prüfen, bei welchen Tätigkeiten kein Textgenerator eingesetzt werden sollte.
- Die Datenschutzrichtlinien der Anbieter von KI-Tools lesen, um zu wissen, wie die Daten verwendet werden.
- Bei der Eingabeaufforderung (Prompt) keine vertraulichen, sensiblen oder persönlichen Daten eingeben, weil diese in fremde Hände gelangen können.
- Für das Thema sensibilisiert sein und sich den Herausforderungen beim Datenschutz und bei der Datensicherheit bewusst werden.
Wie jede Technologie bietet auch die generative KI nicht nur viele neue Möglichkeiten. Sie hat auch ihre Grenzen. Sie zu kennen ist wichtig, um Tools wie ChatGPT & Co. gewinnbringend und verantwortungsvoll einzusetzen.