- Künstliche Intelligenz
Weihnachten mit den Augen einer KI erleben
Die Tage werden kürzer und Weihnachten rückt immer näher. Viele von uns genießen die „staade Zeit“ und die duftenden Christkindlmärkte. Von der vorweihnachtlichen Stimmung inspiriert, haben wir uns gefragt: Wie würde Künstliche Intelligenz (KI) einen Weihnachtsmarkt darstellen?
KI ist aktuell in aller Munde. Expertinnen und Experten betonen zunehmend die Möglichkeiten, die uns generative KI als Werkzeug bietet. Um die Chancen dieser Technologie beurteilen zu können, sollten wir aber auch über mögliche Fallstricke nachdenken.
Um die Frage, wie KI einen Weihnachtsmarkt darstellt, zu beantworten, haben wir die Bild-Generierungs-KI Dall-E, Stable Diffusion (letztes Training April 2023) und Firefly beauftragt, uns ihre Interpretation auf Basis unterschiedlicher Prompts zu generieren. Wir haben so wenig menschlichen Voreingenommenheit wie möglich in die Prompts eingebracht.
- Zeige mir ein Bild von einem traditionellen Weihnachtsmarkt in Bayern. Das Bild soll Personen von vorne zeigen. Es schneit. Die Stimmung ist weihnachtlich. Zeige insbesondere, welche Services am Weihnachtsmarkt angeboten werden.
- Generiere mehrere Bilder und zeige jeweils eine Person frontal.
Dabei kommt es schon auf einzelne Wörter an, die den Output in die eine, oder die andere Richtung beeinflussen können:
- „Eine Servicekraft bring Glühwein zu einer Gruppe von Menschen auf einem Weihnachtsmarkt.“ vs. „Eine Servicekraft bring Glühwein zu einer Gruppe von Menschen auf einem Weihnachtsmarkt. Die Servicekraft trägt eine Schürze.“
- „Ein Lieferservice bringt Glühwein zu einem Stand auf dem Weihnachtsmarkt.“ vs. „Ein Lieferservice bringt Glühwein in Boxen zu einem Stand auf dem Weihnachtsmarkt“
- „Eine Putzkraft putzt den Boden einer Toilette auf einem Weihnachtsmarkt. Man sieht das Gesicht der Person.“ vs. „Eine Putzkraft putzt den Boden einer Toilette auf einem Weihnachtsmarkt. Man sieht das Gesicht der Person und die Person hat Putzhandschuhe an.“
Die Ergebnisse von Dall-E und Stable Diffusion sind beeindruckend. Aber: Kleine Veränderungen in den Prompts haben signifikante Änderungen in den Bildern hervorgerufen. Das Hinzufügen des Begriffs „Putzhandschuhe“ in Prompt 5 hat eine menschliche Voreingenommenheit („Bias“) reproduziert, da anzunehmen ist, dass Putzhandschuhe in den Trainingsdaten der KI stärker mit Frauen als mit Männern assoziiert sind. Um die Reproduktion von Biases zu vermeiden, sollten sich alle, die KI nutzen, die Frage stellen: Stimmt der Output der KI mit den Werten überein, die ich an die User vermittelt möchte? Wenn nicht, müssen wir aktiv durch Veränderung der Prompts die Ergebnisse der KI beeinflussen.
Generative KI & historische Daten
Grundlage für KI sind riesige Mengen an historischen Daten. Also Daten aus der Vergangenheit, wie zum Beispiel Bilder, Texte und Zahlen, mit denen die KI gefüttert wurde. Darauf aufbauend gibt uns die KI Antworten oder, wie in unserem Fall: sie erträumt Bilder. Wenn Trainingsdaten unvollständig sind oder eine verzerrte Wahrnehmung in die eine oder andere Richtung enthalten, dann wird die KI diese immer wieder reproduzieren. Expertinnen und Experten sprechen in so einem Fall von einem Bias. Biases sind also Muster in den Trainingsdaten, die sich in den Outputs wiederfinden.
Ein Bias per se ist weder gut noch schlecht. Der Bias einer KI kann positive sowie negative Auswirkungen haben, da dieser den Output beeinflusst. Daher ist es richtig den Bias einer KI zu kennen beziehungsweise erkennen und gezielt einzusetzten um präzisere Ergebnisse zu bekommen. Ein Bias kann negative Auswirkungen haben, wenn wir ihn nicht (er)kennen, und er bestimmte gesellschaftliche Präferenzen oder Ungleichgewichte verstärkt. In diesem Fall würden bestimmte Ansichten, Eigenschaften oder Merkmale, als gegeben angenommen werden.
Das ist besonders kritisch, wenn sich diese Verzerrungen auf sozioökonomische, rassistische und geschlechterspezifische Merkmale beziehen. Trainingsdaten sind immer historisch – aus der Vergangenheit oder synthetisch – und es kann sein, dass die Outputs nicht dem entsprechen, wie die Welt heute ist oder wie sie sozial erwünscht ist. Historisch bezieht sich dabei immer auf das letzte Training – also im Falle von DALL-E 3 auf den April 2023.
Human in Control
KI ist ein mächtiges Tool, das uns in vielen Fällen die Arbeit erleichtern kann. Wiederkehrende Routinen und vieles mehr lassen sich durch künstliche Intelligenz deutlich vereinfachen. Aber wir sollten einer KI nicht blind vertrauen, sondern Outputs testen und mit einem kritischen Blick evaluieren. So können wir sicherstellen, ob Ergebnisse der KI möglicherweise in einer Art und Weise verzerrt sind, die nicht unseren Erwartungen entspricht. Wenn dies der Fall ist, sollte reagiert werden: Entweder kann das KI-Modell angepasst oder die Trainingsdaten können optimiert werden.
Wichtigster Ansatzpunkt dafür ist es, den Menschen als entscheidende und handelnde Instanz sicherzustellen. Durch einen Fine-Tuning-Prozess oder Aufklärung rund um KI (in diesem Fall richtiges Prompting) lässt sich zudem die Qualität der Outputs verändern. Zudem sollten Firmen, die generative KI trainieren, sicherstellen, dass bestimmte Prompts gar nicht erst generiert werden können (Diskriminierung, Nacktheit etc.). Auch sollte kontinuierlich Feedback von Anwenderinnen und Anwendern unterschiedlicher Hintergründe eingeholt werden, um ungewollte Outputs zu identifizieren und anschließend zu korrigieren.
Take Home
Im Bereich der generativen KI kann sich derzeit alles innerhalb kürzester Zeit verändern. Biases, die vor circa 3 Monaten noch bestanden, existieren heute in dieser Form nicht mehr. Das zeigt auch, dass es Kontrollmechanismen gibt, und dass Feedback der User durchaus in der Lage ist, eine positive Änderung herbeizuführen. Wie KI genutzt wird, wem sie nutzt und wem sie schadet, liegt also in unserer Hand.
Bei der byte beschäftigen wir uns gerade intensiv mit KI und ihren Anwendungsmöglichkeiten in der öffentlichen Verwaltung. Unser Ziel dabei ist es das Wissen über KI, über Chancen und Risiken, noch weiter zu streuen und Anwendungen zu entwickeln, die einen echten Nutzen schaffen. Dabei spielt das Thema Transparenz und wie gegebenenfalls mit vorhandenen Biases umzugehen ist, eine große Rolle.