Der Splitblog im Juli – Wenn Chatbots politisch werden
Diesen Monat zeigen wir euch, warum es wichtig ist die Herkunft von Chatbots und KI-Modellen zu hinterfragen und im Umgang mit ihnen kritisch zu bleiben. Den Vorschlag zu diesem Thema lieferte Mats aus unserem Backend-Team.
Wie die Programmierung eines KI-Assistenten oder Chatbots das Antwortverhalten beeinflussen kann, hat Grok 4 in den vergangenen Wochen eindrucksvoll bewiesen. Ungebremst generierte Grok antisemitische und rassistische Äußerungen, die Schlagzeilen machten. Das Unternehmen xAI entschuldigte sich inzwischen und gab an, Grok sei laut Programmierung angewiesen „ehrlich“ zu antworten und solle „keine Angst davor haben, politisch korrekte Leute zu schockieren“. Nun, zumindest was letztere Anweisung angeht, kann man wohl von Zielerreichung sprechen. Und auch unter der Prämisse, das auch schlechte Presse gute Presse ist, hat Grok sicherlich seinen Zweck erfüllt. In jedem Fall aber sind die Schlagzeilen Anlass genug, sich ernsthaft mit den verschiedenen Herstellern und Anbietern von Chatbots und KI-Assistenten auseinanderzusetzen. Unabhängig davon, in welchem Bereich die Systeme eingesetzt werden sollen, ist eine genaue Überprüfung und ausgiebige Tests im Vorfeld dringend notwendig. Insbesondere, wenn Firmen sich in Ihrer Außenwirkung durch Chatbots vertreten lassen, können ansonsten schwerwiegende Imageschäden die Folge sein.
Doch wie kann es überhaupt dazu kommen, dass KI-Assistenten sich zu solchen Äußerungen hinreißen lassen? Die Basis aller Sprachmodelle sind Trainingsdaten unterschiedlichsten Umfangs und unterschiedlichster Herkunft. Also massenweise Informationen, die zur Beantwortung zur Verfügung stehen. Wie und auf welche Art und Weise daraus nun Antworten generiert werden sollen ist Frage der Programmierung oder der individuellen Einstellungen. Es lässt sich also beispielsweise festlegen, dass bestimmte Informationsquellen vorrangig genutzt werden sollen oder dass die generierten Antworten besonders humoristisch, wissenschaftlich, lang oder kurz sein sollen. Im Fall von Grok gibt es laut dem Datenwissenschaftler Jeremy Howard auch Hinweise darauf, dass der Chatbot bei umstrittenen Themen häufig der Meinungen und Aussagen des xAI Eigentümers Elon Musk vertritt. Dies könne nach Aussage des Programmierers Simon Willison jedoch auf Musks prominente Rolle zurückzuführen sein.
Ähnliche Trends wie aktuell bei Grok sind jedoch auch bei anderen Chatbots zu beobachten. Auch DeepSeek beantwortet eine Reihe politischer Fragen nicht neutral. Zum Teil werden die generierten Antworten kurz nach der Erstellung gelöscht und durch ein „Lassen Sie uns über etwas anderes reden“ ersetzt. Offenbar sind die Antworten des Bots bei Nutzung der englischsprachigen Version zumindest etwas neutraler als in der chinesischen Version. Ausgiebige Versuche mit DeepSeek offenbaren eine einprogrammierte „Selbstzensur“.
Nicht unüblich ist es hingegen auch in Europa Chatbots gewisse ethische Standards mitzugeben bevor sie auf die Menschheit losgelassen werden. So antwortet auch unser Chatbot KOSMO, der auf einem Sprachmodell aus dem Hause Mixtral basiert, höflich ausweichend, wenn es beispielsweise um Gewalt und Kriminalität geht. Während dieses Verhalten jedoch wünschenswert ist, sollte die Objektivität bei der Wiedergabe von Fakten aus unserer Sicht jederzeit gewährleistet sein. Einen Beitrag dazu leistet der integrierte Quellnachweis, der Usern die Möglichkeit gibt, die genutzten Quellen zu überprüfen und zu bewerten.
Ganz ausschließen lässt sich ein gewisser Bias bei Sprachmodellen nie. Das Wissen eines Chatbots ist immer nur so umfangreich wie dessen Trainingsdaten und Zusatzinformationen und das Antwortverhalten häufig auch beeinflusst vom Userfeedback während des Finetunings. Auch User selbst können das Antwortverhalten mittels der eingegebenen Prompts (unbewusst) erheblich beeinflussen.
Neben anderen Faktoren sollte also auch die Herkunft des genutzten Sprachmodells gründlich unter die Lupe genommen werden, bevor man sich zu sehr auf die Richtigkeit der Antworten verlässt.