Splitblog w lipcu – Kiedy chatboty stają się polityczne
W tym miesiącu pokazujemy, dlaczego ważne jest kwestionowanie pochodzenia chatbotów i modeli AI oraz zachowanie krytycznego podejścia w obcowaniu z nimi. Propozycję tego tematu przedstawił Mats z naszego zespołu backend.
Jak programowanie asystenta AI lub chatbota może wpływać na zachowanie odpowiedzi, udowodnił w ostatnich tygodniach w imponujący sposób Grok 4. Bez ograniczeń Grok generował antysemickie i rasistowskie wypowiedzi, które trafiły na pierwsze strony gazet. Firma xAI przeprosiła w międzyczasie i podała, że Grok zgodnie z programowaniem został poinstruowany, aby odpowiadać „szczerze” i nie powinien „bać się szokować ludzi politycznie poprawnych”. Cóż, przynajmniej jeśli chodzi o tę ostatnią instrukcję, można chyba mówić o osiągnięciu celu. A także przy założeniu, że nawet zła prasa to dobra prasa, Grok z pewnością spełnił swój cel. W każdym przypadku jednak nagłówki są wystarczającym powodem, aby poważnie zająć się różnymi producentami i dostawcami chatbotów oraz asystentów AI. Niezależnie od tego, w jakiej dziedzinie systemy mają być wykorzystywane, dokładna weryfikacja i obszerne testy z wyprzedzeniem są pilnie konieczne. Szczególnie gdy firmy pozwalają chatbotom reprezentować się w swoim wizerunku zewnętrznym, w przeciwnym razie mogą wystąpić poważne szkody wizerunkowe.
Ale jak w ogóle może dojść do tego, że asystenci AI pozwalają sobie na takie wypowiedzi? Podstawą wszystkich modeli językowych są dane treningowe o różnym zakresie i różnym pochodzeniu. Czyli masowe informacje, które są dostępne do udzielania odpowiedzi. To, jak i w jaki sposób mają być generowane odpowiedzi, jest kwestią programowania lub indywidualnych ustawień. Można więc na przykład ustalić, że określone źródła informacji powinny być wykorzystywane priorytetowo lub że generowane odpowiedzi powinny być szczególnie humorystyczne, naukowe, długie lub krótkie. W przypadku Grok według naukowca danych Jeremy’ego Howarda istnieją również wskazówki, że chatbot przy kontrowersyjnych tematach często reprezentuje opinie i wypowiedzi właściciela xAI Elona Muska. Może to jednak według programisty Simona Willisona wynikać z prominentnej roli Muska.
Podobne trendy jak obecnie przy Grok można jednak obserwować także przy innych chatbotach. Również DeepSeek nie odpowiada neutralnie na szereg pytań politycznych. Częściowo generowane odpowiedzi są usuwane krótko po utworzeniu i zastępowane przez „Porozmawiajmy o czymś innym”. Najwyraźniej odpowiedzi bota przy korzystaniu z wersji anglojęzycznej są przynajmniej nieco bardziej neutralne niż w wersji chińskiej. Obszerne próby z DeepSeek ujawniają zaprogramowaną „autocenzurę”.
Nie jest jednak niczym niezwykłym także w Europie nadawanie chatbotom pewnych standardów etycznych, zanim zostaną wypuszczone na ludzkość. Tak więc również nasz chatbot KOSMO, który bazuje na modelu językowym z domu Mixtral, odpowiada grzecznie wymijająco, gdy chodzi na przykład o przemoc i przestępczość. Podczas gdy takie zachowanie jest pożądane, obiektywność przy odtwarzaniu faktów powinna z naszego punktu widzenia być zawsze zapewniona. Wkład w to wnosi zintegrowane wskazanie źródeł, które daje użytkownikom możliwość sprawdzenia i oceny wykorzystanych źródeł.
Całkowicie wykluczyć pewien bias przy modelach językowych nigdy się nie da. Wiedza chatbota jest zawsze tylko tak obszerna jak jego dane treningowe i informacje dodatkowe, a zachowanie odpowiedzi często także wpływa na nie feedback użytkowników podczas fine-tuningu. Również sami użytkownicy mogą (nieświadomie) znacząco wpływać na zachowanie odpowiedzi poprzez wprowadzane prompty.
Obok innych czynników należy więc również dokładnie przyjrzeć się pochodzeniu wykorzystywanego modelu językowego, zanim zbytnio polegnie się na poprawności odpowiedzi.