W kontekście sztucznej inteligencji (AI) często pojawiają się pytania o wytyczne i zasady etyczne. Jak może wyglądać etyczne wykorzystanie AI? Jakich wytycznych potrzebujemy? I co właściwie uważamy za etyczne, a co za nieetyczne? Te i podobne pytania spotykamy w mediach, w rozmowach z klientami, w prywatnym otoczeniu. Ale także, a zwłaszcza my sami, ciągle zastanawiamy się nad naszą pracą i naszymi standardami. Już przy założeniu Splitbot GmbH nasz zespół wspólnie opracował wytyczne dotyczące tego tematu. Okazało się, że zdefiniowanie zasad etycznych nie jest takie proste. Ponieważ nawet jeśli w całym społeczeństwie panuje wspólne rozumienie moralności i etyki, interpretacja i osobista ocena jednostki różni się w niektórych obszarach. Dla nas jest jasne: żadne oprogramowanie, czy to z AI czy bez, samo w sobie nie ma zrozumienia etyki. Wytyczne etyczne muszą, o ile to w ogóle możliwe, pochodzić od ludzi. To podejście odzwierciedla się również w definicji etyki. Etyka to nauka o moralności, a tym samym o ocenie ludzkiego działania. W związku z tym chodzi może mniej o dodawanie reguł do naszego oprogramowania, a bardziej o zapewnienie jego etycznego wykorzystania.
Założenie, że AI posiada zdolność samodzielnego myślenia, jest po prostu nieprawdziwe. AI w swojej istocie nie jest niczym więcej niż bardzo, bardzo precyzyjną statystyką. AI określa prawdopodobieństwa na podstawie danych. Bez odpowiednich danych uczących program AI nie może generować wyników. To właśnie te dane są przyczyną tego, że programy AI czasami wydają się nieetyczne. Jeśli na przykład AI do selekcji kandydatów jest uczona tylko na danych męskich kandydatów, nie jest w stanie równorzędnie uwzględnić kandydatek. Dlatego potrzebna jest etyczna ocena człowieka, zarówno przy dostarczaniu danych, jak i przy ocenie dostarczonych wyników. Należy również zadać pytanie, w jakim stopniu wykorzystanie sztucznej inteligencji do automatycznego odpowiadania na złożone pytania może być sprzeczne z zasadami etycznymi. Celem musi być zatem ustanowienie wytycznych etycznych dla działających osób, a nie dla samych programów. AI jest tylko jednym z wielu możliwych narzędzi, które potencjalnie mogą być nadużywane. Ale jak mogłyby wyglądać takie wytyczne? To tylko jedno z wielu pytań, na które do tej pory nie znaleźliśmy ostatecznej odpowiedzi. Tym bardziej jesteśmy wdzięczni za współpracę z prof. dr inż. Christianem Herzogiem i studentami kierunku etyki technicznej na Uniwersytecie w Lubece, którą niedawno rozpoczęliśmy. Prof. dr Herzog zaoferował nam i innym startupom z regionu możliwość przedstawienia się i zaprezentowania naszych kwestii etycznych. Uczestnicy kursu będą w nadchodzących tygodniach zajmować się różnymi tematami etycznymi i przedstawiać swoje propozycje rozwiązań. Bardzo cieszymy się na intensywną wymianę, a szczególnie na rozważenie tematu z różnych perspektyw. Dzięki temu jesteśmy w stanie uwzględnić jak najwięcej aspektów w dalszym rozwoju naszego produktu.