Kiedy dziesiątki naukowców, przedsiębiorców i publicystów publikowało oświadczenie w sprawie potrzeby zatrzymania prac nad rozwojem sztucznej inteligencji, włoski urząd ochrony danych osobowych (Garante per la protezione dei dati personali) tymczasowo zakazał działania ChatuGPT stworzonego przez firmę OpenAI z uwagi na wysokie prawdopodobieństwo naruszania prawa do prywatności oraz braku przejrzystości. Twórcy tego bardzo ostatnio popularnego narzędzia muszą teraz m.in. spełnić obowiązki informacyjne w stosunku do użytkowników i osób, które dane wykorzystywano w bazach danych oraz umieścić na stronie narzędzie pozwalające na żądanie usunięcia danych osobowych.
Odpowiedź władz
Twórcy ChatGPT mają czas do 30 kwietnia, by dostosować się do zmian. Nad podobnymi działaniami zastanawiają się m.in. również Niemcy i Francuzi. Co ciekawe, również Prezes polskiego Urzędu Ochrony Dany Osobowych zwrócił się do swojego włoskiego odpowiednika o przekazanie dokumentacji sprawy, co może sugerować, że rozważa rozpoczęcie podobnych procedur w Polsce. Czy możemy ufać, że polski organ ochrony danych będzie równie stanowczy? Trudno powiedzieć, bo i działania Prezesa zdają się być motywowane bardziej politycznie niż merytorycznie. Przypomnijmy, że to on próbował zablokować wykonanie prawomocnego wyroku w sprawie udostępnienia list podpisów pod kandydaturami na członków Krajowej Rady Sądownictwa oraz uznał – również wbrew stanowisku sądów – że przetwarzanie danych osobowych na cele tzw. wyborów kopertowych było zgodne z prawem.
Ale ChatGPT to tylko jeden z wielu przykładów. Polski minister sprawiedliwości bardzo długo opierał się przed publicznym udostępnieniem dużo prostszego algorytmu Losowego Systemu Przydziału Spraw, który ma ogromne znaczenia dla realizacji prawa do sprawiedliwego procesu. Algorytm stworzony przez ministerstwo sprawiedliwości przydziela na podstawie mniej lub bardziej losowych kryteriów sędziów do konkretnych spraw, które następnie rozstrzygają. Kto zostanie wylosowany ma – nie tylko w polskich warunkach – ogromne znaczenia dla stron postępowania.
W ogóle nowe technologie coraz śmielej wpływają na prawa człowieka. Oprócz naruszeń prawa do prywatności, ich twórcom zarzuca się m.in. również wzmacnianie ryzyka dyskryminacji i ograniczenia dostępu do usług.
Niezależność instytucji podstawowym warunkiem
Być może zbyt dużo skupiamy się na aspektach ściśle technologicznych, próbując ubrać je w nowe ramy regulacyjne, gdy tymczasem już istniejące przepisy mogłyby, przynajmniej na podstawowym poziomie, zabezpieczyć interesy obywateli narażonych na negatywne skutki działania nowych technologii.
Duże znaczenie ma tu kwestia, czy mówimy wyłącznie o tych narzędziach, które są stosowane w sektorze publicznym, czy tylko o tych, które mają zastosowanie na rynku komercyjnym. Te ostatnie są bardziej wymagające regulacyjnie. Kwestia możliwości dostępu do ich algorytmów (rozumianych jako podstawowe zasady funkcjonowania) czy kodu źródłowego (a więc bardzo szczegółowego i autorskiego opisu ich działania) zderza się silnie z ochroną konkurencyjności i tajemnicy przedsiębiorstwa. Szczegółowa wiedza na temat ich działania pozwoli lepiej zrozumieć, jakie ryzyka ze sobą niosą, ale faktycznie niezbędna jest w tym przypadku ingerencja prawodawcy, który uzna, że istnieje nadrzędny interes w przejrzystości. Niemniej przykład włoskiego organu ochrony danych osobowych pokazuje, że już teraz możliwe jest stosowanie przepisów chroniących autonomię jednostki i jej prawo do prywatności. Na nic przepisy, jeśli ten i podobne organy nie będą niezależne od nacisków politycznych i biznesowych.
Rządy prawa a nowe technologie
Inaczej rzecz się ma z tymi rozwiązaniami, które funkcjonują lub będą funkcjonować w sektorze publicznym. Jak wskazał Naczelny Sąd Administracyjny w wyrokach dotyczących algorytmu i kodu źródłowego systemu losowania sędziów, powinny one zostać udostępnione, ponieważ stanowią przejaw działalności władz. Postęp technologiczny wpływa na dobór narzędzi, którymi posługują się owe władze, ale nie zmienia się podstawowa filozofia jawności funkcjonowania urzędów i osób pełniących funkcje publiczne. Czy gdyby sądy były w pełni zależne od ministra to podobny wyrok kwestionujący jego stanowisko byłby możliwy? Śmiem wątpić.
Wymiar sprawiedliwości – stosując już istniejące przepisy – mógłby unieść ciężar ustalenia ewentualnych naruszeń prawa autorskiego. Algorytmy wspomnianego wcześniej ChatGPT korzystają z wielu materiałów objętych prawem autorskim, ale sami producenci o tym nie informują, a wręcz pozbawiają twórców należnych im praw twierdząc, że wyniki prezentowane przez narzędzie stanowią prawnoautorską własność Open AI. Pytanie, czy uważamy jako społeczeństwo, że w pierwszym rzędzie to sądy powinny angażować się w rozstrzyganie tego typu sporów? Być może to również zadanie dla osób, które stanowią prawo i które powinny zadbać, by te problemy były rozwiązywane systemowo.
Prawo do dobrej administracji i dobrych algorytmów
Wracając jednak do używania systemów sztucznej inteligencji (czy szerzej algorytmicznych) w sektorze publicznym może odwołać się jeszcze do prawa do dobrej administracji. Europejska Karta Praw Podstawowych definiuje je jako „ prawo do bezstronnego i sprawiedliwego rozpatrzenia swojej sprawy w rozsądnym terminie”. Jeżeli to algorytmy rozpatrują lub pomagają rozpatrzyć sprawy obywateli, to zasady bezstronności i sprawiedliwości również mają zastosowanie. Ale jeśli rządy prawa są fikcją, a owa niezależność pozostaje na poziomie deklaracji również w przypadku procedury prowadzonej wyłącznie przez urzędnika, to tym sposobem też nie uda nam się zabezpieczyć interesów obywateli.
Jakiekolwiek i przez kogokolwiek ustanowione regulacje nie przyniosą zamierzonych efektów, jeśli wymiar sprawiedliwości i urzędy nie będą działały zgodnie z zasadą trójpodziału władz, ale też i zwykłego szacunku i troski o obywateli. Coraz bardziej śmiałe wykorzystywanie rozwiązań typu Metaverse czy właśnie ChatGPT nie zostało poprzedzone przez polskie władze badaniami, jaki ma to wpływ na rozwój uczniów. Za to chętnie uczestniczyły w imprezach organizowanych przez korporacje technologiczne promujące stosowanie tych i podobnych narzędzi.
Niezależnie od tego, czy uznajemy, że – przynajmniej w niektórych obszarach – należy stworzyć nowe przepisy, czy zadecydujemy, że te już istniejące wystarczająco zabezpieczają interesy jednostki, musimy zadbać o co najmniej dwie sprawy – rządy prawa i niezależne instytucje oraz szeroko zakrojone badania na temat wpływu nowych technologii na obywateli, ze szczególnym uwzględnieniem dzieci i młodzieży. Bez tych elementów ewentualne nowe przepisy będą strzelaniem ze ślepej amunicji.
Krzysztof Izdebski – prawnik, aktywista działający na rzecz przejrzystości życia publicznego. Ekspert forumIdei Fundacji im. Stefana Batorego oraz Open Spending EU Coalition.