Zacznijmy może od tego, że rozwój generatywnej sztucznej inteligencji (AI) oferuje niewątpliwie wiele szans dla społeczeństwa, zarówno w krótkim, jak i długim okresie. Generatywna AI to transformacja bardzo wielu dziedzin naszego życia: generatywne modele graficzne mogą być wykorzystane do tworzenia realistycznych symulacji, które mają zastosowanie w wielu dziedzinach, takich jak architektura, film, gry wideo, a nawet medycyna. Symulacje te mogą pomóc w tworzeniu bardziej precyzyjnych projektów architektonicznych i lepszej jakości usług z zakresu zdrowia publicznego. Generatywna AI to także przyspieszenie procesu tworzenia nowych produktów i usług poprzez generowanie i testowanie pomysłów wirtualnie. Kolejnym zagadnieniem jest personalizacja (tam, gdzie oczywiście jest pożądana i nie budzi wątpliwości natury etycznej): dzięki generatywnym modelom AI możemy tworzyć spersonalizowane treści dla użytkowników, takie jak rekomendacje produktów, usług, czy treści. Generatywne modele AI mogą pomóc w automatyzacji rozmaitych procesów i usług, także obywatelskich, takich jak generowanie dokumentów, weryfikacja danych, czy analiza danych, co może przyspieszyć procesy i obniżyć koszty, a także podwyższyć jakość ich wykonania. Wszystkie te szanse mają potencjał, aby przynieść korzyści dla całego społeczeństwa. Jednak aby wykorzystać te szanse w odpowiedni sposób, potrzebujemy odpowiednich narzędzi i regulacji, które zapewnią, że generatywne modele AI są wykorzystywane w sposób etyczny i odpowiedzialny.
Jednym z głównych zagrożeń, które zarysowuje się na horyzoncie, jest ryzyko dezinformacji i manipulacji. Modele generatywne AI są w stanie wyprodukować treści, które wydają się autentyczne, ale tak naprawdę są fałszywe lub zmanipulowane. Przykładem może być tworzenie deepfake’ów – filmów lub zdjęć, które wydają się przedstawiać rzeczywistość, ale w rzeczywistości są zmanipulowane. Dzięki szybkiemu postępowi w dziedzinie generatywnych modeli językowych, już dziś możemy zobaczyć, jak fałszywe artykuły i wiadomości rozprzestrzeniają się w internecie, wprowadzając dezinformację i chaos w społeczeństwie. Generatywne modele językowe mogą być również wykorzystane do prowadzenia ataków phishingowych, które wykorzystują realistyczne treści, aby oszukać ludzi i wyłudzić od nich pieniądze lub informacje poufne. Dzięki rosnącej liczbie danych dostępnych w internecie, generatywne modele językowe (LLM) mogą przeprowadzać ataki na prywatność, wykorzystując zebrane informacje do generowania personalizowanych tekstów. W ten sposób, modele mogą być wykorzystane również do manipulowania ludźmi i ich zachowaniami, co stanowi zagrożenie dla wolności i prywatności jednostek.
Kolejnym zagrożeniem jest to, że modele generatywne AI są w stanie wyprodukować ogromne ilości informacji, co zwiększa ryzyko, że prywatne dane obywateli mogą trafić w niepowołane ręce. Przykładem może być generowanie fałszywych danych osobowych, co może doprowadzić do kradzieży tożsamości lub innych przestępstw związanych z wykorzystaniem danych osobowych.
Wreszcie, mamy zagrożenie rosnącej nierówności społecznej, do której zwiększenia mogą przyczynić się modele generatywne. Wprowadzenie zaawansowanych technologii, które wymagają specjalistycznej wiedzy i umiejętności, może skutkować jeszcze większą nierównością społeczną i pogłębić podziały na rynku pracy, prowadząc w pewnych obszarach do bezrobocia technologicznego na dużą skalę. Z drugiej strony – gwoli rzetelności oceny – trzeba przyznać, że z pewnością liczyć można na sporo nowych zawodów, które ta technologia wytwarza.
Mimo wymienionych zagrożeń, modele generatywne AI mają wiele do zaoferowania społeczeństwu obywatelskiemu. Mogą przyczynić się do rozwoju medycyny i odkrywania leków, poprawy jakości życia ludzi i zwiększenia wydajności pracy, przy zwiększeniu także – co bardzo ważne – jej komfortu. Optymiści (by nie rzec utopiści) twierdzą nawet, że modele generatywne AI mogą również pomóc w rozwiązywaniu problemów globalnych, takich jak zmiana klimatu i brak zasobów naturalnych. Mogą przyczynić się do opracowania bardziej zaawansowanych technologii, które umożliwią ekologiczną produkcję i oszczędzanie energii. Mój entuzjazm w tym zakresie studzony jest obserwowaniem dotychczasowych zastosowań technologii wschodzących. Przyznam jednak, że chciałabym się mylić, prezentując tak sceptyczną postawę.
Disclaimer: użyłam ChatGPT do researchu do tego tekstu. Odrzuciłam większość jego sugestii, ale sam fakt, że mogłam się intelektualnie „odbić” od jego argumentacji był dla mnie dosyć inspirujący.
Aleksandra Przegalińska – profesorka w Akademii Leona Koźmińskiego, filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych.