• Aleksandra Przegalińska
16.03.2023

Generatywna AI a społeczeństwo obywatelskie

Modele generatywne sztucznej inteligencji (AI) to tektoniczna zmiana w krajobrazie technologii, ale też potężne implikacje dla społeczeństwa obywatelskiego. Choć jest szansa, że generatywna AI może przyczynić się do rozwoju technologicznego, a tym samym do rozwiązania licznych problemów, to jednocześnie niesie ona ze sobą zagrożenia, które wymagają poważnej uwagi.

Zacznijmy może od tego, że rozwój generatywnej sztucznej inteligencji (AI) oferuje niewątpliwie wiele szans dla społeczeństwa, zarówno w krótkim, jak i długim okresie.  Generatywna AI to transformacja bardzo wielu dziedzin naszego życia: generatywne modele graficzne mogą być wykorzystane do tworzenia realistycznych symulacji, które mają zastosowanie w wielu dziedzinach, takich jak architektura, film, gry wideo, a nawet medycyna. Symulacje te mogą pomóc w tworzeniu bardziej precyzyjnych projektów architektonicznych i lepszej jakości usług z zakresu zdrowia publicznego. Generatywna AI to także przyspieszenie procesu tworzenia nowych produktów i usług poprzez generowanie i testowanie pomysłów wirtualnie. Kolejnym zagadnieniem jest personalizacja (tam, gdzie oczywiście jest pożądana i nie budzi wątpliwości natury etycznej): dzięki generatywnym modelom AI możemy tworzyć spersonalizowane treści dla użytkowników, takie jak rekomendacje produktów, usług, czy treści. Generatywne modele AI mogą pomóc w automatyzacji rozmaitych procesów i usług, także  obywatelskich, takich jak generowanie dokumentów, weryfikacja danych, czy analiza danych, co może przyspieszyć procesy i obniżyć koszty, a także podwyższyć jakość ich wykonania. Wszystkie te szanse mają potencjał, aby przynieść korzyści dla całego społeczeństwa. Jednak aby wykorzystać te szanse w odpowiedni sposób, potrzebujemy odpowiednich narzędzi i regulacji, które zapewnią, że generatywne modele AI są wykorzystywane w sposób etyczny i odpowiedzialny.

Jednym z głównych zagrożeń, które zarysowuje się na horyzoncie, jest ryzyko dezinformacji i manipulacji. Modele generatywne AI są w stanie wyprodukować treści, które wydają się autentyczne, ale tak naprawdę są fałszywe lub zmanipulowane. Przykładem może być tworzenie deepfake’ów – filmów lub zdjęć, które wydają się przedstawiać rzeczywistość, ale w rzeczywistości są zmanipulowane. Dzięki szybkiemu postępowi w dziedzinie generatywnych modeli językowych, już dziś możemy zobaczyć, jak fałszywe artykuły i wiadomości rozprzestrzeniają się w internecie, wprowadzając dezinformację i chaos w społeczeństwie. Generatywne modele językowe mogą być również wykorzystane do prowadzenia ataków phishingowych, które wykorzystują realistyczne treści, aby oszukać ludzi i wyłudzić od nich pieniądze lub informacje poufne. Dzięki rosnącej liczbie danych dostępnych w internecie, generatywne modele językowe (LLM) mogą przeprowadzać ataki na prywatność, wykorzystując zebrane informacje do generowania personalizowanych tekstów. W ten sposób, modele mogą być wykorzystane również do manipulowania ludźmi i ich zachowaniami, co stanowi zagrożenie dla wolności i prywatności jednostek.

Kolejnym zagrożeniem jest to, że modele generatywne AI są w stanie wyprodukować ogromne ilości informacji, co zwiększa ryzyko, że prywatne dane obywateli mogą trafić w niepowołane ręce. Przykładem może być generowanie fałszywych danych osobowych, co może doprowadzić do kradzieży tożsamości lub innych przestępstw związanych z wykorzystaniem danych osobowych.

Wreszcie, mamy zagrożenie rosnącej nierówności społecznej, do której zwiększenia mogą przyczynić się modele generatywne. Wprowadzenie zaawansowanych technologii, które wymagają specjalistycznej wiedzy i umiejętności, może skutkować jeszcze większą nierównością społeczną i pogłębić podziały na rynku pracy, prowadząc w pewnych obszarach do bezrobocia technologicznego na dużą skalę. Z drugiej strony – gwoli rzetelności oceny – trzeba przyznać, że z pewnością liczyć można na sporo nowych zawodów, które ta technologia wytwarza.

Mimo wymienionych zagrożeń, modele generatywne AI mają wiele do zaoferowania społeczeństwu obywatelskiemu. Mogą przyczynić się do rozwoju medycyny i odkrywania leków, poprawy jakości życia ludzi i zwiększenia wydajności pracy, przy zwiększeniu także – co bardzo ważne – jej komfortu. Optymiści (by nie rzec utopiści) twierdzą nawet, że modele generatywne AI mogą również pomóc w rozwiązywaniu problemów globalnych, takich jak zmiana klimatu i brak zasobów naturalnych. Mogą przyczynić się do opracowania bardziej zaawansowanych technologii, które umożliwią ekologiczną produkcję i oszczędzanie energii. Mój entuzjazm w tym zakresie studzony jest obserwowaniem dotychczasowych zastosowań technologii wschodzących. Przyznam jednak, że chciałabym się mylić, prezentując tak sceptyczną postawę.

 

Disclaimer: użyłam ChatGPT do researchu do tego tekstu. Odrzuciłam większość jego sugestii, ale sam fakt, że mogłam się  intelektualnie „odbić” od jego argumentacji był dla mnie dosyć inspirujący.

 

Aleksandra Przegalińska – profesorka w Akademii Leona Koźmińskiego, filozofka, badaczka rozwoju nowych technologii, zwłaszcza technologii zielonej i zrównoważonej, humanoidalnej sztucznej inteligencji, robotów społecznych i technologii ubieralnych.

Pomóż nam nagłaśniać tematy ważne społecznie.
Twoja darowizna wesprze powstawanie naszych tekstów.

Wspieraj