21.10.2021

Opinia Fundacji im. Stefana Batorego nt. projektu ustawy o ochronie wolności słowa w internetowych serwisach społecznościowych

                                                                                               Warszawa, 20 października 2021 r.

 

Ministerstwo Sprawiedliwości

Opinia Fundacji im. Stefana Batorego na temat projektu ustawy o ochronie wolności słowa w internetowych serwisach społecznościowych w brzmieniu z dnia 28 września 2021 r. (UD 293)

Kontekst

Projekt dotyka ważnej kwestii jaką jest regulacja odpowiedzialności platform internetowych w zakresie, w jakim ich działalność może wpływać na poziom debaty publicznej i korzystania z wolności wypowiedzi. Istnieje powszechna zgoda, że jest to sfera, która wymaga wprowadzenia odpowiednich regulacji. Dotychczasowa praktyka polegająca na opracowaniu i wdrażaniu mechanizmów samoregulacyjnych[1] przez niektóre platformy internetowe faktycznie nie spełniła pokładanych w nich nadziei[2]. Zauważono to również na poziomie instytucji Unii Europejskiej. Problem zauważyła również  w swoim inauguracyjnym wystąpieniu[3] Przewodnicząca Komisji Europejskiej Ursula von der Leyen dała jasno do zrozumienia, że walka z dezinformacją w sieci i kontrola nad platformami internetowymi są głównymi punktami jej agendy cyfrowej. Znalazło to m.in. wyraz w dwóch dokumentach instytucji UE – Europejskim planie działania na rzecz demokracji (EDAP)[4] oraz Akcie o usługach cyfrowych (DSA)[5] – określających jasne zasady reagowania na szerzącą się dezinformację, zakłócenia wyborów oraz brak odpowiedzialności i przejrzystości platform internetowych.

Ważne jest, by projektowane regulacje zostały opracowane z założeniem, że powinny działać zarówno w kontekście demokratycznym, jak i autorytarnym, a więc powinny zawierać ograniczenia nadużyć ze strony rządów zmierzających do tłumienia wolności wypowiedzi i naruszania prywatności obywateli. Jednocześnie, regulacje powinny chronić użytkowników i interes publiczny przed treściami bezprawnymi, naruszającymi dobra osobiste, czy zagrażającymi integralności wyborów i innych demokratycznych procesów.

Przepisy powinny głównie skupić się na zobowiązaniu platform internetowych do przejrzystości w zakresie sposobu moderowania treści, warunków świadczenia usług i wytycznych dla społeczności, a także skutecznych mechanizmów odwoławczych.  Problemem pozostaje również, m.in. kwestia etykietowania botów[6]. Platformy powinny pracować nad definiowaniem i oznaczaniem botów. Podczas gdy wiele kont wykorzystuje połączenie działań ludzkich i automatyzacji, platformy powinny informować użytkowników, kiedy konto jest w głównej mierze zautomatyzowane. Taka informacja powinna zostać opublikowana na platformie. Informacje te mogą być pomocne przy ocenie wiarygodności treści i informować użytkowników o tym, czy wchodzą w interakcję z prawdziwą osobą, czy nie.

Jak wspomniano wyżej, instytucje Unii Europejskiej opracowują obecnie odpowiednie regulacje, uwzględniające złożoność problematyki. Wyzwania związane z działalnością platform internetowych mają globalny charakter, wydaje się więc, że jedyną skuteczną odpowiedzią na nie pozostaje również globalne podejście do ich rozwiązania. Dlatego, w pierwszym rzędzie sugerujemy, aby rząd wstrzymał prace nad procedowanym obecnie projektem ustawy i poczekał na ostateczny kształt przepisów z zakresu prawa europejskiego. Umożliwi to pełną harmonizację przepisów w tym obszarze, gwarantując tym samym ich większą skuteczność.

Uwagi ogólne

Proponowane zapisy nie rozwiązują istniejących problemów i w istotny sposób mogą się przyczynić do ograniczenia wolności słowa w polskim internecie. Należy się także spodziewać, że mogą być sprzeczne z przygotowywanymi właśnie przepisami na poziomie Unii Europejskiej.

Projekt nie odpowiada na szereg wyzwań związanych z działalnością platform internetowych w obszarze ich wpływu na debatę publiczną. Jego treść nie jest też zsynchronizowana z jego preambułą i wyłożonymi w projekcie celami, gdyż poza zakresem proponowanej regulacji pozostaje np. przeciwdziałanie dezinformacji, a więc dążenie do „zapewnienia prawa do prawdziwej informacji” (art. 1 pkt 2 projektu). To pojęcie jest wspomniane w tekście projektu, ale nie przewidziano szczegółowych regulacji w jego dalszej części. Z informacji prasowych wynika, że pewne regulacje w  tym obszarze zostaną włączone do opiniowanego projektu z inicjatywy ministra cyfryzacji, który chciałby ograniczyć dezinformację związaną z prowadzeniem działań w ramach walki z pandemią COVID-19[7]. Jednakże są to propozycje fragmentaryczne, odnoszące się zaledwie do wycinku zjawiska, a z uwagi na to, że mają być dołączone do projektu na późniejszym etapie, nie sposób ich teraz ocenić. Dlatego też zwracamy uwagę na konieczność przedstawienia do ponownych konsultacji publicznych uzupełnionego projektu.

Projekt powinien również zawierać przepisy odnoszące się do minimalizowania ryzyka działalności platform internetowych dla uczciwości wyborów. Proponowane w projekcie przepisy odnoszące się do zmian w Kodeksie wyborczym w zakresie postępowań w tzw. trybie wyborczym są niewystarczające i pozostają w zasadzie bez związku z wyzwaniami związanymi z działalnością platform. Należy bowiem uregulować kwestie przejrzystości reklam politycznych, wydatków na tę formę agitacji wyborczej czy zastosować mechanizmy ograniczające możliwość nadmiernego mikrotargetowania[8] takich przekazów. W tym zakresie, wnioskodawca mógłby odwołać się do przepisów francuskiej ustawy nr 2018 – 1202 w sprawie zwalczania fałszywych informacji, szczególnie, że dość obszernie cytuje ją w uzasadnieniu projektu. Czyni to jednak, pomijając jej najważniejsze przepisy, właśnie w obszarze gwarancji integralności wyborów.

Projekt nie zapewnia również ochrony przed mową nienawiści i wprowadza niepełną ochronę przed naruszeniem dóbr osobistych. O ile pozytywnie należy ocenić proponowane zmiany w Kodeksie postępowania administracyjnego w zakresie tzw. ślepego pozwu, to wykluczenie osób, których dobra osobiste zostały naruszone, lub stały się ofiarami mowy nienawiści z postępowania przed Radą Wolności Słowa, należy ocenić negatywnie. Należy bowiem zwrócić uwagę, że problem mowy nienawiści i tzw. cyberbullingu w internecie stanowi jeden z najważniejszych wyzwań w zakresie zdrowia psychicznego dzieci i młodzieży[9].

Projekt oddziałuje również na platformy internetowe inne niż popularne serwisy społecznościowe, w tym prasę internetową. Przyjęta przez wnioskodawców w art. 3 pkt 1 definicja internetowego serwisu społecznościowego będzie miała zastosowanie do serwisów internetowych umożliwiających wstawianie komentarzy, a więc również tych, których celem jest, w pierwszym rzędzie, publikowanie informacji. W efekcie przepisy projektowanej ustawy uderzą w serwisy internetowe popularnych w polskich internecie redakcji, np. onet.pl czy gazeta.pl. Taki rezultat nie jest celem projektowanych regulacji w UE, jak również jest on dużo bardziej obciążający dla serwisów informacyjnych, niż dla międzynarodowych serwisów społecznościowych typu Facebook. Konieczna jest zatem zmiana definicji internetowego serwisu społecznościowego, tak aby wykluczyć z projektowanych obowiązków prasę internetową.

Projekt nie spełnia również, wspomnianego wyżej w kontekście kierunków regulacji przyjętych przez instytucje Unii Europejskiej, warunku ograniczenia zbyt dużej ingerencji państwa w moderowanie debaty publicznej. Przyjęte rozwiązania dotyczące Rady Wolności Słowa niosą za sobą ryzyko politycznej ingerencji w treści publikowane przez użytkowników. I to zarówno w kontekście decyzji Rady o zgodzie na usunięcie danej treści, jak i w przypadku decyzji nakazującej jej przywrócenie. Przyjęty model wyboru członków Rady tylko nie gwarantuje niezależności. Większość rządząca będzie miał zupełną wolność wyboru członków Rady, a jak wskazują doświadczenia wyboru członków Krajowej Rady Sądownictwa wiąże się to z ryzykiem upolitycznienia działań Rady Wolności Słowa. Tę obawę potęguje następujący fragment uzasadnienia: „poszczególni usługodawcy, w zależności od własnego profilu światopoglądowego i promowanych przez siebie wartości mogą w zasadniczych kwestiach różnić się w więc, często w diametralny sposób, w odbiorze publikowanych informacji, co znajdzie wyraz w wykonywanej przez nich działalności.”

Po pierwsze, brak jest dowodów, że usługodawcy kierują się kwestiami światopoglądowymi w przypadkach moderacji treści.[10] Fakt, że tak odbierają to wnioskodawcy projektu, może świadczyć o chęci ochrony, nie „prawa do prawdziwej informacji”, a właśnie własnego „profilu światopoglądowego” za pośrednictwem wybranych przez siebie członków Rady Wolności Słowa. Po drugie, niezależnie od powyższej uwagi, wnioskodawcy zdają się ingerować w wolność wydawców stron internetowych i serwisów społecznościowych, do tworzenia określonej linii światopoglądowej swoich serwisów, wywierając na nich nacisk, by wbrew tej linii publikowali komunikaty sprzeczne z ich linią redakcyjną. W rezultacie wejścia w życie projektowanych przepisów, np. serwis skupiający się m.in. ochronie życia poczętego będzie musiał publikować treści związane z korzyściami z przeprowadzeniem aborcji na życzenie.

Już w związku z powyższymi uwagami, naszym zdaniem, należy przeformułować główne założenia projektu, a najbardziej pożądanym rozstrzygnięciem będzie jego wycofanie i rozpoczęcie prac na nowo, uwzględniając kierunki projektowanych regulacji w UE.

Uwagi szczegółowe

Niezależnie od, przedstawionej powyżej, uwagi dotyczącej zbyt szerokiej definicji „internetowych serwisów społecznościowych” należy zwrócić uwagę na trudności związane z określeniem warunku, aby z tych serwisów korzystało „w kraju co najmniej milion zarejestrowanych użytkowników”. W praktyce organy państwa, jak i sami usługodawcy mogą mieć problemy z ustaleniem liczby użytkowników, biorąc pod uwagę coraz bardziej powszechne korzystanie z usług VPN. Podobnie, w przypadku serwisów zagranicznych nie jest oczywiste, jak należy traktować użytkowników przemieszczających się z lub do Polski.

Nie można się również zgodzić z zakwalifikowaniem dezinformacji jako treści bezprawnych, jak uczynił to wnioskodawca w art. 3 pkt 8 projektu. Dezinformacja rozumiana przez projektodawcę jako  „fałszywa lub wprowadzająca w błąd informacja, wytworzona, zaprezentowana i rozpowszechniona dla zysku lub naruszenia interesu publicznego” zrównana została z innymi „treściami o charakterze bezprawnym”, jakimi są „treści naruszające dobra osobiste”, „treści o charakterze przestępnym” oraz „treści, które naruszają dobre obyczaje”.  Tworzy to ogromne ryzyko dla gwarancji wolności słowa. Dezinformacja, nawet rozumiana jako naruszająca interes publiczny, nie może być utożsamiana z działaniami bezprawnymi. Szczególnie, że autorzy projektu nie odnoszą się do innych przepisów, które pozwalałyby uznać podawanie nieprawdziwych lub zmanipulowanych informacji za działanie bezprawne. Ma to o tyle duże znaczenie, że chociaż projekt nie zawiera praktycznych rozwiązań związanych z przeciwdziałaniem zjawisku dezinformacji, to stworzenie gruncie przepisów takiego precedensu, może zostać  wykorzystane do naruszania wolności słowa pod pozorem walki z dezinformacją. Przyjęta w projekcie definicja „dezinformacji” jest również w sposób rażący odmienna od tej, która została przyjęta w unijnym Kodeksie dobrych praktyk, a przez to bardzo generalna i pozwalająca na swobodną ocenę.  Jako że projekt ustawy, na obecnym etapie, w ogóle nie odnosi się do zjawiska przeciwdziałania dezinformacji oraz z uwagi na wskazane wyżej ryzyka dla wolności słowa, należy te przepisy usunąć.

W uzasadnieniu nie poświęcono wystarczającej  uwagi wyjaśnieniu dlaczego dokonano takiego wyboru czynów zabronionych, określanych  w art. 3 pkt 7 projektu jako treści o charakterze przestępnym. Znajdują się wśród nich np. przepisy odnoszące się do obrazy uczuć religijnych, czy  znieważenia państwa polskiego, ale nie wymieniono np. przestępstwa określonego w art. 191a Kodeksu karnego odnoszącego się do utrwalenia wizerunku nagiej osoby przy użyciu podstępu, które stanowi jedno z częściej występujących tzw. przestępstw internetowych. O ile ten ostatni przykład jest w sposób oczywisty bezprawny i nie wymaga większych analiz dokonywanych przez członków Rady Wolności Słowa, to dwa pierwsze przykłady wymagają wszechstronnej analizy pod kątem ewentualnej bezprawności (mogą to być treści jak najbardziej mieszczące się w wolności wypowiedzi), a proponowany przez projektodawcę tryb działania Rady Wolności Słowa wyklucza przeprowadzenie takiego procesu w sposób rzetelny. W rezultacie, Rada – jako organ administracji publicznej – będzie dokonywać ocen co do naruszenia przepisów prawa karnego, co w rezultacie będzie wpływać na realizację wolności wyrażania opinii. Warto również zauważyć, że projekt – chyba wbrew intencjom wnioskodawcy – daje również wyraźną podstawę prawną usługodawcy do usunięcia treści, które ten uznaje za bezprawne. W tym wypadku, użytkownicy nie mogą skorzystać z odwołania do Rady Wolności Słowa (art. 22 ust. 1 projektu).

Nie wydaje się wystarczające ograniczenie przestępstw wymienionych w projekcie do jedynie przestępstw publiczno-skargowych, gdyż znaczącym problemem, z którym borykają się użytkownicy platform internetowych jest również publikowanie treści o charakterze prywatno-skargowym. Autorzy większą uwagę przywiązują zatem do ochrony państwa niż do ochrony jego obywateli. Jednocześnie, autorzy projektu uznali w uzasadnieniu, że z uwagi, że „znaczna część zachowań składających się na zjawisko mowy nienawiści stanowi przestępstwo w myśl polskiego porządku prawnego, nie było potrzeby dodatkowego definiowania tego zjawiska w ustawie”. Tymczasem, problemem – również w treściach publikowanych na platformach internetowych – pozostaje nieuwzględniona w przepisach kodeksu karnego mowa nienawiści z uwagi na orientację seksualną. Uznanie np., że mowa nienawiści wymierzona w osoby LGBTQI mieści się we wprowadzonym przez autorów projektu pojęciu „dobrych obyczajów” wobec powszechnej, również ze strony przedstawicieli władz, kampanii wymierzonej w te osoby, wydaje się niewystarczające.

Poważne wątpliwości budzi również sposób powoływania Rady Wolności Słowa (rozdział 2 projektu). Zgodnie z przedstawionym projektem, kandydaci na Przewodniczącego i członków Rady Wolności Słowa mają być wybierani przez Sejm większością 3/5 głosów, a w razie jej nieuzyskania – zwykłą większością głosów. Jest to mechanizm analogiczny do wyboru członków obecnej Krajowej Rady Sądownictwa. Jak wspomniano wyżej, biorąc pod uwagę doświadczenia z wyboru członków nowej Krajowej Rady Sądownictwa, istnieje uzasadniona obawa, że Rada Wolności Słowa będzie wybierana zwykłą większością zostanie zdominowana przez osoby sympatyzujące z obozem rządzącym. Decyzje Rady będą w rezultacie obciążone określonym światopoglądem, co przeczy postulowanej przez autorów projektu wolności debaty publicznej.

Jednocześnie, oceną czy doszło do słusznego ograniczenia dostępu do treści internetowych lub profilu użytkownika powinny zajmować się sądy powszechne, i to nie tylko z uwagi na gwarancje niezależności, ale przede wszystkim ze względu na doświadczenie w ważeniu wartości konstytucyjnych. W tym kontekście, naszą ocenę poddania działań rady sądownictwu administracyjnemu opisujemy w dalszej części opinii. Autorzy projektu wskazują również, że w poczet Rady będą wchodzić osoby posiadające „wyższe wykształcenie prawnicze lub niezbędną wiedzę w zakresie językoznawstwa lub nowych technologii”. Nie można zgodzić się z optymistycznym stwierdzeniem wyrażonym w uzasadnieniu projektu, że np. osoby posiadające niezbędną wiedzę w zakresie językoznawstwa lub nowych technologii będą w stanie wykorzystać „w odpowiednim zakresie bogaty dorobek doktryny prawa oraz orzecznictwa sądowego w zakresie stwierdzania, w jakich sytuacjach rzeczywiście dochodzi do powstania treści o charakterze bezprawnym a także konsekwencji stwierdzenia takiego naruszenia.”

Zbyt wąskie i niezrozumiałe są również wyłączenia osób, które nie mogą ubiegać się o członkostwo w Radzie Wolności Słowa. Nie mógłby w jej skład wejść radny, ale mógłby już minister, czy prezesi mediów publicznych.

Dodatkowo, przyznanie kompetencji Prezesowi UKE do określenia regulaminu działania Rady, bez wskazania szczegółowych kwestii, jakie powinny się w nim znaleźć, grozi uzależnieniem Rady od tego organu. Przyjętą praktyką legislacyjną jest określenie założeń aktów delegowanych w ustawie.

Pozytywnie ocenić należy przepisy dotyczące  obowiązków usługodawców (Rozdział 3 projektu), z zastrzeżeniem, , że użycie słowa „w szczególności” przy określaniu zadań  ich przedstawiciela (art. 16 ust. 2 projektu) może naruszać art. 7 Konstytucji Rzeczypospolitej Polskiej poprzez dopuszczenie, że mogą istnieć jeszcze inne zadania niż te określone w przepisach ustawy. Szczególnie, że autorzy projektu mogą nałożyć na usługodawcę karę administracyjną za niewykonywanie zadań przez przedstawiciela (art. 32 ust. 2).

Pozytywne oceniamy również propozycje dotyczące prowadzenia wewnętrznego postępowania kontrolnego (Rozdział 4 projektu)

Mamy natomiast poważne zastrzeżenia co do uregulowania postępowania przed Radą Wolności Słowa (Rozdział 5 projektu). Samo postępowanie toczyć się będzie wyłącznie przy uznaniu za strony użytkownika, któremu ograniczono dostęp do treści, albo użytkownika, któremu ograniczono dostęp do profilu użytkownika i usługodawcę. Z postępowania wyłączona zatem zostanie osoba, która zgłosiła do usługodawcy potrzebę ograniczenia treści, lub ograniczenia dostępu do profilu. Tymczasem, powinna ona mieć prawo do ochrony swoich praw w postępowaniu przed Radą, która bez jej udziału – nawet w charakterze świadka – może zdecydować o publikacji treści naruszającej jej dobra osobiste. Dodatkowo, Rada nie przeprowadza dowodów z zeznań świadków, przesłuchania stron, opinii biegłych oraz oględzin, co w znaczącym stopniu ogranicza jej możliwości przeprowadzenia postępowania w sposób obiektywny i biorący pod uwagę wszystkie okoliczności (art. 27 ust. 1 projektu). Dodatkowo,  projektodawcy przewidują uproszczone zasady postępowania przed Radą poprzez niestosowanie wybranych przepisów Kodeksu postępowania administracyjnego (art. 30 ust. 1 projektu), w tym zapewnienia stronom czynnego udziału w każdym stadium postępowania, a przed wydaniem decyzji umożliwienia im wypowiedzenia się co do zebranych dowodów i materiałów oraz zgłoszonych żądań. Narusza to zasady relacji władza – obywatel, gwarantowane między innymi przez Kodeks postępowania administracyjnego.

Wskazana przez autorów projektu ścieżka odwoławcza od decyzji Rady poprzez złożenie skargi do wojewódzkiego sądu administracyjnego wydaje się dalece nieodpowiednia. Sądy administracyjne nie mają doświadczenia w badaniu kwestii związanych z wolnością wypowiedzi. Będzie to zatem kontrola iluzoryczna, ograniczona do badania nie tyle merytorycznych podstaw decyzji Rady Wolności Słowa, co głównie skupiająca się na kwestiach formalnych. Dodatkowo, art. 29 projektu wyraźnie wskazuje, że „usługodawca nie może ponownie ograniczyć dostępu do treści, które były przedmiotem badania przed Radą” co stawia pod znakiem zapytania cele złożenia skargi do sądów administracyjnych.  Rozwiązanie to nie uwzględnia również ewentualnych nowych okoliczności, które mogłyby potwierdzić bezprawność takich treści po przeprowadzeniu postępowania.

W zakresie przepisów innych ustaw, które są zmieniane opiniowanym projektem należy pozytywnie ocenić proponowane zmiany w ustawie z dnia 17 listopada 1964 r. – Kodeks postępowania cywilnego w zakresie ustanowienia tzw. ślepego pozwu. Jest to konieczny, w dobie naruszeń dóbr osobistych w internecie instrument, gwarantujący obywatelom możliwość skutecznego dochodzenia swoich praw.

Wątpliwości budzą jednak zmiany w zakresie wybranych przepisów ustawy z dnia 26 stycznia 1984 r. – Prawo prasowe, nakładające na Redaktora Naczelnego obowiązek nieodpłatnego opublikowania, w sposób określony orzeczeniem sądu, oświadczenia osoby, która w materiale prasowym dopuściła się naruszenia cudzego dobra osobistego. W uzasadnieniu zmiany przepisów wskazano, że „nowelizacja ma na celu umożliwienie osobom, które naruszyły dobra osobiste właśnie za pośrednictwem tej prasy, naprawienia krzywdy poniesionej w związku z publikacją.” Nie wydaje się to dobrym rozwiązaniem, gdyż koszty publikacji przeprosin mogą stanowić istotny czynnik prewencyjny czy wręcz związany z poniesieniem odpowiedzialności za naruszenie dóbr osobistych. Prawdą jest, że wynagrodzenie za publikację przeprosin jest często nieosiągalne dla osoby zobowiązanej do przeprosin, natomiast jest to przyczynek do regulacji kosztów w tym zakresie, a nie zobowiązania wydawcy do faktycznego „zasponsorowania” obowiązków osób trzecich.

Projekt nakłada również w art. 40 obowiązek na usługodawców świadczących usługi drogą elektroniczną przechowywania przez 12 miesięcy danych osobowych usługobiorców oraz danych charakteryzujących sposób korzystania przez nich z tej usługi (dane eksploatacyjne), w tym datę, godzinę i sekundę każdorazowego połączenia, węzeł wyjścia (tzw. exit node) oraz „inne w zależności od zastosowanych technologii”. Rozwiązanie takie może budzić wątpliwości z punktu widzenia zasad celowości, ograniczenia przechowywania oraz minimalizacji przetwarzania danych osobowych oraz zwiększy ryzyko nadużywania uprawnień przez służby specjalne, które chętniej będą korzystać z informacji na temat użytkowników, które są gromadzone przez usługodawców.

 

Opinia przygotowana przez Krzysztofa Izdebskiego, eksperta Fundacji im. Stefana Batorego

[1] Code of Practice on Disinformation (2018). Dostępne: https://digital-strategy.ec.europa.eu/en/policies/code-practice-disinformation

[2] https://www.euractiv.com/section/digital/news/eu-code-of-practice-on-disinformation-insufficient-and-unsuitable-member-states-say/

[3] https://ec.europa.eu/commission/presscorner/detail/en/SPEECH_19_4230

[4] Proposal for a Regulation Of The European Parliament And Of The Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC, COM/2020/825 final

[5] Communication From The Commission To The European Parliament, The Council, The European Economic And Social Committee And The Committee Of The Regions On the European democracy action plan. COM/2020/790 final

[6] https://epd.eu/wp-content/uploads/2020/09/a-civil-society-vision-for-the-european-democracy-action-plan-input-paper.pdf

[7] https://www.politykazdrowotna.com/77477,jcieszynski-hejt-wobec-medykow-trzeba-zwalczac

[8] https://privacyinternational.org/news-analysis/3735/why-were-concerned-about-profiling-and-micro-targeting-elections

[9] https://socialpress.pl/2021/07/algorytmy-social-media-zachecaja-nastolatkow-do-samookaleczen-juz-kilka-minut-po-zalozeniu-konta

[10] https://morningconsult.com/opinions/the-facts-on-social-media-bias/