Na całym świecie jakość zarządzania postami użytkowników zamieszczanych na platformach internetowych staje się przedmiotem analiz na poziomie rządów państw. Wielkie platformy technologiczne zwracają się do Unii Europejskiej o ochronę przed odpowiedzialnością prawną w związku z usuwaniem mowy nienawiści i innych nielegalnych treści.
Podjęcie kroków zabezpieczających firmy, które aktywnie zarządzają postami, przyniesie poprawę jakości moderowania treści, przez motywowanie platform do usuwania złych treści przy jednoczesnej ochronie swobody wypowiedzi – stwierdziło w oficjalnym piśmie stowarzyszenie Edima reprezentujące m.in. Facebook Inc., TikTok (należący do ByteDance Ltd.) czy Google (własność Alphabet Inc.), o czym informuje agencja Bloomberg.
Odpowiedzialność za treści
Obecnie obowiązujące w UE przepisy chronią platformy przed odpowiedzialnością za zamieszczane na ich stronach treści, dopóki faktycznie nie wiedzą one o ich obecności – np. dopóki użytkownik nie oznaczy ich jako szkodliwe. Z chwilą nabycia wiedzy o obecności nielegalnej treści platforma jest zobowiązana bezzwłocznie podjąć działanie w celu jej usunięcia.
Firmy technologiczne obawiają się, że wskutek samoistnego usunięcia treści, za pomocą algorytmów czy innych systemów do wykrywania naruszeń, mogą zostać oskarżone o wiedzę o ich wystąpieniu i uznane za odpowiedzialne za zamieszczanie szkodliwych postów. Budzi to coraz większy niepokój, gdy jednocześnie Komisja Europejska przygotowuje modernizację dotychczasowych przepisów, aby przyznać platformom większą odpowiedzialność za treści rozpowszechniane na ich stronach – od mowy nienawiści i propagandy terrorystycznej, po niebezpieczne zabawki.
– Wszyscy nasi członkowie traktują swoją odpowiedzialność bardzo poważnie i chcą robić więcej dla okiełznania nielegalnych treści i aktywności online – powiedziała Siada El Ramly, dyrektor generalna Edima. – Europejska ochrona prawna dla dostawców usług technologicznych dałaby im swobodę działania w wykorzystaniu swoich zasobów i technologii w sposób kreatywny.
W ostatnich latach platformy znalazły się pod baczną obserwacją, ponieważ nie robią dość, aby monitorować mowę nienawiści, która przyczynia się do podżegania do przemocy w krajach takich jak Mjanma oraz dopuściły do szerzenia dezinformacji przez Rosję w celu wpływania na wybory prezydenckie w USA w 2016 r. i na referendum w sprawie brexitu.
Firmy technologiczne są ostrożne w kwestii obarczania zbyt wielką odpowiedzialnością prawną za posty, co może godzić w wolność słowa, gdyż firmy mogą blokować treści ponad konieczność, aby uniknąć sankcji.
Edima przesyła urzędnikom Komisji Europejskiej, Parlamentu i Rady swoje poprawki, zgodnie z którymi firmy technologiczne powinny w dalszym ciągu ponosić odpowiedzialność za brak działania w razie otrzymania istotnego powiadomienia o wystąpieniu nielegalnej treści.
Nowe przepisy
W nowych regulacjach UE nie planuje całkowitego zniesienia ochrony odpowiedzialności, ale zamierza nakładać na firmy kary pieniężne za niewystarczające działanie.
Jak ustalił Bloomberg, komisja rozważa również zapis precyzujący, że stosowanie środków aktywnego wyszukiwania problematycznych treści nie stawia firm technologicznych „poza zasięgiem zwolnień z odpowiedzialności”.
W ramach modernizacji przepisów platformy może również czekać obowiązek utrzymywania systemu notyfikacji, w którym użytkownicy będą mogli oznaczać nielegalne treści, regularnego raportowania wskaźnika usuwanych treści i gromadzenia informacji identyfikacyjnych użytkowników biznesowych.
Dla „bardzo dużych platform” przewidziane są dodatkowe wymogi, dotyczące transparentności moderowania treści, wzmacniania pewnych treści i usług reklamowych online.
UE planuje utworzenie nowej rady odpowiedzialnej za wspieranie władz państwowych w monitorowaniu compliance.
Propozycje UE, obejmujące również regulacje służące ograniczeniu potęgi wielkich platform, mają być zaprezentowane na początku grudnia, ale możliwe jest opóźnienie.
AC