Afery Cambridge Analytica i Facebooka kilka miesięcy temu boleśnie przypomniały, że wizja cyfrowej demokracji oddala się od nas coraz bardziej.
Niekontrolowany handel wrażliwymi danymi przyczynia się natomiast do osłabienia pozycji obywateli na rynku pracy, wobec instytucji kredytowych i ubezpieczeniowych. Czy na tym polu można skutecznie przeciwstawić się zakusom wielkiego kapitału?
Życie Catherine Taylor legło w gruzach w dniu, gdy jeden z podmiotów przetwarzających dane osobowe wpisał przez pomyłkę w dotyczącym Taylor zbiorze danych: „usiłowanie sprzedaży i wytwarzania metaamfetaminy". To nieprawdziwe oskarżenie rozprzestrzeniło się niczym pożoga, przez następujące jedna po drugiej gorączkowe transakcje odsprzedaży danych dotyczących konsumentów. Kiedy Taylor ubiegała się o pracę, cyfrowe piętno „sprzedawcy metaamfetaminy" znaczyło ją i odstraszało potencjalnych rekrutujących. Nie była w stanie nawet zakupić sobie zmywarki na kredyt.
ChoicePoint, jedno z wielu przedsiębiorstw zajmujących się gromadzeniem danych osobowych, w końcu poprawiło popełniony błąd. Niemniej wiele innych spółek, którym ChoicePoint sprzedało zbiór danych dotyczących Catherine Taylor, nie postąpiło podobnie. Taylor musiała nękać te przedsiębiorstwa pismami i dochodzić swoich racji przed sądem; wszystkie te postępowania ją wyczerpały. „Nie jestem w stanie stać na ciągłych czatach" – wyznała Taylor dziennikarzowi Washington Post, który opisał jej przejścia [1]. Trzeba jej było czterech lat, żeby znaleźć zatrudnienie. Ponieważ wciąż nie była w stanie znaleźć mieszkania do wynajęcia, Taylor zamieszkała z siostrą. Twierdzi, że stres wywołany całą tą sytuacją pogłębił jej problemy zdrowotne z sercem.
Na każdą Catherine Taylor – świadomą przyczyn, które stoją za jej złą reputacją – przypadają tysiące osób nieświadomych cyfrowego profilowania i szpiegowania, którym są poddawane. Te same przedsiębiorstwa, które korzystają z zaawansowanych algorytmów, by monitorować odbiorców i nimi manipulować, gdy przychodzi im zdać sprawę z prowadzonej działalności, zasłaniają się „tajemnicą handlową".
Od czasu do czasu dziennikarze i sygnaliści uchylają rąbka tajemnicy i pozwalają nam przyjrzeć się działaniu nieprzejrzystych mechanizmów nowej gospodarki cyfrowej. Niedawne rewelacje na temat metod, które pozwoliły przedsiębiorstwu Cambridge Analytica nielegalnie pozyskać informacje na temat użytkowników Facebooka, zwróciły uwagę na konieczność wprowadzenia polityki ochrony danych. Poddane społecznej presji państwa czują się zobowiązane, aby uregulować korzystanie z danych.
W momencie gdy po obu stronach Atlantyku decydenci szykują się, aby wprowadzić przepisy (lub bardziej rygorystycznie egzekwować już obowiązujące prawo), wydaje się konieczne, by sporządzić koncepcyjną mapę tej kolosalnej infrastruktury, która pozwala przechowywać i przetwarzać dane. Aby łatwiej nam było zorientować się w tym labiryncie, należy najpierw wyróżnić trzy sposoby obchodzenia się z danymi osobowymi w nowoczesnym przedsiębiorstwie: dane można gromadzić, analizować – aby wyciągnąć wnioski co do określonych użytkowników – i wykorzystywać. Każdy z etapów tego procesu wiąże się z określonymi problemami.
Gdy obywatele zwracają się do Facebooka lub Google’a z żądaniem przesłania kompletu danych osobowych, które ich dotyczą, odkrywają z przerażeniem, że ogromne ilości materiałów wideo, intymnych rozmów i fotografii – co do których byli przekonani, że zostały usunięte – są przechowywane w nienaruszonym stanie w archiwach. Pojawiają się też szczegółowe dane dotyczące przemieszczania się. Na telefonach z systemem Android sieć społecznościowa dyskretnie gromadziła dane związane z wykonywanymi połączeniami. Te spore zbiory danych pokazują, że sieci społecznościowe wiedzą wiele o intymnych szczegółach życia użytkowników. W miarę jak jakość urządzeń do gromadzenia danych wmontowanych w telefony komórkowe rośnie, cyberkorporacje mają coraz większą ochotę, by gromadzić coraz więcej danych, aż do uzyskania pełnego obrazu użytkownika – na którym wyraźnie widoczne będą czułe punkty, pragnienia, słabości, a nawet przestępstwa.
Czy zdarzyło ci się wpisać do wyszukiwarki: „objawy rzeżączki" lub „jak można ogłosić upadłość"? Ten zapis wyszukiwania być może jeszcze gdzieś istnieje, przypisany do twojego imienia i nazwiska, adresu IP twojego komputera lub powiązanego unikalnego identyfikatora. Dzięki temu przedsiębiorstwa mogą z łatwością tworzyć listy osób, które uznaje się za „neurotyczne" lub „w potrzebie". „Mamy spore szanse, by na podstawie historii korzystania z karty kredytowej i pojazdu danej osoby oraz innych aspektów związanych z trybem życia określić, czy osoba ta cierpi na chorobę, która nas akurat interesuje" – oznajmił wiceprezes firmy z sektora opieki zdrowotnej [2]. Inne przedsiębiorstwa z kolei odsprzedają adresy poczty elektronicznej i recepty przepisywane pacjentom cierpiącym na depresję lub nowotwory.
Zakres tego gromadzenia danych wychodzi na jaw powoli i stopniowo, w miarę jak przedsiębiorstwa – przez nieuwagę – ujawniają pewne informacje. Przykładowo, jedna z firm marketingowych wysłała mejla do następującego adresata: „Mike Seay, córka zginęła w wypadku samochodowym". Córka Mike’a Seaya faktycznie zginęła w wypadku mniej niż rok wcześniej. Niemniej znaczenie tej ponurej informacji dla strategii marketingowej przedsiębiorstwa pozostaje niewyjaśnione. Firma nie wypowiedziała się w tej sprawie i nie ujawniła, gdzie uzyskała te informacje. Podmioty przetwarzające dane mogą umownie zobowiązać klientów, by chronili źródła informacji.
Podmioty gromadzące, przetwarzające i odprzedające dane w wielu wypadkach rozpowszechniają dane o niezbyt szkodliwym charakterze, ale tworzą też zestawienia świadczące o niebywałym cynizmie. I tak sporządza się wykazy ofiar napaści seksualnych, osób chorych na AIDS lub chorobę Alzheimera. Tworzy się również wykazy impotentów lub osób cierpiących na depresję. Odsprzedawane w cenie kilku centymów za nazwisko te wykazy – choćby nie wiem jak mało wiarygodne – przyciągają głównie specjalistów sektora marketingu, ale również – coraz częściej – instytucje finansowe, które analizują profile klientów, aby uniknąć oszustw, a także pracodawców poszukujących pracowników. Działający w ukryciu handlarze danymi sprawiają, że sama idea poufności danych stała się pustym słowem. Od dawna daje się zauważyć następująca prawidłowość: życie prywatne kurczy się, w miarę jak rozszerza się zakres ochrony działalności handlowej.
Przy czym niektóre z danych w obrocie są nieprawdziwe. Autor jednego z artykułów, które rzuciły światło na świat przetwarzania danych, opisywał, jak jego przyjaciółka, ciesząca się doskonałym zdrowiem, otrzymała tajemnicze zaproszenie na spotkanie dla pacjentów cierpiących na stwardnienie rozsiane. Wcześniej wypełniła formularz rejestracyjny na spotkanie osób, których bliscy cierpią na tę chorobę, i te dane musiały następnie zostać zebrane i odsprzedane przedsiębiorstwu marketingowemu. Przyjaciółka nie przypominała sobie, czy w formularzu przewidziano taką możliwość wykorzystania danych – ale kto jest w stanie spamiętać wszystkie te warunki użytkowania, które zatwierdza się jednym kliknięciem, bez czytania? Tak czy inaczej, wspomniane przedsiębiorstwo marketingowe następnie odsprzedało te informacje grupie, która posiada dwie firmy farmaceutyczne. Przyjaciółka autora zaczęła coś podejrzewać, gdy zaczęto jej wysyłać materiały promocyjne przed spotkaniem. Ilu spośród nas zostało w ten sposób przypisanych do kategorii, o których istnieniu nawet nie mają pojęcia [3]?
W aferze Cambridge Analytica ujawniono, że przedsiębiorstwo to – prowadzące działalność w dziedzinie propagandy politycznej – pozyskało nielegalnie dane milionów użytkowników Facebooka. Niemniej rewelacje dotyczące transakcji danymi pozostają rzadkością. Państwa powinny ułatwiać zadanie tym, którzy uchylają wieka tej „czarnej skrzynki", i nakazywać przedsiębiorstwom prowadzenie sprawozdawczości na temat rodzajów gromadzonych danych. Powinny również umożliwić użytkownikom blokowanie gromadzenia określonych danych wrażliwych, a nie pozwalać na narzucanie warunków użytkowania w oparciu o zasadę „wszystko albo nic". Użytkownik Facebooka mógłby przykładowo zakazać sieci społecznościowej tworzenia kompletnego zestawu informacji dotyczących wizyt użytkownika w szpitalu.
Coraz większe zagrożenie, jakie wspomniane działania stanowią dla prywatności, sprawia, że wszelkie próby uzasadnienia takiego podejścia „docieraniem do docelowej grupy konsumentów" brzmią mało wiarygodnie. Pomimo całego zaawansowania i środków ostrożności nawet wielkie przedsiębiorstwa mogą paść ofiarą cyberataków. Nielegalny handel danymi pozyskanymi przez cyberprzestępców pozostaje tematem tabu. Niemniej udało się na przykład ustalić, że amerykański podmiot zajmujący się przetwarzaniem danych przypadkowo sprzedał specjalistom od kradzieży tożsamości numery ubezpieczenia społecznego, praw jazdy, kont bankowych i kart kredytowych milionów osób [4].
Konieczny staje się ściślejszy nadzór nad pochodzeniem danych i nabywcami danych. Pomimo wysiłków prawodawców, by lepiej zrozumieć stosowane praktyki, nie udało się jak dotąd uregulować kwestii wymiany informacji medycznych – przecież miliony akt mogą zostać zapisane w formie cyfrowej i przesłane za pomocą jednego kliknięcia. Niekiedy udaje się znaleźć ślady sprzedaży danych, ale jak należy postępować, jeśli dane te wymienia się na podstawie oficjalnej umowy między podmiotami przetwarzającymi dane? Jedna pamięć USB może zawierać miliony akt. Organy nadzoru już teraz mają trudności, by przeprowadzać kontrole w fizycznie istniejących przedsiębiorstwach, a wobec rozpowszechnienia się spółek handlujących danymi organy te pozostają zupełnie bezradne. Dopóki spółki handlujące danymi nie będą zmuszone informować o pochodzeniu i szczegółowym przeznaczeniu wszystkich posiadanych danych, dopóty nie będzie można oszacować zakresu oszustw związanych z wykorzystaniem danych ani położyć kresu nielegalnemu przekazywaniu danych.
Obok obarczenia odpowiedzialnością przedsiębiorstw gromadzących dane – jak przewidziano w nowych przepisach europejskich – prawodawcy powinni również wprowadzić zakaz rozpowszechniania pewnych informacji, bez wyjątków. Przykładowo, wiele stanów amerykańskich zakazało pracodawcom pytania obecnych lub potencjalnych pracowników o hasła do kont w sieciach społecznościowych. Rywalizacja może skłonić jednak niektórych kandydatów do samodzielnego przekazywania tych haseł. W ten sposób interesy osób, które troszczą się o ochronę własnego życia prywatnego, mogłyby zostać naruszone, nawet jeśli osoby te jedynie egzekwują przysługujące im prawa – bo pracodawca wybrałby kogoś innego. Dopóki nie wprowadzi się zakazu i rygorystycznej kontroli wykorzystania informacji wrażliwych, nikt nie ustrzeże się przed brakiem prywatności, jaki nas czeka.
Gromadzenie danych stanowi jedynie pierwszy etap w procesie rujnowania życia prywatnego. Po zebraniu danych przedsiębiorstwa poddają je analizie i tworzą na tej podstawie korelacje oraz opracowują wnioskowania. Przykładowo, socjolożka Mary Ebeling wypełniła kilka formularzy na początku ciąży, która to ciąża zakończyła się poronieniem. Ebeling nie zdążyła się jeszcze otrząsnąć po tragedii, kiedy firmy marketingowe zaczęły reklamować jej różne produkty dla noworodków. Została zaklasyfikowana jako matka w niezliczonych cyfrowych bazach danych. To doświadczenie zainspirowało ją do napisania książki, niemniej nie udało jej się zrozumieć całego procesu stojącego za reklamami, które prześladowały ją przez kolejne lata [5]. Inne algorytmy określają z kolei naszą wartość jako dłużnika, studenta, właściciela lub pracownika. Wiele firm udzielających pożyczek wykorzystuje informacje w bezprecedensowy sposób na potrzeby oferowania usług konsumentom i małym przedsiębiorstwom. W naszym społeczeństwie, gdzie wszystkiemu przypisuje się jakiś ranking, obywatele nie mają pojęcia, w jaki sposób rozpatrzono ich wniosek o kredyt.
Te problemy niosą za sobą pewne szczególnie niepokojące i wymierne konsekwencje. W niedawno opublikowanym raporcie Privacy International wykazano, że przedsiębiorstwa sektora technologii finansowych – które posługują się narzędziami cyfrowymi, by przechwycić część rynku finansowego – nie mają oporów, by korzystać z poufnych informacji do celów oceny wypłacalności ewentualnego wierzyciela, obejmujących działalność polityczną, połączenia i wiadomości, wykorzystywane aplikacje, geolokalizację, wypełnione formularze itd. [6]
Ponadto oprogramowanie zdolne do opracowywania i korygowania prognoz w oparciu o analizę dużych zbiorów danych – systemy uczenia maszynowego – zakłada wykorzystywanie jeszcze bardziej inwazyjnych środków do oceny, czy dana osoba będzie wypłacalna. W niedawno opublikowanym artykule twierdzi się przykładowo, że skłonność do przestępczości można ocenić na podstawie fizjonomii osób [7]. Badacze zajmujący się sztuczną inteligencją przewidują seksualność i stan zdrowia danej osoby na podstawie twarzy, który to obraz można stosunkowo łatwo zdobyć w serwisach Google’a lub na Facebooku [8].
Choć systemy uczenia maszynowego stanowią cenną innowację w walce z nowotworami lub cyberatakami, jednocześnie wywołują szereg szkodliwych skutków dla ogółu. Ustalono już, że co najmniej jedna spółka oferująca karty kredytowe rejestruje wydarzenia z życia klientów – w szczególności wpływające na ich psychikę – na potrzeby sporządzania prognoz. Ponieważ dane statystyczne wskazują, że prawdopodobieństwo rozwodu jest większe u par uczestniczących w terapii, uczestnictwo w terapii staje się „sygnałem", że małżeńskie niesnaski wkrótce przekształcą się w finansową katastrofę. Ten rodzaj „sankcji za terapię małżeńską" stawia prawodawców przed dylematem. Jeśli przemilczą tę kwestię, ukryją tym samym istotny czynnik wpływający na wypłacalność posiadaczy kart kredytowych. Jeśli ją zaś poruszą, pary mogą zacząć rezygnować z terapii małżeńskiej koniecznej do zachowania związku.
Wprawdzie brak jest potwierdzonego związku między terapią związkową i niespłacaniem zobowiązań, ale zwykła korelacja wystarczy, by ukierunkować podjęcie decyzji. Konsekwencje takich korelacji bywają niekiedy ponure w przypadku stanów, które można obiektywnie zweryfikować, takich jak ciąża, i niszczące dla osób, które klasyfikuje się jako „leniwe", „mało wiarygodne", „nie radzące sobie" lub nawet gorzej. W czasach gdy w cyfrowych laboratoriach wytwarza się nową niecyfrową rzeczywistość, błędne dane mogą wywoływać całe szeregi następujących po sobie nieporozumień. Wystarczy, że program zadecydował o tym, że określona osoba ma niską wiarygodność kredytową, nie dopełnia obowiązków zawodowych lub niewiele konsumuje, a już te etykiety mogą wpływać na inne decyzje podejmowane w ramach wielu innych mechanizmów gospodarki. Organy władzy muszą poddać ocenie i uregulować działanie przedsiębiorstw sektora technologii finansowych. Należy zakazać opracowywania określonych wniosków na podstawie danych. Przykładowo, geolokalizacja może odgrywać rolę w ocenianiu wypłacalności i prowadzić do sytuacji, w której odmawia się kredytu osobom powiązanym z dzielnicą o złej reputacji.
Podczas gdy życie szarego obywatela jest nieustannie poddane nadzorowi ze strony państwa, potężne przedsiębiorstwa kryją posiadane dane i algorytmy przed organami władzy, które mają nas chronić. Z jakiego powodu władze publiczne i te, którym władze powierzają zadania, nie przykładają się bardziej, aby wykryć nadużycia popełniane przez przedsiębiorstwa? Biorąc pod uwagę dotychczasową historię działalności Google’a i Facebooka, obie te firmy powinny być przedmiotem rygorystycznego nadzoru. Zresztą odpowiednie ramy techniczne i prawne już istnieją. Służby wywiadowcze na całym świecie pracują z niebywałą gorliwością w imię „wojny z terroryzmem". Wojna z naruszeniami życia prywatnego stanowiłaby pożądaną odmianę w prowadzonej przez te służby działalności.
Organy regulacyjne muszą być w stanie nadzorować proces uczenia maszynowego, aby sprawdzić – choćby w niewielkiej mierze – czy podejrzane źródła danych nie wpływają na wielkie przedsiębiorstwa. Ani uczenie maszynowe, ani badania prognostyczne nie są tak złożone, by nie mogły być uregulowane. Niektóre z przedsiębiorstw FinTech korzystających ze sztucznej inteligencji broniłyby się być może, twierdząc, że obliczenia, na podstawie których podejmują decyzje, stały się procesem poznawczym w takim samym stopniu wymykającym się wyjaśnieniu jak proces podejmowania decyzji przez człowieka. Należy nieufnie podchodzić do tego argumentu z „nieskończonej złożoności", którym uzasadnia się deregulację. Sztuczna inteligencja tak hołubiona przez podmioty biznesowe może niekiedy okazać się „sztuczną głupotą", a nawet czymś gorszym. Ponadto istnieje szereg praktycznych rozwiązań, które można z łatwością wdrożyć, nawet w przypadku najbardziej złożonych systemów oceny wypłacalności: organ regulacyjny mógłby wymagać przekazania danych wykorzystanych do obliczeń i wykluczyć przykładowo te dane, które odnoszą się do stanu zdrowia. Ponadto na mocy ogólnego rozporządzenia o ochronie danych (RODO), które weszło w życie 25 maja, obywatele mają prawo poznać zasady rządzące w pełni zautomatyzowanymi procesami rozstrzygającymi kwestie, które ich osobiście dotyczą. To „prawo do uzyskania wyjaśnień" powinno stać się częścią powszechnych praw człowieka, ponieważ w przeciwnym razie nieprzejrzyste decyzje systemów informatycznych będą coraz więcej ważyć w naszym codziennym życiu.
Aby przywrócić ogólnospołeczne zaufanie do życia politycznego i debaty demokratycznej, organy regulacyjne powinny bezzwłocznie nakazać tym przedsiębiorstwom, by ujawniły dane i algorytmy wykorzystywane do określenia, jaki rodzaj dyskursu jest odpowiedni dla danej grupy docelowej, a także do określenia samych grup docelowych. Przepisy prawa takie jak „prawo do uzyskania wyjaśnień" zapisane w RODO wspierają wolność słowa. Jeśli przedsiębiorstwa utrzymują, że stosowane przez nie algorytmy są zbyt złożone, aby można je ujawnić, władze powinny zakazać wykorzystywania informacji, które się w ten sposób uzyskuje.
Najbardziej stanowcze przepisy powinny dotyczyć wykorzystania danych. Państwo miałoby najprawdopodobniej trudności, by zakazać badaczom analizowania wypłacalności lub skłonności do działań przestępczych na podstawie danych pozyskanych z systemów rozpoznawania twarzy: w jaki sposób można by kontrolować analizy, które badacze przeprowadzają na całych zbiorach danych (nawet jeśli takie badania prowadzą do ustalenia nieistotnych korelacji)? Niemniej można zakazać bankom wybierania wierzycieli na tej podstawie, że nie podoba im się – dosłownie – gęba klienta, a uniwersytetom wybierania studentów w zależności od „poziomu pobudzenia" obliczonego, kiedy kandydaci na studentów byli dziećmi.
W tym przypadku interwencja państwa – raczej niż osąd jednostki – okazuje się kluczowa. Wyobraźmy sobie następujący scenariusz: obieg danych jest całkowicie przejrzysty. Można dokładnie prześledzić trasę każdej danej osobowej, od podmiotu przetwarzającego dane do użytkownika końcowego. Można kwestionować dane, które uznaje się za niedokładne. Można również – jeśli się chce – stworzyć kilka cyfrowych wersji samego siebie, tak aby każdy sprzedawca posiadał najlepszą i najbardziej aktualną wersję gustów, zainteresowań i osiągnięć danej osoby.
Takie indywidualne gospodarowanie reputacją wydaje się jednak również przerażające. Przy obecnym nasileniu przepływu informacji pojedynczy obywatele mieliby trudność, aby zorientować się dokładnie gdzie i w jaki sposób są opisywani – nawet jeśli korzystaliby z pomocy nowoczesnego oprogramowania i specjalistów. Ponadto w wielu wypadkach prawdziwe dane mogą zostać wykorzystane w niewłaściwych lub dyskryminujących celach. Przykładowo, spółka udzielająca kredytów może zaprogramować własny system tak, że płatność na rzecz poradni małżeńskiej interpretuje się jako ryzyko niewypłacalności, które uzasadnia zwiększenie odsetek posiadaczowi karty. Korzystanie z usług specjalisty opieki zdrowotnej nie powinno określać warunków udzielenia kredytu. Obecnie obowiązuje już zakaz wykorzystywania informacji genetycznych do celów rekrutacji z tego względu, że nad własnymi genami nie ma się kontroli. Niemniej czy w większym stopniu jesteśmy odpowiedzialni za nowotwór, złamanie nogi, nerwicę lub depresję, które mogą towarzyszyć problemom małżeńskim?
Nie można oczekiwać, że pojedynczy obywatele sami zwrócą uwagę na problemy związane z dużymi zbiorami danych i zautomatyzowanymi procesami podejmowania decyzji. Nie mają oni czasu analizować tysięcy baz danych, które mogą mieć wpływ na ich życie. Zadanie wykrywania uchybień w wykorzystaniu tych danych spoczywa na władzach, które muszą poddać badaniu zawartość serwerów wielkich przedsiębiorstw i podmiotów przetwarzających dane, tak aby wykryć podejrzane dane i nałożyć wymóg identyfikowalności danych, która pozwoli sprawdzić wiarygodność źródeł. W sektorze opieki zdrowotnej USA już korzysta z pomocy ekspertów, aby zidentyfikować wątpliwe praktyki w szpitalach i gabinetach medycznych. Wystarczyłoby w niewielkim stopniu opodatkować gospodarkę opartą na danych, aby sfinansować kontrole o dużo szerszym zakresie.
Przedsiębiorstwa coraz częściej korzystają ze zautomatyzowanych procesów, aby ocenić ponoszone ryzyko i ukierunkować działalność. Spółki, które sterują tymi zautomatyzowanymi procesami, są jednymi z najbardziej dynamicznych i dochodowych w całej gospodarce informacyjnej. We wszystkich tych usługach korzysta się z algorytmów – w większości przypadków utrzymywanych w tajemnicy – aby zorganizować zalew informacji. Atrakcyjność tej nowej technologii wynika z odwiecznego pragnienia, by przewidzieć przyszłość, przyprawionego odrobiną współczesnej trzeźwej statystyki.
W środowisku, w którym panuje wszechobecna tajemnica, fałszywe informacje mogą uchodzić za prawdziwe i skutkować niewłaściwymi – czy wręcz niszczącymi w skutkach – prognozami. Modelowanie staje się wręcz katastrofą, gdy niewłaściwe lub nieodpowiednie przesłanki zbiegną się z mocą algorytmów, prowadząc do klęsk, które modele jakoby miały przewidzieć.
Debata publiczna oraz zdolność obywateli do podejmowania decyzji przy pełnej znajomości sprawy wymaga czegoś więcej niż zrozumienia funkcjonowania aparatu państwowego. Konieczne jest ujawnienie metod stosowanych przez przedsiębiorstwa wpływające na nasze rządy, organizację społeczną i kulturę. Nowi władcy ery informacji obiecują wolność i samospełnienie, a tymczasem ich „czarne skrzynki" prowadzą do powstania cyfrowej oligarchii.
Frank Pasquale
tłum. Tomasz Surdykowski
Newsletter/ Obserwator TEPP (Transformacji Energetycznej Ponad Podziałami) listopad 2024 |
Powstrzymajmy czarne piątki |
Obywatelskie społeczności energetyczne |
COP29: Cel finansowy zbyt niski, ale transformacji nie (...) |
Decybele Przyszłości |
Rzeka betonu nikogo przed powodzią nie uratuje |
Newsletter/ Obserwator TEPP (Transformacji Energetycznej Ponad Podziałami) 10.2024 |
prof. Jan Popczyk: Trzy fale elektroprosumeryzmu |
Jean Gadrey: Pogodzić przemysł z przyrodą |
Jak wyłączyć ziemię z obwodu łowieckiego i zakazać (...) |
Bez mokradeł nie zatrzymamy klimatycznej katastrofy |
Zielony Ład dla Polski [rozmowa] |
We Can't Undo This |
Robi się naprawdę gorąco |