Niematerialni pracownicy przymusowi przy cyfrowej taśmie produkcyjnej

Niniejszy szkic poświęcony jest kryzysowi podmiotowości, z którym mamy do czynienia w związku z uzależnieniem człowieka, dosłownym i w przenośni, od urządzeń mobilnych i mediów cyfrowych. Dla przykładu, wszystkie platformy należące do Marka Zuckerberga liczą w tym momencie prawie 3 miliardy użytkowników, co stanowi niecałe 40% populacji świata. Przeciętny mieszkaniec Ziemi jest online 6,5 godziny dziennie. Ogólną liczbę ludzi posiadających smartfony szacuje się na 3,5 miliarda, a do tego należy dodać tzw. feature phones, czyli tradycyjne telefony komórkowe, inaczej dumbphones, których używa jakiś miliard dwieście milionów ludzi.

Dla porównania, w noc sylwestrową 31 grudnia 1999, kiedy świat miała sparaliżować pluskwa milenijna, Y2K bug, z internetu korzystało trochę ponad 3,5 miliona ludzi, a z telefonów komórkowych – bez podziału na smart i dumb – niecałe 750 milionów. O Facebooku, który powstał w 2004 roku, nikt jeszcze nie śnił.

Ten wykładniczy wzrost, który dokonał się w pierwszych dwóch dekadach XXI wieku, nie mógł nie odcisnąć się na gatunku ludzkim i na formach podmiotowości, z jakimi mamy do czynienia. Jej symboliczną reprezentacją jest człowiek przyklejony do smartfona, niezdolny do skupienia, wchodzący w interakcje online przez cały czas, z attention span mniejszym niż u złotej rybki. Człowiek sprzężony na stałe z maszyną, pokraczna forma cyborga z wdowim garbem od ciągłego wpatrywania się w kieszonkowych rozmiarów ekran. Zamiast jednak wchodzić w retorykę phone bad, jak robią to memy z Theodore W. Kaczynskim, skądinąd bardzo atrakcyjną, chciałbym zarysować genealogię smartfona jako urządzenia, które rewolucjonizuje nasze życie, nasze mózgi i naszą podmiotowość. Jak to się stało, że dzisiaj, w 2020 roku, nie możemy sobie wyobrazić funkcjonowania bez urządzenia, które jeszcze kilkanaście lat temu było czymś z pogranicza science fiction?

Za pierwszego smartfona uważa się iPhone’a 2G, którego Steve Jobs zaprezentował opinii publicznej 29 czerwca 2007 roku na konferencji Macworld w San Francisco. W założeniu miało być to połączenie telefonu komórkowego z ekranem dotykowym oraz iPoda z dostępem do internetu. Oczywiście smartfony istniały już wcześniej. Sam termin smartphone zaczął być popularny w pierwszej połowie lat dwutysięcznych, telefony BlackBerry, z funkcją obsługi poczty elektronicznej i wbudowanym sklepem z aplikacjami, znane z charakterystycznej klawiatury QWERTY, były powszechnie używane przez biznesmanów na całej Globalnej Północy. Już wtedy nazywano je „CrackBerry” ze względu na ich uzależniający charakter, ale jako że były one używane głównie przez „białe kołnierzyki”, winę można było zwalić na ich pracoholizm. Również ekran dotykowy nie jest niczym nowym. Jego historia sięga 1971 roku, a pierwszym telefonem z touchscreenem był IBM Simon z 1994 roku, skrzyżowanie „cegły” z palmtopem i komputerem kieszonkowym – elektroniczny scyzoryk szwajcarski. Rok przed premierą iPhone’a pierwszej generacji na rynek został wypuszczony telefon LG Prada, smartfon pełniący funkcję luksusowego dodatku modowego.

Zazwyczaj tak, że „pierwszy” wynalazek w danej dziedzinie jest tak naprawdę umiejętnym połączeniem, krzyżówką poprzedzających go urządzeń. Dopiero odpowiedni assemblage, umieszczenie istniejących już technologii w nowym kontekście społecznym i historycznym sprawia, że dane urządzenie zdobywa hegemonię, rewolucjonizując dotychczasowe sposoby życia. Gutenberg nie wymyślił ani książki drukowanej – ta sięga przynajmniej dynastii Tang i odbijanych za pomocą techniki drzeworytu ksiąg buddyjskich z połowy VI w. n.e.  – ani ruchomej czcionki – pierwsze, jeszcze porcelanowe, zostały wprowadzone do użytku przez Bi Shenga (毕昇/畢昇) w okolicach roku 1040 n.e. Oba te wynalazki były znane w Europie już od czasów Marco Polo.

Tym, co zrobił Gutenberg, było połączenie prasy mechanicznej, używanej od starożytności w rolnictwie m.in. do wytwarzania oliwy, technologii produkcji papieru w młynach wodnych, powszechnej w Europie od XIII w., która znacznie obniżyła koszty tego surowca, ruchomej czcionki oraz używanego w złotnictwie stempla do wybijania liter. Inwencja Gutenberga polegała na wynalezieniu opartego na werniksie tuszu, który ułatwia proces odbijania tekstu, oraz formy ręcznej, narzędzia przypominającego szczypce, pozwalającego na łatwe odciśnięcie z formy poszczególnych metalowych czcionek, dla każdej kolejnej litery alfabetu łacińskiego. Fakt, że „łacinka” posiada jedynie 26 znaków, pozwalał na składanie całych stron ze stosunkowo małej ilości czcionek i w konsekwencji szybką i masową produkcję drukowanych książek. Dodajmy do tego renesans, ożywienie języków narodowych, rodzącą się reformację, a więc ogólnie rosnący popyt na drukowane książki i nagle Europa budzi się w galaktyce Gutenberga, żeby użyć pojęcia z książki McLuhana pod tym samym tytułem.

Pytanie o to, czy wynalazek druku umożliwił reformację, czy to reformacja sprawiła, że pojawiło się zapotrzebowanie na Biblię Gutenberga, to pytanie w rodzaju co było pierwsze, jajko czy kura? Człowiek druku, McLuhanowski typographic man, został stworzony przez prasę drukarską, a wraz z nim cała nowożytność. Zmiany społeczne, które umożliwiły powstanie i rozpowszechnienie się prasy drukarskiej, były wynikiem pojawienia się nowego ducha epoki, następnie zaś uległy przyspieszeniu dzięki wynalazkowi druku. Innymi słowy, mamy do czynienia z dodatnim sprzężeniem zwrotnym między maszyną a Historią.

Co w takim razie wydarzyło się w 2007 roku, że iPhone okazał się być pierwszym smartfonem w dzisiejszym tego słowa znaczeniu?

W trzy lata wcześniej odbyła się konferencja Web 2.0 Summit, oczywiście w San Francisco, na której Tim O’Reilly, twórca pojęcia open source, ogłosił doktrynę „sieci jako platformy”, Web as Platform. Wykład otwierający, zatytułowany The State of the Internet Industry, co jest nawiązaniem do corocznego orędzia prezydenta USA The State of Union, był skierowany do tych, którzy „przetrwali 2001 i 2002”, czyli krach na rynku dotcomów. Branża internetowa szukała nowych sposobów na ekstrakcję wartości dodatkowej. Value is migrating, twierdził O’Reilly razem z Johnem Battelle, uznanym później przez Światowe Forum Ekonomiczne w 2013 za Globalnego Lidera Jutra. Tym, co generuje wartość, nie jest już oprogramowanie sprzedawane na komputery osobiste, jak to miało miejsce w latach 90., a network effect, przepływy w ramach sieci. Wschodzący giganci, ci którzy wyszli obronną ręką z pęknięcia bańki internetowej, tacy jak Amazon, Google, Yahoo czy eBay, poradzili sobie dlatego, że zarabiają nie na produkcji software, jak Microsoft, Netscape lub AOL, a na spijaniu śmietanki z wartości generowanej przez samych użytkowników. „Budować biznes, pozwalając konsumentom, żeby budowali go za ciebie” – building the buissness by letting customers to build your buissness – tak brzmi obietnica, złożona twórcom pierwszych cyfrowych platform.

Artykuł O’Reilla What is Web 2.0 z 2005 r., który rozwija idee zawarte w przemówieniu The State of the Internet Industry, jest otwartą deklaracją rozpoczęcia procesu grodzenia internetowych dóbr wspólnych. „Ujarzmienie kolektywnej inteligencji” – oto cel młodych wilków z Doliny Krzemowej. Przewagę kompetytywną miały im zapewnić skanalizowanie przepływów w sieci, zamknięcie ich w obrębie platform i agregacja ogromnych ilości danych. Jak to się skończyło, wszyscy wiemy. W 2020 r. repostujemy w kółko te same treści między Instagramem, Facebookiem, Twitterem czy Youtubem, używamy internetu za pośrednictwem scentralizowanych platform cyfrowych, które za pomocą algorytmów podsuwają nam pod nos spersonalizowane treści. Kiedyś surfowaliśmy po World Wild Web jak kowboje po matrycy z Neuromancera Williama Gibsona. Teraz skrollujemy feed. I wykonujemy nieodpłatną pracę, budując biznes za tych, którzy na naszej aktywności zarabiają miliardy dolarów rocznie.

I tu wracamy do iPhone 2G. O’Reilly pod koniec swojego przemówienia z 2004 roku, nazywa iPoda kluczową innowacją dla Web 2.0. Przed iPodem mieliśmy do czynienia z komputerami osobistymi podłączonymi do internetu, z software, który pośredniczył pomiędzy użytkownikiem przed monitorem a zasobami ściąganymi z sieci. Również palmtopy – kto jeszcze pamięta te urządzenia?! – były po prostu komputerami mieszczącymi się w dłoni, ale nie zmieniło to sposobu korzystania z internetu. A był to problem. „Niewinne” siedzenie przed pecetem i przeglądanie stron WWW nie przynosiło wystarczających zysków dla cyfrowych gigantów. W czasach Web 1.0 człowiek po prostu ściągał treści z internetu za pomocą komputera. W czasach Web 2.0 należało wciągnąć człowieka do sieci, czy raczej złapać w sieć za pomocą urządzenia mobilnego. I to właśnie iPhone, za pomocą iTunes, miał pozwolić po raz pierwszy, i tu prawie dosłowny cytat, „zintegrować rękę trzymającą urządzenie z serwerem”, zapewnić bezpośrednie przepływy między użytkownikiem a siecią.

Warto tutaj wspomnieć rant Marka Fishera na uzależnionych od YouTube’a, wiadomości tekstowych i śmieciowego jedzenia studentów, który znajdziemy w jego Realizmie kapitalistycznym z 2008 roku. Fisher, pisząc, że jeden z jego studentów nosi słuchawki na zajęciach, a przez to jest stale podłączony do „stymulującej zmysły komunikacyjnej matrycy czystej rozrywki”[1], brzmi w pierwszej chwili jak boomer, który narzeka na „tę dzisiejszą młodzież”. Faktem jest jednak, że odtwarzacze MP3 były chyba pierwszym urządzeniem elektronicznym, do którego człowiek mógł być podłączony praktycznie cały czas. Pierwsza reklama iPoda z 2001 roku obiecywała dostęp do „1000 utworów w twojej kieszeni”. W porównaniu z walkmanami czy discmanami była to rewolucja. Nie chodziło jednak tylko o większy wybór. Bohater reklamy siedzi przed ekranem swojego Macbooka, w ucho wpada mu jakiś utwór. Dzięki iTunes przenosi go jednym ruchem ręki do folderu „Ulubione” i zgrywa do swojego iPoda. Zakłada słuchawki i zaczyna tańczyć w rytm muzyki. W końcu, wciąż tańcząc, wychodzi z domu, zabierając swoją muzykę – w pewnym sensie zawartość swojego komputera – ze sobą. Oto ziszcza się cel apostołów Web 2.0, nie jesteś już przykuty do swojego peceta, masz dostęp do kontentu gdziekolwiek jesteś.

Ciekawe jak zareagowałby Fisher, gdyby zobaczył słynną Silhouette Campaign, którą Apple realizowało między rokiem 2003 a 2008. Czarne tańczące sylwetki na jednokolorowym tle i kontrastujące z nimi charakterystyczne białe słuchawki ciągnące się z uszu, a właściwie wprost z głów, aż do trzymanych w rękach iPodów.

To właśnie odtwarzacz muzyki, i to podłączony do Web 2.0, był niezbędnym ogniwem ewolucyjnym, które doprowadziło do powstania smartfona, rozumianego nie jako telefon komórkowy z dostępem do internetu, ale urządzenie, które podłącza na stałe użytkowników do sieci, wytwarzając pożądany network effect. Jasne, fakt, że komórki weszły do powszechnego użytku, i przestały być tylko symbolem statusu jak w latach 90., również nie jest bez znaczenia. Przywołajmy jeremiadę kolejnego boomera, tym razem Giorgia Agambena, który w swoim eseju Co to jest urządzenie? pisze, że „[…] we Włoszech […] gesty i zachowania ludzi zostały całkowicie przekształcone przez wszechobecne telefony komórkowe (potocznie nazywane „komórkami”), urządzenia [dispositivi], do których zapałałem wielką nienawiścią i szczerą odrazą. Uważam, że ich wpływ na stosunki międzyludzkie jest po prostu niszczycielski”[2]. Znowu można to skwitować stwierdzeniem, że dziaders boi się technologii, której nie rozumie, tak jak dorożkarze bali się pierwszych automobili. Stawka jest jednak znacznie większa. Jak pisze dalej Agamben, „urządzenia mają swoje korzenie w samych procesach uczłowieczania, które czynią ze zwierząt gatunku homo sapiens istoty ludzkie[3]. To urządzenia wytwarzają naszą podmiotowość. Jeżeli więc jako homo sapiens używamy jakichś urządzeń 24/7, to należy sobie zadać pytanie, co one z nami właściwie robią, a raczej co robią z nas?

Cyfrowym gigantom nie wystarczyło skanalizowanie przepływów w ramach sieci. Do domknięcia się systemu Web 2.0 potrzeba było ujarzmić przepływy pragnienia, ujarzmić maszynę pragnącą, przywiązać użytkownika do urządzenia. Skoro tym, co generuje wartość, są interakcje, to im więcej interakcji, tym większy zysk. W tym celu aplikacje zostały zaprojektowane tak, żeby de facto wywoływać uzależnienie od użytkowników. Na pierwszy rzut oka brzmi to jak teoria spiskowa. Przecież, jak głosi wieść gminna, człowiek może się uzależnić prawie od wszystkiego. Problem w tym, że w przypadku Web 2.0 uzależnienie to feature, a nie bug.

Cal Newport w swojej książce Digital Minimalism opisuje, jak projektuje się uzależnienie od sieci[4]. Najciekawsze jest tzw. przerywane pozytywne wzmocnienie, intermittent positive reinforcement. To pojęcie, wzięte z psychologii behawioralnej, oznacza, że relacja pomiędzy wzmacnianym zachowaniem, czy inaczej pożądaną reakcją na bodziec, a nagrodą nie jest nieprzewidywalna. Może, ale nie musi się pojawić. Podobnie jest z naprawdę interesującymi treściami na naszym feedzie. Raz na jakiś czas, kiedy znudzeni przeglądamy internet dla samego przeglądania, pojawia się coś, co naprawdę przykuwa naszą uwagę i wywołuje chwilowy wyrzut dopaminy. To właśnie przerywane pozytywne wzmocnienie. I działa ono silniej, gdybyśmy ten wyrzut dopaminy dostawali za każdym kliknięciem, gdybyśmy za każdym razem trafiali na coś, co faktycznie nas interesuje. Dokładnie na tym samym mechanizmie opierają się gry hazardowe i dlatego hazard jest tak uzależniający. Nigdy nie wiesz, kiedy trafisz, dlatego ciągle obstawiasz z nadzieją, że w końcu ci się uda. Dla układu nagrody antycypacja jest ważniejsza niż samo zaspokojenie. Nie jest to przypadek. Do projektowania aplikacji w Dolinie Krzemowej zatrudnia się behawiorystów, którzy wcześniej pracowali dla kasyn w Las Vegas. Tim Harris, były pracownik Google i sygnalista, jeden z pierwszych, którzy wyciągnęli na światło dzienne te nieetyczne praktyki, nazwał smartfona wprost „jednorękim bandytą w twojej kieszeni”[5]. Każdy swipe down, każde pojedyncze skrollowanie strony, każde przewinięcie w dół, każde wciśnięcie F5, każde otwarcie nowej karty, każde kliknięcie w hiperlink jest jak pociągnięcie wajchy w jednorękim bandycie, jak wciśnięcie przycisku na automacie hazardowym. Wyglądamy nawet tak samo jak hazardziści z salonów gier. Z przekrwionymi oczami wlepionymi w ekran, na którym co chwilę coś się przesuwa, z twarzami oświetlonymi sztucznym światłem i ręką kompulsywnie wykonującą jedną i tę samą interakcję z urządzeniem.

Jaki jest więc obraz nasz? O ile dla McLuhana media, i szerzej technika w ogóle były przedłużeniem człowieka, tak teraz, szczególnie w kontekście mediów cyfrowych, urządzenie stało się narzędziem do ujarzmienia człowieka. W podwójnym Foucaultowskim sensie, jako poddanie człowieka dyscyplinie i jako wytworzenie jego podmiotowości – subiectus znaczy zarówno poddanego, jak i podmiot. Smartfon, rozumiany jako telefon z dostępem do internetu, nie byłby pewnie niczym złym, tak jak Kindle, mimo początkowych obaw, nie jest niczym złym dla człowieka druku. Jednak taki neutralny smartfon nigdy nie istniał. Urządzenie, z którym mamy do czynienia na co dzień, które opanowało wszystkie sfery naszego życia, jest wypadkową zmian, jakie dokonały się w ramach samego internetu, tego, co nazywamy zbiorczo Web 2.0. Tak jak w przypadku druku, którego proliferacja była możliwa dzięki rosnącemu popytowi na książki, platformy cyfrowe nie zdominowałyby internetu, gdyby nie fakt, że użytkownicy łączą się z nimi 24/7 za pomocą urządzeń mobilnych. Ale też same te urządzenia nie byłyby tak atrakcyjne, gdyby nie łączyły się z opartymi na ciągłych interakcjach platformami.

Używając smartfonów, nie łączymy się z siecią. To smartfony podłączają nas do wirtualnych maszyn, generujących wartość dodatkową z naszych interakcji. W zamian nasze zhakowane układy nagrody otrzymują, jak określił to Justin Rosenstein, człowiek, który zaprojektował „lajka”, „pingnięcie [ding] pseudo-przyjemności”[6]. Jesteśmy pracownikami przymusowymi przykutymi przez urządzenia do cyfrowej taśmy produkcyjnej. Jeżeli rzeczywiście „dane to nowa ropa”, to wydobywa się ją z szelfów w naszych mózgach.

 

[1] M. Fisher, Realizm kapitalistyczny, przeł. Andrzej Kalarus, Warszawa 2020, s. 40-41.
[2] G. Agamben, Co to jest urządzenie?, tłum. J. Majmurek, [w:] Agamben. Przewodnik Krytyki Politycznej Warszawa 2010, s. 94.
[3] Tamże.
[4] C. Newport, Digital Minimalism: Choosing a Focused in A Noisy World, , rozdz. Tobacco Farmers in T-shirts, Nowy Jork 2019.
[5] Tamże.
[6] Tamże.

Jakub Baran

Urodzony w 1990 r. w Krakowie. Studiował filozofię na Uniwersytecie Jagiellońskim. Do 2018 związany z Korporacją Ha!art. W latach 2015–2019 działacz partii Razem. Publikował m.in. w „Ha!arcie”, „Praktyce Teoretycznej” i „Stonerze Polskim”. Redaktor inicjujący przekładów na język polski dwóch powieści Ernsta Jüngera – Szklanych pszczół i Eumswil. Autor posłowia do Gesta Biedronis Stronnictwa Popularów wydanego we współpracy z kolektywem Imperium Ducha.

Zobacz inne teksty autora:

    Wakat – kolektyw pracownic i pracowników słowa. Robimy pismo społeczno-literackie w tekstach i w życiu – na rzecz rewolucji ekofeministycznej i zmiany stosunków produkcji. Jesteśmy żywym numerem wykręconym obecnej władzy. Pozostajemy z Wami w sieci!