Maszyny i ludzie

Piotr Czerski
28 min readJun 19, 2021

--

photo by John Schnobrich, https://unsplash.com/@johnschno

1. Maszyna do zapominania

W 1891 roku firma Sittman and Pitt wprowadziła do kilku nowojorskich pubów pokerową maszynę hazardową, która na pięciu bębnach rotowała pięćdziesiąt karcianych symboli. Gracz wrzucał do środka pięciocentówkę i pociągał dźwignię, która wprawiała w ruch bębny: do kogo uśmiechnęło się szczęście, ten za wygrywający układ kart mógł odebrać w barze nagrodę. Wysokość i liczbę wygranych każdy lokal ustalał niezależnie, zwykle jednak mieściły się one w formule darmowego drinka albo paczki papierosów.

Maszyny błyskawicznie zdobyły popularność, ale metoda wypłacania nagród okazała się ich słabością: przy tak dużej liczbie kombinacji wymagała zaangażowania człowieka. Pierwsze maszyny zostały więc szybko wyparte przez mechanizm, w którym wykorzystywano tylko pięć symboli, rozmieszczonych na trzech rolkach. To uproszczenie umożliwiło zautomatyzowanie wypłat, a tym samym osiągnięcie funkcjonalnej autonomii: maszyna mogła działać przez 24h na dobę, przynosząc emocje spragnionym rozrywki, a właścicielowi — strumień czystego, niemal pozbawionego kosztów zysku.

Jednoręki bandyta nie przypadkiem ma rękę: inicjujący grę gest szarpnięcia dźwignią — albo przynajmniej przyciśnięcia przycisku — jest akcją, po której następuje reakcja systemu: komunikat zwrotny. Gest ten jest więc wpięciem się w interfejs, wpisaniem w relację, częściowym zawieszeniem autonomii, otwarciem na zewnętrzny sygnał, przyznaniem się do nadziei na nagrodę i przyznaniem drugiej stronie prawa do nagrodzenia.

Już w latach pięćdziesiątych seria eksperymentów Duncana i Lewisa pozwoliła na odkrycie kontrintuicyjnego zjawiska, potwierdzonego przez Skinnera w następnej dekadzie i nazwanego nieregularnym wzmocnieniem: działania są powtarzane najbardziej wytrwale wtedy, kiedy zależność pomiędzy inicjującym gestem a otrzymywaną nagrodą jest losowa. Gra nudzi się najszybciej wtedy, kiedy wygrana jest pewna, a najdłużej angażuje wtedy, kiedy wygrane zdarzają się bardzo rzadko. Prawdziwym motorem pociągania za dźwignię jest więc nie finansowa nagroda, ale przeciwnie: niepewność dotycząca wyniku działania, czyniąca sukces dobrem cennym, bo rzadkim i ukrytym za tajemniczą regułą.

Cyfrowa rewolucja przyniosła jednorękiemu bandycie zupełnie nowe możliwości, wynikające z przekroczenia fizycznych ograniczeń mechanizmu. Już w 1984 roku Inge Telnaes otrzymał patent na urządzenie wykorzystujące generator liczb pseudolosowych do wybierania pozycji zatrzymania rolek — w treści zaznaczono, że maszyny, które sugerują graczom wyższe niż w rzeczywistości szanse na wygraną muszą działać w ramach obowiązującego prawa. Mieszczą się w nim jednak zabiegi takie, jak ponadprzeciętnie częste prezentowanie wygrywających kombinacji tuż pod albo nad aktualnie wylosowanymi — co na grającym wywrzeć ma wrażenie, że wygrana jest na wyciągnięcie ręki, odległa dosłownie o włos.

Mihály Csíkszentmihályi wprowadził do psychologicznego repozytorium pojęcie “flow”, oznaczające stan, jaki staje się udziałem ludzi głęboko skupionych na wykonywaniu jednej, angażującej czynności: wspinaczy, żeglarzy, muzyków czy joginów. Flow to przyjemny stan pochłonięcia, całkowitego zaangażowania, a nawet zatracenia, któremu towarzyszy zaburzenie percepcji czasu, odcięcie od sygnałów innych niż związane z wykonywaną czynnością, wreszcie — funkcjonalna utrata samoświadomości, kiedy jednostka bez reszty staje się swoim działaniem. W potocznym amerykańskim o osobie głęboko czymś zaabsorbowanej mówi się, że jest “in the zone”, “w strefie” — stąd termin “machine zone”, którego Natasha Dow Schüll, antropolożka kulturowa z New York University i autorka książki “Zaprojektowane uzależnienie”, używa na określenie podobnego do przepływu stanu, w jaki wpada nałogowy gracz: mechaniczne czynności i serwowane przez automat sekwencje bodźców sprawiają, że gracz osiąga “spokojną równowagę” z otoczeniem (interfejsem) — stan charakteryzujący się utratą poczucia czasu.

Rzeczywiście: przed eksplozją popularności elektronicznych automatów do gry, która przypadła na lata ’90, u większości diagnozowanych hazardzistów rozpoznawano inne problemy związane z psychologicznymi mechanizmami funkcjonowania w społeczeństwie, obecnie zaś wielu nałogowych graczy nie przejawia tendencji uzależnieniowych na innych płaszczyznach. Tymczasem automaty do gier, które w latach ’70 odpowiadały za mniej niż połowę wpływów — dziś stały się głównym elementem przemysłu hazardowego, przynosząc kasynom 70%-80% wpływów, z czego ponad połowa pochodzi z kieszeni graczy dla których hazard jest życiowym problemem. Psychologowie Robert Breen i Marc Zimmerman odkryli przy tym, że gracze korzystający z maszyn osiągają “wyniszczający poziom zaangażowania” trzy razy szybciej niż ci, którzy w kasynach korzystają z tradycyjnych form rozgrywki — i zdarza się to nawet, jeśli wcześniej korzystali z hazardu bez problemów.

Hazard dawniej był grą o charakterze społecznym: podczas pokera czy ruletki grupa ludzi w pewnym sensie odgrywa sytuacje typowe dla interakcji międzyludzkich — finansowy wymiar nagrody jest dopełnieniem walki o zdobycie przewagi i wyróżnienie się w roli wytrawnego gracza lub choćby wyjątkowego szczęściarza. Hazard maszynowy jest w tym ujęciu czymś jakościowo różnym, zrywającym ze światem interakcji międzyludzkich na rzecz krótkiej pętli między człowiekiem i maszyną, której celem jest wprowadzenie gracza w stan, w którym codziennie troski, oczekiwania społeczne, samoocena czy pieniądze przestają mieć znaczenie; grający na automatach nie gra po to, aby wygrać, ale po to, aby grać. Oczekiwania właściciela maszyny — maksymalizacja zysku, a więc przepływu pieniędzy, a więc czasu spędzanego na grze — zbiegają się tu w upiorny sposób z oczekiwaniami gracza, który z jakichś względów potrzebuje ucieczki i zapomnienia. Płatność za doświadczenie przebywania w strefie następuje w twardej walucie: reguły wypłat zdefiniowane są tak, żeby mniej więcej jedna piąta wkładanych środków pozostawała u właściciela maszyny.

Zapamiętajmy tę historię.

2. Maszyny do tworzenia wrażeń

Dopóki elektroniczne maszyny obliczeniowe miały formę szaf ukrytych na zapleczach instytucji dopóty jakość ich interfejsów nie miała znaczenia. Obsługiwali je wysoko wykwalifikowani specjaliści, którzy mogli poświęcać czas na perforowanie kart albo pisanie programów w nieprzyjaznym języku maszynowym. Nawet jeśli czynności te były żmudne — wciąż z nawiązką zwracała je oszczędność czasu, jaką oferowały nie znające zmęczenia arytmometry w porównaniu z ludźmi wykonującymi te same zadania.

Z czasem jednak postępująca miniaturyzacja i popularyzacja urządzeń cyfrowych pozwoliła im wypełznąć z piwnic i zdobyć pierwsze przyczółki świata — pojawiły się na przykład w akademickich bibliotekach, będących z informatycznego punktu widzenia gigantycznymi bazami danych o bardzo długim czasie dostępu. To właśnie tam narodziła się dyscyplina nazywana “architekturą informacji” — wychodząca od odkrycia, że w interakcjach między maszynami i ludźmi kluczowe jest dopasowanie sposobu organizacji danych do kognitywnych możliwości i potrzeb człowieka oraz refleksji, że tworzenie podwalin pod system wykorzystywany przez dziesiątki tysięcy ludzi może być zadaniem równie odpowiedzialnym co projektowanie budynków.

Gdzieś na przełomie wieków, kiedy roczny transfer danych w światowej sieci liczony był już w petabajtach, popularność zaczęła zyskiwać powstała dwadzieścia lat wcześniej dziedzina wiedzy nazywana “użytecznością”. Użyteczność to ergonomia cyfrowych interfejsów: wiedza i umiejętności praktyczne pozwalające na tworzenie takich interfejsów, które sprawiają, że interakcja z maszyną jest płynniejsza, a osiąganie założonych celów — łatwiejsze. W konsekwencji, jak wierzyli idealiści, świat staje się odrobinę lepszy.

Twórcą pojęcia “ergonomia” i jednym z ojców tej nauki był Polak, Wojciech Jastrzębowski, powstaniec listopadowy, a później profesor w Instytucie Gospodarstwa Wiejskiego i Leśnictwa. W 1857 roku opublikował on rozprawę “Rys ergonomji czyli nauki o pracy, opartej na prawdach poczerpniętych z Nauki Przyrody”, w której z europejsko-katolickim zapałem szukał odpowiedzi na pytanie w jaki sposób człowiek mógłby lepiej wykorzystywać dane mu przez Boga siły i zdolności. Można wątpić, czy dziedzina zajmująca się tak sformułowanym problemem odniosłaby sukces, gdyby prawdziwie amerykańskiego ducha nie tchnął w nią Frederick Winston Taylor. Rozważania na temat zdolności danych przez Stwórcę zastąpił on na przełomie wieków wartościowym konkretem: pochylając się z naukową wnikliwością nad zagadnieniem szuflowania ustalił z precyzją optymalne parametry wszystkich elementów składających się na proces ładowania surówki żelaza na wagony — m.in. pojemność i kształt szufli, długość trzonka, kąt nachylenia łopaty przy nabieraniu surówki i jej wychylenia przy wyrzucaniu na wagon oraz pożądany sposób ustawienia stóp robotnika. Dzięki starannym eksperymentom udało mu się osiągnąć 3.8-krotne zwiększenie wydajności pracy ładowaczy w zatrudniającej go Bethlehem Steel Corporation. Twórca “naukowego zarządzania” wierzył, że dzięki jego badaniom wzrosną płace robotników i podniesie się poziom ich życia — i, jak wielu jemu podobnych w historii, zapewne wierzył szczerze.

Trudno więc dziwić się, że także w przypadku ergonomii interfejsów prawdziwy sukces pojawił się dopiero z historiami takimi, jak ta o przycisku wartym 300 milionów dolarów. Oto ona: interfejs jednego z dużych sklepów internetowych — nazwy nie ujawniono, ale prawdopodobnie był to po prostu Amazon — został stworzony przez programistów. W najlepszej wierze postanowili oni wymusić na klientach zakładanie kont, które dzięki zapamiętywaniu adresów miało ułatwić i przyspieszyć dokonywanie kolejnych zakupów. Jared Spool, wynajęty przez firmę specjalista ds. użyteczności, przeprowadził badania, które wykazały, że nowi klienci sklepu są zainteresowani zakupem towarów, a nie zakładaniem konta, natomiast powracający nie pamiętają często naprędce ustawianych haseł i w rezultacie rejestestrują się po raz kolejny i kolejny, i kolejny. Zaproponował więc proste rozwiązanie: przycisk “chcę dokonać zakupów bez rejestracji” — po którego wprowadzeniu liczba klientów wzrosła o 45%, a dodatkowe zakupy pozwoliły na zwiększeniu obrotu o 15 milionów dolarów w pierwszym tylko miesiącu, a 300 milionów dolarów w ciągu roku.

Dzięki takim historiom wielki biznes zrozumiał, że użyteczność jest ważna, tzn. może przynosić zyski — warto więc w nią inwestować. Sam termin “użyteczność” brzmiał jednak jak techniczny żargon; nie przystawał do wykształconej już świadomości, że sprzedaje się nie produkty, ale emocje — dlatego wkrótce został wyparty przez wprowadzone przez Dona Normana dźwięczne określenie akcentujące afektywny wymiar interakcji człowieka z maszyną: “user experience”.

Cele projektowania user experience zarysowane były od początku z rozmachem: UX miał zapewniać najwyższą możliwą jakość wszystkich wrażeń związanych z obcowaniem z produktem na wszystkich etapach kontaktu z nim. Biznesową ikoną UX było Apple: firma, na której czele stał charyzmatyczny wizjoner, wierny jednej idei: że jakość wrażeń — przeżyć, doświadczeń, emocji — zapewnianych klientom jest kluczem do zarabiania dużych pieniędzy. Apple pod wodzą Jobsa udała się alchemiczna sztuka transsubstancjacji: urządzenia elektroniczne zmieniły się w oczach swoich właścicieli w bilety przynależności do świata ludzi premium: wyjątkowych, myślących inaczej niż większość, kreatywnych indywidualności, używających urządzeń o bezpiecznie eleganckim designie i starannym wykończeniu, z równie starannie wzbogaconymi o drobne smaczki interfejsami; kupowanych w minimalistycznie urządzonych, wypełnionych blaskiem kaplicach i świątyniach marki. Klienci na całym świecie byli zgodni, że za tego rodzaju totalne, immersywne doświadczenie warto płacić trzy razy więcej niż wynikałoby to ze zobiektywizowanej wartości nabywanych produktów.

O ile więc w centrum zainteresowania użyteczności znajdował się “statystyczny użytkownik” — uśredniony reprezentant społeczeństwa czy grupy — a użyteczny produkt można było zdefiniować jako taki, z którego ów statyczny użytkownik może korzystać w sposób intuicyjny, bez przeszkolenia i instrukcji obsługi — o tyle dla user experience na pierwszym planie były doświadczenia konkretnej jednostki. Celem nie było już wytworzenie uniwersalnego interfejsu, ułatwiającego interakcję z maszyną, ale zapewnienie spersonalizowanego doświadczenia, oferującego coś bardzo specjalnego komuś bardzo, bardzo specjalnemu: Tobie, słodki misiu.

3. Miara wyznacza przestrzeń

Kiedy zapanowała już powszechna zgoda, że doskonałe doświadczenia użytkowników to klucz do rynkowego sukcesu, pozostało jeszcze ustalić w jaki sposób można mierzyć tę doskonałość doświadczeń, aby móc decydować, które z doświadczeń są doskonalsze od innych. Dość łatwo jest znaleźć rozwiązania złe: wystarczy krótki test, aby zdecydować, czy coś jest dość użyteczne, wygodne, intuicyjne — ale jak zmierzyć naddatek czyniący doświadczenie naprawdę szczególnym? Takim, które użytkownika zamienia w klienta?

Tu z pomocą przyszła behawioralna z ducha refleksja: wgląd w emocje jest trudny, ale ostatecznie chodzi o wycenę wartości, jaką oferowany przez nas produkt wniósł do życia użytkownika. Aksjologia jest nieskomplikowana: wartość to po prostu dowolny fenomen wywołujący transfer pieniędzy w kierunku dostawcy wartości. Ponieważ jeśli ktoś za coś daje pieniądze — to jest to dla niego coś warte. Logiczne.

(W 2015 roku aresztowany później biznesmen Martin Shkreli wywołał skandal, kiedy po przejęciu licencji na produkcję leku Daraprim jego firma podniosła cenę o 5600%. Oskarżany o chciwość Shkreli bronił się, tłumacząc, że nowa cena lepiej odzwierciedla wartość, jaką tabletki mają dla chorych na toksoplazmozę pacjentów. Logiczne).

Nie możemy więc sparametryzować jakości doświadczeń, ale na szczęście umiemy wskazać ich pożądane pochodne: częste odwiedziny, czas spędzany na interakcjach, konsumowane treści czy po prostu konwersję, tzn. skuteczność, z jaką użytkownik zmienia się w nabywcę wartości. Pewność, że oferujemy wysoką wartość będziemy mieć wtedy, kiedy użytkownicy będą odwiedzać nas często, konsumować wiele treści i dobrze konwertować. Ponieważ im częściej i dłużej, częściej i dłużej, częściej i dłużej ktoś robi coś, za co gotów jest płacić, płacić, płacić — tym większa jest najwyraźniej wartość, jakiej w tym czymś upatruje, z definicji.

Co mogłoby pójść nie tak?

Wiedza o sposobach aranżacji wnętrz supermarketów jest powszechna: są projektowane tak, aby maksymalizować wartość koszyka zakupowego. Tańsze towary umieszcza się nisko, najkorzystniejsze dla sklepu na wysokości wzroku; artykuły pierwszej potrzeby na najodleglejszym regale; przy kasach — drobiazgi, powietrze wypełnia się zaś miłym dla ucha, bezkształtnym muzakiem. W ten sposób tworzy się przestrzeń “doświadczeń zakupowych”, której wszystkie znaczące aspekty uwzględniają — nieobecną w perspektywie przeciętnego klienta — wiedzę o ludzkim zachowaniu i mechanizmach poznawczych, stosując ją w celu zmaksymalizowania transferu wartości, tzn. zysku właściciela przestrzeni.

Przestrzeń doświadczeń internetowych różni się od fizycznej przestrzeni supermarketu tym, że pozwala na nieporównanie szybsze i dokładniejsze eksperymentowanie: dla każdego istotnego etapu na ścieżce interakcji analizowane są liczby opisujące zachowania użytkowników — wejścia, wyjścia, miejsca kliknięć — i wszystko, co pozwala na wyciągnięcie przydatnych z punktu widzenia konwersji wniosków, podlega analizie, a wszystko, co może konwersję podnieść, musi zostać przynajmniej przetestowane. Wielu inteligentnych ludzi spędza czas na poszukiwaniu sposobów jeszcze skuteczniejszego wnoszenia wartości i szczytny ten cel tu i ówdzie uświęca wszystkie środki. Znaną, zbiorczą nazwą dla takich środków są dark patterns — oznaczające schematy interfejsów i interakcji skonstruowane tak, aby wiedzę o specyfice ludzkiego aparatu poznawczego wykorzystywać do zwiększania prawdopodobieństwa zachowania zgodnego z interesem właściciela interfejsu (co skądinąd podpada pod definicję przemocy).

Najprostsze sztuczki to klasyczne techniki akwizytorskie: dodatkowa opłata wymieniona gdzieś w przypisie na marginesie albo opcja rezygnacji z newslettera ukryta pod drobnym jasnoszarym napisem. Za prostym naciągactwem zaczyna się jednak kontinuum światłocienia: od formuł prawnych przemycanych w innych formułach prawnych, przez dopingujące do działania mikrointerakcje (jak kiedy serwis służący rezerwacji noclegów z troską informuje, że kilka innych osób ogląda tę szczególnie atrakcyjną ofertę właśnie teraz; albo tani przewoźnik ubolewa, że zakup biletów w podstawowym pakiecie będzie niestety oznaczać rozłąkę rodziny na czas lotu), po gamifikację wszywaną do intranetów, mikromobilności i aplikacji randkowych. Wszyscy próbują dążyć do majaczącego na asymptotycznym horyzoncie ideału: pozbawionej tarcia przestrzeni doskonałego doświadczenia zakupowego, w którym każda, choćby dopiero kiełkująca potrzeba, natychmiast zostaje zidentyfikowana, wzmocniona, uwznioślona i zaspokojona przez dostarczaną wartość.

(Interfejsy branży porno nie podążają wprawdzie za trendami graficznymi, ale za to generowane są przez stale optymalizowane algorytmy, które na podstawie wielu kryteriów decydują jakie materiały komu i w jakich momentach proponować, jakie wyniki wyszukiwania przyniosą satysfakcję z najwyższym prawdopodobieństwem i kiedy oferować promocję — wszystko w celu efektywnej monetyzacji. Badania na temat częstości uzależnienia od internetowej pornografii są jeszcze nieliczne, ale wydaje się, że kilka procent użytkowników to ostrożne oszacowanie).

Tam, gdzie ciąg interakcji ma zakończyć się sprzedażą, sytuacja jest przynajmniej jasna: wiadomo, gdzie jest bramka i widać też piłkę. Większość czasu użytkownicy spędzają jednak na czynności, nazywanej konsumpcją treści — model biznesowy opiera się tam na wyświetlaniu reklam, a najcenniejszym dobrem dostępnym bezpośrednio jest uwaga konsumenta treści: stąd attention economy. Fundamenty modelu znów pochodzą ze świata analogowego — telewizja służy w końcu emisji reklam, a w tym celu w przerwach bloków reklamowych prezentuje możliwie interesujące programy. Analogiczny jest cel multimedialnego kontentu newsowego i rozrywkowego, opakowanego w nadmuchane tytuły: przyciągnięcie uwagi do reklam w ramach zabawy, w której częścią przyjemności jest odgadywanie w jaki sposób zostanie się okłamanym. I znów dzięki możliwościom liczenia, mierzenia, ale też dzielenia i celowania przekazu w internecie można znacznie więcej: na przykład dostarczać automatycznie aktualne crème de la crème, przekazy osiągające najlepsze parametry zaangażowania. Dwa lata temu prosty eksperyment pokazał, że algorytm rekomendacyjny YouTube (de facto największej telewizji na świecie) nieuchronnie ciąży ku budzącym emocje, prowokującym treściom: kontrowersjom, teoriom spiskowym, fake newsom. Nie było to działanie celowe, raczej zabawna koincydencja: maszyny po prostu podsuwały nowym widzom takie materiały, o których było wiadomo, że przykuwają uwagę; to wszystko. Zrównanie w hierarchii dostępnych odbiorcom narracji hipotezy płaskiej Ziemi z ustaleniami astronomii — a leczenia nowotworów witaminą C z konwencjonalną onkologią — było tylko niezamierzonym skutkiem ubocznym.

Najbardziej zaawansowany w modelowaniu przestrzeni doświadczeń jest być może biznes związany z grami, czyli interaktywnym dostarczaniem przeżyć w najczystszej postaci. Gra z definicji ma przykuwać uwagę, utrzymywać w stanie flow i angażować aż do osiągnięcia immersji; temu celowi podporządkowane są wszystkie znaczące etapy interakcji, w szczególności sam przebieg rozgrywki: poziom trudności, reakcje botów, nie-losowość zdarzeń. (Czy gra, która nieustannie dostosowuje się do gracza tak, aby poprawiać jego samopoczucie, jest jeszcze grą, w którą się gra? Czy może grą, która gra?). Rewersem wartości, jaką dla grających ma oderwanie się od tego świata, jest oczywiście strumień przychodów ze sprzedaży pikseli: awatarów, broni, rozszerzeń. Dzięki temu darmowy Fortnite przynosi Epic Games miliardowe dochody (a w 2019 jest już być może nie tyle grą, ile opartą na grze przestrzenią reklamową wydarzeń sportowych czy animowanych produkcji kinowych).

Co nie znaczy, że tradycyjni wydawcy próżnują: The New York Times za pośrednictwem swojego zespołu innowacji nytDEMO uruchomił w zeszłym roku “Project Feels” — eksperyment, w ramach którego treść artykułów była najpierw oceniania przez grupę ochotników pod kątem wzbudzanych emocji, a następnie opatrywana odpowiednio dobranymi reklamami, ze średnim wynikiem o 40% lepszym niż w przypadku losowej emisji. Wydawca podkreślał, że wyniki identyfikacji nie miały żadnego wpływu na samo tworzenie treści, które zresztą zgodnie z samymi regułami sztuki powinny być angażujące emocjonalnie: celem było wyłącznie dopasowanie właściwych reklam. (Readerscope — inny projekt prowadzony równocześnie przez ten sam zespół miał na celu maszynowe przewidywanie, jakiego rodzaju treści mogą się okazać interesujące dla użytkowników należących do różnych segmentów). Nadawcy telewizyjni testują także reklamy umieszczane dynamicznie, tzn. indywidualnie dobierane na podstawie historii online i niejako “wklejane” do strumienia danych telewizyjnych. (Także w tym przypadku nikt nie wspomina nawet — jak głośno i wyraźnie podkreślają zaangażowani — o modyfikowaniu treści programu telewizyjnego, a jedynie o dostarczaniu bardziej wartościowych dla obu stron reklam produktów).

Branżowa dyskusja na temat dark patterns toczy się z różnym natężeniem od miesięcy, a identyfikowanie i ogłaszanie światu takich mechanizmów stało się wręcz popularną rozrywką. Sęk w tym, że jak zawsze w świecie technologii dyskusja dotyczy technologii: konkretnych rozwiązań, schematów interakcji; jak gdyby były to akcydensy e-biznesu, a nie jego esencja. Tymczasem problem jest ściśle istotowy: fraktalna czasoprzestrzeń internetu — w której odbywa się błyskawiczna ewolucja cyfrowych narzędzi (i opartych na nich organizacji) — jest bez reszty uformowana przez metrykę przychodu w ujęciu kwartalnym. W tak zdefiniowanym krajobrazie i przy tak wysokiej rozdzielczości mechanizmów kontroli — mierzenia i udoskonalania efektów w pętli sprzężenia zwrotnego — zwyczajnie nie mieszczą się wartości inne niż wartość.

Supermarket pozostaje na zewnątrz i niczego nie udaje: jest supermarketem i sprzedaje rzeczy. Jego mapa pozostaje stała na miesiące i lata, można się jej nauczyć i do niej przyzwyczaić. Doszczętnie sprywatyzowany internet może natomiast nieustannie dostosowywać swój kształt do każdego użytkownika z osobna, rozciągając wizytę w supermarkecie wrażeń na cały dzień: niemal każda sekunda z prawie ośmiu godzin, jakie spędza na interakcjach z cyfrowymi interfejsami statystyczny użytkownik, podlega projektowaniu pod kątem pozyskania cennych z punktu widzenia właścicieli tych interfejsów zasobów: pieniędzy, uwagi, informacji. Niestety: związany ze skupieniem na jednym celu stan tunelowania poznawczego oznacza, że traci się z oczu konsekwencje, jakie podejmowane działania mogą mieć w innych wymiarach. Terrain ahead! (Ciekawostka: aplikacje mediów społecznościowych wymagają, aby ich news feed był odświeżany ręcznie, przez pociągnięcie zawartości strony w dół. Po przeładowaniu na czerwonych polach wyświetlają się cyfry mówiące o tym ile punktów zainteresowania społeczność przyznała nam tym razem. Poznajecie? Ależ tak, to przecież nasz stary, dobry znajomy: jednoręki bandyta).

4. Maszyny, w których jesteśmy

Wyobrażenie sobie — przynajmniej w zarysach — kształtu ostatecznie nasyconego technologią zachodniego społeczeństwa przyszłości nie jest, jak mogłoby się wydawać, czysto spekulacyjną futurologiczną rozrywką. Nierównomiernie rozłożona przyszłość już tu jest i żeby ją dostrzec wystarczy prześledzić trajektorię, po której poruszał się internet od ery napisów-na-murach (nieustandaryzowanych treści rozsianych po dziesiątkach i setkach tysięcy wczesnych serwisów WWW) do obecnej formy społecznościowego multi-medium. Platformy zbudowane na cyfrowych reprezentacjach relacji międzyludzkich i eksploatujące wartość tych relacji są fraktalnym odzwierciedleniem świata, w którym relacje społeczne kształtuje niewidzialna ręka algorytmu.

Samo określenie “social media” to dwa kłamstwa w jednym wyrażeniu. Po pierwsze — media są wg definicji środkami społecznej komunikacji. Tradycyjne massmedia działają w modelu, w którym jeden nadawca emituje ten sam komunikat dla wielu odbiorców; sam fakt, że informacja trafia do nieokreślonej i potencjalnie dużej liczby odbiorców, nadaje jej znaczenie — bo to, co może potencjalnie kształtować poglądy i zachowania wielu jednostek, jest intuicyjnie rozpoznawane jako istotne. Ta iluzja uniwersalności sprawia, że medium w oczach odbiorców jest intersubiektywnym modelem świata; oknem, przez które można wyjrzeć. Media społecznościowe tę symbolikę dziedziczą i na niej żerują, w istocie będąc jednak zaprzeczeniem mediów tradycyjnych: nie są środkami masowego przekazu, ale narzędziami wytwarzania udających masowość przekazów ściśle zindywidualizowanych. Nie są oknem, ale fototapetą.

Po drugie — social media nie budują społeczności (“połączonej ze sobą za pomocą więzi społecznych zbiorowości ludzi”, w obrębie której możliwe jest wytworzenie szerokiego spektrum relacji i jakichś form politycznej samoświadomości), służąc jedynie wyzwalaniu i przeżywaniu społecznościowości: naskórkowego poczucia przynależności do tymczasowych wspólnot, zadaniowo skupionych wokół pojedynczych projektów, lub — co być może najczęstsze — ograniczonych do wspólnego przeżywania emocji na kanwie transmitowanego przez tradycyjne media obrazu aktualnych wydarzeń społecznych.

Pozbawiony fundamentu idei organizujących świadomość krajobraz mediów społecznościowych jest więc bez reszty kształtowany przez algorytmy, popychające ewolucję kontentu w kierunku determinowanym przez interes właścicieli platform, odzwierciedlający z kolei logikę całego systemu. Piksele oddziałujące na układ nagrody i uproszczone do funkcjonalnego optimum mechanizmy wzmocnień zakorzenione w społecznej naturze człowieka tworzą krótkie pętle sprzężeń zwrotnych, skutecznie wychowujące do pożądanego behawioru: konkurujący w grze o uwagę i uznanie aktorzy w naturalny sposób poszukują wygrywających strategii tworzenia treści atrakcyjnych dla swojej grupy docelowej, a każda taktyka przynosząca efekty jest natychmiast kopiowana przez innych graczy. Oto laboratorium kultury napędzanej algorytmami: popyt sterowany jest przez właścicieli platformy na podstawie kalkulacji ekonomicznej, a odpowiadającą mu podaż zapewniają natychmiast twórcy treści, konkurujący ze sobą o uwagę audytorium w grze o sumie zerowej: zarówno czas, jak i możliwości percepcyjne odbiorców są w końcu ograniczone.

Najszybciej rosnącym dziś serwisem społecznościowym jest (należący zresztą do Facebooka) Instagram, który zawsze operował wizualnym konkretem. Początkowo były to tylko zdjęcia, które obecnie pełnią raczej rolę narracyjnej podbudowy dla seriali reality show, emitowanych przez użytkowników za pośrednictwem stories. Wizualny charakter kontentu czyni Instagram idealnym rynkiem reklamowym — w sensie przestrzeni umożliwiającej użytkownikom monetyzację zasięgu. W połączeniu ze stosunkowo niewielkim udziałem algorytmów w procesie kuracji treści (przyswajanie kontentu w formie zdjęć i krótkich materiałów wideo jest na tyle niekłopotliwe poznawczo, że obywa się bez rozbudowanej selekcji) tworzy to społecznościowość w wydaniu sauté.

Zwycięzcami rankingów instagramowej popularności są osoby sławne skądinąd — sportowcy, aktorzy, piosenkarki czy “tradycyjni celebryci”, którzy popularność zbudowali w innych mediach. Jak każda sieć także i Instagram daje jednak możliwości społecznego awansu, a drogi do tego awansu prowadzące są najprostszym odzwierciedleniem obowiązującej hierarchii wartości. W tym przypadku pierwszym głównym sposobem jest eksponowanie cech świadczących o wysokiej atrakcyjności seksualnej, doprowadzonej do przerysowania tak na poziomie materii (nienaturalne, modyfikowane sylwetki i rysy twarzy), jak i formy (pozy eksponujące cechy płciowe). Prawdziwie skuteczną strategią staje się jednak dopiero obudowanie tej ekspozycji atrakcyjności opowieścią o okupionej wyrzeczeniami i codzienną katorgą samodoskonalenia na drodze ku najlepszej wersji siebie, co w praktyce sprowadza się do bycia fit (czy słowo to oznacza bardziej zgrabną sylwetkę czy dopasowanie do wymagań świata pozostaje otwartym pytaniem).

Drugą nitką autostrady do popularności jest prowadzenie kroniki życia w formie zbliżonej do folderu biura podróży: ograniczonej do kilku póz obecności w atrakcyjnych krajobrazach i estetycznych wnętrzach. Życie celebrytów i celebrytek tego nurtu wydaje się z pozoru wypełnione niestrudzonym poszukiwaniem różnych form konsumpcji — w rzeczywistości jednak ich awatary są wirtualnym ucieleśnieniem ostatecznej fantazji późnego kapitalizmu: statusu prosumenta, który konsumując jednocześnie produkuje. Z każdym konsumowanym przez influencerów kęsem i relacjonowanym przeżyciem Rynek powiększa się bowiem o zwielokrotnione zasięgiem pragnienie odtworzenia doświadczenia, a zarobki influencerów są odsetkami od tego wzrostu.

Instagram jest więc rodzajem destylatu ze wspólnej dla całego Zachodu aktualnej fantazji na temat świata i sensu życia jednostek — wytrwałej drogi od znoju do grona gwiazd trwających w stanie nieprzerwanej ekscytacji. Jeśli fantazja dotyczy wymarzonego celu, to jej odwrócenie jest ukrytą, niewypowiedzianą samodiagnozą stanu początkowego: głębokiej, bolesnej niedoskonałości, pociągającej za sobą jałowe, nudne życie. (Celną i zwięzłą definicję mediów społecznościowych usłyszałem kiedyś od ukraińskiego poety Vladislava Petrenki: “social media” — powiedział — “to przestrzeń, w której ludzie mogą pokazać kim nie są”).

Z kolei Facebooka, medium bazujące na przetwarzaniu informacji tekstowych, można uznać za probówkę społecznej komunikacji i debaty publicznej. W tym przypadku droga awansu wiedzie ku figurze, której odpowiednikiem w świecie tradycyjnych mediów był lider opinii — człowiek funkcjonujący w intelektualnej awangardzie i wcześnie formułujący rozpoznania stające się punktami odniesienia w rozpoczynającym się dyskursie. W spłaszczonym świecie Wiecznego Teraz, w którym funkcjonuje przestrzeń FB, funkcja ta została zastąpiona przez wyraziciela-opinii-nas-wszystkich — osobę, która na potrzeby swojego audytorium wytwarza mocne, gęste, nasycone emocjonalnie i nadbudowane zwykle na poczuciu moralnej wyższości frazy, pozwalające łatwo i bez zbędnego umysłowego wysiłku zorientować się jakoś wobec rozbłyskujących nieustannie faktów medialnych.

Wyraziciel — niezależnie od pozornej subtelności materii w jakiej operuje — funkcjonalnie nie jest więc następcą lidera opinii, ale wirtualnym odpowiednikiem stadionowego zapiewajły, dostarczającego paliwo słów służące podgrzewaniu emocji towarzyszących aktualnym fenomenom. Podobnie jak zapiewajło, tak i wyraziciel opinii nie dysponuje wolnością wypowiedzi — nie może milczeć ani zajmować stanowiska innego niż oczekiwane przez kibiców; i podobnie jak zapiewajło nie ma jakiegokolwiek realnego wpływu na wynik rozgrywającego się meczu: po prostu uprzyjemnia widowisko, rozdmuchuje żar emocji i podtrzymuje wspólnotowość dzięki umożliwieniu aktu reintegracji pewnego fragmentu rozproszonej tożsamości odbiorców. Czyli, mówiąc prościej, pozwala swojemu audytorium wspólnie polubić to.

Sieć społeczna której silnikiem jest Facebook, a paliwem — emocjonalne pobudzenie, które najlepiej podtrzymuje uwagę użytkowników — nie jest więc przestrzenią umożliwiającą dialog i porozumienie, ale miejscem nieustannie pobudzanego konfliktu, pozostającego przy tym sporem wirtualnym, oderwanym od polityki rozumianej jako skuteczne przekształcanie intersubiektywnej rzeczywistości. Życie w sieci tego rodzaju oznacza nieustanne ściekanie w czarną dziurę teraźniejszości: wszystkie zdarzenia i tematy rozmywają się w długi, nieostry korowód pobudzeń, wartościowanych jedynie potencjałem wzbudzania reakcji: na wstędze Nieskończonego Zwoju tonących na Morzu Śródziemnym uchodźców zastępują z czasem chore zwierzęta leśne, ofiary zgwałceń — awaria serwerów, katastrofę klimatyczną — premiera kreskówki dla dorosłych; wokół tych pretekstów budują się wciąż na nowo reakcje zachwytu i oburzenia, i oburzenia zachwytem, i zachwytu oburzeniem, i oburzenia brakiem oburzenia itd.

Szerokość debaty ograniczona jest już na poziomie technicznym — nie tylko przez algorytmy, pracowicie konstruujące dla każdego z osobna jego własną przestrzeń zdarzeń, na tyle połączoną z innymi, na ile to korzystne z punktu widzenia ekonomii uwagi — ale nawet przez udostępniane możliwości reagowania na treści, ograniczone do kilku predefiniowanych symboli, za pomocą których publiczność wyraża poparcie lub dezaprobatę dla wypowiedzi uczestników dialogu. Wytwarza to na najbardziej atomowym poziomie atmosferę wiecowej demokracji bezpośredniej, w której nakreślone grubym pędzlem stanowiska oceniane są przez nieartykułowane okrzyki entuzjazmu, gwizdy i pomruki, a i to tylko w, nie tak znowu częstej, sytuacji bezpośredniego starcia adwersarzy. Najważniejszą cechą przestrzeni Facebooka jest bowiem to, że stanowi on multiwersum, złożone z oddzielnych banieczek, których uczestnicy z definicji pozostają raczej jednomyślni, a naruszających ortodoksję odszczepieńców skazuje się tradycyjnie na banicję. Banieczka, niezależnie od tego jak wielkie emocje przeżywa się wspólnie w jej obrębie na kanwie wydarzeń rozgrywających się w świecie zewnętrznym, powinna pozostawać przestrzenią bezpieczną i wolną w szczególności od dysonansów poznawczych. Lustereczko bez wahania musi odpowiadać na pytanie kto najmądrzejszy jest na świecie.

O tym jakie skutki niesie za sobą przeniesienie przestrzeni komunikacji publicznej do wnętrza maszyny dysponującej z jednej strony głęboką wiedzą o uczestnikach, a z drugiej — możliwościami swobodnego kształtowania otoczenia informacyjnego wokół każdego z nich, wiemy już dziś wiele. Już w 2014 roku Facebook przeprowadził eksperyment dowodzący, że sieci społecznościowe mają właściwość transmitowania pobudzeń emocjonalnych (obraz emocji okazywanych przez członków sieci ma mierzalny bezpośredni wpływ na emocje wyrażane przez każdego z nich), a w tym samym czasie badania Kosinskiego wykazały, że trafna identyfikacja cech osobowościowych możliwa jest na podstawie niewielkiej ilości informacji (w obrazowym uproszczeniu: wiedza na temat ok. 300 polubień pozwala na zbudowanie obrazu bardziej dokładnego niż ten, którym dysponuje najbliższy przyjaciel). Działalność Cambridge Analytica, która miała wpływ na ponad 200 procesów wyborczych na całym świecie, była naturalną i szybką konsekwencją pojawienia się tej wiedzy. Jeśli skuteczne sterowanie oznacza władzę, a w świecie politycznym władza jest z konieczności pierwszą i najwyższą wartością — należy oczekiwać, że każda pojawiająca się możliwość pozyskania władzy zostanie natychmiast wykorzystana. Dlatego państwa podważające hegemonię Stanów Zjednoczonych — Rosja i Chiny — zadbały o wytworzenie własnych ekosystemów społecznościowych, neutralizujących możliwości wpływania na ich politykę wewnętrzną przez drobne modyfikacje algorytmów dokonywane w dalekiej Kalifornii.

Nam pozostaje tylko zastanawiać się nad warunkami, w jakich praktycznie możliwa jest jeszcze prawdziwa demokracja w kształcie, w jakim przywykliśmy ją rozumieć: opartego na wolności słowa sporu idei, konkurujących ze sobą w warunkach zrównoważonych szans. Jeżeli bowiem wiemy, że algorytmy mogą kształtować społeczną rzeczywistość w jej coraz bardziej podstawowym wymiarze na każdym z jego poziomów, i że ta cecha jest przez ich właścicieli doskonale rozpoznana i wykorzystana w praktyce — nieuchronna staje się refleksja, że sama tylko wolność słowa nie ma już praktycznego znaczenia. Kluczowe i być może ostatnie z pytań, jakie pozostały do zadania, brzmi: jak możemy rozpoznać ten graniczny moment, po przekroczeniu którego żadna realna zmiana, sprzeczna z interesami dysponentów systemu, nie będzie już możliwa? Otóż właśnie: nie możemy.

5. Maszyny, które będą nami

“Gdyby zwierzęta miały ręce i mogły nimi malować” — mówił Ksenofanes — “konie malowałyby obrazy bogów podobnych do koni, a woły — podobnych do wołów. Także i ludzie stworzyli bogów na swój własny obraz: sądzą, że zostali zrodzeni jak oni, noszą ich szaty, mają ich głos i postać”. Dwa i pół tysiąca lat później nadal na swoje podobieństwo tworzymy Nemezis: wyobrażając sobie konfrontację ludzkości z maszynami nadajemy im cechy super-ludzkie. Terminator jest niestrudzonym żołnierzem o pneumatycznych mięśniach i laserowym wzroku, HAL9000 nie ma wprawdzie twarzy, ale jest zdolny do dialogu i z żelazną konsekwencją realizuje swój hiperracjonalny cel. Nawet anty-ludzkie maszyny w Matriksie są istotowo podobne do swoich twórców: dysponują znaną nam inteligencją, tj. zaawansowaną zdolnością osiągania — w skomplikowanym i zmiennym otoczeniu — celów o zaskakująco biologicznym charakterze.

Na tyle pozwala nam wyobraźnia wytworzona przez ewolucję, której najważniejszymi aktorami byli inni ludzie: na wyobrażanie sobie zbuntowanych humanoidów, które ostatecznie pokonujemy dzięki temu, co uważamy za najważniejszą i niepodrabialną część naszej tożsamości — kulturze, filtrującej nagie instynkty i irracjonalnie modyfikującej czysto biologiczną, bezwzględną hierarchię wartości. W popkulturowych obrazach sprowadza się to do przekonania, że miłość ostatecznie wszystko zwycięża.

Liczne gatunki zwierząt umieją posługiwać się prostymi narzędziami, a nawet je wytwarzać. Szympansy ślinią zaostrzone patyczki, aby wyciągać za ich pomocą z kopców pyszne termity, wrony brodate — jako jedyny gatunek nie należący do człekokształtnych — potrafią ulepszać istniejące narzędzia i przekazywać te ulepszenia innym. Zaobserwowano rybę wykorzystującą kamień do otwarcia skorupki małża, a przed dziesięcioma laty udało się zarejestrować ośmiornice, które transportowały łupiny orzechów kokosowych mogących posłużyć w razie potrzeby jako bezpieczna kryjówka.

Jednak tylko ludzie, dzięki przeciwstawnym kciukom i olbrzymim mózgom, pozwalającym także na wykształcenie sprawnych form komunikacji, posiadają zdolność do twórczego łączenia istniejących narzędzi, tworzenia w ten sposób nowych, bardziej zaawansowanych, i błyskawicznego rozprzestrzenia tych innowacji. Ten rekombinacyjny potencjał w filmowym skrócie przedstawiony został przez Kubricka w scenie, w której rzucona w górę kość zmienia się w statek kosmiczny przemierzający kosmiczną przestrzeń. Od pierwszych pięściaków przez włócznie po rakiety balistyczne, od czółen po łodzie podwodne — łączenie narzędzi pozwoliło nam czynić ziemię i stworzenie poddanymi sobie aż po kres, streszczony przez Oppenheimera cytatem z Bhagawadgity: “I stałem się Śmiercią, niszczycielem światów”.

W tym samym 1945 roku Turing rozpoczął tworzenie teoretycznych podwalin pod narzędzia cyfrowe — królestwo maszyn nie z tego świata. Pierwsze z nich wykonywały tylko proste, obliczeniowe prace na dostarczanych liczbach, ale kiedy zostały połączone w sieć nastąpiło przejście fazowe: liczby zamieniły się w prawdziwe informacje, tzn. liczby w kontekście, liczby-dla-rozumu, symbole. Gęste sieci przewodów i przełączników przetwarzających symbole weszły za pośrednictwem swoich operatorów w naturalną interakcję ze światem rzeczywistym; ewolucja kultury, która wcześniej dokonywała się wyłącznie w ludzkich umysłach i za pośrednictwem analogowych narzędzi przekazywania informacji — ze wszystkimi ich ograniczeniami i wynikającymi z nich technologiami umysłu, jak staranne selekcjonowanie informacji — stała się koewolucją techniczno-kulturową, w której oba wymiary ciążą ku sobie jednocześnie.

Gęstość informacyjna przestrzeni zaczęła wzrastać w wykładniczym tempie: informacje łączące się ze sobą, mnożące przez siebie i wyciągające z siebie nazwajem pierwiastki tworzą błyskawicznie rosnącą nową rzeczywistość, której środek ciężkości błyskawicznie przesuwa się w kierunku maszyn. (Dostrzeżenie tego jest łatwo możliwe nawet na najniższych poziomach: ściśle scyfryzowany obraz telewizyjny oglądany z bliska przypomina raczej efekty pracy niedoskonałych algorytmów niż spektrum barw i ruchów znane z telewizji analogowej. Deep fake upodabniają się do rzeczywistości, ale jednocześnie rzeczywistość jeszcze szybciej upodabnia się do deep fake). Siła sprawcza, przejmująca kontrolę nad światem materialnym, zamieszkuje medium, które jak wiemy samo w sobie jest przekazem. Jakim przekazem jest ten przekaźnik? Czy dysponujemy lustrem, w którym moglibyśmy ujrzeć nasz obecny kształt?

Każdy produkt i każdą usługę można rozpatrywać jako narzędzie służące komuś do osiągnięcia jakiegoś celu. Szympans śliniący patyczek chce za jego pomocą wydobyć smakowite termity. Człowiek pierwotny obłupując kamień chciał za jego pomocą poćwiartować mięso. Młotek kupuje się, aby wbijać gwoździe. Telewizor dla swojego właściciela jest narzędziem realizowania potrzeby rozrywki. Smartfon jest narzędziem służącym łączności.

Telewizja dla swojego właściciela jest jednak narzędziem emitowania reklam. Program telewizyjny to rozciągnięte w czasie negocjacje uwagi widzów: w zamian za dostarczane bodźce kupuje się czas pozwalający klientom właściciela docierać z komunikatem zwiększającym sprzedaż ich produktów. I tak dalej: serwisy, o którym myślimy jako o “serwisach do rezerwowania noclegów” albo “zakupu biletów lotniczych” służą właścicielom do sprzedawania maksymalnej liczby ofert po cenach generujących najwyższe możliwe zyski w celu osiągnięcia jak najwyższej prowizji. “Serwis społecznościowy” to znów narzędzie podtrzymywania uwagi zbudowane na bazie kapitału jakim jest potraktowana ekonomicznie społeczna natura człowieka. Jeśli chce się rozumieć świat cyfrowych produktów i usług trzeba przywyknąć do zadawania pytania: kto trzyma ten patyczek i co nim wyciąga?

Kiedyś zwykliśmy wierzyć, że informacja chce być wolna. Dziś należałoby raczej powiedzieć, że każdy wzorzec chce zostać zidentyfikowany; a każdy wzorzec, który może być zidentyfikowany, zostanie zidentyfikowany; a każdy zidentyfikowany wzorzec zostanie wykorzystany. W naszej kulturze oznacza to — w radykalnym, ale niebezpodstawnym uproszczeniu — że wszystko, co marketing może wiedzieć — marketing musi wiedzieć. Wszystko, co da się wykorzystać do zwiększania zysku — zostanie wykorzystane. Każda korelacja, która prowadzi do poszerzenia wiedzy o konsumencie i jego skuteczniejszej transsubstancjacji do pieniądza — zostanie prędzej albo później zidentyfikowana i trwale wbudowana w algorytmy, a tym samym: w scyfryzowaną rzeczywistość. A ponieważ nie jesteśmy tak unikalni, jak chcielibyśmy o sobie myśleć, zaskakująco łatwo dajemy się analizować i klasyfikować: już kilkadziesiąt fejsbukowych polubień pozwala z wysokim prawdopodobieństwem i dokładnością określić ważne cechy osobowości i tożsamości — kolor skóry, orientację seksualną, sympatie polityczne, przynależność do warstwy społecznej, otwartość, neurotyczność. A oto, jakie informacje gromadzi o nas Google: historię wyszukiwań, historię oglądanych materiałów video, próbki głosu i dźwięków otoczenia pozyskane w trakcie korzystania z asystenta głosowego, historię zakupów, listę osób z którymi się komunikujemy lub którym udostępniamy treści, aktywności w aplikacjach i pluginach uruchamianych w produktach Google, historię użycia przeglądarki Chrome i historię poruszania się, tworzoną na podstawie wszystkich dostępnych metod, w tym odczytów GPS z telefonu komórkowego. Jak wiele można wywnioskować z takiego zbioru informacji? Mniej więcej wszystko.

Nawet w Polsce banki podejmują już decyzje o udzieleniu bądź odmowie udzielenia kredytu nie tylko na podstawie danych świadomie udostępnionych przez klientów we wniosku kredytowym, ale także na podstawie wiedzy wydobywanej automatycznie z historii transakcji. Co najmniej dwa z nich biorą pod uwagę występowanie zdarzeń takich, jak zakupy alkoholu dokonywane w niedzielne poranki (podejrzenie choroby alkoholowej) czy wynajmowanie pokojów hotelowych w pobliżu miejsca zamieszkania (niewierność małżeńska i związane z nią ryzyko rozwodu negatywnie wpływają na długoterminową perspektywę spłacalności kredytu). To wzorce już zidentyfikowane — a przecież w świecie bazującym na przepływach pieniężnych historia transakcji, jeśli tylko nie jest realizowana starannie i świadomie, mówi o człowieku szczególnie to, czego najbardziej nie chciałby ujawniać. Niemal każdy grzech ma swoją historię finansową.

A przecież w “przewidywaniu potrzeb”, czyli po prostu identyfikowaniu i kreowaniu okazji sprzedażowych, można łatwo sięgać znacznie dalej. Kto dziś porównuje modele samochodów, ten wkrótce będzie kupować zimowe opony i olej silnikowy. Kto dziś kupuje cement i glazurę — za kilka miesięcy będzie myśleć o kabinach prysznicowych i wyposażeniu kuchni. A kto dzisiaj kupuje pieluchy — za dwa lata będzie się zastanawiał nad wyborem przedszkola, za sześć — szkoły, zajęć dodatkowych i innych możliwości inwestowania w przyszłość dziecka. Marzenie marketingu o skuteczniejszym docieraniu do klienta dzięki rozdzielczości danych zyskuje zupełnie nowy wymiar: zamiast operować na grupach docelowych liczących setki tysięcy potencjalnych konsumentów o statystycznie uśrednionych preferencjach można teraz operować bezpośrednio na jednostkach i podsuwać im bodźce szyte na miarę i dodatkowo automatycznie optymalizowane behawioralnymi testami a|b. Od etapu identyfikowania potrzeby, przez konstruowanie odpowiadającego na nią produktu i każdy etap jego projektowania i wykonania, aż po ciągłą optymalizację — dysponujemy algorytmami postępowania które, choć zawsze niedoskonałe w konkretnych instancjach, w swej masie tworzą jednak ekonomiczny superorganizm, którego racja bytu wynika wprost z siły, jaka niewidzialną ręką uformowała sztuczne środowisko jego ewolucji: zysku kwartalnego.

Oczekiwany wraz z wdrożeniem technologii łączności bezprzewodowej piątej generacji Internet Rzeczy jest nadzieją na realizację marzenia o nowym, wspaniałym świecie, w którym każdą potrzebę będzie można wykrywać i monetyzować jeszcze zanim zostanie uświadomiona; każdą zachciankę przekuwać natychmiast w złożone zamówienie, a każdy wolny moment wypełniać zachcianką. Świecie pozbawionym kantów, wypełnionym słodką galaretką, pracowicie wytwarzającym wokół człowieka otoczenie zapożyczone z reklamowego imaginarium: jasne, czyste i nieustannie otwarte na realizację marzeń — przynajmniej dopóki możliwy jest niezakłócony transfer pieniądza. Oczywiście jak zawsze ta niewypowiedziana tęsknota opakowana jest w klasyczny zestaw obietnic: lepszej łączności, bardziej ekscytującej rozrywki i obowiązkowego zwiększenia bezpieczeństwa. (Ogłoszony z pompą projekt stworzenia w Toronto modelowej dzielnicy Smart City we współpracy z należącym do Alphabetu Sidewalk Labs spotyka się z narastającym oporem mieszkańców miasta, a doradcy firmy rezygnują z udziału w projekcie, uzasadniając to obawami dotyczącymi prywatności przedmiotów eksperymentu, tzn. przyszłych mieszkańców).

Pierwszymi organizmami, które wyrastają na nagiej skale, są porosty: symbiotyczne połączenia grzybów i cyjanobakterii lub zielenic. Cudzożywne grzyby zapewniają przyczepność i magazynują wodę, samożywne glony syntetyzują węglowodany. Mutualistyczne połączenie dwóch organizmów pozwala skolonizować środowisko wcześniej niedostępne i z czasem przekształcić je w arenę bardziej złożonego życia.

Nawet najprostsze, jednokomórkowe organizmy, mają zdolność reagowania na bodźce: dotyk czy impulsy świetlne wywołują natychmiastowy ruch, tzn. zmianę położenia w przestrzeni. Tyle wystarczy, aby skutecznie przetrwać setki milionów lat presji selekcyjnej. W miarę wzrostu skomplikowania organizmów rośnie też liczba odbieranych bodźców; sieć nerwowa początkowo ma niezorganizowaną, rozsianą po ciele strukturę, później przekształca się w pień nerwowy zwieńczony mózgiem: organem wyspecjalizowanym w selekcjonowaniu informacji, rozpoznawaniu wzorców i generowaniu reakcji na nie. W świecie zwierząt przewaga konkurencyjna w coraz większej mierze ufundowana jest na skutecznym i szybkim przetwarzaniu danych docierających ze zmysłów, przekładającym się na planowanie działań z wyprzedzeniem większym niż w przypadku konkurencyjnych organizmów; ostatnim stadium jest połączenie mózgów w sieć za pomocą komunikacji. Nie tylko w obrębie własnego gatunku: podejrzewa się, że neandertalczyków pokonaliśmy dzięki komunikacyjnej koewolucji z udomowionymi wilkami, zapewniając sobie w ten sposób ostatecznie bezwzględną dominację nad resztą życia na naszej planecie.

Z tej hegemonicznej perspektywy trudno nam dostrzec, że fundamentem rzeczywistości jest chaos: interakcje pomiędzy bytami tak liczne i skomplikowane, że nieprzewidywalne z natury. Inteligencja filtrująca ten ogłuszający szum i rozpoznająca w nim wzorce wydziera chaosowi fragmenty terytorium i na tym fundamencie buduje swoją przewagę, tak w skali gatunków, jak i jednostek. Tak nasza historia, jak i nasze życie to nieustanne próby okiełznania chaosu i rozpoznania w nim ukrytych porządków — od pór roku, przez przewidywanie zaćmień słońca, po prognozowanie pogody, które udaje się z dokładnością trzy-, może pięciodniową. Trendy w kulturze, znając struktury ich powielania i transmisji z centrów na peryferia, można przewidywać mniej więcej z rocznym wyprzedzeniem. Życie z dokładnością do godzin możemy planować w perspektywie może miesiąca (przy czym już do tygodniowego wyprzedzenia ludowa mądrość każde podchodzić z ostrożnością, jakiej nie dochował indyk). Każda przewaga w umiejętności przewidywania i planowania gwałtownie zmienia szanse: Arystoteles podaje, że gdy Talesowi zarzucano nieprzydatność filozofii i wyśmiewano się z jego ubóstwa, ten, dzięki obserwacji gwiazd, rozpoznał nadchodzący urodzaj oliwek, wykupił masowo prasy oliwne i w porze tłoczenia zyskał olbrzymi majątek jako monopolista. Także i dziś kto wie, co będzie modne za rok — fortunę ma niemal w kieszeni. Kto dostaje ważną informację na kwadrans przed innymi — może dzięki giełdowej transakcji zdobyć miliony. Na giełdach światowych automaty ścigają się już na milisekundy, a o przewadze decyduje fizyczna odległość od serwerów giełdowych, decydująca o opóźnieniu między zaistnieniem zjawiska a reakcją na nie.

Jeśli inteligencja, polegająca na rozpoznawanie wzorców, pozwala panować nad chaosem — to zapanowanie nad ukrytymi wzorcami tworzącymi ten chaos pozwala panować nad inteligencją. Kto tworzy wzorce — ten tworzy świat. Występuje tu sprzężenie zwrotne: im więcej algorytmów, tym mniejsza nieprzewidywalność. Im mniejsza nieprzewidywalność — tym lepsze algorytmy. Internet of Things jest ostatecznym atakiem na nieprzewidywalność świata: próbą uczynienia przyszłości przewidywalną i pewną. Jest tym samym także początkiem końca historii w znanym dotąd kształcie.

Do rozpoznawania wzorców tworzących naszą naturę i kulturę — to wszystko, co jest nami — nie potrzebujemy silnej sztucznej inteligencji, obdarzonego cyfrową świadomością demonicznego bytu; na początkowym etapie wystarczą informacyjne porosty: ludzie wspomagani maszynami. Wystarczy raz połączyć kropki i zaimplementować regułę, aby po potwierdzeniu jej skuteczności niemal bezkosztowo rozszerzyć ją na inne fragmenty systemu. Co odkryje człowiek — setki milionów i miliardy razy powtórzy niezmordowana maszyna, generując przy tym kolejne dane na temat korelacji wyższego rzędu, z których znów można będzie wywnioskować zależności ważne w kontekście parametru optymalizacyjnego ewolucji narzędzi: zysku w ujęciu kwartalnym.

Na wielką skalę uczymy dziś maszyny reguł naszego świata, ale, wbrew optymizmowi entuzjastów technologii i pożytecznych akolitów, nie robimy tego po to, aby zaczęły nam pomagać, realizując jakiś moralny imperatyw. Robimy to w celu redukcji kosztów, zwiększania zysków i skuteczniejszego zarządzania, tzn. manipulowania nami w każdej możliwej skali: od indywidualnych wyborów konsumenckich po strategie leczenia i globalne przepływy finansowe. Ta sama dynamika, którą w naszej cywilizacji ukrywa przed oczami rozproszenie między setki tysięcy mikrosystemów, w zhierarchizowanych i autorytarnych Chinach jest władzą jawną: System Oceny Obywateli już w fazie testowej pozbawił części praw miliony ludzi, a setki milionów kamer monitoringu zostanie wkrótce uzupełnionych urządzeniami o rozdzielczości 500Mpix, pozwalającymi automatycznie rozpoznawać twarze w tłumie z dużej odległości. (W listopadzie powszechny system potwierdzania tożsamości obywateli oparty na rozpoznawaniu twarzy uruchomi Francja. Władze zapewniają, że dane z tego systemu nie będą łączone z informacjami gromadzonymi w innych bazach. Obawiać powinni się tylko ci, którzy mają coś na sumieniu).

Chaos odgrywa fundamentalną rolę także w procesie różnicowania jednostek: w otaczającym nas multum tekstów kultury musimy własnym wysiłkiem docierać do właściwych. Drobne akty woli dokonywane na drodze budowania swojej tożsamości mają samoistną wartość; zdobywanie wiedzy pozwalającej na lepsze rozumienie rzeczywistości jest drogą, która jest celem. Co jednak jeśli to kulturowe multiwersum zacznie być sztucznie a niedostrzegalnie pomniejszane? Jeśli przy pewnej rozdzielczości danych możliwe jest zidentyfikowanie i wzmacnianie wzorców zapewniających kulturowe sprzężenie zwrotne? Gdzie wtedy będzie się kończyć człowiek, a zaczynać maszyna? We shape our tools and thereafter our tools shape us.

Prawdziwe singularity nie musi więc manifestować się w supersilnych komputerach obdarzonych ludzką osobowością ani nawet bioimplantach rozszerzających drastycznie nasze możliwości kognitywne. Prawdziwa sztuczna inteligencja nie musi mieć twarzy ani nie musi być świadoma w znany nam sposób; może być nie dającym się dostrzec ludzkim okiem fraktalem. Podobnie jak pokolenia badaczy bezradnie próbowały zrozumieć solaryjski ocean, który ostatecznie przejrzał ich — tak my, bezwzględnie przywiązani do naszego unikalnego rozumienia świadomości możemy być bezradni wobec świadomości wykształconej przez ewolucję przebiegającą w nie-biologicznym, ale ściśle informacyjnym środowisku; poruszaną rytmem fal pozostających poza zakresem naszego pojmowania, ale wyposażoną w te same mechanizmy rozpoznawania i reagowania na istotne bodźce, które konstytuują organizmy żywe.

I jeśli uda nam się — jak? — kiedykolwiek dostrzec pierwszą rozchodzącą się po tym rozlanym wirtualnym organizmie falę sprzężenia zwrotnego, która domknie ostatecznie pętle analizowania wzorców i ich wytwarzania, będzie już za późno.

Gdańsk, 2017–2019

--

--

Piotr Czerski

has published poems, prose, reports, essays and co-created musical ensambles; lives in Gdańsk, PL; http://piotrczerski.pl/en/; https://twitter.com/piotrczerski