Kazimierz Krzysztofek – BIG DATA SOCIETY. Technologie samozapisu i samopokazu: ku humanistyce cyfrowej

I. Mane, Tekel, Fares

Nie tylko navigare, ale także computare necesse est. Od początku dziejów kultury człowiek rejestrował dane. Dzięki pismu je utrwalał, a drukowi – multiplikował. Musiał pozyskiwać dane, aby – nadając im znaczenie – przekształcać je w informacje i nową wiedzę, na podstawie których podejmował optymalne decyzje lepiej przysposabiające go do przetrwania. W tym celu wydzierał tajemnice światu i przyrodzie poprzez jej mierzenie, ważenie, liczenie. W miarę rozwoju techniki wymyślano mnóstwo urządzeń pomiarowych. Przełomem był pomiar czasu, zegar, który oddał ludzi we władzę Kronosa. Równie wielką, choć niedoceniana rolę odegrał wynalazek szkła, bez którego nie byłoby przedłużeń wzroku: okularów, lunet, mikroskoskopów, teleskopów, soczewek, włókien szklanych i czego tam jeszcze. Nie byłoby fizyki, astronomii, medycyny – słowem – nowoczesnej nauki. W epoce przednowoczesnej powstało mnóstwo innych wynalazków w zakresie miernictwa, bez których nie byłaby możliwa późniejsza rewolucja umysłowa i przemysłowa (termometr, barometr, spirometr itp.). Poprawiała się skuteczność w mierzeniu technosfery – sfery działania. Przez tysiące lat gromadzono narzędzia pomiaru.

Oczywiście, zawsze interesowano się także ludźmi, jako obiektami do badania: liczenia, mierzenia itp. . Czyniła to każda władza w historii, szczególnie władza autorytarna (a ta w przeciągu dziejów była normą), która chciała wiedzieć jak najwięcej o poddanych. Dane o ludziach były potrzebne dla celów leczniczych (mierzenie temperatury ciała), handlowych, rzemieślniczych (dla krawców, szewców itp.). Dane medyczne były potrzebne do sprawowania biowładzy (izolowanie trędowatych, homoseksualistów i in.). Gromadzono wiele danych o ludziach, ale były to w większości dane jakościowe (lekarze, spowiednicy, adwokaci, psycholodzy). Relatywnie mało było danych ilościowych, ale to częściowo rozwiązano dzięki spisom powszechnym. Z czasem zaczęto rejestrować i kwantyfikować ludzi, aby ich ewaluować: sterować ich behawiorem, czyli karać i nagradzać, bez czego nie może się obejść żadna władza państwowa, wojskowa, fabryczna, szkolna i in. . Oceniano uczniów, pracowników, studentów, żołnierzy, wystawiano im cenzurki, ale były to na ogół oceny uznaniowe, choć z konieczności przekładane na cyfry i liczby.

Owa uznaniowość rychło okazała się problemem, nie pozwalała na kwantyfikację, punktację, notację, numeryzację, scjentyfikację dziś cyfryzację, czyli łącznie – strukturyzację danych, ich porównywanie, agregowanie, wykorzystywanie w trybie data cross-analytics, w końcu ewaluację, obliczanie mediany, wychwytywanie trendów, wczesne ostrzeganie, ujawnianie nadzwyczajnych szans itp.

Z biosferą, dzięki postępowi medycyny i technosferą, dzięki postępom nauki, poznania, było coraz mniej problemów. Nadal nierozwiązany był jednak problem z mierzeniem logosfery, w tym zwłaszcza jakości, wartości, znaczeń. Stanęły przed nim amerykańskie uczelnie, których studenci skarżyli się na niesprawiedliwe oceny ich wiedzy na egzaminach ustnych. Mieli rację: analiza stopni, jakie otrzymywali, wykazała, że są one średnio wyższe po lunchu, gdy poziom glukozy we krwi egzaminatora był wyższy, a wyraźnie spadały, gdy pod koniec dnia był głodny i znużony. Zapewne studenci nie myśleli o glukozie, gdy przynosili profesorom łakocie; liczyli na przychylność, ale to być może glukoza robiła swoje. Student płaci i wymaga, trzeba było więc zobiektywizować oceny egzaminacyjne. Tak doszło do eksplozji testów wielokrotnego wyboru (SAT – School Achievement Test) jako pomiaru przygotowania i podstawy oceny zgodnie z ustalonym algorytmem. Pełna kwantyfikacja – kod zerojedynkowy – prawda-fałsz – w dużym stopniu obiektywizowały stawiane stopnie, choć z pewnością nie mierzyły jakości i autentyzmu, myślenia, kojarzenia, rozwiązywania problemów.

Z czasem kwantyfikacja jakości i kwalifikacja ilości nie tylko świata materialnego, ale także ludzi stała się rutynową procedurą. I imperatywem, bo to człowiek właśnie stawał się najważniejszym zasobem jako wytwórca, przetwórca, konsument, „mięso wyborcze”. Słowem – fundament systemu rynkowego i demokratycznego.

W ten sposób narodziła się nowa antropometria, która mierzyła już nie tylko czaszki, ale wiele z tego, co wcześniej było niepoliczalne. A to, co niepoliczalne, niemierzalne, nieważalne, nie istnieje na rynkowej podziałce. Geniuszem był ten, kto wymyślił Mane-Tekel-Fares („zważono, policzono, rozdzielono”), które to słowa, po aramejsku (מנא ,מנא, תקל, ופרסין), jego niewidzialna ręka wypisała na ścianie, podczas uczty Baltazara. Na jakiejś skali muszą być mierzone wiedza, emocje, doznania, przeżycia, wrażenia estetyczne i artystyczne (np. gimnastyków, skoczków z wieży, łyżwiarzy figurowych), kwalifikacje, inteligencja (IQ). Na pytanie dlaczego, odpowiedź wydaje się dość prosta: bo to wszystko jest przedmiotem obrotu rynkowego, musi mieć swą liczbową wielkość, która jest niezbędna do jej wyrażenia w pieniądzu. Dziś jest to szczególnie istotne, gdy gamifikacja, ukonkursowienie wkracza do wszystkich dziedzin życia: korporacji, polityki, nauki itp. .

To wyjaśnia powody, dla których doszło do kolejnej rewolucji w dziedzinie kontroli: rejestrowania danych – rewolucji cyfrowej, której agentem jest komputer, najdoskonalsze narzędzie pomiaru. Przeszedł on długą drogę od funkcji arytmometra, sortera, tabulatora, kalkulatora, maszyny do pisania itp. aż po hipermedium.

To imperatyw – rośnie lawina danych, jeśli się ich nie ustrukturyzuje, nie przekształci w informacje to powstaje szum. Tak jak siły mięśni i proste urządzenia musiała uzupełnić, a z czasem zastąpić maszyna, najpierw parowa, potem elektryczna, aby zwielokrotnić zdolności przetwarzania przyrody, tak w epoce postindustrialnej musiał powstać nowy wynalazek – maszyna cyfrowa do przetwarzania danych, których przybywało w postępie geometrycznym jako efekt potęgowego rozkładu relacji i interakcji. Stopień komplikacji rozwoju społeczno-ekonomicznego zmuszał do użycia coraz szybszych narzędzi, bez których nie jest już możliwe zgromadzenie, przetworzenie i zużytkowanie olbrzymiej „infomasy”, zapanowanie nad szumem informacyjnym przy pomocy tradycyjnych nośników informacji i narzędzi komunikacji; gdy mózg ludzki przestaje już wystarczać w swej funkcji kondensatora pamięci, arytmetycznego kalkulatora, analizatora i procesora, gdy informacje zmagazynowane na tradycyjnych nośnikach („pamięć skoroszytowa”) stają się trudne do zoperacjonalizowania i efektywnego wykorzystania jako zasób danych przekształcanych w informacje i wiedzę. Szum informacyjny, który grozi entropią – niedecyzyjnościa i niezarządzalnością, czyli chaosem, pojawia się wtedy, gdy powiększa się rozziew między rosnącą masą danych i możliwościami ich destylacji, strukturyzacji – oczyszczania „rudy danych”. Wysoki poziom umiejętności w sferze tego oczyszczania to zdaniem Davenporta i Harris (2007) zdolność konkurowania i źródło „nowej  nauki o zwyciężaniu”. Tak jak bowiem ruda żelaza czy ropa naftowa wymagają przetworzenia, aby uzyskać szlachetne produkty, tak tego samego wymaga surowiec, jakim są dane. Analiza statystyczna to potencjalne źródło fortuny w biznesie, przemyśle farmaceutycznym, informacyjnym przemysłach kultury i wiedzy i in. .

Obecnie mamy do czynienia ze swoistą spiralą kognitywną: prowadzi się coraz więcej badań, obserwacji, monitoringu ludzkich działań i zachowań, werbalnych niewerbalnych, dzięki czemu pozyskujemy więcej danych, przekształcanych w nową wiedzę. Ta wiedza jest wdrażana do praktyki, co wymusza zmiany, przyspieszenie procesów; rzeczywistość coraz bardziej się komplikuje. Trzeba więc znowu przyłożyć do tego jeszcze doskonalsze „mędrca szkiełko i oko” – badać, obliczać, przetwarzać, przekształcać w jeszcze nowszą, bardziej aktualną  wiedzę i znowu zasilić nią praktykę społeczna, biznesową, polityczną itp. Do tego potrzeba coraz wydajniejszych silników analitycznych, których zadaniem jest wychwytywanie trendów, punktów przełomowych (tipping points), tendencji. Im więcej danych tym więcej potrzeba narzędzi analitycznych, dzięki którym kreujemy coraz więcej informacji i wiedzy, która po wdrożeniu owocuje nowym zalewem danych. Never ending story.

I tak oto napiera logika cywilizacji numerycznej, która chce wszystko policzyć, zewidencjonować, zglobalizować, i zalgorytmizować, każdą prawdę i wartość zamienić na informacje wedle binarnego kodu, bo to, co niepoliczone i niezewidencjonowane, nie istnieje, przynajmniej nie istnieje na rynku, w raportach rządowych itp. Dziś wszystko staje się „produktem”, który musi być policzalny, choćby po to, żeby go wycenić.

Konkluzja jest prosta: każde działanie  rutynowe i algorytmiczne trzeba zautomatyzować w imię racjonalności i skuteczności, a tam gdzie brakuje już zasobów natury – zastąpić artefaktami, sztucznością. Obawiał się tego zmarły niedawno sir Ralf Dahrendorf, liberał pragnący wierzyć w wolność bez niszczących ją kompromisów, który pozostawił cywilizacji zachodniej legat przestrogę: znaleźliśmy się na drodze do Singapuru. gdzie władza widzi, kto wyrzuca śmieć czy niedopałek na ulicę i jest natychmiast karany grzywną. Spełniłaby się wtedy wizja, którą zawarł David Brin w swej znanej książce The Transparent Society

Tu ciśnie się osobista refleksja: w wielu środowiskach, w tym naukowym, profesorskim, które jest mi najlepiej znane, padają pytania, czy wszystko, co wiąże się z pracą badawczą i dydaktyczną musi być opunktowane. Otóż musi; bowiem profesor, adiunkt, czy asystent muszą być policzalni jako naukowcy, wykładowcy, organizatorzy badań, uczestnicy projektów, grantów itp., żeby ich osiągnięcia, czy ich brak były widoczne na powierzchni interfejsu, żeby można było ich porównywać, nagradzać albo karać. Masz tyle i tyle punktów i nie ma dyskusji. Jeśli ich zbierzesz za mało, to będziemy sobie musieli bez ciebie poradzić (można dla osłody dodać: chociaż będzie nam cholernie trudno).

Jesteśmy w różnych swych rolach od dawna znumeryzowani: Pesel, PIN, NIP, tablice rejestracyjne, numery telefonów, domów, mieszkań, kolorów naszych ubrań – To są oznaczniki naszej tożsamości wyrażone w cyfrach i liczbach. Badania inteligencji, badania statystyczne, techniki sondaży, liczbowo oceniane wyniki edukacji itp. to są „niewidzialne technologie” (Postman, 2004, 159), dzięki którym „Istota ludzka staje się […] ‘osobą policzalną’” (Foucault, 1993, 258).Ta numeryzacja sięga głęboko w epokę analogową, a w epoce cyfrowej, która dziś buzuje, to jest zmiana już nie tylko ilościowa, ale także jakościowa. Staliśmy się cząstkami kodu cyfrowego widocznymi na powierzchni intterfejsu. Nasza cywilizacja zalewana jest przez potop danych, hydrant, którego siła nas powala.

II. Jak cyfryzacja wydziera tajemnice ludziom i światu

Pozyskiwanie wiarygodnych danych jest kluczem do optymalnych decyzji i skutecznego zarządzania w skali kraju, gminy, miasta, firmy itp., nie ma bowiem dobrych decyzji w próżni informacyjnej, czy niedostatku danych. Wedle obiegowych opinii otacza nas morze danych, które poddane przetworzeniu wedle prawideł statystyki obliczeniowej pozwalają na prognozowanie, uchwycenie trendów, dzięki czemu, po przetworzeniu na decyzje, można rozwiązać sytuacje problemowe, uciec przed stanem krytycznym, a w najgorszym razie złagodzić skutki sytuacji katastrofalnej. Odgadnięcie trendu pozwala z kolei „wsiąść” na atraktor, wykorzystać nadzwyczajną szansę i zyskać przewagę nad konkurencją.

Istnieje przekonanie, że bogactwo danych w sieciach oznacza kres ograniczeń w ich pozyskiwaniu klasycznymi metodami badań społecznych i marketingowych w realu. Istotnie, masa danych w Internecie o ludziach, procesach, zmianach itp. lawinowo rośnie zgodnie z prawem Metcalfa (potęgowy rozkład relacji, interakcji, transakcji itp.), wraz z każdym nowym przyłączeniem do sieci. Mimo to jednak zdobywanie danych w sieciach napotyka problemy. Po pierwsze dlatego, że nie da się stworzyć w Internecie próby reprezentatywnej dla całego społeczeństwa w skali danego kraju. Oczywiście, łatwiej taką próbę budować tam, gdzie wskaźniki obecności w Internecie, zbliżają się do 80-90% (jest zawsze jakaś część populacji która nie chce być online i dotyczy to także najbardziej usieciowionych krajów). Podobnie jest w przypadku telefonii mobilnej, choć tu autsajderów jest mniej, nie da już się bowiem praktycznie funkcjonować w społeczeństwie bez tego małego „przyjaciela”. Ale i to z różnych powodów nie rozwiązuje problemu. Nigdy bowiem nie ma pewności, że podawane dane o sobie są autentyczne, czyli mówiąc inaczej, nigdy nie wiemy na pewno, czy badane osoby nie nakładają masek. Jeśli nakładają, to próba do badania staje się bezwartościowa.

Nie zawsze oczywiście potrzebna jest próba reprezentatywna dla całej populacji. Można pozyskać wartościowe dane, jeśli chce się zbadać jakiś segment społeczeństwa, grupę celową, co jest najczęstsze w badaniach marketingowych. Tu sprawdzają się zwłaszcza metody jakościowe: pozyskiwanie głębszej wiedzy o respondencie. Można też uniknąć „efektu ankietera”, czyli niepożądanego wpływu jego obecności na odpowiedzi. Badany czuje się bardziej suwerenny w swych odpowiedziach w warunkach oddalenia. To daje przewagę tego typu badaniom pod warunkiem jednak, że respondent jest szczery, nie symuluje. Wedle różnych badań większość ludzi chce być szczera, choćby dlatego, że symulowanie, kłamanie wymaga więcej wysiłku (ale zdaniem psychologów rozwija inteligencję, a antropolodzy twierdzą, że to właśnie dzięki kłamaniu, kombinowaniu, „chachmęceniu” uzyskaliśmy postępy w uczłowieczeniu naszego małpiego gatunku).

Nie usuwa to jednak wszystkich problemów. Firmy specjalizujące się w badaniach społecznych czy marketingowych w Internecie zwracają uwagę na niechęć internautów do poddania się badaniom. Koszty psychologiczne odmowy są żadne w porównaniu do sytuacji face to face z ankieterem: wystarczy kliknięcie w „zamknij” na pop-upie, który zachęca do udziału w badaniu i podaniu danych o sobie. Potencjalny badany ma dyskomfort – obawę, że się go zidentyfikuje, chociażby przez adres IP. Nawet jeśli jest przekonany o swojej anonimowości, to już niekoniecznie o nieidentyfikowalności. W tej sytuacji kluczem jest przekonanie respondenta o doniosłości badania dla niego samego. To wymaga nie lada techniki wywierania wpływu. Ale trud się opłaci.

Network lepszy od legwork

W tym miejscu potrzebna jest ogólniejsza refleksja. Zastanawiając się nad tym, co jest czymś jakościowo nowym, a co już było w sferze społecznej Praxis, dochodzę do wniosku, że bardzo wiele rzeczy już było, a tylko nam się tylko tak wydaje, że jest to novum. Na przykład dla pokolenia sieciowego, wysłanie maila, jest czymś z gruntu innym niż pójście na pocztę i wysłanie zwykłego listu. Dla mnie, przedstawiciela pokolenia przedsieciowego, różnica jest taka, że w pierwszym przypadku działa network, a w drugim legwork (praca nóg).

Człowiek nigdy nie miał monopolu na emitowanie danych, bo to czyniła i czyni cała natura, żywa i nieożywiona. Nie miał też monopolu na ich postrzeganie, czy przetwarzanie. Miał natomiast monopol na ich destylowanie, nadawanie im sensu, czyli informację i pozyskiwanie w ten sposób nowej wiedzy oraz integrowanie jej z już istniejącą.

W miarę rozwoju narzędzi rejestrujących rosło pozyskiwanie danych. Zadziałał feedback o cechach wspomnianej spirali kognitywnej i hermeneutycznej zarazem. Dzięki danym i ich obróbce, która oczyszczała „rudę danych” i nadawała im znaczenie oraz użyteczność, ludzie powiększali swoja wiedzę. Dzięki niej z kolei zdobywali coraz więcej danych, ponieważ mnożyły się źródła ich pozyskiwania „nowym szkiełkiem i okiem”, o których wcześniej nie wiedzieli. Takim źródłem stawał się przekrój drzewa, który nic nie „mówił”, dopóki nie było większej wiedzy o drzewach; nie wiedziano co „mówią” skały, dopóki nie wzrosła wiedza geologiczna. Wynalazki w sposób rewolucyjny rozwijały bazy danych o ludziach i przyrodzie, np. izotop węgla C14, który pozwolił datować relikty przeszłości miliony lat wstecz, wydzierać tajemnice nie tylko historii, ale także prehistorii. Zatem im więcej informacji zintegrowanych z posiadaną już wiedzą i ją poszerzających, tym więcej się otwiera się nowych źródeł sygnałów, które „przestają milczeć” i  z których czytamy jak z otwartej księgi. Wiedza pozwoliła nam zdekodować kody informacyjne zawarte  w tych źródłach.

Słowem, gromadzenie danych to czytanie świata z otwartej księgi, w której ciągle i dynamicznie przybywa stronic. Cywilizacja rosła dzięki tej spirali kognitywnej, która owocowała czujnikami, narzędziami do pomiarów itp.: detektor, sejsmograf, termometr, barometr, spirometr, stetoskop, spektrometr, mikroskop, luneta, okulary, skanery, ultrasonografia, kody kreskowe, RFiD itp. W tle tego wszystkiego było przyspieszenie w zdobywaniu danych, ich przetwarzaniu i wdrażaniu w procesie podejmowania decyzji, a w końcu w produkcji dóbr i usługach.

Człowiek uzbrajał się w ekstensje zmysłów, które lepiej widziały, słyszały, czuły (dotyk, haptyczność), wąchały (detektory dymu). Mógł coraz lepiej postrzegać świat, organizmy żywe, przyrodę nieożywioną, wreszcie samego siebie, swój organizm, mózg. Istotne, że mógł to wszystko rejestrować, zwłaszcza zmiany, które są spostrzeżoną i uświadomioną różnicą.

W dalszym ciągu jednak wiele naszych działań, aktów komunikacji nie pozostawiało śladów, tzn. nie było rejestrowanych na żadnym nośniku – papierze, błonie fotograficznej, taśmie magnetofonowej, celuloidowej ani na dyskach. Większość rozmów twarzą w twarz, czy telefonicznych ulatywała w eter (chyba, że były podsłuchiwane), choć naturalnie uruchamiały one działania ludzkie. Dotyczyło to także działania innych zmysłów: słuchania, oglądania, dotykania, które nie pozostawiały śladów.

Dziś „[…] narzędzia wspomagające zmysły zyskały nowe możliwości. Powstały maszyny do widzenia, zdolne utrwalać doświadczenie wedle swych matryc czasu i przestrzeni. Niektóre z nich przejmują nawet obowiązek patrzenia uprzednio ciążący na użytkowniku. Dzięki optyce cyfrowo-falowej patrzenie nie jest już potrzebne, by widzieć. Powstały maszyny poznania, które są władne wytwarzać i widzenie i obrazy, w tym obrazy trójwymiarowe, pachnące i mobilne” (Banaszkiewicz 2011).

Można powiedzieć deja vu: obok „kopalin analogowych” przetwarzanych następnie przemysłowo, wydobywa się dziś „kopaliny cyfrowe” (data mining). Czyli powtórzenie cyklu wydobywczego. Można w tej analogii pójść o krok dalej: tak jak skończyła się na wielka skalę faza zbieractwa i myślistwa i ludzie przeszli na hodowlę, tak myślistwo i „polowanie na dane” zostało w dużym stopniu zastąpione przez hodowlę czy uprawę danych (data farming), coraz bardziej zautomatyzowaną.

Od dawna toczą się spory o to, czy cywilizacja przyszłości będzie obrazkowa. Ona poniekąd była taką zawsze, człowiekowi od zarania towarzyszyły obrazy naturalne i te, które sam tworzył (malowidła naskalne, malarstwo). Z czasem te obrazy zdejmował z rzeczywistości (fotografia, telewizja), albo je kreował jako fikcyjną wideosferę (kino). Dzisiejsza cywilizacja, jest ekranowa, ale też coraz bardziej monitorowa. Smart cameras będą wizualizować niemal wszystko w skali makro i mikro. One wydzierają tajemnice światu i ludziom, bez nich lekarz nie jest już w stanie diagnozować stanu organów, inżynier –stanu mechanizmu, konserwator – stanu zabytku, w niedługiej przyszłości rolnik – stanu upraw itp.

Nie wiemy, co wyniknie z oddawania władzy obserwowania i analizowania algorytmom maszyn. Ale nie ma innego wyjścia. Dane pozyskiwane przez mikroczujniki, rejestratory, detektory itp., muszą być analizowane i przetwarzane przez maszyny. Mózg jako procesor, kalkulator, memoryzator, analizator i syntetyzator, „destylator”, autentyfikator, integrator, agregator, defragmentator, dystrybutor itp. od dawna już nie wystarcza. Barierą są też materialne nośniki – papier, taśma, itp. Musiało dojść do cyfryzacji, tak jak kilka wieków wcześniej do mechanizacji przetwarzania przyrody, aby wytworzyć niezbędną ilość dóbr. Cyfryzacja to coraz bardziej zautomatyzowane i zalgorytmizowane, doskonalsze, precyzyjne i niezawodne pomiary. Im więcej maszyn analitycznych używamy, tym bardziej redundantne dane uzyskujemy.

Samo sprawstwo w zakresie pozyskiwania danych powierzamy maszynie, ale nadal (choć nie wiadomo jak długo) nic nie jest w stanie wyręczyć człowieka w nadawaniu znaczenia danym, ich interpretowaniu, „ważeniu”, wartościowaniu, ewaluacji, a w końcu w podejmowaniu decyzji. Ale czy tak będzie zawsze? Technologie zwalniają nas z potrzeby rozumienia naszych działań. Pozostawiamy to algorytmom nie zastanawiając się, jaki „diabeł w nich siedzi”. Najważniejsze, że działa. Znaczy to, że maszyny przejmują także funkcję tworzenia metadanych (danych o danych), bo tym są raporty, jakie sporządzają i trendy, jakie wychwytują.

Poszerza się skala zapośredniczenia i dystans między sprawstwem a skutkiem czynności. Operujący maczugą, szablą, bronią palną wiedział, że jest sprawcą. Pilot bombowca klikający w ikonkę „zrzuć bombę” takiej pewności nie ma; widzi eksplozję i cel na monitorze, ale to samo robił na symulatorze i złudzenie symulacji może mu pozostać.

Już dawno pogodziliśmy się z tym, że technologie wyzuwają nas z wyłącznie przynależnych naszemu gatunkowi kompetencji. Maszyny posługują się nie-ludzkim językiem, którego nie rozumiemy, choć sami je nim nafaszerowaliśmy. To coraz bardziej oddala nas od rozumienia technologii, które są naszym dzieckiem. Szef British Telecom, już przed kilku laty przyznał, że przestał rozumieć prawidła i mechanizmy, wedle których działa jego firma, tak się bowiem wszystko pokomplikowało. Wydaje się jakby rządziła się prawami, jakie tylko ona „zna” i sama sobą zarządzała. To naturalne, że ludzie łakną komfortu życia nie przejmując się tym, na ile jest on monitorowany oraz kto to czyni: inni ludzie czy same maszyny. Theodor Adorno wypowiedział dawno temu mądre słowa: „każde tchnienie komfortu okupione jest zdradą poznania”. Im więcej wiedzy uprzedmiotowionej w narzędziach, tym mniej potrzeba nam własnej wiedzy. Dotyczy to oczywiście społeczeństwa w jego masie, bowiem zawsze musi być jakaś grupa tych, którzy muszą się wspinać na coraz wyższe szczeble poznania, aby utrzymywać systemy w ruchu. Ludzie w swojej masie są coraz bardziej kompetentni, ale systemy, które kreują i obsługują, są coraz „mądrzejsze”. Tylko nielicznym dane będzie być jeszcze mądrzejszymi od nich. Każda innowacja bowiem, kiedy już jest wdrożona do technologii, wymaga kolejnej innowacji jeszcze bardzie jsophisticated od poprzedniej.

III. Obietnice cyfrowej analityki społecznej

Z powodu tych ograniczeń wiele ośrodków badawczych – z Center for Software Studies L. Manovitcha na czele – przesuwa punkt ciężkości w pozyskiwaniu danych z konwencjonalnych badań socjologicznych na badanie cyfrowych śladów zachowań werbalnych i niewerbalnych (więcej Bomba 2011). Walory takich danych zachwala Lev Manovich, guru software studies i analityki cyfrowej. Jego zdaniem dysponujemy wielką ilością płytkich danych pochodzących np. ze spisów powszechnych, które to dane jednak szybko się dezaktualizują. Mają walor statystyczny, ale informują tylko o powierzchni zjawisk społecznych, a na następny spis trzeba czekać 10 lat. Jest też sporo głębokich danych, których spisy powszechne nie wychwytują, a które byłyby nie do przecenienia dla socjologów czy marketingowców. Pozwalają one na introspekcję w ludzkie wnętrza, ich emocje, poglądy, uprzedzenia, słabości itp. Pochodzą z badań medycznych, eksperymentów psychologicznych i neuropsychicznych, etnograficznych, antropologicznych, kościelnych (spowiedź) itp, ale one są w większości utajnione w ramach tajemnicy zawodowej. Manovitch dość przekonująco wytyka słabości badań ilościowych na próbkach populacji. Posługuje się metaforą fotografii cyfrowej. Przy powiększeniu zdjęcia nie odkrywa się nowych danych na nim zapisanych, a tylko powiększa te, które na nim już są. Po prostu powiększa się tylko piksele, ale wtedy obraz się zamazuje.

Słowem, dotychczas mieliśmy tylko wybór między ilością a głębokością danych, trudno było o jedno i drugie na raz. Dziś dzięki analizie śladów cyfrowych możemy mieć jedno i drugie. Przekonany jest o tym o tym dawna Albert Laszlo Barabasi, twórca nowej nauki sieci, z której zrodziła się Social Network Analysis. Jest to połączenie matematyki i socjologii, nazywane niekiedy socjologią matematyczną. Scientists nabywają wiedzę z zakresu nauk społecznych. Pomysłodawca i lider projektu “Living Earth Simulator” (o którym dalej będzie mowa), Dirk Helbing, fizyk, jest zarazem kierownikiem katedry socjologii na Eidgenoessische Hochschule w Zurychu. Nicholas Christakis, współautor książki W sieci. Jak sieci społeczne kształtują nasze życie (2011) jest socjologiem i profesorem medycyny w Harvard University. Ci i inni badacze poważnie wzięli sobie do serca apel Charlesa Percy Snowa sprzed kilkudziesięciu laty, aby nauki społeczne i ścisłe wymyśliły interfejs, umiały się porozumieć, mówiły jednym językiem.

Władze publiczne, armie a także biznes chętnie zamawiają takie badania u takich badaczy, stoi bowiem za nimi autorytet nauk ścisłych, czego nie można powiedzieć o samych naukach społecznych, które wikłają się w różne paradygmaty, hermeneutykę, są niepewne co do jednoznaczności wyników (Krzysztofek, 2011a, 123-146). Socjologia matematyczna daje poczucie pewności; często złudne ponieważ, człowiek nie jest liczbą, ani atomem, jest nieracjonalny, emocjonalny, nieprzewidywalny, o czym najlepiej wiedzą ekonomiści, którzy chcieli z ekonomii uczynić naukę ścisłą, ale im się to nie udało, bo się nie mogło udać. Choćby dlatego, że nie ma czegoś takiego jak racjonalny wybór, czy racjonalne oczekiwania. Ale to czasu, coraz dokładniejsze są już bowiem algorytmy, stosowane w neuromarketingu, które mierzą emocje, doznania, przeżycia.

Mnogość i głębokość danych o ludziach w sieci, które można łatwo pozyskiwać – to brzmi zachęcająco. I rzeczywiście tak jest. Łatwo badać charakterystyki internautów,  demograficzne, społeczne i psychologiczne, analizować pożytki i patologie związane z wykorzystaniem Internetu, badać cybertożsamości, symulowanie, korzystanie z usług świadczonych przez różne podmioty w Internecie, wzory odwiedzania stron WWW, zachowania użytkowników stron, Web mining, schematy poszukiwania informacji, dynamikę i powody skupiania się wokół danych stron, analizować cyberspołeczności, więzi społeczne, tworzenie się ruchów społecznych, wzory interakcji, wyrażanie opinii, postaw, preferencji, oczekiwań, funkcjonowanie grup społecznych oraz wiele innych ludzkich zachowań, działań i wytworów.

Z dnia na dzień rośnie masa danych pozostawionych przez ślady po użyciu technologii cyfrowych, ponieważ rośnie też skala zapośredniczonych przez nie relacji społecznych. Jeszcze do niedawna to był straszak – Stanisław Lem nazywał ją bombą mega bitową, a Paul Virillo – bombą informacyjną. Były obawy, że utoniemy w infomasie, bo nie było narzędzi analitycznych, aby ten zalew przekuć w zasoby. Dziś tych narzędzi jest coraz więcej, dysponuje nimi cała rodzina software’u pracującego na potrzeby przedsiębiorstw, korporacji – business intelligence. Infomasa nie jest już czymś, co straszy, a staje się żyznym złożem , z którego można czerpać „pełną myszką”.

Ludzie nie są już w stanie sobie z tym poradzić, ich mózgi nie maja wystarczającej mocy analitycznej. Oddaje się więc w „ręce maszyn” analytical power, dotychczas przynależną człowiekowi. Ich zadaniem jest wyłowić potrzebne dane i informacje just in time 2.0 – w odpowiednim czasie, miejscu i pod kątem potrzeb odpowiedniego użytkownika.

Rysuje się przełom w nauce o społeczeństwie, który wywoła wielka zmianę społeczną i kulturową z implikacjami dla zarządzania, ekonomii, polityki itp. Amerykański fizyk, Marc Buchanan (2010), na podstawie analizy licznych badań w ramach social network analysis przewiduje że nauki społeczne przestaną być „ubogim krewnym”. Brak twardych danych narażał je w przeszłości na spekulacje i często prowadził w ślepy zaułek. Fizyka ma swoje teleskopy, zderzacz hadronów i „wypasione” laboratoria. Biologia dzięki odczytaniu sekwencji genomu stała się w części nauka informatyczną. Wraz z coraz szerszym zakresem computingu w badaniach wszystkie nauki staną się poniekąd informatycznymi

Nauki społeczne rozwijały badania empiryczne, ilościowe i jakościowe, gromadziły dane o ludzkich zachowaniach i interakcjach, aby weryfikować swe teorie, ale dochodziły do ustaleń raczej pewnych wzorców niż praw. Socjologia jest ciągle bliżej astrologii niż astronomii, daleko jej ciągle do socjonomii, nie odkrywa twardych praw. Era cyfrowa to zmienia – ludzie nie przestają być ludźmi, ale zostawiają ocean danych o sobie – ich ruchliwości, ale także świadomości. Google to „bank ludzkich intencji, pragnień, żądz konsumpcyjnych” powiada John Battelle, autor książki o tej potężnej wyszukiwarce. To już nie tylko Google, to także nowe wyszukiwarki typu Q&A. Najnowszym przykładem kulturowego przetworzenia wiedzy algorytmicznej i matematycznej jest nowy typ wyszukiwarki semantycznej Questions&Answers – WolframAlpha, która ma ambicje być czymś więcej niż tylko wyszukiwarką, a mianowicie – „analitycznym silnikiem wiedzy” (computational analytical knowledge engine). Facebook wypuścił w wersji beta aplikację, która pozwala zadać pytanie i potencjalnie uzyskać odpowiedź od wszystkich użytkowników serwisu. Ktoś dysponuje bazą takich pytań, na podstawie których można stworzyć doskonały profil osobowościowy pytającego. Jak by tego było za mało, to należy jeszcze wspomnieć o coraz popularniejszym serwisie Voyurl, który pozwala na upublicznienie każdego kliknięcia w Internecie. Wszyscy użytkownicy mogą poznać historię czyjegoś clicstreamu, dzięki czemu wszyscy mogą potencjalnie dowiedzieć, kto w co klika i dzielić się adresami swoich ulubionych stron. Słowem: każdy może udostępnić innym swoją geografię sieci. To także potężny materiał do analizy, a zarazem demokratyzacja dostępu do wiedzy o innych, co może zostać wykorzystane w dobrych i złych celach (phishing, kradzież tożsamości i in.). Im większa pula danych tym większy handel nimi.

Jest oczywistym, że nauki społeczne cierpiące na chroniczny niedobór twardych danych zaczynają dysponować olbrzymią bazą danych ludzkich zachowań i interakcji, a niedługo będą tonąc w infomasie. To sprawia, że zdaniem Buchanana, pojawia się zupełnie inne podejście do nauk społecznych, bardziej partnerskie, także dzięki temu, że jest coraz więcej dobrych badań na podstawie danych uzyskanych ze śladów cyfrowych, które są bardziej obiektywne niż deklaracje badanych. Mając takie dane coraz mniej ufa się badanym, którzy nie są w nawet w stanie nazwać stanów swojej świadomości, albo też mogą konfabulować. W pewnym sensie remedium na te niedostatki jest etnografia, także wirtualna, do badania społeczności wirtualnych podchodzi się jak do „nowych plemion”. Można nie ufać badanym, gdy się ma twarde narzędzia badania zachowań i interakcji – poczynając od starej tele- i audiometrii (badanie publiczności mediów) po biometrię (np. eye tracking, neuroobrazowanie mózgu i in.) a kończąc na analizie sieciowej.

Zdaniem czołowego przedstawiciela nowej nauki sieci, Alberta-Lászlò  Barabási’ego po raz pierwszy naukowcy maja szansę badać, co ludzie robią w czasie rzeczywistym i obiektywnie. To fundamentalnie zmienia wszystkie dziedziny nauki, które badają zachowania ludzi, dzięki czemu można mierzyć się z fundamentalnymi problemami badawczymi, wobec których poprzednie generacje badaczy były bezradne. Barábasi ma nadzieje odkryć ścisłe, matematyczne prawa opisujące ludzkie zachowania, które można użyć do prognozowania ludzkiego behawioru (Barabási, 2010). Marks pretendował do odkrycia takich praw na gruncie historii (materializm historyczny), ale to mogły być tylko spekulacje i interpretacje, Barábasi chce te prawa odkrywać na gruncie obiektywnych danych. Socjolodzy „polowali” na te prawa przez całe dekady, ale dalekosiężne implikacje ich teorii były faktycznie niemożliwe do zweryfikowania; technologie pomiaru po prostu nie istniały. Teraz się to zmienia. Milionów ludzi nie da się umieścić w laboratorium, ale ślady przez pozostawione, w tym ślady świadomości, można już badać laboratoryjnie.

Duet badaczy z Uniwersytety Princeton i Yahoo Research Center:  Matthew J Salganik, Duncan J. Watts (2009, 439-468) podjęli taką pracę przekonani, że wraz z gigantycznym wzrostem siły komputerów i niemal nieograniczoną kohortą uczestników dostępnych przez Internet, można przeprowadzać laboratoryjne badania na milionach uczestników. Na specjalnie do tych badań skonstruowanym Laboratorium Muzyki ustalili, kiedy następuje punkt zwrotny (wprowadzony do obiegu przez Malcolma Gladwella Tipping Point), od którego zaczyna emergencja. Music Lab to specjalnie założony na potrzeby badania serwis internetowy, z którego zalogowani mogli ściągać legalnie piosenki, skomponowane przez mało znane zespoły, spośród 48 dostępnych, a jednocześnie obserwować się nawzajem, kto jakie piosenki ściąga i jak wysoko je ranguje. Okazało się, że na początku kierowano się własnym osądem, ściągano te, które się podobały, w którymś momencie ujawnił się wpływ grupy, konformizm, kopiowano te, których ściągano najwięcej. Można było precyzyjnie uchwycić ów tipping point.

Podobne badanie przeprowadzili Reed-Tsochas i Jukka-Pekka (2009), tym razem na Facebooku, który umożliwia użytkownikom uczestniczenie w jego rozwoju przez tworzenie własnych aplikacji, software’u (zabawy, quizy i in.), w celu personalizacji własnego profilu. Również i w tym przypadku badanie pozwoliło na precyzyjne ustalenie, kiedy użytkownicy podejmują decyzje indywidualne, a kiedy ulegają wpływowi grupy i imitują zachowania większości.

Nasuwa się tu pewien komentarz do obu tych badań: analityka jest przydatna przy natłoku danych, a ich masa będzie przyrastać jak rafa koralowa, ale o wiele szybciej, takie są bowiem prawa redundancji. Jeśli wybieramy jedno z trzech dóbr, czy usług, to wybór jest racjonalny, nasze zachowania w małej grupie też, jeśli zaś tych dóbr jest 48 (piosenek, czy filmów), a nie jest to szokująco wielka liczba, to mamy problem, dlatego zdajemy się na wpływ grupy. Kiedyś doradzali nam eksperci, ale ich zalew danych także przerasta, o czym świadczą choćby turbulencje na rynkach finansowych, z którymi sobie nie radzą.

Sitaram Asur i Bernardo Huberman z Laboratoriów korporacji Hewlett-Packard (2010) twierdzą, że media społeczne, jeśli są odpowiednio badane, mogą wiele powiedzieć o kolektywnej świadomości, na bazie której można precyzyjnie przewidywać przyszłe wyniki działań społecznych w różnych dziedzinach – przesunięcia w sympatiach politycznych, co się przekłada na prognozowanie wyników wyborów, bardziej precyzyjne niż tradycyjne badanie ilościowe, czy też szybkie dokładne rozeznanie w opiniach na przełomowe wydarzenia. Serwis mikrologów Twitter jeszcze raczkował, ale już miał niemały wpływ na wynik wyborów prezydenckich w USA w 2008 r. . Analiza opinii w mediach społecznych jak Twitter, czy Facebook ma potencjał predyktywny, w masie interakcji na tych platformach kiełkują nowe trendy, których odczytanie pozwala przewidzieć np. powodzenie filmu, co się przekłada na zyski z danego przedsięwzięcia. To jest realna i rosnąca siła mediów społecznych.

Jeszcze bardziej precyzyjne rozeznanie w trendach informujących o popularności danego przedsięwzięcia – pozostańmy przy przykładzie filmu – może dać maszyna wirtualna, rodzaj wieloagentowej gry kreującej sztuczne rynki, zwane predyktywnymi albo prognostycznymi, powstającymi na wzór giełdy papierów wartościowych. Najbardziej znany jest Hollywood Stock Exchange (hsx.com), na którym handluje się za wirtualne pieniądze wirtualnymi rekwizytami, albo udziałami w tych rekwizytach (mogą to być udziały w reżyserach czy  aktorach-celebrytach grających w danym filmie), odnoszących się do konkretnych filmów już wyprodukowanych, albo dopiero w produkcji. Dzięki agregacji danych dotyczących wartości tych udziałów bardzo szybko wiadomo, który film osiągnie sukces kasowy. W ten sposób trafnie przewidziano, że 32 filmy zostaną nominowane do Oskara (na 39) a 7 z 8 – do głównych nagród. Te predykcje są bardziej trafne, niż te dokonane przez ekspertów. James Surowiecki w książce „Mądrośc tłumu” (2005) powiada, że skuteczność tych prognoz to efekt kolektywnej mądrości tłumu. Mam w tej kwestii inne zdanie: prognozy są trafione nie dlatego, że tłum jest mądry (smart mob, Howard Rheingold), a dlatego, że większość ma takie, a nie inne upodobania, które składają się na tipping point.

Analityka kulturowa

Wyłania się obraz Internetu jako wielkiego rezerwuarem cyfrowej pamięci codzienności, społecznego software. Parafrazując Fernanda Braudela, można tę codzienność nazwać „kulturą krótkiego trwania”, w której niemal wszystko jest upubliczniane. Jest to kultura natychmiastowości stale jest zasilana przez „współdzielenie śladów” (Krzysztofek, 2009, 9-36).  Oznacza to istotną zmianę społeczną.

W Internecie dzieje się to, co się zawsze działo w sieciach międzyludzkich, ale dzieje się też wiele nowego dzięki technologiom, których wcześniej nie było. Nie jest to tylko kwestia nowych narzędzi, ale także nowe podejście do takich kwestii jak prywatność i intymność. Ta codzienność to upublicznianie niemal wszystkiego: miłości, macierzyństwa, ciała (ile ciało, wymaga codziennie czynności – w odróżnieniu od intelektu – które do niedawna należały do sfery intymnej, a teraz są upubliczniane w Internecie), podróży, zakupów (one jak nigdy wcześniej wypełniają czas wolny), zabawy, humoru, emocji, porad religii, mitów, opowieści, podań, legend, kulinariów, wiedzy lokalnej, języka, stylów życia, sztuki ludowej, tańca, relacji międzyludzkich, sposobów ekspresji i kodów znaczeń, historii itp. Wcześniej codzienność należała do sfery prywatnej, w sieciach została wystawiona na widok publiczny.

Rejestrowanie ruchów ludzkiego mrowiska

Nie chodzi tylko o analizę opinii, social software, ale także masy bardziej osobistych szczegółów, np. badanie śladów połączeń komórkowych, aby ustalić,  jakie są wzorce przemieszczania się ludzi w ciągu dnia, tygodni, miesięcy, pieszo, własnym samochodem, publicznym transportem. To są ważne dane z punktu widzenia koncentracji usług w skupiskach ludzi, optymalizacji transportu i in. Ruch w sieci, poza opiniami, pozostawia czytelny ślad cyfrowy, który informuje o naszych zachowaniach, o tym, co lubimy i czego nie lubimy, kim są nasi przyjaciele, czy partnerzy komunikacyjni, jaki jest nasz nastrój, słowem: mówi światu mnóstwo o nas. Każdy nosi w kieszeni czy w torebce urządzenie „śledcze”, które automatycznie rejestruje jego ruchy w różnych przestrzeniach naszej prywatności: relacji z innymi ludźmi,  miejsca, w którym przebywamy i in. . Coraz więcej danych dostarcza popularny Foursquare, mobilny serwis geolokalizacyjny, który upublicznia umiejscowienie telefonu a także wiele innych danych: adresy, charakterystyki miejsc, w których się przebywa: pub, restauracja, hotel, nawet kolejka do czegoś i po coś.

Internet staje się jednym wielkim rezerwuarem cyfrowej pamięci codzienności. „planetarnym griotą”. Parafrazując Fernanda Braudela Można tę codzienność nazwać „kulturą krótkiego trwania”, w której niemal wszystko jest upubliczniane. To wymykająca się spod kontroli nasza cyfrowa, wysokosemiotyczna i palimpsestowa osobowość jako projekcja nas samych, ciągle wzbogacana danymi o najdrobniejszych szczegółach z naszego życia. Rośnie gotowość na opowiadanie o sobie i swoim życiu. Derrik de Kerckhove (2009, 81-90) powiada, że w 2030 roku będzie więcej informacji o nas, niż sami posiadamy, dzięki m. in. takim technologiom jak aplikacja SenseCam, które pozwalają na geotagowanie wspomnień, rejestrowanie codzienności, czy wręcz archiwizowanie przeżywanego przez siebie czasu w skali 1:1. Może to być dobroczynne dla ludzi pragnących odzyskać wspomnienia, które z różnych powodów (np. choroby) utracili

Asur i Huberman (cyt. wyd.) śledzili ruchy 50 000 netterów przez 3 miesiące i doszli do ustalenia, że mimo licznych różnic personalnych w codziennej rutynie, nasze ruchy podlegają matematycznym prawidłowościom – jesteśmy bardziej przewidywalni, niż myślimy. Podobnie jak ruch mrówek czy pszczół wydaje się chaotyczny, a tymczasem ma on swe reguły i wzorce; tak samo jest z ludzkimi ulami i mrowiskami. Pod tym względem jesteśmy raczej podobni do pszczół niż mrówek (te drugie są bardziej pracowite, bo nie tracą energii na bzykanie). Na podstawie zarejestrowanych zachowań rutynowych da się prześledzić w 90%, gdzie kto będzie w najbliższej przyszłości. Chodzi nie tylko o tych realizujących na co dzień wzorzec dom – praca – dom, ale także tych którzy mają bardziej zróżnicowane marszruty. Pod tym względem do ludzi w dużym stopniu odnosi się matematyczny wzorzec stabilnych rozkładów Levy’ego (Levy Flight) określający iteracje zwierząt – albatrosów, jeleni, słoni i in., a konstruowany na podstawie studiów nad zachowaniami ludzkimi i zwierzęcymi indywidualnie i w grupie (nie ma zachowań stricte indywidualnych, są one zawsze związane z interakcjami z innymi osobnikami).

Jeśli maszyny analityczne będą coraz wydajne to całkiem realny jawić się będzie taki oto scenariusz, że business intelligence przekształci się w social intelligence, a wtedy społeczeństwo sieciowe wpisane zostanie na powrót w kontekst monitorowanej i samomonitorującej sie grupy społecznej, która będzie uzyskiwać kontrolę nad naszymi działaniami i w której będzie widzialna wolność, mniej zaś widzialna kontrola cyrkulacji i wiedzy jak w grupie pierwotnej (Fitzpatrick, 2002; Zarycki, 2006, 334-335). Słusznie przestrzega Benkler (2008, 29), że jednostka, której życie i relacje są w całości reglamentowane przez siły zewnętrzne nie jest wolna, niezależnie, czy źródło reglamentacji jest sieciowe (e-banicja), rynkowe, polityczne(autorytarne), czy wynikające z tradycyjnych wartości wspólnoty. Ale to już trochę inny problem, którym zajmują się dynamicznie się rozwijające surveillance studies, przestrzegające przed państwem nadzoru. Jak powiada Buchanan naukowcy społeczni staną niedługo przed dylematem moralnym, tak jak stanęli przed nim fizycy rozszczepiając atom, czy  biolodzy dokonują eksperymentów genetycznych.

Pokusa maksymalizacji danych staje się przemożna, aby uciec przed deficytem kontroli. W małych grupach kontrola była możliwa dzięki codziennym stycznościom członków grupy. Za ich pośrednictwem można było wymuszać odpowiednie, przewidywalne zachowania oraz ustalać, kto jest wytwórcą, a kto gapowiczem. W wielkich skupiskach miejskich słabła kontrola za pośrednictwem instytucji (rodzina, kościoły), nieskuteczna była a kontrola społeczna sprawowana przez społeczność lokalną, słabła kontrolna funkcja habitusu. Wobec kryzysu instytucji jedyną szansą zarządzalności i sterowności staje się monitoring przez technologie.

Może te obawy są przedwczesne. Może to, co Barabasi nazywa matematycznymi, a więc nienegocjowalnymi prawami, to tylko pewien wzorzec, który nie ma mocy uniwersalnego prawa, pozwala na rezultaty w przybliżeniu (weryfikuje się w ok. 90%). Jeśli prawa ludzkie i społeczne byłyby niezmienne jak prawa fizyki, jeśli człowiek byłby zewnątrzsterowny, jednowymiarowy, sterowany przez jeden algorytm, jeśli każdy byłby typowym egzemplarzem gatunku, funkcją itp., to wtedy  byłoby możliwe odkrywanie takich praw. A i nauki społeczne byłyby wtedy naukami ścisłymi, opisywałyby zbiorowości ludzi tak jak fizyka opisuje atomy. Zdaniem Giddensa, tak się nie stanie, nauki społeczne nie są opóźnione względem ścisłych i przyrodniczych, a po prostu inne. W naukach przyrodniczych, przynajmniej w niektórych ich dziedzinach – stwierdza – jest wiele przykładów twierdzeń, które zdają się spełniać warunek uniwersalności. W naukach społecznych – łącznie z ekonomią i socjologią – nie ma żadnego twierdzenia dotyczącego zachowań ludzkich, które spełniałoby ten warunek. Nauki społeczne nie są bynajmniej „opóźnione” w porównaniu z naukami przyrodniczymi. Przekonanie, że w wyniku przyszłych badań prawa takie zostaną ostatecznie wykryte, wydaje się co najmniej nieuzasadnione.

IV. Nadmiar danych i informacji: slogan czy prawda?

Takim tytułem opatrzyłem dawno temu, bo w latach 70. w tygodniku „Polityka” artykuł o wzbierającej fali „infomasy”. W swojej naiwności sądziłem, że osiągnęliśmy szczyt w tej dziedzinie, a czułem się upoważniony do takiego przekonania będąc świadkiem zwielokrotnienia kanałów informacyjnych, m.in. w związku z prywatyzacją mediów elektronicznych w Europie zachodniej, a także wykorzystywaniem na coraz szerszą skalę satelitów komunikacyjnych do bezpośrednich emisji i transmisji. Transmisja lądowania statku Apollo na księżycu była widomym znakiem globalizowania się informacji i komunikacji. Marshall McLuhan ogłosił wtedy świat globalną wioską.

W ciągu tych 30-40 lat eksplozja technik komunikacyjnych musiała spowodować niebywałe zagęszczenie przepływów informacyjnych, ich intensyfikację na skalę każdego społeczeństwa oraz w wymiarze globalnym. Szacuje się, że na skutek postępu technicznego w ostatnim stuleciu prędkość przesyłania danych wzrosła ponad 100 milionów razy. Oto dlaczego słuszny jest pogląd, że człowiek współczesny żyje w świecie informacji totalnej, która zmienia jego środowisko fizyczne, ekonomiczne i kulturowe. To wyjaśnia powody, dla których nastąpiła inwazja pojęcia „informacja” do języka nauk społecznych.

To także sprawia, że środowisko społeczne, biznesowe jest znacznie bardziej nieprzewidywalne niż kilkanaście lat temu. Ale czy to wszystko oznacza, że tym razem mamy naprawdę do czynienia z nadmiarem, czy zalewem informacji? Teraz nie jestem już tak naiwny, aby kusić się o podobne sądy. Na poziomie wiedzy potocznej sądzi się, że osiągnęliśmy już stan całkowitego nasycenia, czy nawet przesycenia danymi i informacją. Ba, takie opinie głoszą także znawcy problemu przybierając swe twierdzenia w teoretyczny sztafaż, nazywając ten nadmiar stanem informacyjnej metastazy. Termin ten zapożyczony z wokabularza medycyny, ściślej: onkologii, oznacza w tym przypadku niekontrolowane mnożenie się ognisk generowania informacji, podobne do emergencji stanów kancerogennych. Zdaniem Edwina Bendyka stan nazywany nadmiarem danych zawsze towarzyszył człowiekowi, ponieważ jego aparat percepcyjny zawsze był za mało wydolny, aby wchłonąć olbrzymie ilości impulsów płynących z otoczenia.

Współcześnie obok olbrzymiej ilości impulsów płynących ze zmiennego otoczenia przyrodniczego (coraz bardziej złożonego, m. in. na skutek czynników antropogenicznych  klimat, globalne ocieplenie i in.) bezmiar impulsów otrzymujemy z „dżungli” społecznej i technologicznej, dzięki niesamowitemu zwielokrotnieniu źródeł i kanałów informacyjnych. Mówi się wręcz o przemediatyzowaniu wcześniej bogatego w tradycyjne, nietechniczne środki komunikowania społeczeństwa. Tę hipotezę należałoby zweryfikować empirycznie, ale wcześniej trzeba byłoby wypracować jakieś overmediatization indicators.

Redundancja infomasy

Nie ulega wątpliwości, że mamy do czynienia z rosnącą skalą produkcji danych w biznesie i nie tylko. Business Intelligence to cała rodzina aplikacji, które mają zapewniać kontrolę nad procesami biznesowymi, ale które wypluwają masę danych: Enterprise Resource Planning (ERP), CRM (Customer Relation Management), CEM (Customer Experience Management), PLM (Product Lifecycle Management), CIM (Customer Involvement Management), SCM (Supply Chain Management), BCM/BCMS (Business Process Management Systems) nastawione na kontrolę procesu pod kątem skuteczności i przewidywalności, oraz dziesiątki innych.

Mają one porządkować i organizować olbrzymie „hałdy” danych i informacji produkowanej przez procesy redundancji informacyjnej, czyli nadmiaru danych w stosunku do tego, co konieczne; to permanentny backing upilość danych przekraczająca minimum wymagane do funkcjonowania danego systemu. Często celowe zwiększenie redundancji jest uzasadnione w celu ułatwienia odtworzenia danych czy informacji po częściowej utracie czy uszkodzeniu, co ma istotne znaczenie dla bezpieczeństwa funkcjonowania systemów. W dzisiejszych czasach nadmiarowość, zarówno pożądana jak i niepożądana, jest cechą każdego systemu informacyjnego przesyłającego jakieś dane cyfrowe

System informacyjny, którym jest każdy system kultury, tworzy zapasowe dane zapewniające odporność przekazu na straty i uszkodzenia. Istnieje prosta korelacja pozytywna między taniością danych a poziomem redundancji: im więcej tanich danych informacji tym więcej redundancji. Systemy autopoietyczne, samoregulatywne, np. język, zawierają mnóstwo nadmiarowych danych. Bez tych zasobów redundantnych nie byłoby inteligencji. Gdyby ich nie było w naszych głowach, nie moglibyśmy odczytać i zrozumieć częściowo zniszczonych napisów czy niewyraźną mowę. Dodatkowo nadmiarowość bywa stosowana do podkreślenia znaczenia. W epoce mediów naturalnych, biologicznych kiedy do przekazu potrzebna była cielesna obecność wszystkich uczestników interakcji, możliwości reprodukcji były ograniczone (trzeba było dokładnie zapamiętać, aby móc powtórzyć).

Multiplikowianie obiegów w kulturze pełni ważną funkcję – można dzięki nim dotrzeć do maksymalnej liczby uczestników. Redundancja ma wtedy zwiększyć szanse dotarcia przekazu. Dlatego, reklama jest redundantna, przekaz nieredundantny niesie bowiem ryzyko, że nie dotrze; Sytuacja nadmiaru danych powstaje m.in. na skutek migracji treści między platformami informacyjnymi, co opisał w swojej książce „Kultura konwergencji” Henry Jenkins (2006). Minęły czasy, kiedy mieliśmy do czynienia z informacją typu pull, której trzeba poszukiwać, „ściągać” z trudno nieraz dostępnych źródeł. Dziś jest to informacja push tłoczona w nas przez wielodostępne kanały. Redundancja cyfrowa jeszcze bardziej przyspiesza multiplikację informacji, dzięki takim cechom informacji jak podatność na przetwarzanie, łatwa i tania replikowalność oraz transmisyjność, a także  potencjalna niezniszczalność.

Każda informacja jest czyjaś

Informacja to destylat danych potrzebny do podejmowania decyzji. Z perspektywy cybernetycznej człowiek jest systemem informacyjnym, który kreuje, emituje, dystrybuuje, odbiera i przetwarza dane. Dokonuje się w nim stale biologiczny (genetyczny, hormonalny, neuronalny) transfer informacji. Pozagenetyczny transfer dokonuje się w sferze kultury symbolicznej, który został zintensyfikowany przez techniczne narzędzia.

Żaden żywy organizm nie jest odizolowany od dopływu informacji. Nawet jeśli wyobrazimy sobie kogoś umieszczonego pod dźwięko- zapacho-  i światłoszczelnym kloszem, to i tak odbiera on sygnały z organizmu (łomot serca, głośny oddech). Podobne eksperymenty czyniono: przebywanie dłuższy czas pod takim kloszem grozi degradacją psychiczną. Problemem naszych czasów jest jednak nie odcięcie od informacji, bo to były sztuczne, co bycie nią bombardowanym, co obecnie jest stanem naturalnym, choć wytworzonym przez człowieka.

Operuję pojęciem informacji rozumianej najprościej jako ustrukturyzowane strumienie  danych, które rejestrowane przez nasze zmysły, są następnie przetworzone intelektualnie. To jest definicja niewystarczająca, ale trudno o w pełni satysfakcjonującą. Tyle jest definicji informacji, ile jest dyscyplin (inaczej definiuje informację statystyk, inżynier, psycholog, neurolog, dendrolog, socjolog itp.) Wspólne dla pojęcia  „informacja” są takie elementy jak: niewartościująca treść komunikatu, zmiana otoczenia postrzegana przez podmiot (najprostsze rozstrzygnięcie miedzy „postrzegam – nie postrzegam”), wszystko co oddziaływa na nasze zmysły i co wpływa na orientację podmiotu wobec otoczenia, przywołanie świadomości do czegoś, czego wcześniej ona nie rejestrowała. Karl Popper rozumiał informację, jako „przywołanie do świadomości”, czyli przekształcenie „nieuświadamianego w uświadamiane”. To jest jednak mało precyzyjne, poza świadomością dokonuje się bowiem olbrzymia ilość przepływów danych i ich przetwarzania.

W tym sensie każda informacja jest czyjaś, ponieważ jest rejestrowana przez aparat zmysłowy konkretnego podmiotu, który postrzega, wybiera, organizuje, nadaje znaczenie, przepuszcza przez własny filtr instynktu, emocji, rozumu, doświadczenia, wartościowania, intuicji, zdrowego rozsądku, własnej wiedzy, stereotypów, mądrości itp. W ten sposób informacja nabiera kształtu (staje się in forma), jest „odlewana” przez subiektywne ludzkie zainteresowania mające swe źródło w poznawczych i umysłowych procesach odbiorcy, często niepostrzeżenie przetwarzana i włączana w różne sektory pamięci o różnym stopniu dostępności i trwałości. Informacja to zatem dostrzeżone i zinterpretowane dane o faktach i bytach, których postrzeżenie i przetworzenie może  ugruntować lub podważyć dotychczasową wiedzę, skłonić nas do jej rewizji.

Czy informacja zmniejsza niepewność?

Interesuje mnie  aspekt rozumienia informacji jako czegoś, co zmniejsza naszą niepewność, a tym samym dostarcza kontekstu do podjęcia decyzji adekwatnej do naszej aktualnej sytuacji. Na poziomie potocznego myślenia wydaje się to proste: im więcej informacji tym mniej niepewności. Pewne procesy, które się dzieją na naszych oczach pokazują, że sprawa jest jednak bardziej skomplikowana. Im większa bowiem złożoność rzeczy, tym więcej informacji pochłania jej zrozumienie, a sama złożoność rodzi emergentne fenomeny, których nie da się przewidzieć, czy choćby tylko zrozumieć na poziomie dotychczasowej wiedzy i znanego języka opisu. Coś mogą na ten temat powiedzieć eksperci od finansów, gdy ich zapytać, skąd się wziął obecny kryzys.

W codzienności kiełkują i rodzą się nowe trendy, które ujawniają się w społecznym tworzeniu zawartości poza korporacjami i rynkiem (Web 2.0). Oto dlaczego wielu badaczy chce ją poznać. Ale to też gratka dla biznesu, bo w sieci akumuluje się olbrzymie bogactwo, z którego już się czerpie, a będzie się czerpać jeszcze bardziej, bo to są „złoża” kultury, w której rodzą się nowe trendy, mody, upodobania i wartkie strumienie symboli, przetwarzanych przez media i przemysły kultury, banki, firmy telekomunikacyjne i in. (Krzysztofek, 2010, 94-112)

Żyjemy i działamy w akceleratorze. Im szybciej przepływają dane przez komputery, tym szybciej powinny być analizowane, a wyniki tej analizy docierać do naszej świadomości. Powoduje to przyrost i przerost informacji i nowej wiedzy. Działa tu mechanizm kumulacji, pozytywne sprzężenie zwrotne: im więcej wiedzy, tym więcej nowej informacji, ergo tym większy jej dalszy wzrost. Rośnie przestrzeń dostępnych możliwości gromadzenia danych – informacji – wiedzy.

Jest więc olbrzymia pokusa, aby maksymalizować pozyskiwanie danych co stwarza szanse śledzenia trendów i domyślania się przyszłości, a tym samym zmniejszania niepewności. Ale gdzieś natykamy się na punkt krytyczny krzywej dzwonowej, kiedy maksymalizacja danych nie zwiększa tej niepewności, a może ja nawet zmniejszać, zamulać wiedzę. Konstatujemy, że działa prawo Theodore’a Sturgeona: 90% wszystkiego to shit. Jak zrzucić z siebie te 90% i dotrzeć do reszty? Rośnie koszt dotarcia do tych 10% „lepszych procent”. Potrzeba coraz lepszych „silników czyszczących” infomasę – „rudę informacyjną”. im więcej danych tym większa potrzeba filtrów.

Internet nie zapomina

Rośnie ilość automatycznie generowanych danych, w tym śmieci (spam). Grzęźniemy w wysypisku danych, odpadach informacyjnych, z którymi nie wiadomo co robić. Akumuluje się niepotrzebne dane w hurtowniach w nadziei na recykling, że się kiedyś przydadzą, że dzięki nowej wiedzy można je na nowo zinterpretować, bo za każdym razem – znając nowe konteksty – coś innego z nich wynika. Ale rezultat jest taki, że jesteśmy coraz bardziej zaśmieceni jako jednostki, organizacje, państwo i społeczeństwo w końcu. W którymś momencie bowiem mamy do czynienia już nie z nadmiarem, którzy jeszcze jakoś da się mierzyć, a z bezmiarem, którego mierzyć już nie sposób. Wtedy włącza się negatywne sprzężenie zwrotne jak w termostacie: przekroczenie możliwości percepcji i analizy, ucieczka od nadmiaru: im więcej danych, tym mniejsza korzyść z ich analizowania.

Silny jest trend do przechowywania wszystkiego i coraz głębszego wyszukiwania informacji. Mózg w toku ewolucji nauczył się zapominać to, co nie jest istotne dla przetrwania. Sztuczne systemy informacyjne tego nie potrafią. Cały wysiłek twórców takich systemów szedł na „pamiętanie”, a nie selektywne „zapominanie”, bo do tego potrzeba refleksyjności, a to z kolei wymaga zmysłu krytycznego, inteligencji.

Mamy więc do czynienia ze swoistym paradoksem, czy może tylko sprzecznością: z jednej strony uwiecznianie pamięci zapisanej cyfrowo, z drugiej zaś jej pustynnienie w ludziach: pandemię Alzheimera w reprokulturze (kulturze reprodukowanej). Pamięć się skraca, spłyca, czy wręcz niszczy, absolutyzuje się wieczną obecność, zakopuje głęboko korzenie kultury. Z powodu natłoku codziennych wrażeń i doznań „wczoraj” dla pokolenia sieciowego jest tym, czym dla poprzedniego pokolenia było przed tygodniem, czy przed miesiącem, a dla jeszcze wcześniejszych – przed rokiem. Tę kulturę 24h. society amerykański socjolog, S. Bertman nazywa hiperkulturą – władzą „teraz” (power of now). Długofalowość, stacjonarność, trwanie, pamięć, wgląd w szerszy kontekst, ustępują miejsca szybkiej cyrkulacji, symplifikacji tekstu, kiczowi, tandecie, niedbałości, krótkotrwałości, natychmiastowości, sensacji, impulsom, transparencji, nomadyczności, skróceniu momentu napięcia uwagi (coraz krótsze przekazy – pojedynczy obraz rzadko trwa na wizji dłużej niż kilka sekund). Pewne elementy wypadają, kultura eksploduje teraźniejszością (Bertman, 1998).

Z drugiej strony narasta zjawisko, które spędza sen z oczu milionom netterów, a mianowicie to, że „Internet nie zapomina […] jest niemal egzystencjalnym zagrożeniem dla naszej możliwości zaczynania od nowa, przezwyciężania błędów przeszłości […] Bóg wymazuje grzechy tym, którzy je odpokutowali, cybersfera rzadko czyści nasze konta, a jej nadzorcy są surowsi od Wszechmocnego” (Rosen, 2010, 18-19). To z jednej strony ułatwia „mapowanie ludzkiego mrowiska, wskutek rejestrowania jego ruchów, ale z drugiej strony uniemożliwia zacieranie śladów.

Victor-Mayer Schoenberger w książce „Wymazać. Cnota zapominania w epoce cyfrowej” (2009) trafnie zauważa, że społeczeństwa tradycyjne zapominają przewiny swoich członków (np. instytucja zatarcia skazania), co pozwala funkcjonować grupie. Hiperspołeczeństwo, które wszystko rejestruje, wiąże nas trwale ze wszystkim, co dotąd zrobiliśmy (Rosen, loc. it.). Zdaniem Gordona Bella i Jima Gemmella (2009): „Totalne przypominanie: jak rewolucja e-pamięci zmienia wszystko” wkroczyliśmy w epokę, w której skazani jesteśmy na stałe przebywanie w chmurze danych o nas samych, co zmienia kondycję ludzką.

Klucz do powściągnięcia żywiołów redundancji leży w semantyce. Prace trwają od wielu lat, ale ciągle z miernym skutkiem, ponieważ mamy do czynienia z próbami powtórzenia cudu ewolucji, jakim jest inteligencja. Inwestuje się w wyszukiwarki semantyczne, ale jest to nadal w powijakach. Od 25 lat firma internetowa Cycorp (www.cyc.com) w benedyktyńskim trudzie napełnia bazę milionami faktów, zdań orzekających z zakresu potocznej wiedzy, które dla ludzi są oczywiste, ale nie dla komputera, czy robota (niezaprogramowany odpowiednio „nie wie”, że jeśli się coś wypuści z ręki, to upadnie a ziemię). Na końcu tej żmudnej drogi jest stworzenie systemów wyposażonych w reguły implikacji i inferencji, które będą rozumieć konteksty. Brak rozumienia kontekstu jest bodaj głównym sprawcą multiplikacji informacji (wypluwanie zbędnych informacji przez wyszukiwarki). Oczywiście odczytywanie kontekstów wymaga załadowania w systemy olbrzymiej wiedzy potocznej. Zabraknie jeszcze, bagatela, emocji. Zaprogramowanie maszyn emocjami to na razie science fiction, ale coraz większy postęp osiąga się w cyfrowej analityce badania emocji, doznań, przeżytego doświadczenia.

Czy przyjdzie pozbyć się kolejnej iluzji? Kiedy skonstruowano komputer wydawało się, że informacja będąca zawsze wartością, która pozwala działać sprawnie i celowo a dzięki temu optymalizować decyzje, przestanie być uwięziona w „pamięci skoroszytowej” trudnej do zoperacjonalizowania i efektywnego wykorzystania jako zasób. Komputer wyręczał mózg człowieka dzięki swym potencjom procesorycznym, kalkulacyjnym, pamięciowym, co stwarzało szanse uwolnienia  potencjału intelektualnego i możliwości kontroli nad zalewem informacji.

Okazuje się, że ten zalew się potęguje, każdy kto dysponuje hipermedium podłączonym do sieci – czy szerzej technologiami sieciowymi, może produkować i replikować gigabajty informacji. W epoce przedcyfrowej miało to ograniczony zasięg, jednostki oczywiście produkowały informacje, ale one w większości nie były rejestrowane, ulatywały w eter, Noosferę, by użyć terminu wprowadzonego do obiegu przez Pierre Teilhada du Chardin,

Wiara w moc komputerów wyzwoliła pokusę koncentracji danych i centralizacji systemów informacyjnych na wzór encyklopedii. Może się to okazać iluzją, jak wiara radzieckich planistów z lat 50. w to, że potężny superkomputer nazywany wtedy mózgiem elektronowym pozwoli na pełną rejestrację i kontrolę wszystkich transakcji między jednostkami gospodarki uspołecznionej oraz doskonałe zaplanowanie zaopatrzenia ludności we wszystkie kategorie dóbr wedle doskonale rozpoznanych i zinwentaryzowanych oraz „stale rosnących potrzeb zaspokajanych na bazie stale rosnącego potencjału produkcyjnego”. Ta socjalistyczna Business Intelligence oczywiście nie mogła zadziałać. Tak jak centralna szatnia teatralna, którą dla optymalizacji obsługi bywalców moskiewskich teatrów widzów miano ponoć uruchomić w stolicy Kraju Rad w latach 30.

System scentralizowany prowadzi do alienacji człowieka ze świata informacji, tak jak kiedyś w przypadku taśmy fabrycznej. Może się przemienić w hydrę, której nikt nie jest w stanie uciąć łba. Bardziej racjonalny wydaje się zdecentralizowany model systemu informacyjnego – model biblioteki. Grzebanie w wysypisku danych stale powiększanym przez procesy redundancji pochłania mnóstwo czasu i energii. Biblioteka jest też morzem informacji, ale przez wieki nauczyliśmy się po nim nawigować, docierać szybko do celu, dzięki precyzyjnym systemom wyszukiwawczym. Wielki system stwarza sytuację bezkresu, jak ocean, ciągle nie mamy bowiem inteligentnego systemu nawigacji po morzu danych. Taki model pozwala tworzyć małe systemy ad hoc, na potrzeby konkretnej decyzji, a także własne, spersonalizowane systemy informacyjne (np. spersonalizowana mapa miasta).

Wszystko, co żyje, działa w oparciu o informację. Ludzie i zwierzęta gromadzą informację zmysłową, ale tylko człowiek przekształca ją w wiedzę abstrakcyjną. Konsumujemy dane i informacje na potęgę. Z tym naszym kultem informacji przyszłe pokolenia nazwą nasze informavores (infożercami). Tak jak w świecie zwierząt obowiązuje ekonomia żerowania: łapie się to, co najłatwiej złapać, a nie to, co najbardziej wartościowe: chodzi o to, aby mieć pewność, że wydatek energetyczny zostanie zrekompensowany zdobyciem większej ilości energii.

Nie nawrzucać śmieci

Dążymy najprostszą drogą do informacji, szukamy prostych i łatwych ścieżek. Wykorzystuje to np. reklama przyzwyczajając do określonych produktów, konstruuje się strony www w taki sposób, aby pozyskiwaniu z nich informacji towarzyszyła ekonomia wysiłku. Instynktownie ulegamy nawykom unikając zmian. Mózg jest leniwy, broni się przed wyczerpaniem zanim się zmęczy. Mózg to w ogóle cudowny wynalazek, nie chce być zbyt otwarty, po pierwsze, żeby nie wypadł, a po wtóre, żeby mu nie nawrzucano śmieci. Po części z powodu tego lenistwa mózgu, a po części z konieczności konstruuje się maszyny i wymyśla programy, które maja zwielokrotnić zdolności procesoryczne, kalkulacyjne i pamięciowe mózgu, a coraz częściej także inferencyjno-implikacyjne pomagające w podejmowaniu decyzji. Konstruowanie takich maszyn analitycznych stało się nieuchronne w sytuacji, gdy wolumen danych i informacji cyfrowych już dawno przerósł analogowy. Tu już chodzi nie tylko o automatyzmy ruchowe, ale także umysłowe, algorytmizację myślenia (Krzysztofek, 2006, 89-102).

Informacja jest nową walutą ekonomii. Każdy chciałby mieć u siebie mennicę i potencjalnie każdy może „bić” tę walutę. Maleje rola autorytetów. W przeszłości brały się one stąd, że miały więcej wiedzy i informacji niż inni (w relacjach urzędnik-petent, nauczyciel-uczeń, nadawca-odbiorca) i dzięki temu utrzymywać hierarchię jako atrybut władzy. Dziś każdy może czerpać informację ze źródeł, do których wszyscy mogą mieć dostęp. Ale to jest trochę tak jak z wodą: nie zawsze na świecie ma się dostęp do wody, ale jest z pewnością łatwiej o zwykłą niż „ciężką wodę”, która kosztuje krocie.

W społeczeństwie demokratycznym z otwartym dostępem do informacji, wspartym nadto nowymi technologiami rozsiewczymi niepomiernie wzrasta wolumen informacji. Skraca się czas podwajania danych i  informacji, które mamy do dyspozycji. Sprawność działania zależy od dostępu do informacji, tymczasem coraz większa złożoność świata wymaga coraz większej ilości informacji.

Pragnienie dostępu jest dziś przemożne: nikt nie lubi gatekeeperów. Do niedawna tracili na znaczeniu także pośrednicy, w tym lokalni liderzy opinii jako źródło informacji i wiedzy, bo nie mają już monopolistycznego dostępu do źródła. Swoją drogą ciekawe byłoby zbadać, jak zwykły e-mail zmniejszył znaczenie ogniw pośrednich, których zadaniem było przekazywanie informacji z góry w dół. Widzę to po sobie jako wykładowca akademicki – ogniwo horyzontalnej komunikacji ze studentami, która ma charakter peer-to-peer. I kiedy porównuję to do pozycji studenta względem już choćby asystenta, nie mówiąc o adiunkcie, w szacownej uczelni przed 20 czy 30 laty, to konstatuję, że w tym układzie relacji nie było tu żadnej sieci, a czysta hierarchia.

Sieciowość, brak hierarchii spłaszcza struktury, ale nie znaczy to, że każdy sam radzi sobie z informacją. Jeśli się nie ma własnego przyjaznego systemu informacyjnego skonstruowanego na własne potrzeby, to trzeba się posiłkować nową generacją infoagentów, specjalistów od obróbki informacji, uszlachetniania „rudy danych”. Nawet jeśli się dysponuje własnym silnikiem analitycznym to i tak potrzebni są tacy specjaliści, których można by nazwać „stroicielami” czy „kiperami” informacji. Oni już nie tyle filtrują informacje, co integrują systemy i użytkowników, pomagają w nawigacji, integrują, analizują, kontekstualizują i autentyfikują informacje, pomagają w ich przekształcaniu w zasoby wiedzy. Nie każdy sobie sam poradzi z usługami software’owymi, cloud computingiem, deszczem danych. Przeciążenie informacyjne narzuca potrzebę pomocy. Tak jak nie każdy potrafi skręcić części zestawu meblowego IKEA. Co z tego, że ma za darmo wolne oprogramowanie, jeśli nie potrafi z tego zrobić użytecznego pakietu.

Scentralizowane systemy mają to do siebie, że pęcznieją i zdarza się, że stają się systemami dążącymi do rządzenia się własnymi prawami. Theodore Roszak mówił dawno temu, że z takiej mentalności rodzi się kult danych: od data scarcity (rzadkie, trudno dostępne dane) do data glut (zalew danych). Ten zalew, po ekspercku eksploatowany, bywa strategią kontroli, dzięki niemu rządy i biznes zaciemniają problemy, roztaczają mistykę naukowej, bezstronnej analizy.

Przykładem supersystemu informacyjnego jest baza danych prowadzona przez firmę Axiom Corp. z Conway, Arkansas, która gromadzi dane o klientach obejmujące 95% gospodarstw domowych. Pozostałe 5% to gospodarstwa bez dostępu do Internetu, bo go po prostu nie chcą mieć (nie mają go tez bezdomni, ale oni z definicji nie żyją w gospodarstwach domowych). Przed nietrasparentnością takich systemów przestrzegał Jurgen Habermas twierdząc, że o ile na początku dostęp do informacji był pożądanym atrybutem społeczeństwa demokratycznego i ochrony przed totalitaryzmem, o tyle dziś nadmiar bitów dławi społeczeństwo. Prawo do informacji ustępuje miejsca prawu do ochrony przed jej zalewem, nachalnością w bombardowaniu nimi. Umberto Eco wyrażał przekonanie, że obfitość danych może je zniszczyć. Między dysponowaniem milionami megabajtów informacji na jakiś temat a niedysponowaniem nimi nie ma wielkiej różnicy.

Twórcy systemów informacyjnych w epoce sieci stykają się z innymi problemami niż ci z epoki przedsieciowej. Poprzednio wyższe były koszty pozyskania (zwłaszcza wyszukiwania) informacji, dziś koszty powielania są bliskie zeru, natomiast więcej kosztuje przekształcenie ich w wartościową wiedzę, „inteligencję dodatkową”. Wcześniej płaciło się za dostęp do medium/kanału, obecnie za zawartość. W przypadku medium/kanału zawartość była rzadziej aktualizowana, obecnie dzieje się to na bieżąco. Organizowanie i strukturyzowanie informacji dokonywało się zgodnie z logiką danego medium, dziś jest elastyczne, każdy system może mieć zmienną geometrię, w zależności od potrzeb. I najważniejsze: automatyzacja wyszukiwania i analizowania była ograniczona ze względu na brak czy niedoskonałość maszyn analitycznych. Dziś takich maszyn jest bez liku.

V. Living Earth Simulator – Globalny Wikileaks?

Ludzie są nie tylko podmiotem, ale także przedmiotem badań, potrzeba o nich coraz więcej danych, informacji i wiedzy, ponieważ są konsumentami i wytwórcami, a na nich wspiera się konstrukcja gospodarki. Derrick de Kerckhowe chyba nie mija się z prawdą, gdy twierdzi, że o użytkownikach technologii cyfrowych, zwłaszcza tych intensywnych, wiadomo więcej niż sami wiedzą o sobie. Gromadzi się dane o ludziach, aby ktoś mógł je analizować, po czym wnioski z tych badań są wdrażane do praktyki społecznej, aby była ona bardziej efektywna i znowu poddaje się badaniu te nową praktykę, aby wiedzieć na ile została usprawniona. I tak bez końca. Anthony Giddens nazywa to podwójną hermeneutyką. Finalnie chodzi o to, aby na podstawie danych o ludziach tworzyć bardziej sprawne struktury, odpowiednio zalgorytmizowane, przewidywalne, słowem – maszyny społeczne. Algorytmy, procedury badawcze stają się quasinaturalnym środowiskiem człowieka i jesteśmy coraz bardziej od nich uzależnieni nie mając już nawet świadomości, że jesteśmy nimi krępowani.

I tak już pozostanie. Dobrą intuicją wykazał się francuski filozof kultury, Jean Baudrillard, który twierdzi, że nasza rzeczywistość, środowisko życia zapośredniczone przez media, technologie, staje się coraz bardziej obsceniczna Jest obsceniczna dlatego, że technologie czynią ją bardziej widzialną niż rzeczywistość fizyczną, wydzierają tajemnice ludziom, przyrodzie, światu. Nic się już przed nimi nie ukryje, ani priony, bakterie, czy kopulujące mszyce. Nakładka cyfrowa na ludzi, przyrodę, kosmos, dno oceanów, ujawnia potencjalnie wszystkie sekrety. Jest to coś w rodzaju uniwersalnego, przekraczającego wszystkie epoki WikiLeaks. Czy Wikileaks nie jest zgodny z duchem epoki?

Wydzieramy te tajemnice przyrodzie, ale także nam samym, ujawniamy nasze zachowania, mobilność przestrzenną, ale także opinie, stany świadomości, pragnienia, obrzydzenie itp., nie tylko o czym myślimy, ale także co myślimy. Najbardziej opresyjni dyktatorzy nie wiedzieli tyle o swych poddanych. To jest rejestrowanie zmian i reagowanie na nie, ale coraz doskonalsze i bardziej wydajne innowacje wywołują kolejne zmiany, destabilizują instytucje społeczne: jedne niszczą inne, transformują i kreują nowe. To oznacza, że wcale ryzyko nie będzie minimalizowane, co więcej – będzie rosnąć, potęgować się zmienność życia i codziennie będziemy się czuć nowicjuszami. Jak zmierzyć, zważyć, obliczyć świat, który zaczyna się „e”?. Jest na to szansa, bowiem, jak prognozuje Arun Netravali, szef drugiej obok Media Lab w MIT największej wylęgarni innowacji, pokolenie dziś przychodzące na świat rozpocznie dorosłe życie w rzeczywistości, w której, inteligentne sieci otoczą planetę niczym żywa skóra. Czujniki rozmieszczone wszędzie będą przekazywać wszelkie informacje wprost do sieci – samomonitorującego się globalnego organizmu, jak nerwy transmitujące informacje do mózgu (Bomba, Krzysztofek 2011b). Ile jest w tym wszystkim wizjonerstwa, sztuki fantasy, a ile prognozy opartej na realnych przesłankach ektrapolacji lege artis? Otóż nie jest to czysta fantazja, realnych przesłanek jest niemało.

Oto badacze ze Szwajcarskiego Federalnego Instytutu Technologicznego budują sieć superkomputerów do symulacji procesów i zjawisk dziejących się na Ziemi. Inspiruje ich Wielki Zderzacz Hadronów funkcjonujący w laboratoriach CERN-a, który bada zachowania cząstek elementarnych. Nawiązując do metafory ze znanej książki Houellebecqa ludzie to też cząstki elementarne, które się zderzają i pozostawiają ślady. Metaforą zderzacza posłużył się wspomniany Jacob Helbing, inicjator założonego na dekadę projektu FuturICT”, którego obecna faza nosi nazwę ‘Living Earth Simulator”. Jest to pomysł na to, co kilkanaście lat temu prognozował wspomniany Netravali: „system nerwowy ziemi”. Wszystkie dane o tym, co robimy będą po przetworzeniu mapą ludzkich działań. Cel jest prosty: mieć większą wiedzę na temat tego, w którą stronę zmierza współczesny świat oraz co można zrobić, aby stymulować pożądane zmiany. Chodzi o odrobienie lekcji z niedawnej przeszłości: nie dać się zaskoczyć, przewidzieć trend, zwłaszcza taki, który grozi kryzysem. Czyli chodzi o system wczesnego ostrzegania, ale także ujawniania pozytywnych trendów, celem wzmocnienia szans. Inicjatorów projektu ożywia wiara w to, że „Symulator żywej Ziemi” pozwoli poradzić sobie z pęczniejącą masą danych o społeczeństwach, aby socjologia, ekonomia, epidemiologia, i in. miały taki sam komfort jak fizyka i inne nauki ścisłe. Zagregowanie danych o ludziach w połączeniu z geofizyczną fotografią planety pozwoli na nową jakość – symulowanie ludzkich społeczeństw wraz ich fizycznym środowiskiem.

Idea Projektu ma się wyrażać w „zderzaniu” danych, informacji i wiedzy z różnych dziedzin. Już dziś w szeroko zakrojonych badaniach socjologicznych, np., Diagnoza Społeczna przeprowadzana w Polsce co dwa lata badaniach udostępnia dane o ponad 50 tyś Polaków – ponad 2000 cech każdego badanego, na tej podstawie można analizować wszystko – wartości, wykształcenie, poglądy polityczne dochody itp. (Biecek, 2011, 59-61) Wyzyskanie tych danych w różnych przekrojach i konfiguracjach pozwala na ustalenie różnych prawidłowości i dzięki temu wykreowanie olbrzymiej wiedzy o społeczeństwie. To wymaga olbrzymiej mocy komputerów, szybko więc rozwija się statystyka obliczeniowa.  Trwa wyścig między lawinowo rosnącą masą danych a mocą obliczeniową komputerów do ich analizy. Ostatnio pękła granica 10 petaflopsów. Japoński komputer o nazwie K skonstruowany przez Fujitsu składa się z 705 024 rdzeni obliczeniowych, dysponuje szczytową mocą obliczeniową 11,28 petaflopsa. Jeśli Living Earth Simulator ma przynieść efekty to oprócz odpowiedniego oprogramowania do przetwarzania masy danych musi dysponować odpowiednią mocą superkomputerów. Mówi się o skali Google, czyli setkach tysięcy serwerów.

Projekt „Żywa ziemia” to swoista „nakładka cyfrowa na świat”, zespół superkomputerów załadowanych bazami danych o ziemskim klimacie, populacji, gospodarce i przetwarzających te dane zgodnie z regułami fizyki konfliktów, symulacji ekonomicznych czy meteorologicznych. Przypomina to wiarę radzieckich planistów z lat 50. w to, że potężny komputer nazywany wtedy mózgiem elektronowym pozwoli na pełną rejestrację i kontrolę wszystkich transakcji między jednostkami gospodarki uspołecznionej oraz doskonałe zaplanowanie zaopatrzenia ludności we wszystkie kategorie dóbr wedle doskonale rozpoznanych i zinwentaryzowanych potrzeb.

To się okazało iluzją, ale może tym razem się uda?

Literatura

Asur, Sitaram; Huberman, Bernardo. 2010,  Predicting the Future with Social Media. http://arxiv.org/PS_cache/arxiv/pdf/1003/1003.5699v1.pdf, 29.03

Batelle, John. (2006) Szukaj. Jak Google i konkurencja wywołali rewolucje biznesową i kulturową. Warszawa: WN PWN

Barabási,  Albert-Lászlò. (2010) Bursts. The Hidden Pattern Behind Everything We Do, New York: Penguin Group

Bell, Gordon; Gemmell. Jim. 2009. Total Recall. How the E-Memory Revolution Will Change Everything. New York: Penguin Group

Banaszkiewicz, Karina. (2011) Audiowizualność i mimetyki przestrzeni. Warszawa: Oficyna Naukowa

Bendyk, Edwin (2011) Rewolucja cyfrowa. Bomba masowego tworzenia.„Polityka. Niezbędnik inteligenta Plus”. s. 76-79

Bendyk, Edwin (2011) Humanistyka 2.0, „Polityka. Niezbędnik inteligenta”, Wydanie specjalne nr 8

Biecek, Przemysław. (2011) Bez wariancji nie da się żyć. Wywiad Karola Jałochowskiego, „Polityka” nr 46

Bomba,  Radosław, (2011) Socjologia cyfrowa. Nowy paradygmat w naukach społecznych w gospodarce informacyjnej, „Wiedza i Edukacja” 26.04. 2011 http://wiedzaiedukacja.eu/archives/51318

Brin, David. (1999) The Transparent Society. Will technology Force Us to Choose Between Privacy and Freedom?. New York: Basic Books

Benkler, Yochai. (2006) The Wealth of Networks: How Social Production Transforms Markets and Freedom.Yale: Yale University Press

Bertman, Steven. (1998) Hyperculture. The Human Cost of Speed. Westport: Praeger Publishers

Buchanan, Mark. (2010). Social Networks. The Great Tipping Point Test, “Social Scientist”, Issue 2770, 26 of July

Christakis, Nicholas A.; Flower, James H. (2011). W sieci. Jak sieci społeczne kształtują nasze życie. Sopot: SAW Smak Słowa

Davenport, Thomas H.; Harris, Jeanne G. (2007 ) Competing on Analytics. The New Science of Winning, Cambridge: Harvard Business School Press

Fitzpatrick, Tony. (2002) Critical Theory. Information Society and Surveillance Technologies. “Information, Communication and Society”. Volume 5, Number 3, 1 September 2002 , s. 357-378 (22)

Foucault, Michel. (1993) Nadzorować i karać. Narodziny więzienia. Warszawa: Wyd. Aletheia

Jenkins, Henry. (2006) Kultura konwergencji. Zderzenie starych i nowych mediów, Warszawa: WaiP

de Kerckhove, Derrick (2009) Przyszłość 2030, w: A. Maj, M. Derda-Nowakowski, Kody McLuhana. Topografia nowych mediów, Katowice: Wydawnictwo Naukowe ExMachina

De Kerkove, Derrick. (1998), Powłoka kultury. Warszawa: Zysk i S-ka

Krzysztofek, Kazimierz. (2011a) W stronę maszyn społecznych. Jaka będzie socjologia, której nie znamy?, „Studia Socjologiczne”, nr 2 (201)

Krzysztofek, „Będziemy żyć pod cyfrowym niebem…” Rozmowa z R. Bombą „Kultura i Historia” nr 19/2011b.
http://www.kulturaihistoria.umcs.lublin.pl/ archives/2400

Krzysztofek, Kazimierz. (2010) Kreatywna ekonomia w sieciach. w: Gwóźdź, Andrzej (red.) Od przemysłów kultury do kreatywnej gospodarki. Warszawa: wyd. NCK

Krzysztof