Damian Gałuszka: Unifikacja człowieka z maszyną – omówienie rozwoju wybranych interfejsów użytkownika

 

 

Human-machine unification – overview of the development of selected user interfaces

Streszczenie: Interfejs użytkownika to łącznik pomiędzy rzeczywistością fizyczną a wirtualną, który określa formę komunikacji pomiędzy użytkownikiem a nie-ludzkim aktorem, na przykład komputerem czy smartfonem. Co ważne, jak przekonuje cytowany dalej Lev Manovich, nie mamy tutaj do czynienia ze złączem, które cechuje całkowita „przeźroczystość”. Interfejsy posiadają swoistą strukturę, co ma wpływ na sposób interakcji i charakter przekazywanych treści. Wymienione cechy, w połączeniu z popularyzacją omawianego fenomenu w ramach otaczającej nas cywilizacji technologii cyfrowych, zmotywowały mnie do omówienia najważniejszych typów interfejsów użytkownika, takich jak interfejs tekstowy (TUI), graficzny (GUI), powiększalny (ZUI), webowy (WUI) oraz haptyczny. W moim tekście staram się ukazać proces rozwoju technologii, której – jak uważam – finalnym etapem będzie całkowita naturalizacja interfejsów i ich symbioza z biologicznym oprzyrządowaniem człowieka, co już dziś częściowo obserwujemy w takich technologiach jak rzeczywistość rozszerzona (VR) czy interfejsy mózg-komputer (BCI).

Streszczenie po angielsku: The user interface is a connector between the physical and virtual reality, which determines the form of communication among the user and the non-human actor, such as a computer or a smartphone. Importantly, as further mentioned Lev Manovich argues, we are not dealing here with the connector, which is characterized by the total „transparency”. Interfaces have a specific structure, which has an impact on the way we interact and the nature of the messages conveyed. These characteristics, coupled with the popularization of this phenomenon in the context of the surrounding us digital civilization, motivated me to discuss the most important types of user interfaces, such as: text-based (TUI), graphical (GUI) zoomable (ZUI), web (WUI) and haptic interfaces. In my text I am trying to show the process of the development of technology, which – as I believe – will result with the complete naturalization of interfaces and their symbiosis with the biological instrumentation of man, which today can be partly observed in technologies such as virtual reality (VR) and brain-computer interfaces (BCI).

Słowa kluczowe po polsku: interfejs użytkownika, komunikacja, technologie, cyfrowe media, rzeczywistość wirtualna

Słowa kluczowe po angielsku: user interface, communication, technology, digital media, virtual reality

Powszechnie dostępne technologie sprawiają, że ludzkie zmysły ulegają przedłużeniu, co w konsekwencji poszerza nasze możliwości poznawcze i pogłębia doznania sensoryczne, także w procesie swoistego „odczuwania” wirtualnej rzeczywistości. Współczesny człowiek – internauta, użytkownik sprzętów mobilnych czy gracz – jest otoczony przez różnego rodzaju urządzenia cyfrowe, dzięki którym partycypuje w cyberkulturze. Rola technologii w dziejach cywilizacji jest tak istotna, że Kazimierz Krzysztofek pisze, nawiązując do teorii Marshalla McLuhana, o historii ludzkości, która jest „historią przedłużeń i interfejsów” (2009, 13). Celem niniejszego omówienia jest przybliżenie Czytelnikowi ewolucji, jaką przeszły najbardziej popularne interfejsy użytkownika (ang. user interfaces), przy czym skupiam się na tych ich rodzajach, które w największym stopniu kształtują technologiczną codzienność przeciętnego użytkownika urządzeń cyfrowych, za którego uważam mieszkańca krajów zachodniego kręgu kulturowego. Stosuję tu frekwencyjne, czy też ilościowe, kryterium doboru. Wynika ono z zachodzących przemian o charakterze makrospołecznym. Chodzi mi tu głównie o popularyzację takich urządzeń cyfrowych jak komputery, smartfony i tablety, a także konsole do gier, które stanowią sprzętową podstawę dla omawianych przeze mnie interfejsów. Dane statystyczne potwierdzają opisywaną zmianę. Według serwisu Internet World Stats niemal 50% ludzi na świecie korzysta z internetu, co stanowi wzrost o 933,8% dla lat 2000-2017 (2017). Co więcej, rok 2017 jest momentem, w którym udział urządzeń mobilnych w globalnym ruchu internetowym przekroczył wartość 50%, przy czym w roku 2009 tego typu sprzęty odpowiadały za zaledwie 0,7% tego ruchu (Kemp, 2017, 76). Ma to swoje odzwierciedlenie w poziomie sprzedaży smartfonów. Dziesięc lat temu ich sprzedaż do końcowych użytkowników wyniosiła nieco ponad 122 milony sztuk rocznie, a w 2016 było to już prawie 1,5 miliarda egzemplarzy (Statista, 2017). Jednocześnie liczne raporty wskazują na systematyczny wzrost liczby graczy. Przykładowo w raporcie „ISFE Consumer Study” z 2012 roku sprawdzono stopień korzystania z gier wideo w 16 europeiskich państwach. Odsetek grająch wahał się od 40% w Portugalii do 62% w Szwecji, przy czym 25% badanych ze wszystkich państw zadeklarowała sięganie po gry wideo przynajmniej raz w tygodniu (ISFE, 2012, 6). Bardziej szczegółowo zagadnienie wzrastającej społecznej i kulturowej dosniosłości gier wideo opisuje między innymi groznawca Marcin Petrowicz (2016, 160-164).

W przedstawianym dalej omówieniu, staram się pozytywnie zweryfikować główną hipotezę badawczą, zgodnie z którą efektem ewolucji interfesjów, będzie daleko posunięta ich integracja z biologicznym oprzyrządowaniem człowieka, swoista „naturalizacja” relacji pomiędzy aktorami ludzkimi i nie-ludzkimi, czyli maszynami.

Czym jest interfejs?

Jak podaje Piotr Sitarski, jest to określenie wywodzące się z fizyki, gdzie oznacza powierzchnię rozdzielająca dwie fazy materii (2002, 453). Termin ten został włączony w słownik terminologii informatycznej i oznacza urządzenie lub program, umożliwiający przekazywanie informacji pomiędzy odmiennymi aplikacjami i urządzeniami lub pomiędzy komputerem i człowiekiem (tamże). Interfejs, za Piotrem Kubińskim, można ujmować też jako „sprzęgnięty ze sobą zespół urządzeń oraz oprogramowania, których połączenie służy użytkownikowi do wzajemnego komunikowania się z maszyną – co jest procesem koniecznym do sprawnego korzystania z (często skomplikowanych) możliwości oferowanych przez to urządzenie” (2016, 161-162). Inny badacz nowych mediów, w tym interfejsów cyfrowych, Piotr Celiński, pisze: „cyfrowe interfejsy są technologiami postmedialnymi czy też metamedialnymi – łączą w sobie i transkodują wiele dotychczas istniejących formatów medialnych” (2011). Cytat ten odnosi się do poglądu Celińskiego, który opisuje istotną zmianę rozumienia pojęcia medium, jaka zaszła w efekcie pojawienia cyfrowych form medialnych. Autor słusznie zauważa, że technologie cyfrowe (inaczej niż analogowe) realizowane są na podstawie jednolitej i standaryzowanej podstawy sprzętowej (poziom hardware), ale zarazem są odrębne i zróżnicowane na poziomie warstwy komunikacyjnej (poziom software czy też oprogramowania) (tamże). Schematy techniczne smartfonu, tabletu czy komputera klasy PC bazują na podobnej strukturze: są to układy składające się z procesora centralnego, procesorów graficznych, pamięci operacyjnej i trwałej, działające w zmatematyzowany i zaprogramowany sposób. W przypadku przeciętnego użytkownika telefonu czy komputera, urządzenie to może stanowić swoistą czarną skrzynkę, gdyż zazwyczaj nie mamy wiedzy o sposobie realizacji określonych instrukcji przez układy cyfrowe, liczy się natomiast efekt końcowy. Na przykład skopiowanie pliku, przesłanie wiadomości email, uruchomienie aplikacji czy konkretnej funkcji programu. Realizacja wymienionych działań – i wielu innych – warunkowana i kształtowana jest przez interfejs użytkownika (ang. User interface, UI). UI to programowa (softwarowa) nadbudowa podstawy sprzętowej, regulująca działanie maszyny i składająca się z interfejsów wyjścia i wejścia (Celiński, 2011). Interfejsy wyjścia odpowiadają za formę prezentowanych danych, natomiast wejścia determinują zakres i charakter możliwych do podjęcia przez użytkownika działań (Bomba, 2014, 82). Ta krótka charakterystyka jednoznacznie wskazuje na kluczową rolę interfejsu użytkownika w procesie komunikacji z urządzeniami cyfrowymi. Warto w tym miejscu nawiązać do Lva Manovicha, który twierdzi, że „interfejs nie jest przezroczystym oknem, przez które obserwujemy dane komputerowe” (2006, 142). Badacz przyrównuje kategorię interfejsu do kodu semiotycznego, poprzez który komunikowane są nam różne treści (np. tekst, muzyka, obraz) (tamże, 141). Jak zauważa Manovich, ten mechanizm komunikacyjny nie jest jednak neutralny i może wpływać – poprzez swoją logikę i strukturę – na przekazywaną treść, a nawet sposób jej postrzegania przez użytkowników (tamże). Co więcej, projektowany przez UX designerów (czyli osoby tworzące interfejsy użytkownika) i wdrażany przez programistów interfejs użytkownika staje się dziś niezwykle istotnym elementem każdej aplikacji użytkowej. Potwierdzeniem tego faktu są liczne wydarzenia – takie jak konferencje, warsztaty, komercyjne i akademickie kursy – w których ramach podejmowana jest tematyka projektowania i wdrażania UI. Wgląd w obecną sytuację poszerza zdanie części ekspertów twierdzących, że w aktualnych realiach rynkowych jakość wykonania i ergonomia interfejsów użytkownika stały się warunkiem koniecznym dla efektywnej działalności w świecie nowoczesnych technologii (Królewski, 2013, 95). Dlaczego tak jest? Ponieważ „interfejs dzieła stwarza jego unikalną materializację i unikalne przeżycie estetyczne użytkownika” (Manovich, 2006, 144). Współcześnie to właśnie wrażenia (w terminologii branżowej określane mianem user experience), jakich doświadcza użytkownik podczas kontaktu z konkretnym interfejsem, mogą być podstawą popularyzacji, a w konsekwencji sukcesu komercyjnego danej technologii czy oprogramowania.

Jednym z pozytywnych przykładów przedstawionej obserwacji jest szybka popularyzacja urządzeń mobilnych, wyposażonych w ekrany dotykowe, ze sztandarowym przykładem w postaci sprzętów firmy Apple. W roku 2007 Apple przedstawiło urządzenia z ekranami dotykowymi – odtwarzacz muzyki iPod Touch i smartfon iPhone. Jednak nie sam ekran dotykowy, a jego połączenie z odpowiednim oprogramowaniem (między innymi interfejsem typu ZUI – ang. Zooming User Interface – o którym napiszę szerzej w dalszej części tekstu), złożyło się na produkty, które zrewolucjonizowały rynek urządzeń telekomunikacyjnych i znalazły setki milionów odbiorców na całym świecie (sam tylko iPhone sprzedał się w liczbie 500 milionów sztuk w ciągu 7 lat) (Rogowsky, 2014). Warto też przytoczyć przykład negatywny, jakim z pewnością jest komercyjna porażka systemu operacyjnego Microsoft Windows 8 (i jego uaktualnionej wersji z numerem 8.1), który został wydany w 2012 roku. Te wersje systemu osiągnęły około 9-procentowy udział na rynku systemów operacyjnych, przy czym starszy Windows 7 wciąż utrzymuje 48,5% udziałów, a Windows XP, którego premiera miała miejsce w odległym już w 2001 roku, około 7% (Netmarketshare, 2017). Windows 8 miał być odpowiedzią firmy Microsoft na rosnącą popularność urządzeń dotykowych, dlatego też twórcy postanowili przemodelować interfejs użytkownika i przystosować go do sprzętów tego rodzaju (Gontarczyk, 2015). Funkcjonująca od 1995 roku i dobrze znana struktura graficznego interfejsu użytkownika systemów z rodziny Windows (z charakterystycznym Menu Start), została poddana „kafelkowej rewolucji” i przekształcona w nowy interfejs o nazwie Metro, później nazwę zmieniono na Modern UI (tamże). Usunięto tradycyjne Menu Start, a w jego miejsce pojawiły się tak zwane kafelki. Cała koncepcja komunikacji z systemem została podporządkowana urządzeniom wyposażonym w ekrany dotykowe (tamże) – co zdaniem części użytkowników nie pozwala na swobodną i intuicyjną kontrolę przy pomocy komputerów wyposażonych w klawiaturę i myszkę. W efekcie część z nich nie zdecydowała się na przejście do nowszej wersji Windowsa, a sam system raczej nie spełnił pokładanych w nim nadziei biznesowych. Dopiero premiera najnowszej odsłony Windowsa z numerem 10 – w której przywrócono klasyczne Menu Start w nieco zmodernizowanej wersji – odniosła zdecydowanie większy sukces. Windows 10 jest obecnie drugim najpopularniejszym systemem z udziałami na poziomie 26% (Netmarketshare, 2017), a łączna liczba jego instalacji na różnych urządzeniach przekroczyła 500 mln (Lech, 2017). To wszystko zostało osiągnięte w niespełna 2 lata od rynkowej premiery, co dobitnie pokazuje, jak słabo przyjęty został Windows 8/8.1.

Najważniejsze typy interfejsów

Przechodząc do sedna moich rozważań, chcę przedstawić najważniejsze typy interfejsów, jakie pojawiły się w kolejnych etapach ich rozwoju, dlatego ten podrozdział można potraktować jako uproszczony szkic historii rozwoju prezentowanego fenomenu. Oczywiście proponowana lista nie może być uznana za wyczerpującą, a dobór omawianych interfejsów wynika, jak już to wcześniej opisałem, z przyjęcia perspektywy typowego użytkownika urządzeń cyfrowych, mieszkańca kraju z kręgu wysoce stechnicyzowanej cywilizacji zachodniej, w której rzeczywistość przyjmuje postać hybrydową, czyli opartą na nieustannym ścieraniu się tego, co fizyczne i wirtualne, analogowe i cyfrowe (por. Zacher, 2012, 133).

W literaturze przedmiotu odnaleźć można zróżnicowane propozycje typologii czy ujęć kategorii interfejsu. Przykładowo Lev Manovich omawia interfejsy kulturowe (2006, 147-170), pokazując w jaki sposób medium druku i perspektywa kina (kamery), stały się powszechnie obowiązującym sposobem dostępu do różnego rodzaju treści w ramach interfejsów HCI (ang. human-computer interface, interfejsy człowiek-komputer, czyli całość narzędzi, przy pomocy których ludzie komunikują się z maszynami, w tym komputerami) (Tan, 2017). Z kolei Piotr Celiński wyróżnia cztery formy interfejsowe (2010, 82): mechaniczny (charakterystyczny dla pierwszych komputerów z lat 50. i 60. XX w., wymagający specjalistycznej wiedzy matematycznej i technicznej, a także użycia kart perforowanych) (tamże, 82-85), tekstowy, graficzny i neuronalny. Natomiast Radosław Bomba, badacz gier wideo, w swoich rozważaniach nad tym medium zaproponował następujące rodzaje interfejsów: hipertekstualny, tekstualny, graficzny (a także jego podtypy wykorzystujące: grafikę dwuwymiarową, widok z góry, rzut izometryczny, grafikę trójwymiarową) oraz interfejsy z interakcją kinetyczną i haptyczną (2014, 82-84). Derrick de Kerckhove ujmuje interfejs jako „swoistą bramę do przestrzeni wirtualnej” (2005, 14-17 za: Ostrowicki, 2006, 36), którą dodatkowo można odczuć fizykalnie poprzez specjalne (tj. haptyczne, o których piszę w dalszej części tekstu) interfejsy użytkownika.

Okazuje się, że prezentowane zagadnienie może być omawiane z bardzo różnych perspektyw i innym rozkładem akcentów. Moje rozważania postanowiłem oprzeć na doświadczeniu interfejsów, które jest typowe dla uśrednionego, współczesnego internauty, posiadacza urządzenia mobilnego czy gracza. Punktem wyjścia jest otaczająca nas technologiczna codzienność. Jak wynika z raportu Głównego Urzędu Statystycznego pt. „Społeczeństwo informacyjne w Polsce w 2014 r.”, zdecydowana większość (tj. 74%) gospodarstw domowych w Polsce posiada dostęp do internetu (GUS, 2014), a w okresie od 2011 roku do 2014 roku odsetek ten wzrósł o 5,8 p. procentowych (tamże, 11). Co więcej, badanie ujawniło, że 25,5% respondentów (w wieku od 12 do 74 lat) posiada zaawansowane urządzenie telekomunikacyjne, czyli smartfona (tamże, 19). Z kolei dane z raportu „Game Industry Trends 2013” wskazują, że aż 85% badanych internautów korzysta z gier elektronicznych (NoNoobs, 2013, 4). Nieco niższy – bo 69-procentowy – poziom tego wskaźnika uzyskano w badaniu „Polish Gamers Research 2016” (Żywiczyńska, 2017). Ujawnia się tu coraz większe znaczenie technologii telekomunikacyjnych, w tym mobilnych, w życiu Polaków. Taka obserwacja nie jest niczym niezwykłym wobec procesu cyfryzacji społeczeństw rozwiniętych. Mając na uwadze technologiczne doświadczenia głównie współczesnych użytkowników sprzętów cyfrowych, postanowiłem zrezygnować z omówienia prapoczątków omawianego fenomenu interfejsów użytkownika (co rozumiem przez wspominane wcześniej interfejsy mechaniczne) i skupię się na następujących rodzajach UI:

  • TUI (ang. Text-based User Interface) – tekstowy interfejs użytkownika;
  • GUI (ang. Graphical User Interface) – graficzny interfejs użytkownika;
  • ZUI (ang. Zooming User Interface) – powiększalny interfejs użytkownika;
  • WUI (ang. Web User Interface) – webowy interfejs użytkownika;
  • Interfejsy haptyczne (ang. Haptic Interfaces).

W dalszej części artykułu krótko przedstawiam technologie wirtualnej rzeczywistości (VR, ang. Virtual Reality), rzeczywistości rozszerzonej (AR, ang. Augmented Reality) oraz interfejsy mózg-komputer (BCI, ang. Brain-computer Interface), które traktuję jako istotne z perspektywy dalszego rozwoju omawianego fenomenu, ale obecnie jednak marginalne technologie komunikacyjne, umożliwiające ludziom kontakt z maszynami i partycypację w cyberkulturze.

Tekstowy interfejs użytkownika

Interfejsy tekstowe nie stanowią już głównej formy komunikowania z urządzeniami cyfrowymi. W dobie dominacji interfejsów graficznych czy powiększalnych, kojarzy się je raczej z zastosowaniami profesjonalnymi (np. wśród programistów czy administratorów sieci komputerowych). Jednak z racji ich roli w procesie kształtowania współczesnej cyberkultury, należy przedstawić ich krótkie omówienie. Interfejsy tekstowe stanowiły główną formę komunikacji pomiędzy ludźmi a urządzeniami tekstowymi do mniej więcej połowy lat 60. XX w., kiedy to rozpoczęła się popularyzacja opisywanych dalej interfejsów graficznych.

Cechą charakterystyczną TUI jest brak elementów graficznych w postaci obrazów czy filmów wideo. Całość treści wyświetlana przez interfejs wyjścia (od lat 70. XX wieku był nim ekran kineskopowy i jego kolejne warianty, a wcześniej taśmy i dyski perforowane, panele z przełącznikami i kontrolkami czy później taśmy magnetyczne) (por. Laws, McClure, Riordan, 2017), przekazywana jest w formie symbolicznej. W zależności od wykorzystywanej strony kodowania – czyli zbioru znaków pisarskich przyporządkowanych do pewnego zakresu liczb – użytkownik może uzyskać dostęp do tekstu, ale też semigrafik (czy też pseudografik). Semigrafiki próbują odwzorowywać grafiki w całkowicie tekstowym środowisku TUI i są niczym innym, jak kompozycją odpowiednio dobranych znaków pisarskich, dzięki którym surowe ekrany interfejsów tekstowych nieco zyskiwały w aspekcie wizualnym. W przypadku omawianego typu interfejsu głównym urządzeniem wejściowym jest klawiatura (w niektórych środowiskach także mysz), która umożliwia wprowadzanie odpowiednich komend słownych. Oczywiście taki sposób komunikacji z urządzeniem wymaga od użytkownika znajomości zbioru poleceń danego środowiska i metod ich właściwego wprowadzania. Przykładowo w systemie operacyjnym Microsoft DOS (poprzednik Windowsa, rozwijany w latach 80. i 90. XX wieku, wykorzystywał interfejs tekstowy z późniejszymi nakładkami graficznymi) należy wprowadzić następującą komendę: „copy C:\Tekst1.txt D:\pliki\Tekst.txt”, w celu skopiowania pliku „Tekst1.txt” z dysku C do folderu „pliki” na dysku D urządzenia. Nawet najmniejsza pomyłka w składni tego – i tak prostego – polecenia, doprowadzi do błędu, a operacja nie zostanie wykonana. Trzeba jednak zaznaczyć, że TUI ma swoje mocne strony, na przykład umożliwia szybszą obsługę i daje większą kontrolę nad urządzeniem (Computer Hope, 2017), ale ograniczają się one tylko do zaawansowanych użytkowników. W przypadku osób początkujących interfejs tekstowy może zmniejszać efektywność komunikacji z urządzeniem cyfrowym (Chen, Zhang, 2007, 128).

Omawiając interfejs tekstowy, nie można zapomnieć o jego roli w procesie kształtowania się współczesnej cyberkultury, którą możemy zdefiniować jako „nowy paradygmat kulturowy wyrastający z rozwoju nowych technologii, przede wszystkim cyfrowych, które przeformułowują w definitywny sposób wszelkie aspekty funkcjonowania struktur społecznych w świecie zdominowanym przez technologie komputerowe” (Zawojski, 2008). Jednym z istotniejszych elementów nowych, cyfrowych technologii są właśnie omawiane interfejsy, a TUI może być uznany za technologię fundującą kształt współczesnej cyberkultury. Dlaczego? Ponieważ jak zauważa Piotr Celiński, tekst mocno przeniknął interfejsy nowych mediów, a poza nim „jest już tylko kod zer i jedynek zrozumiały wszakże przede wszystkim dla urządzeń” (2010, 87). Egzemplifikacją tego stanu rzeczy są nie tylko mniej lub bardziej skomplikowane języki programowania (czyli w zasadzie „wytwarzania”) cyfrowej kultury, ale też wszechobecny w przestrzeni internetu hipertekst, czy jakby chciał Espen Aarseth (czołowy badacz cyfrowych tekstualności i gier wideo): cybertekst[1]. Strony internetowe pełne dynamicznych odnośników w postaci hiperłączy, powszechnie wykorzystywana funkcja przewijania (ang. scrolling) materiałów przeglądanych na ekranach naszych urządzeń, wciąż popularna komunikacja tekstowa (czaty internetowe, wszelkiego rodzaju komunikatory, czaty w sieciowych grach wideo), gry typu MUD (ang. Multi-User Dungeon, fabularne gry komputerowe rozgrywane w internecie przy pomocy interfejsu tekstowego) i wiele innych form naszych aktywności, podejmowanych w przestrzeni wirtualnej, wskazują, iż tekst stał się metajęzykiem cyfrowego świata.

Graficzny interfejs użytkownika

Pojawienie się GUI (ang. graphical user interface) – graficznych interfejsów użytkownika – całkowicie zmieniło charakter komunikacji pomiędzy człowiekiem a urządzeniami cyfrowymi. Ten typ interfejsu zaczął dominować nie tylko w środowiskach systemów operacyjnych czy w programach użytkowych, ale także w grach komputerowych (Bomba, 2014, 83). Oszczędne w formie tekstowe interfejsy zostały w dużej mierze zastąpione przez kolorowe obrazy i animowane komunikaty (tworzone przy pomocy grafiki rastrowej), dodatkowo podlegające manipulacji przestrzennej. Wystarczy porównać wspominaną wcześniej metodę kopiowania plików w środowisku MS DOS z popularnym obecnie sposobem, polegającym na przeciąganiu – przy pomocy myszy lub własnego palca – pliku pomiędzy folderami. Zamiast odwołania do kolejnego systemu znaków (komend tekstowych), wystarczy mechanicystyczny i intuicyjny gest, który w przypadku tak zwanych cyfrowych tubylców jest nabywany niekiedy już w toku socjalizacji pierwotnej. Wskazują na to badania nad wykorzystaniem urządzeń mobilnych przez dzieci – część z nich ma swoje pierwsze kontakty ze smartfonami czy tabletami już w pierwszych miesiącach życia (Bąk, 2015, 8-9). Operując w warstwie reprezentacji wizualnej, użytkownik realizuje operacje systemowe i na danych, które wcześniej wymagały kompleksowej wiedzy o komendach i metodach ich wprowadzania. Ma to swoje konsekwencje, gdyż jak pisze Magdalena Szpunar, ikony, obrazki, metaforycznie prezentowane informacje ułatwiają ludziom kontakt z urządzeniami cyfrowymi i „oswajają” niedostępne dla laików środowisko komputerów (2007, 119-120). Początki GUI to już połowa lat 60. XX wieku (Reimer, 2005), a w kolejnych dwóch dekadach ich rozwój nabrał tempa za sprawą Xerox PARC (Palo Alto Research Center) i komercyjnych projektów takich firm jak Apple (komputer osobisty Apple Lisa, system operacyjny Macintosh) czy Microsoft (Windows 1.0 i jego kolejne edycje) (tamże). Wypracowana w latach 80. XX wieku estetyka i logika organizacji interfejsów użytkownika – nazywana metaforą „domowego warsztatu pracy” (Celiński, 2010, 93) czy „biurka z pulpitem, koszem, katalogiem dokumentów” (Manovich, 2006, 171), będąca efektem zapożyczeń oraz remediacji treści i form komunikowania znanych ze świata fizycznego (tamże) – stała się dominującą strategią ich projektowania. Na przestrzeni ostatnich 30 lat doszło do istotnej poprawy jakości obrazu i wyświetlanych elementów graficznych, jednak wypracowany w Xerox PARC wzorzec projektowy WIMP (ang. Windows, Icons, Menus, Pointing device), opierający się na takich elementach jak: okna, ikony, menusy i urządzenie wskazujące (mysz, trackball, a w przypadku ekranów dotykowych rysik czy palec), ciągle odgrywa zasadniczą rolę przy projektowaniu GUI (van Dam, 1997, 63). Wykorzystanie coraz bardziej skomplikowanych elementów graficznych, nie byłoby możliwe bez rozwoju sprzętowej podstawy – procesorów, kart graficznych, pamięci komputerowych, monitorów czy urządzeń wskazujących. Wzrostowi mocy obliczeniowej komputerów, towarzyszyła postępująca ikonizacja mediów cyfrowych, której efektem jest ograniczanie komunikatów tekstowych na rzecz obrazu (Szpunar, 2007, 120-121). Dobrą ilustracją tej dominacji wizualności nad tekstualnością są widżety pulpitu, czyli programy o relatywnie nieskomplikowanym kodzie, które poszerzają funkcjonalność systemu o informacje przekazywane w formie graficznej (np. aktualną prognozę pogody za pomocą animacji deszczu lub bezchmurnego nieba). Opisane przemiany wpisują się w kształt współczesnej kultury, którą Magdalena Szpunar określiła mianem cywilizacji obrazkowej (2007, 123). Za Kazimierzem Krzysztofkiem warto dodać, iż proces wizualizacji kultury wiąże się z rozwojem technologii medialnych: fotografii, kina, telewizji a w ostatnich dekadach także symulacji komputerowych, z przykładem gier wideo na czele (2012, 52). Efektem tych procesów jest postępująca ikonizacja języka (tamże, 54) – zarówno wykorzystywanego w bezpośredniej komunikacji interpersonalnej, jak i zapośredniczonej przez urządzenia cyfrowe. Jednak opisywany proces emancypacji obrazów w ramach kultury druku, nie mógłby się w pełni rozwinąć bez popularyzacji wyświetlających ich ekranów. Począwszy od prostych, monochromatycznych monitorów kineskopowych (CRT), przez dominujące współcześnie ekrany ciekłokrystaliczne (LCD) i dotykowe, a skończywszy na powtórnie adaptowanej – pierwsze, nieudane próby miały miejsce w latach 90. XX w. – technologii gogli VR (ang virtual reality), czyli wyświetlaczy ustawianych w małej odległości od oczu, dających poczucie całkowitego zanurzenia w oglądany obraz (Arthur, 2015) – postępował proces uprzywilejowania ekranów, które – jak przekonuje Derrick de Kerckhove – przeobrażają orientację ludzkich umysłów „na zewnątrz”, zamiast do wewnątrz (2009, 39). De Kerckhove pisze o trzech ekranach, które towarzyszą naszemu życiu i rozwijają naszą wyobraźnię: kolektywnym ekranie telewizji, prywatnym i spersonalizowanym (co jest zasługą przede wszystkim rozwoju GUI) ekranie komputera i konektywnym ekranie telefonu komórkowego, który zapewnia nam wzajemną łączność z innymi „umysłami” (tamże).

Powiększalny i webowy interfejs użytkownika

Partycypacja w kulturze ekranów przez wiele lat wiązała się ze statycznym eksplorowaniem wyświetlanych treści. Użytkownik mógł co najwyżej manipulować elementami interfejsu przy pomocy myszy, touchpada czy wskaźników. Od strony technicznej sprowadzało się to do elektronicznego interpretowania pozycji danego urządzenia wskazującego. Jednak wraz z komercyjnym sukcesem ekranów dotykowych, użytkownicy zyskali możliwość taktylnego kontaktu z treściami cyfrowymi – bez konieczności angażowania innych urządzeń wejściowych. Fizyczną klawiaturę i mysz komputerową coraz częściej zastępują klawiatura ekranowa i ludzkie palce. Obecność fizycznych przycisków bywa redukowana do minimum, czego najlepszym przykładem są smartfony i tablety – większość z nich posiada minimalną ilość przycisków fizycznych. Co więcej, coraz częściej komputery osobiste posiadają funkcjonalność ekranu dotykowego (tak zwane all in one PC), podobnie jak komputery przenośne. Ujawnia się tu proces skracania dystansu pomiędzy akcją człowieka a jej efektem w obszarze cyfrowej rzeczywistości. Kolejne sprzętowe interfejsy porzucane są na rzecz maksymalnie intuicyjnego sposobu komunikowania z urządzeniami. Efektywne wykorzystanie ekranu dotykowego nie jest możliwe bez zastosowania odpowiedniego oprogramowania, a takim jest powiększalny interfejs użytkownika (ZUI). Historia ZUI rozpoczyna się już w latach 60. XX wieku, kiedy to pionier HCI Ivan Sutherland, pokazał swój nowatorski projekt Sketchpad, w którym to pojawiła się możliwość obracania i skalowania rysowanych obiektów (Bederson, Meyer, 1998, 2). To właśnie skalowanie, przesuwanie i możliwość zmiany perspektywy cechują omawiany typ interfejsu. ZUI przełamuje linearność i sekwencyjność interfejsów tekstowych czy narzucony przez projektanta GUI schemat dostępu do treści. Jak przekonują eksperci, „jednym ze sposobów myślenia o ZUI jest taki, że wszystkie potrzebne ci informacje są w nim dostępne, jeżeli tylko spojrzysz wystarczająco blisko” (tamże, 1). Interfejs powiększalny miał być lekarstwem na problemy wcześniej opisanych rozwiązań z zakresu HCI. W jaki sposób? Poprzez wykorzystanie naturalnych zdolności ludzi do manipulowania przestrzenią i skupieniu na szczególne, bez utraty kontekstu całości (tamże). Taka filozofia projektowania interakcji ludzi i maszyn cyfrowych znalazła swoje odzwierciedlenie w systemach operacyjnych, wykorzystujących opisywany wcześniej schemat WIMP. W ich przypadku problemem jest nakładanie się kolejnych okien z danymi. Jest to szczególnie uciążliwe w przypadku mniejszych ekranów. ZUI umożliwia przesuwanie, powiększanie i pomniejszanie widoku kolejnych okien, co powinno ułatwiać pracę w kilku obszarach jednocześnie. Jednak to nie desktopowe systemy operacyjne, a urządzenia mobilne stanowią główny obszar rozwoju analizowanej tutaj technologii. Relatywnie niewielkie, chociaż z roku na rok coraz większe, ekrany smartfonów czy tabletów nie są w stanie wyświetlić wszystkich elementów interfejsu, czy całości przeglądanych treści. Przykładem może być zwykła strona internetowa. Nie wszystkie witryny są przystosowane do wyświetlania na urządzeniach mobilnych, a jedynie te w specjalnej wersji mobilnej lub strony responsywne, których wygląd automatycznie dostosowuje się do rozmiarów ekranu. Jednak dzięki implementacji ZUI, użytkownik może z łatwością nawigować po całej zawartości danego portalu internetowego, a w razie potrzeby powiększać konkretny fragment (akapit tekstu, zdjęcie) i w sposób komfortowy zapoznać się z jego zawartością, bez utraty kontekstu całości (jednym gestem można przywrócić widok całej strony). Nowoczesne ekrany dotykowe obsługują technologię wielopunktowego dotyku (ang. multitouch), dzięki której użytkownik może kontrolować urządzenie poprzez specjalne gesty (zaprojektowane przez twórców danego UI lub zdefiniowane samodzielnie). Istnieje spora dowolność w przypisywaniu konkretnych gestów do funkcji systemu operacyjnego czy aplikacji zainstalowanej na urządzeniu. Wystarczy wspomnieć, że dwa najpopularniejsze mobilne systemy operacyjne, Apple iOS i Google Android, pozwalają na skorzystanie z kilkunastu predefiniowanych gestów dotykowych (przenoszenia, obracania, przybliżania i oddalania czy zaznaczania). Działanie ZUI można sprawdzić na stronie http://zoomism.com/ (wymaga wtyczki Adobe Flash Player), która wykorzystuje ten typ interfejsu i stanowi przykład jego efektywnego wykorzystania.

ZUI to współcześnie niejedyny dynamicznie rozwijający się typ interfejsu. Kolejnym jest webowy interfejs użytkownika (Królewski, 2013, 97). To model organizacji i reprezentacji danych cyfrowych, który coraz częściej towarzyszy nam w przestrzeni internetu. Interfejsy webowe, nazywane też aplikacjami webowymi, to programy, które wykorzystują przeglądarkę internetową w roli klienta (Nations, 2016). Klient to, najogólniej rzecz ujmując, program, przez który użytkownik łączy się z serwerem i zyskuje dostęp do określonej informacji. Trzeba wiedzieć, że w przypadku WUI mamy do czynienia z innym charakterem pośredniczenia. Ten typ interfejsu działa w modelu klient-serwer, co oznacza, że użytkownik nie tyle steruje swoim urządzeniem, ile wchodzi w komunikację z serwerem – innym komputerem czy zespołem komputerów. Rolą serwera jest przetwarzanie i odpowiadanie na zapytania klienta. Program klienta pozwala na dostęp do informacji i determinuje sposób jej reprezentacji, co w żargonie informatycznym określane jest mianem fasady (ang. front-end), natomiast serwer odpowiada za przetwarzanie i przechowywanie niezbędnych danych – co z kolei określa się mianem wnętrza (ang. back-end) (por. Pluralsight, 2015). Twórcy aplikacji webowych korzystają ze specjalnych języków programowania, takich jak HTML, CSS czy JavaScript – tak więc tworzą wizualne interfejsy użytkownika (front-end) przy pomocy narzędzi osadzonych w medium druku (tekstu). Atrakcyjność WUI jest związana z popularnością przeglądarek internetowych, czyli aplikacji, które są naszym „oknem” na świat internetu. Dominacja przeglądarki jako interfejsu pośredniczącego w dostępie do zasobów cyberkultury jest na tyle istotna, że Lev Manovich pisze o oknie przeglądarki internetowej, które zastępuje ekran kinowy i telewizyjny, ścianę w galerii sztuki, bibliotekę czy książkę (2006, 140-141). Rzeczywiście tak jest, ponieważ od momentu, gdy Manovich wyartykułował przytoczony pogląd, WUI znalazło zastosowanie w tak powszechnie wykorzystywanych rozwiązaniach, jak: encyklopedie internetowe (np. mechanizm edycji treści Wikipedii), portale aukcyjne i sklepy internetowe (np. Allegro, księgarnia Merlin), liczne webowe aplikacje mobilne czy nawet w systemie operacyjnym Google Chrome OS, który w warstwie interfejsu nie różni się znacząco od przeglądarki internetowej Google Chrome. Wątkiem, którego tutaj szerzej nie omówię, a który pojawia się w ramach rozważań nad WUI jest kwestia różnic pomiędzy konkurencyjnymi aplikacjami webowymi, hybrydowymi i natywnymi. Zainteresowanych tych tematem odsyłam do cytowanego już tekstu Jarosława Królewskiego (2013). W artykule tym wyjaśniono też współczesne podejście do kwestii projektowania oprogramowania, w tym interfejsów użytkownika. Królewski podkreśla, iż obecnie to użytkownik końcowy – wraz z jego oczekiwaniami, zdolnościami i potrzebami – jest punktem odniesienia dla projektanta interfejsu (filozofia user-centered-design) (tamże, 95-97). W praktyce to skupienie na użytkowniku wiąże się z przygotowywaniem interfejsów intuicyjnych, zapewniających jak najlepsze doświadczenia (ang. user experience), dla których podstawą są rzetelnie przeprowadzone analizy z zakresu ergonomii i funkcjonalności danego interfejsu (ang. usability), a także dobrze przeprowadzony audyt dostępności (ang. accessibility) wykorzystanych rozwiązań.

Interfejsy haptyczne

Ostatni z szerzej analizowanych przeze mnie typów interfejsu użytkownika chciałbym omówić w odniesieniu do kultury gier komputerowych. W tym kontekście warto przytoczyć pogląd badacza gier Radosława Bomby, który zauważa, iż gatunek i rodzaj gry może wpływać na właściwości jej interfejsu (2014, 85). Bomba przywołuje przykład gier wyścigowych, dla których właściwym typem interfejsu jest GUI, a nie kompletnie nieprzystający do charakteru tego typu gry interfejs tekstowy (tamże). Co więcej, w aspekcie rozwiązań sprzętowych, część graczy sięga po specjalnie zaprojektowane urządzenia wejściowe w postaci kierownic (zaawansowane modele posiadają dodatkowo drążek zmiany biegów i pedały), które starają się w sposób możliwie realistyczny odwzorowywać odczucia osoby, sterującej prawdziwym pojazdem. Jednak działanie kontrolerów do gier nie ogranicza się tylko i wyłącznie do imitacji metody sterowania (kierownica, drążek sterowny), ale dzięki technologii haptycznej próbuje się oddziaływać na zmysł dotyku u gracza. Mająca swój komercyjny początek w roku 1996 technologia sprzężenia zwrotnego (ang. force feedback), umożliwiła przeciętnemu graczowi dostęp do doświadczeń, które wcześniej były znane tylko i wyłącznie pilotom, mogącym wykonywać ćwiczenia na zaawansowanych i bardzo drogich symulatorach lotu (Chang, 2002, 85). Wibracja kontrolera w momencie strzału, uderzenia czy kraksy samochodowej dodaje realizmu rozgrywce, a także poszerza zakres wpływu gry wideo na odbiorcę dzięki zaangażowaniu kolejnego zmysłu w przebieg rozgrywki. Mechanizm ten stał się standardem i spotkamy go w każdym kontrolerze dedykowanym współczesnej konsoli do gier. Podobnie sytuacja wygląda na rynku PC oraz urządzeń mobilnych. W smartfonach silniczki wibracyjne pełnią zarówno funkcję ludyczną (w mobilnych grach), jak i informacyjną (urządzenie wibruje, gdy ma nam coś ważnego do zakomunikowania). Taktylny force feedback dość szybko spopularyzował się i stał standardową funkcjonalnością zdecydowanej większości komputerowych kontrolerów do gier (te najtańsze wciąż mogą być pozbawione mechanizmu wibracji). Dla porządku należy wspomnieć o innych sprzętowych interfejsach, które miały w szczególny sposób oddziaływać na zmysły odbiorcy. Przykładem może być wydane w 2001 roku urządzenie o nazwie iSmell. Był to podłączany do komputera rozpylacz zapachów (mieścił ich kilkadziesiąt), który miał umożliwić internautom „wąchanie” cyberprzestrzeni, a także wymianę zapachów (np. poprzez wiadomość email). Ten z pozoru genialny pomysł firmy DigiScents okazał się wielką porażką. iSmell nie cieszył się dużym zainteresowaniem, a po jakimś czasie to innowacyjne urządzenie trafiło na listę 25 najgorszych gadżetów jakie kiedykolwiek powstały, opublikowanej w branżowym magazynie PCWorld (Tynan, 2006).

Krótka prognoza na przyszłość: VR, AR i BCI

Nim przejdę do podsumowania i wniosków, chciałbym nieco poszerzyć przyjętą przeze mnie perspektywę o przewidywania, które w moim odczuciu uwiarygodniają tezę z początku tego artykułu o skracaniu się dystans pomiędzy urządzeniem (medium) a jego odbiorcą (człowiekiem), co wynika z opisanych przekształceń interfejsów użytkownika. Wydaje się, że przedstawiony proces ich rozwoju wskazuje – przynajmniej pośrednio – na sugerowane przeze mnie zjawisko. Pierwotne interfejsy mechaniczne oraz tekstowe wymagają od użytkownika specjalistycznej wiedzy, niezbędnej do podtrzymania komunikacji z urządzeniami czy oprogramowaniem. Przykładem może tu być konieczność opanowania często złożonej i mocno sformalizowanej składni tekstowej, stanowiącej rodzaj systemu znaków. Podobnie jak w przypadku nauki języka obcego, użytkownik interfejsów tekstowych musi włożyć relatywnie dużo wysiłku w ich opanowanie. Natomiast młodsze interfejsy graficzne zastępują schemat translacji języka naturalnego na języki formalne poprzez graficzną metaforę biurka i dobrze oswojonej przestrzeni pracy. Kody tekstowe ulegają marginalizacji na rzecz intuicyjnie rozumianych kodów symbolicznych. Tę „naturalizację” komunikacji z urządzeniami cyfrowymi pogłębia popularyzacja interfejsów powiększalnych i haptycznych – ludzie nie tylko zaczynają partycypować w cyberprzestrzeni w doskonale im znany, manualny sposób, ale mogą też taktylnie odczuwać komunikaty zwrotne. Pozwalają na to chociażby powszechne już systemy wibracji (w kontrolerach do gier czy urządzeniach mobilnych), ale też coraz częściej rękawice haptyczne, które pojawiają się już w formie produktów konsumenckich, takich jak CaptoGlove (por. https://www.captoglove.com/). Mechanizm ich działania sprawia, że możliwe staje się manipulowanie w cyberprzestrzeni w sposób całkowicie naturalny, a także odczuwanie płynących z niej bodźców w sposób do tej pory niemożliwy. Przykładowo grafik nie musi używać urządzenia wskazującego (np. myszki komputerowej), a następnie korzystać z kolejnej warstwy komunikacyjnej w postaci interfejsu programu graficznego. Zastosowanie rękawicy haptycznej pozwala w takim wypadku na dosłowne „złapanie” obiektu 3D i sterowanie nim poprzez naturalne ruchy dłoni. Co więcej, niektóre takie rozwiązania oferują także funkcje doznań taktylnych, na przykład poprzez system pęcherzy powietrznych umieszczonych w rękawicy (Williams, 2015), dzięki czemu użytkownik może odczuć kontakt z – fizycznie nieistniejącym – obiektem trójwymiarowym. Co więcej, postęp w zakresie haptycznych kombinezonów, rozwijanych między innymi przez firmę AxonVR (por. http://axonvr.com), tylko rozszerzy zakres przyjmowanych z rzeczywistości wirtualnej bodźców. Rozwój interfejsów umożliwiających „dotykanie” cyberprzestrzeni, związany jest z powrotem do idei wirtualnej rzeczywistości, określanej jako VR. Już w połwie lat 90. XX-wieku Derrick de Kerckhove opisywał ten fenomen jako możliwość rozszerzenia zmysłów człowieka o sztuczne widzenie, słuchanie i dotykanie, co miało dawać ludziom zdolność doświadczania sztucznej świadomości, jednak jak sam on zauważył, ówczesne komputery nie pozwalały na generowanie wysokiej jakości obrazów w czasie rzeczywistym (por. 2001). Dodatkowym problemem były cena oraz niedokładność i opóźnienia w określaniu położenia głowy osoby, która korzysta z gogli wirtualnej rzeczywistości (Gaudiosi, 2012). W rzeczy samej, powrót do idei VR nastąpił dopiero po 20 latach, kiedy to w 2012 roku zaprezentowano nowej generacji wyświetlacz typu HMD (ang. head-mounted display), czyli Oculus Rifta. Od tego momentu na rynku pojawiło się kilkanaście urządzeń tego rodzaju. Zarówno skierowanych do posiadaczy pecetów (gogle HTC Vive), ale też konsolowe Sony PlayStation VR i wiele mobilnych systemów z GearVR Samsunga na czele. W międzyczasie mogliśmy zaobserwować gwałtowną popularyzację alternatywnej dla VR technologii rzeczywistości rozszerzonej, czyli AR (ang. augmented reality). Wszystko za sprawą mobilnej gry wideo pt. „Pokemon Go”, która w 2016 roku odniosła oszałamiający sukces na całym świecie (Hern, 2016). Piszę tu o alternatywie, ponieważ AR polega na nakładaniu elementów cyfrowych na obserwowany przez człowieka fragment rzeczywistości fizycznej, co niejako zwraca uwagę użytkownika urządzenia cyfrowego (zazwyczaj smartfonu) na otaczające go środowisko. Natomiast VR odwrotnie. Tu celem jest możliwie szeroka i głęboka izolacja jednostki w symulowanym fragmencie rzeczywistości wirtualnej.

            Rękawice haptyczne, VR czy AR wciąż powielają znany schemat interakcji z maszynami cyfrowymi i partycypacji w zdominowanej przez wizualność cyberkulturze. Stanowią one raczej ewolucję założenia o naśladownictwie dobrze oswojonych przez człowieka schematów druku, okna czy miejsca pracy. Co prawda kolejne iteracje opisanych UI stanowią przykład technologii coraz bardziej przyjaznych użytkownikom i przejrzystych, a przez to dla nas naturalnych, jednak nie stanowią one zupełnego połączenia ludzkiego aparatu poznawczego z urządzeniami cyfrowymi. Jednak jak zauważa Piotr Celiński, dobrze nam znana metaforyka graficzna – na przykład opisywany już wzorzec WIMP – może być zastąpiona w przyszłości przez całkowicie odmienny schemat interfejsów mózg-komputer, czyli BCI (ang. Brain–computer interface). Tego rodzaju technologie umożliwiają niemal całkowite i bezpośrednie zespolenie człowieka z maszyną poprzez połączenie mózgu użytkownika z kontrolowanym przez niego urządzeniem lub oprogramowaniem, a to wszystko bez udziału pięciu podstawowych zmysłów człowieka (Celiński, 2010, 108). Są to technologie rozwijane już od kilku dekad, ale ciągle nieznane doświadczeniu przeciętnego użytkownika, na którym tutaj się skupiam. Wydaje się jednak, że po dekadach bardzo istotnych, ale jednocześnie ograniczonych w swym zasięgu prac naukowych nad BCI (por. Zawadzki, 2016, 133-134), pojawia się szansa na przyspieszenie ich rozwoju, a w konsekwencji popularyzację. Mam tu na myśli zainteresowanie BCI ze strony Elona Muska, jednego z czołowych obecnie innowatorów i przedsiębiorców. Musk jakiś czas temu założył nowe przedsiębiorstwo Neuralink, którego celem jest opracowanie łatwo dostępnych implantów domózgowych, które początkowo mają służyć osobom cierpiącym na choroby neurodegeneracyjne (np. Parkinson, epilepsja), a w dłuższej perspektywie czasowej przygotowanie tak zwanej koronki nerwowej (ang. neural lace), która pozwoli na bezpośrednie połączenie myśli człowieka z oprogramowaniem maszyn cyfrowych (Statt, 2017). Uzyskanie takiego połączenia, zupełnie odmiennego od opisanych w tym artykule interfejsów użytkownika, stanowić będzie kluczowy etap rozwoju idei cyborgizacji człowieka, czyli wytworzenia jednostek o prawdopodobnie nadzwyczajnych zdolnościach poznawczych, których systemy aksjonormatywne oparte będą na innych (bo technologiczno-biologicznych) podstawach (Warwick, 2003, 136). W moim przekonaniu moment ten będzie zupełnym potwierdzeniem początkowej hipotezy o naturalizacji relacji pomiędzy aktorami ludzkimi i nie-ludzkimi w toku ewolucji interfejsów.

Podsumowanie

W przedstawionym omówieniu najistotniejszych obecnie interfejsów użytkownika zależało mi na zwięzłym i raczej wprowadzającym przedstawieniu tych społeczno-technologicznych fenomenów. Dlatego skupiłem się na tych ich rodzajach, które odgrywają obecnie dominującą rolę w komunikacji pomiędzy ludźmi a maszynami i stanowią główny sposób partycypacji w cyberkulturze dla znacznej części użytkowników. Z perspektywy czasu możemy stwierdzić, że pierwsze interfejsy były dość prymitywne. Ograniczały zarówno zakres wpływu odbiorcy na środowisko cyfrowe do kodów tekstowych, jak i w sposób wyjątkowo skąpy wpływały na zmysły odbiorcy (bo tylko poprzez świecące kontrolki lub proste znaki). Z przeprowadzonej analizy wyłania się historia przejścia od wyjątkowo hermetycznych i nieprzystępnych form komunikacji do rozwiązań znacznie bardziej dostępnych, a przede wszystkim bliższych ludzkim zmysłom i sposobom doświadczania otaczającej nas rzeczywistości fizycznej. Wszechobecna wizualna metafora biurka powoli ustępuje, a nowe i ciągle rozwijane projekty umożliwiają ludziom niemalże namacalny kontakt z cyberprzestrzenią. Historia UI jest opowieścią o skracaniu dystansu pomiędzy tym, co cyfrowo wytworzone lub remiksowane, a tym, co wyjątkowo ludzkie i zmysłowe. Interfejsy użytkownika są nie tylko bardziej przyjazne (ang. user friendly) i zorientowane na użytkownika (ang. user-centered), ale przede wszystkim stają się nam coraz bliższe. Bliskie do tego stopnia, że być może w przyszłości będą z nami nierozerwalnie połączone – wszystko za sprawą nadchodzących interfejsów mózg-komputer.

 

Bibliografia:

Arthur, Charles; 2015, The return of virtual reality: “this is as big an opportunity as the   internet, http://www.theguardian.com/technology/2015/may/28/jonathan-waldern- return-virtual-reality-as-big-an-opportunity-as-internet [01.05.2017].

Bąk, Agnieszka; 2015, Korzystanie z urządzeń mobilnych przez małe dzieci w Polsce.    Wyniki badania ilościowego, Warszawa: Fundacja Dzieci Niczyje,             http://fdn.pl/sites/default/files/file/Raporty_badawcze/Bak_Korzystanie_z_urzadzen_            mobilnych_raport.pdf [01.05.2017].

Bederson, Ben, Meyer Jon; 1998, Implementing a Zooming User Interface: Experience Building Pad++; w: Software: Practice and Experience, nr 10 (28), ss. 1101-1135,        http://ssltest.cs.umd.edu/hcil/jazz/learn/papers/spe-98-padimplementation.pdf    [01.05.2017].

Bomba, Radosław; 2014, Gry komputerowe w perspektywie antropologii codzienności,             Toruń: Adam Marszałek.

Celiński, Piotr; 2011, W poszukiwaniu interfejsu idealnego; w: Kultura i Historia, nr 19,             http://www.kulturaihistoria.umcs.lublin.pl/archives/2187 [01.05.2017].

Celiński, Piotr; 2010, Interfejsy. Cyfrowe technologie w komunikowaniu, Wrocław:       Wydawnictwo Uniwersytetu Wroclawskiego.

Chang, Dean; 2002, Haptics: Gaming’s New Sensation; w: Computer, nr 8 (35), ss. 84-86.

Chen, Jung-Wei, Zhang Jiajie; 2007, Comparing Text-based and Graphic User Interfaces for     Novice and Expert Users, w: AMIA Annual Symposium Proceedings, ss. 125-128,             http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2655855/pdf/amia-0125-s2007.pdf         [01.05.2017].

Computer Hope; 2017, Command line vs. GUI,      http://www.computerhope.com/issues/ch000619.htm [01.05.2017].

de Kerckhove, Derrick; 2009, Przeciw architekturze (architektura inteligencji); w: Anna Maj,     Michał Derda-Nowakowski (red.), Kody McLuhana. Typografia nowych mediów,         Katowice: ExMachina, ss. 37-44.

de Kerckhove, Derrick; 2001, Powłoka kultury: odkrywanie nowej elektronicznej           rzeczywistości, Warszawa: Mikom.

Gaudiosi, John; 2012, Meteor Entertainment Exec Mark Long Explains The Virtual Reality       Of Oculus Rift And HAWKEN,    https://www.forbes.com/sites/johngaudiosi/2012/08/27/meteor-entertainment-exec-         mark-long-explains-the-virtual-reality-of-oculus-rift-and-hawken/ [01.05.2017].

Gontarczyk, Piotr; 2015, Microsoft: przyczyną porażki Windowsa 8 była tajemniczość wokół    projektu, http://pclab.pl/news63547.html [01.05.2017].

GUS; 2014, Społeczeństwo informacyjne w Polsce w 2014 r., Warszawa: GUS,             http://stat.gov.pl/download/gfx/portalinformacyjny/pl/defaultaktualnosci/5497/2/4/1/sp            oleczenstwo_informacyjne_w_polsce_2014_-_notatka.pdf [01.05.2017].

Hern, Alex; 2016, Pokémon Go becomes global craze as game overtakes Twitter for US             users, https://www.theguardian.com/technology/2016/jul/12/pokemon-go-becomes-       global-phenomenon-as-number-of-us-users-overtakes-twitter [01.05.2017].

Internet World Stats; 2017, The Internet Big Picture. World Internet Users and 2017     Population Stats, http://www.internetworldstats.com/stats.htm [01.05.2017].

ISFE; 2012, Videogames in Europe: 2012 Consumer Study,             http://www.isfe.eu/sites/isfe.eu/files/attachments/euro_summary_- _isfe_consumer_study.pdf [01.05.2017].

Kemp, Simon; 2017, Digital in 2017: Global Overview,      https://wearesocial.com/blog/2017/01/digital-in-2017-global-overview [01.05.2017].

Królewski, Jarosław; 2013, Usability i User Experience; w: Jarosław Królewski, Paweł Sala       (red.), E-Marketing, Warszawa: PWN, ss. 95-120.

Krzysztofek, Kazimierz; 2009, Zdekodowane kody; w: Anna Maj, Michał Derda-          Nowakowski (red.), Kody McLuhana. Typografia nowych mediów, Katowice:           ExMachina, ss. 9-33.

Krzysztofek, Kazimierz; 2012, Obraz i spektakl jako przemysł kultury: między konsumpcją i      uczestnictwem; w: Przyszłość. Świat-Europa-Polska, nr 1 (25), ss. 45-59.

Kubiński, Piotr; 2016, Gry wideo. Zarys poetyki, Kraków: Universitas.

Laws, A., David, McClure, Jim, Riordan, Michael; 2017, Timeline of Computer History,             http://www.computerhistory.org/timeline/ [01.05.2017).

Lech, Krzysztof; 2017, Windows 10 z 500 mln użytkowników. Microsoft jednak daleki od       realizacji planu, http://www.pcworld.pl/news/Windows-10-z-500-mln-uzytkownikow-      Microsoft-jednak-daleki-od-realizacji-planu,407980.html [01.05.2017].

Manovich, Lev; 2006, Język nowych mediów, Warszawa: WAiP.

Nations, Daniel; 2016, What is a Web Application?,             http://webtrends.about.com/od/webapplications/a/web_application.htm [01.05.2017].

Netmarketshare; 2017, Desktop Operating System Market Share, http://www.netmarketshare.com/operating-system-market-           share.aspx?qprid=10&qpcustomd=0 [01.05.2017].

NoNoobs; 2013, Game Industry Trends 2013, Warszawa: NoNoobs,        http://www.git2013.pl/raport [01.05.2017).

Ostrowicki, Michał; 2006, Wirtualne realis. Estetyka w epoce elektroniki, Kraków:         Universitas.

Petrowicz, Marcin; 2016, Gry wideo – medium XXI wieku; w: Damian Gałuszma, Grzegorz     Ptaszek, Dorota Żuchowska-Skiba (red.), Technokultura: transhumanizm i sztuka   cyfrowa, Kraków: Libron, ss. 155-172.

Pluralsigh; 2015, What’s the Difference Between the Front-End and Back-End?,             https://www.pluralsight.com/blog/film-games/whats-difference-front-end-back-end        [01.05.2017].

Reimer, Jeremy; 2005, A History of the GUI, http://arstechnica.com/features/2005/05/gui/         [01.05.2017].

Rogowsky, Mark; 2014, Without Much Fanfare, Apple Has Sold Its 500 Millionth iPhone,             http://www.forbes.com/sites/markrogowsky/2014/03/25/without-much-fanfare-apple-     has-sold-its-500-millionth-iphone/ [01.05.2017].

Sitarski, Piotr; 2002, Pokusy interfejsu. Od kart perforowanych do ekranowej     wielozadaniowości; w: Andrzej Gwóźdź, Piotr Zawojski (red.), Wiek ekranów:       Przestrzenie kultury widzenia, Kraków: Rabid, ss. 453-466.

Statista; 2017, Number of smartphones sold to end users worldwide from 2007 to 2016 (in        million units), https://www.statista.com/statistics/263437/global-smartphone-sales-to-     end-users-since-2007/ [01.05.2017].

Statt, Nick; Elon Musk launches Neuralink, a venture to merge the human brain with AI,             https://www.theverge.com/2017/3/27/15077864/elon-musk-neuralink-brain-computer-    interface-ai-cyborgs [01.05.2017].

Szpunar, Magdalena; 2007, Interfejs użytkownika jako sposób komunikacji z komputerem; w:   Global Media Journal – Polish Edition, nr 1 (3), ss. 117-125.

Tan, S., Desney; 2017, Human-machine interface,   https://www.britannica.com/technology/human-machine-interface [01.05.2017].

Tynan, Dan; 2006, The 25 Worst Tech Products of All Time,             http://www.pcworld.com/article/125772/worst_products_ever.html?page=6         [01.05.2017].

van Dam, Andries; 1997, Post-WIMP user interfaces; w: Communications of the ACM, nr        2(40), ss. 63-67.

Warwick, Kevin; 2003, Cyborg morals, cyborg values, cyborg ethics; w: Journal Ethics and       Information Technology, nr 3 (5), ss. 131-137.

Williams, Mike; 2015, Gamers feel the glove from Rice engineers,            http://news.rice.edu/2015/04/22/gamers-feel-the-glove-from-rice-engineers-2/            [01.05.2017].

Zacher, W., Lech; 2012, Refleksje o ideologii cyfrowego świata; w: tegoż, Nasza cyfrowa         przyszłość. Nadzieje – ryzyka – znaki zapytania, Warszawa: Komitet Prognoz Polska    2000 Plus przy Prezydium PAN.

Zawadzki, Przemysław; 2016, Zarys filozoficzno-etyczno-społecznych implikacji rozwoju         interfejsów mózg–komputeri mózg–mózg; w: Damian Gałuszma, Grzegorz Ptaszek, Dorota Żuchowska-Skiba (red.), Technokultura: transhumanizm i sztuka cyfrowa,      Kraków: Libron, ss. 131-151.

Zawojski, Piotr; 2008, Cyberkultura jako nowy paradygmat kultury medialnej. Rozważania       teoretyczne; w: Eugeniusz Wilk, Iwona Kolasińska-Pasterczyk (red.), Nowa          audiowizualność – nowy paradygmat kultury?, Kraków: WUJ,           http://www.zawojski.com/2008/02/04/cyberkultura-jako-nowy-paradygmat-kultury-            medialnej-rozwazania-teoretyczne/ [01.05.2017].

Żywiczyńska, Elżbieta; 2017, Kim jest statystyczny polski gracz? – mamy pierwsze wyniki        Polish Gamers Research 2016, http://zgranarodzina.edu.pl/2017/05/07/statystyczny-        polski-gracz-pierwsze-wyniki-polish-gamers-research-2016/ [01.05.2017].

Biogram autora: mgr Damian Gałuszka – doktorant w Instytucie Socjologii Uniwersytetu Jagiellońskiego, absolwent socjologii na Wydziale Humanistycznym Akademii Górniczo-Hutniczej, członek Collegium Invisibile, w ramach którego zrealizował tutorial pod kierownictwem dr. hab. Mirosława Filiciaka (prof. USWPS). Pomysłodawca i współorganizator ogólnopolskiej konferencji naukowej Technologiczno-społeczne oblicza XXI wieku, stypendysta MEN. Jego zainteresowania dotyczą mediów cyfrowych (w szczególności gier wideo) oraz badań z zakresu STS (science, technology and society).

[1] Zainteresowanych tematyką cybertekstu odsyłam do klasycznego już dzieła Espena Aarsetha pt. Cybertekst. Perspektywy literatury ergodycznej (2014, Kraków: Korporacja Ha!art).