Kiedy otwieramy okno przeglądarki, pozostawiamy za sobą ślad. To nie tylko nasza świadoma aktywność – kliknięcia, reakcje, komentarze – ale również czas spędzony na poszczególnych treściach, prędkość przewijania strony, wzorce poruszania się kursorem. Każdy z tych mikrogestów jest rejestrowany, analizowany, interpretowany. Z perspektywy sieci nie jesteśmy już osobami z krwi i kości, lecz zestawami danych – profilami behawioralnymi, które można kategoryzować, przewidywać i którymi można manipulować. To właśnie ta redukcja – od złożonej, wielowymiarowej istoty ludzkiej do cyfrowego śladu – stanowi jeden z fundamentalnych procesów definiujących współczesność.
W świecie przepełnionym algorytmami, które śledzą, analizują i kategoryzują każdy nasz ruch w sieci, pytanie o to, kim jesteśmy i jak definiujemy swoją tożsamość, nabiera nowego wymiaru. Cyfrowe systemy nie tylko odzwierciedlają, ale w coraz większym stopniu współtworzą nasze poczucie „ja”. Między liniami kodu algorytmów rozgrywa się cichy dramat redefinicji człowieczeństwa – sprowadzania złożoności ludzkiego doświadczenia do zestawu danych, wzorców i przewidywalnych reakcji.
Ta transformacja człowieka w dane nie jest jedynie abstrakcyjnym problemem technologicznym czy filozoficznym – dotyka fundamentów naszego samozrozumienia, zmieniając sposób, w jaki postrzegamy siebie i innych. Czy jesteśmy tym, co algorytmy o nas wiedzą? Czy nasza tożsamość rozpływa się w strumieniu danych, które zostawiamy za sobą? I wreszcie – czy redukcja człowieka do algorytmu jest nieuniknionym kierunkiem rozwoju technologicznego, czy może istnieją alternatywne ścieżki współistnienia ludzkiego i cyfrowego?
Spis treści
Cyfrowe cienie – co o nas wiedzą algorytmy
Za każdym razem, gdy poruszamy się w przestrzeni cyfrowej, nasze działania – świadome i nieświadome – są rejestrowane, analizowane i interpretowane. Powstaje w ten sposób swoisty cyfrowy cień, odzwierciedlający nasze preferencje, zwyczaje, zainteresowania, a nawet stany emocjonalne. Ten cyfrowy obraz nas samych w wielu aspektach różni się od tego, jak postrzegamy siebie. Algorytmy widzą nas przez pryzmat danych, które generujemy – a te dane opowiadają historię, która nie zawsze jest zgodna z naszym wewnętrznym doświadczeniem.
Kiedy przeglądamy media społecznościowe, algorytmy śledzą nie tylko to, co lubimy i komentujemy, ale również jak długo zatrzymujemy się na poszczególnych treściach, jakie emocje te treści w nas wywołują, z kim wchodzimy w interakcje. Na podstawie tych danych tworzą profil, który ma przewidywać nasze przyszłe zachowania – co kupimy, co nas zainteresuje, jak zareagujemy. Ten profil nie jest statyczny – zmienia się i ewoluuje wraz z naszymi działaniami, ale zawsze pozostaje redukcją. Upraszcza wielowymiarowość ludzkiego doświadczenia do tego, co jest mierzalne, policzalne i możliwe do zarejestrowania.
Co ciekawe, algorytmy często wiedzą o nas rzeczy, których my sami możemy nie być świadomi. Analiza wzorców naszego zachowania online może ujawnić preferencje seksualne, poglądy polityczne, a nawet stan zdrowia psychicznego – wszystko to bez bezpośredniego pytania nas o te kwestie. Badania pokazują, że na podstawie lajków na Facebooku można dość precyzyjnie określić takie cechy jak orientacja seksualna, rasa czy poglądy polityczne. Innymi słowy, cyfrowy cień może czasem wiedzieć o nas więcej niż my sami.
Zadziwiające, jak wiele informacji można wywnioskować z pozornie niewinnych danych. Sposób, w jaki poruszamy kursorem, rytm pisania na klawiaturze, godziny aktywności online – wszystko to tworzy unikalny cyfrowy odcisk palca. Algorytmy uczą się rozpoznawać wzorce w tych danych i wyciągać z nich wnioski. Przykładowo, zmiany w sposobie pisania mogą wskazywać na początkowe stadia choroby Parkinsona, a wzorce aktywności w mediach społecznościowych mogą sugerować pogorszenie stanu zdrowia psychicznego.
Ta wiedza algorytmów o nas rodzi fundamentalne pytanie: czy cyfrowy profil, który tworzy się na podstawie naszych śladów w sieci, rzeczywiście reprezentuje to, kim jesteśmy? A może jest raczej karykaturą, redukującą wielowymiarowość ludzkiego doświadczenia do uproszczonego modelu behawioralnego? Między tym, jak postrzegamy siebie, a tym, jak „widzą” nas algorytmy, istnieje przestrzeń napięcia i potencjalnego konfliktu.
Tożsamość w czasach algorytmizacji
Tradycyjne rozumienie tożsamości opiera się na poczuciu ciągłości i spójności własnego „ja”. Postrzegamy siebie jako względnie stabilne byty, posiadające określone cechy, wartości, przekonania. Tożsamość jest dla nas narracją – historią, którą opowiadamy sobie i innym o tym, kim jesteśmy. Ta narracja może ewoluować, zmieniać się, ale zazwyczaj zachowuje pewną wewnętrzną logikę i ciągłość.
Algorytmizacja wprowadza do tej narracji nowy element – zewnętrzne, zautomatyzowane spojrzenie, które nie zawsze jest zgodne z naszym wewnętrznym doświadczeniem. Algorytmy nie widzą nas tak, jak my widzimy siebie. Nie mają dostępu do naszych wewnętrznych stanów, motywacji, wartości. Widzą jedynie wzorce behawioralne, które mogą być analizowane i kategoryzowane.
Co więcej, algorytmy nie tylko odzwierciedlają, ale również aktywnie kształtują nasze zachowania. Kiedy system rekomendacyjny sugeruje nam konkretne treści – artykuły, filmy, produkty – wpływa na nasze wybory, a przez to pośrednio na nasze postrzeganie siebie. Mechanizmy personalizacji treści tworzą tzw. bańki filtrujące, w których jesteśmy coraz bardziej narażeni na informacje zgodne z naszymi dotychczasowymi preferencjami. To zjawisko może prowadzić do wzmocnienia istniejących przekonań i wyborów, ograniczając naszą ekspozycję na odmienne punkty widzenia.
Powstaje w ten sposób swego rodzaju pętla sprzężenia zwrotnego: nasze zachowania kształtują algorytmy, które z kolei wpływają na nasze przyszłe wybory. Ta dynamika prowadzi do pytania: czy nasza tożsamość w czasach algorytmizacji jest wciąż autonomiczna? Czy nasze „ja” jest kształtowane przez nas samych, czy może w coraz większym stopniu przez niewidoczne systemy technologiczne, które nas otaczają?
Filozof Charles Taylor argumentował, że tożsamość zawsze formuje się w dialogu – poprzez interakcje z innymi ludźmi i w kontekście szerszych ram znaczeniowych. W erze algorytmów ten dialog obejmuje nie tylko innych ludzi, ale również systemy technologiczne, które interpretują nasze działania i wpływają na nasze wybory. Algorytmy stają się w pewnym sensie uczestnikami procesu kształtowania tożsamości – niewidocznymi pośrednikami, którzy filtrują i interpretują nasze doświadczenia.
Ta nowa dynamika formowania tożsamości tworzy nieznane wcześniej wyzwania. Z jednej strony, cyfrowe technologie oferują narzędzia do eksplorowania i wyrażania siebie w sposób, który był niemożliwy w erze przedcyfrowej. Z drugiej strony, nasza aktywność online podlega nieustannej analizie, kategoryzacji i monetyzacji. Tożsamość w czasach algorytmizacji staje się więc areną napięć między samoekspresją a zewnętrzną klasyfikacją, między autonomią a manipulacją.
Ekonomia uwagi i utowarowienie tożsamości
W cyfrowej gospodarce uwaga jest walutą. Platformy internetowe konkurują o nasz czas i zaangażowanie, które mogą być konwertowane na przychody reklamowe. Ten model biznesowy, często określany jako ekonomia uwagi, fundamentalnie zmienia relację między użytkownikami a platformami cyfrowymi. Nie jesteśmy już po prostu konsumentami treści – staliśmy się produktem, który platformy sprzedają reklamodawcom.
Ta transformacja prowadzi do utowarowienia tożsamości – procesu, w którym nasze cechy, preferencje i zachowania stają się towarem podlegającym wymianie rynkowej. Dane, które generujemy online, są zbierane, analizowane i wykorzystywane do tworzenia coraz bardziej wyrafinowanych metod targetowania reklam. Nasza cyfrowa tożsamość staje się zasobem, który można monetyzować.
Proces ten jest głęboko problematyczny z etycznego punktu widzenia. Po pierwsze, często odbywa się bez naszej pełnej świadomości i zgody. Mimo rosnącej liczby regulacji dotyczących ochrony danych osobowych, większość użytkowników internetu nie ma pełnego obrazu tego, w jaki sposób ich dane są wykorzystywane. Po drugie, prowadzi do redukcji człowieka do jego wartości rynkowej – do profilu konsumenta, który można skuteczniej targetować reklamami.
Co więcej, ekonomia uwagi stwarza bodźce dla platform do manipulowania naszym zachowaniem. Systemy zaprojektowane są tak, by maksymalizować zaangażowanie – często kosztem naszego dobrostanu. Mechanizmy takie jak nieskończone przewijanie czy personalizowane powiadomienia wykorzystują luki w naszej psychologii, by zatrzymać nas na platformach jak najdłużej. Algorytmy uczą się, jakie treści wywołują najsilniejsze reakcje emocjonalne – często kontrowersyjne czy polaryzujące – i promują je, by zwiększyć nasz czas spędzony online.
Filozof Byung-Chul Han mówi o „psychopolityce” – systemie władzy, który nie działa poprzez przymus zewnętrzny, ale przez subtelne formy manipulacji psychicznej. W erze cyfrowej ta forma władzy staje się coraz bardziej rozpowszechniona. Algorytmy nie zmuszają nas do określonych zachowań – zamiast tego tworzą architekturę wyboru, która niepostrzeżenie kieruje nas w pożądane strony.
W tym kontekście nasza cyfrowa tożsamość staje się areną walki o wpływy. Dane, które generujemy, są wykorzystywane nie tylko do sprzedaży produktów, ale również do kształtowania opinii publicznej, wpływania na decyzje wyborcze czy formowania przekonań społecznych. Skandal Cambridge Analytica pokazał, jak dane z mediów społecznościowych mogą być wykorzystywane do mikrotargetowania komunikatów politycznych, potencjalnie wpływając na wyniki wyborów.
Ta instrumentalizacja tożsamości prowadzi do jej fragmentacji – rozbicia na zestaw danych i wzorców, które mogą być analizowane, kategoryzowane i monetyzowane. W ekonomii uwagi nie jesteśmy już postrzegani jako spójne, wielowymiarowe osoby, ale jako zbiory behawioralnych predyspozycji, które można wykorzystać dla zysku.
Człowiek w lustrze algorytmów
Każdego dnia konfrontujemy się z naszym algorytmicznym odbiciem – obrazem siebie, który jest kształtowany przez systemy technologiczne. To odbicie nie jest neutralne – jest filtrowane przez pryzmat komercyjnych interesów, technologicznych ograniczeń i wartości wpisanych w kod przez jego twórców. Między naszym wewnętrznym poczuciem „ja” a tym, jak postrzegają nas algorytmy, istnieje napięcie, które może prowadzić do swoistej schizofrenii tożsamościowej.
Algorytmy rekomendacyjne, takie jak te używane przez platformy streamingowe czy media społecznościowe, często działają jak lustro, które pokazuje nam wyselekcjonowaną wersję nas samych. Sugerują treści, które według ich kalkulacji powinny nas zainteresować, bazując na naszych wcześniejszych wyborach. To odbicie może być częściowo trafne, ale zawsze pozostaje uproszczone i zniekształcone.
Co więcej, te algorytmiczne rekomendacje mogą tworzyć efekt samospełniającej się przepowiedni. Kiedy system pokazuje nam treści dopasowane do naszego profilu, jesteśmy bardziej skłonni je konsumować, co z kolei wzmacnia ten profil. W ten sposób tworzy się pętla sprzężenia zwrotnego, w której nasze rzeczywiste preferencje i algorytmiczny model tych preferencji wzajemnie się wzmacniają. Z czasem może być coraz trudniej odróżnić, które z naszych wyborów są autentyczne, a które są wynikiem algorytmicznego wpływu.
Ta dynamika prowadzi do pytania o autentyczność w erze algorytmów. Czy nasze wybory – to, co oglądamy, czytamy, kupujemy – są wyrazem naszych prawdziwych preferencji, czy może są kształtowane przez systemy rekomendacyjne? Czy nasza tożsamość jest autentycznym wyrazem naszego wewnętrznego „ja”, czy może w coraz większym stopniu produktem zewnętrznych wpływów technologicznych?
Filozof Martin Heidegger ostrzegał przed niebezpieczeństwem redukcji człowieka do „zasobu” – elementu systemu technologicznego, który może być optymalizowany i wykorzystywany. W erze algorytmów to niebezpieczeństwo nabiera nowego wymiaru. Jesteśmy redukowani nie tylko do zasobów, ale do danych – abstrakcyjnych reprezentacji, które mogą być analizowane, kategoryzowane i manipulowane.
Ta redukcja ma głębokie konsekwencje dla naszego samozrozumienia. Kiedy zaczynamy postrzegać siebie przez pryzmat algorytmicznych kategorii, możemy tracić kontakt z tymi aspektami naszego doświadczenia, które nie dają się łatwo skwantyfikować. Wewnętrzne życie emocjonalne, duchowość, nieuchwytne aspekty ludzkiej kondycji – wszystko to może zostać zmarginalizowane w świecie, który przedkłada mierzalne nad niemierzalne.
Jednocześnie, algorytmiczne odbicie może prowadzić do nowych form samoświadomości. Konfrontacja z tym, jak postrzegają nas systemy technologiczne, może skłaniać do refleksji nad własnymi wzorcami zachowań, preferencjami, nawykami. W pewnym sensie, algorytmy mogą pełnić rolę lustra, które – choć zniekształcone – pokazuje nam aspekty nas samych, których mogliśmy wcześniej nie dostrzegać.
Opór i autonomia w erze algorytmicznej
Czy w świecie, gdzie nasze zachowania są nieustannie śledzone, analizowane i przewidywane, możliwa jest jeszcze autonomia? Czy możemy zachować kontrolę nad własną tożsamością w obliczu coraz bardziej wyrafinowanych technologii profilowania i personalizacji? Te pytania nie mają prostych odpowiedzi, ale możemy zidentyfikować pewne strategie oporu wobec algorytmicznej redukcji człowieka.
Pierwszą linią obrony jest świadomość. Zrozumienie mechanizmów, przez które nasze dane są zbierane i wykorzystywane, jest pierwszym krokiem do odzyskania kontroli. Edukacja cyfrowa – nie tylko techniczna, ale również etyczna i filozoficzna – staje się kluczowym elementem współczesnego obywatelstwa. Świadomy użytkownik może podejmować bardziej przemyślane decyzje dotyczące swojej obecności online, korzystać z narzędzi zwiększających prywatność, czy wybierać platformy, które szanują autonomię użytkowników.
Drugą strategią jest celowe zakłócanie algorytmicznych wzorców. Niektórzy użytkownicy internetu stosują techniki takie jak wyszukiwanie losowych fraz, klikanie w reklamy, których treść ich nie interesuje, czy używanie wielu różnych przeglądarek i urządzeń. Te taktyki, choć nie zawsze skuteczne, stanowią formę mikro-oporu wobec algorytmicznej kategoryzacji.
Trzecim podejściem jest tworzenie i wspieranie alternatywnych modeli technologicznych. Ruch na rzecz otwartego oprogramowania, zdecentralizowanych sieci społecznościowych czy technologii zwiększających prywatność stanowi próbę budowania cyfrowego ekosystemu, który nie opiera się na śledzeniu i monetyzacji danych użytkowników. Platformy takie jak Mastodon, Signal czy DuckDuckGo oferują alternatywy dla dominujących modeli biznesowych opartych na nadzorze.
Czwartą linią obrony jest regulacja prawna. Przepisy takie jak europejskie RODO czy kalifornijska ustawa o prywatności konsumentów stanowią próbę ograniczenia niekontrolowanego zbierania i wykorzystywania danych. Choć ich skuteczność jest kwestionowana, tworzą one ramy prawne, które przynajmniej teoretycznie chronią prawa jednostek w cyfrowym świecie.
Wreszcie, być może najważniejszą strategią jest kultywowanie tych aspektów człowieczeństwa, które opierają się kwantyfikacji i algorytmizacji. Sztuka, filozofia, duchowość, bezpośrednie relacje międzyludzkie – wszystko to może stanowić przeciwwagę dla redukcyjnego, instrumentalnego podejścia do człowieka. Filozofka Martha Nussbaum argumentuje, że humanistyczna edukacja jest kluczowa dla rozwijania krytycznego myślenia i empatii – cech, które są niezbędne do przeciwstawienia się redukcji człowieka do algorytmu.
Autonomia w erze algorytmicznej nie oznacza całkowitego odcięcia się od technologii cyfrowych – to byłoby ani praktyczne, ani pożądane. Zamiast tego, możemy dążyć do bardziej świadomego, refleksyjnego i krytycznego zaangażowania z technologią. Możemy starać się wykorzystywać narzędzia cyfrowe w sposób, który wzmacnia, a nie podważa naszą autonomię – używać ich jako rozszerzeń naszych możliwości, a nie substytutów naszego myślenia.
Ku nowej wizji człowieczeństwa w erze cyfrowej
Proces redukowania człowieka do algorytmu nie jest nieuniknionym rezultatem rozwoju technologicznego – jest raczej wynikiem konkretnych decyzji, wartości i modeli biznesowych. Alternatywne ścieżki rozwoju technologii są możliwe, ale wymagają one przemyślenia fundamentalnych założeń leżących u podstaw obecnych systemów cyfrowych.
Zamiast technologii, która redukuje człowieka do zestawu danych, możemy wyobrazić sobie systemy zaprojektowane tak, by wspierać pełnię ludzkiego doświadczenia – jego złożoność, nieprzewidywalność, kreatywność. Zamiast algorytmów, które kategoryzują i przewidują nasze zachowania, moglibyśmy rozwijać narzędzia, które poszerzają nasze horyzonty, zachęcają do eksploracji i eksperymentowania.
Filozof i krytyk technologii Jaron Lanier proponuje model, w którym użytkownicy mieliby większą kontrolę nad swoimi danymi, a nawet otrzymywali wynagrodzenie za ich wykorzystanie przez platformy cyfrowe. Taki system nie tylko byłby bardziej sprawiedliwy ekonomicznie, ale również zmieniłby fundamentalną dynamikę między użytkownikami a platformami – z relacji przedmiot-podmiot na relację między równorzędnymi uczestnikami wymiany.
Innym kierunkiem jest rozwój technologii, które są bardziej transparentne i zrozumiałe dla przeciętnego użytkownika. Obecnie większość algorytmów działa jak czarne skrzynki – użytkownicy widzą tylko ich efekty, nie rozumiejąc mechanizmów, które za nimi stoją. Tymczasem, koncepcje takie jak „wyjaśnialna sztuczna inteligencja” (explainable AI) dążą do tworzenia systemów, których działanie może być zrozumiane i poddane krytycznej ocenie przez ludzi.
Edukacja również odgrywa kluczową rolę w kształtowaniu naszej relacji z technologią. Nie chodzi tu tylko o umiejętności techniczne, ale również o rozwój krytycznego myślenia, zdolności do refleksji etycznej i zrozumienia szerszego kontekstu społecznego, w którym funkcjonują technologie cyfrowe. Takie podejście do edukacji mogłoby wyposażyć ludzi w narzędzia potrzebne do negocjowania swojej pozycji w algorytmicznym świecie.
Wreszcie, być może najważniejszym elementem nowej wizji człowieczeństwa w erze cyfrowej jest uznanie, że technologia nigdy nie jest neutralna – zawsze odzwierciedla określone wartości, założenia i cele. Zamiast bezkrytycznie akceptować te wartości, powinniśmy aktywnie uczestniczyć w ich kształtowaniu. Technologia nie jest siłą natury, która po prostu się nam przydarza – jest wytworem ludzkiej działalności i jako taka podlega ludzkiej ocenie i wpływowi.
W tym kontekście, proces redukowania człowieka do algorytmu nie jest nieuniknionym rezultatem postępu technologicznego, ale wynikiem konkretnych decyzji i wartości. Alternatywne ścieżki rozwoju technologii są możliwe, ale wymagają one aktywnego zaangażowania ze strony jednostek, społeczeństw i instytucji.
Pomiędzy determinizmem a sprawczością
Dyskusje o wpływie technologii na człowieka często oscylują między dwoma skrajnościami: deterministycznym pesymizmem, który widzi w technologii nieodwracalną siłę dehumanizującą, a naiwnym optymizmem, który celebruje każdą innowację jako oznakę postępu. Rzeczywistość jest bardziej złożona – technologia nie determinuje ludzkiego doświadczenia w sposób absolutny, ale też nie jest neutralnym narzędziem całkowicie podlegającym naszej kontroli.
Proces redukowania człowieka do algorytmu nie jest ani nieuniknionym rezultatem rozwoju technologicznego, ani prostym wynikiem złych intencji korporacji technologicznych. Jest raczej efektem złożonej interakcji między technologicznymi możliwościami, ekonomicznymi bodźcami, społecznymi wartościami i indywidualnymi wyborami. Zmiana tego procesu wymaga interwencji na wielu poziomach – od indywidualnych praktyk użytkowników, przez kulturowe narracje na temat technologii, po systemowe rozwiązania regulacyjne i alternatywne modele biznesowe.
Filozofka technologii Langdon Winner argumentuje, że technologie mają „politykę” – wbudowane wartości i założenia, które kształtują relacje społeczne. W tym sensie, algorytmy nie są neutralnymi narzędziami obliczeniowymi, ale artefaktami kulturowymi, które odzwierciedlają i wzmacniają określone wizje świata. Rozpoznanie tej polityczności technologii jest kluczowym krokiem w kierunku bardziej świadomego i krytycznego zaangażowania z nią.
Zamiast fatalistycznego podporządkowania się technologicznemu determinizmowi lub naiwnej wiary w technologiczną utopię, możemy dążyć do bardziej zniuansowanego podejścia – takiego, które uznaje zarówno potencjał technologii do wzbogacania ludzkiego doświadczenia, jak i jej zdolność do jego zubożania. Możemy starać się kształtować technologię zgodnie z wartościami, które cenimy – prywatnością, autonomią, różnorodnością, sprawiedliwością – zamiast bezkrytycznie akceptować wartości wpisane w obecne systemy technologiczne.
W tym kontekście, proces redukowania człowieka do algorytmu nie jest nieuniknionym rezultatem rozwoju technologicznego, ale wynikiem konkretnych decyzji i wartości. Alternatywne ścieżki rozwoju technologii są możliwe, ale wymagają one aktywnego zaangażowania ze strony jednostek, społeczeństw i instytucji.
W przestrzeni między deterministycznym pesymizmem a naiwnym optymizmem istnieje możliwość sprawczego, krytycznego zaangażowania z technologią. Nie jesteśmy skazani na pasywną akceptację algorytmicznej redukcji człowieka, ale też nie możemy po prostu odwrócić się od technologii, która stała się integralną częścią współczesnego życia. Zamiast tego, możemy dążyć do bardziej świadomego, refleksyjnego i krytycznego współistnienia z technologią – takiego, które rozpoznaje jej ograniczenia i potencjalne zagrożenia, ale też jej zdolność do poszerzania naszych możliwości i wzbogacania naszego doświadczenia.
Proces redukowania człowieka do algorytmu nie jest nieodwracalny – jest to raczej etap w naszej ewoluującej relacji z technologią, etap, który może prowadzić do nowych form świadomości i nowych sposobów bycia człowiekiem w świecie coraz bardziej zapośredniczonym przez cyfrowe technologie. Kluczowe pytanie nie brzmi, czy możemy całkowicie uniknąć algorytmicznej kategoryzacji, ale jak możemy zachować to, co najcenniejsze w ludzkim doświadczeniu – jego złożoność, nieprzewidywalność, kreatywność – w świecie, który coraz bardziej przedkłada mierzalne nad niemierzalne, przewidywalne nad nieprzewidywalne, kategoryzowalne nad wymykające się kategoryzacji.
W tej perspektywie, algorytmiczna redukcja człowieka nie jest po prostu procesem technologicznym czy ekonomicznym, ale fundamentalnym wyzwaniem filozoficznym i etycznym – pytaniem o to, jak chcemy definiować człowieczeństwo w erze cyfrowej. Odpowiedź na to pytanie nie leży wyłącznie w sferze technologii, ale również w naszych wartościach, decyzjach i wyobraźni.