Internet za 200 lat: kryształowe jaja sekretarki (making of TEDx talk)

Na pierwszym polskim TEDx, w Warszawie 5 marca 2010, miałem przyjemność zaprezentować temat, nad którym pracuję: przewidywanie przyszłości Internetu w długiej perspektywie. Do emerytury zostało mi ok. 30 lat i czas ten chciałbym spędzić pracując dalej w Onet.pl – chcę więc, żeby ta firma przez kolejne 30 lat aktywnie się rozwijała. W poniższym artykule dokonuję rozkładu mojego wykładu zachęcając do dyskusji nad poszczególnymi elementami.

TED: teatr koncepcji

TED (www.ted.com, en.wikipedia.org/wiki/TED_(conference) ) to coroczna konferencja odbywająca się w Kalifornii. Jej motto to „ideas worth spreading”, czyli „koncepcje warte propagowania”. Świadomie użyłem tłumaczenia „koncepcje”, bo słowo „idea” jest ogromnie wieloznaczne. Tymczasem istotą TED jest zmuszanie do ponownej konceptualizacji świata – czyli spojrzenia na świat w sposób zupełnie inny niż dotychczas i rozumienia go innymi pojęciami.

Wielkim sukcesem TED była decyzja o publikowaniu wszystkich wystąpień w Internecie. W związku z tym może je oglądać każdy – nie tylko bezpośredni uczestnik. Spowodowało to popularność wykładów z TED i samej marki TED, a to z kolei pozwoliło powstać sieci niezależnych imprez, powstających na licencji TED, pod wspólną marką TEDx. Pierwsze takie wydarzenie miało miejsce w Warszawie, w starym budynku Biblioteki Uniwersytetu Warszawskiego, 5 marca 2010.

TED to jest teatr. Prawdziwy wykład TED-owy ma spowodować, że człowiek zmieni swój sposób myślenia. Taki wykład musi człowiekiem wstrząsnąć, podobnie jak porządna starogrecka tragedia.

Tak też potraktowałem wyzwanie które stanęło przede mną:

mam 8 minut, by zmienić Wasze myślenie o przyszłości świata

Analiza krytycznoliteracka utworu

Wybór języka

Organizatorzy dali wybór: mówić po polsku lub po angielsku. Postawiłem na angielski, bo uznałem że to niezwykła okazja uzyskania międzynarodowego prestiżu (gdyby moim ideom udało się przebić do powszechnej świadomości). Jestem Polakiem i po polsku mówi mi się dużo swobodniej… Jednak podjąłem to wyzwanie.

Przywitanie i dowcip na obudzenie publiczności

Publiczność pamięta jeszcze wykład, który był przed chwilą. Aby mnie zapamiętano, muszę skupić uwagę na sobie. Najlepszy jest do tego dowcip.

Przedstawiam się:

Nazywam się Marek Minakowski. Jestem Głównym Naukowcem w Onet.pl. Moja praca to przewidywanie przyszłości. I jest to trudna praca.

W tej chwili na ekranie pojawia się „poważny” cytat. Większość Polaków może go nie zrozumieć, bo dowcip jest kulturowy. Otóż autorem cytatu jest Yogi Berra, amerykański gracz w baseballa, znany z setek głupich powiedzeń w stylu Forresta Gumpa lub sławnego jakiś czas temu kandydata na prezydenta Białegostoku, Krzysztofa Kononowicza („chciałbym, żeby w ogóle nic nie było”). Otóż Yogi Berra miał się kiedyś wyrazić (choć nie ma na to dowodów):

Prognozowanie jest trudne. Zwłaszcza jeśli chodzi o przyszłość.

Yogi Berra, XX wiek

Oczywiście, cytat ten dowodzi, że Yogi Berra nie rozumiał słowa „prognozowanie” (making predictions). Nie da się bowiem prognozować (czy przepowiadać) czegoś, co nie odnosi się do przyszłości.

Przy cytacie pojawia się data „XX wiek” będzie to istotne za chwilę.

Budowanie napięcia

Każdy, kto pracuje w branży nowych mediów wie, że serwisy z nowinkami technologicznymi pracują z terkotem ckm-u. Co chwilę pojawiają się jakieś nowości. Jednak tematyka TED to nie tylko Internet i nowe technologie, dlatego liczyłem się z tym, że dla znacznej liczby uczestników może to wcale nie być oczywiste. W szczególności może to nie być oczywiste dla takich ludzi, jak p. Anna Dymna, która występowała niedługo po mnie.

Dlatego postanowiłem wprowadzić słuchaczy w tę atmosferę, migając im przed nosem dziesiątką krzykliwych tytułów, akcentując to też odpowiednią intonacją

[Prognozowanie przyszłości] jest trudne, ponieważ jesteśmy bombardowani dzień po dniu nowymi produktami i usługami (dajmy im nazwę: maszyny), które są wspaniałe, niezwykłe, zadziwiające, rewolucyjne, przełomowe…

W wyliczance tej nawiązuję zwłaszcza do stylu przemów Steve’a Jobsa, które są dość często parodiowane.

Dość, tak dalej się nie da

Drzewa zasłaniają nam las. Ta XX wieczna mądrość nam nie pomoże. Potrzebujemy mądrości innego typu.

Przekreślam cytat Yogiego Berry żeby uwydatnić zmianę paradygmatu: nowy początek. Odcinamy się od tego, co do tej pory widzieliśmy. Wykorzystuję popularny motyw z opowiadań Arthura Conan Doyle’a, by upiec dwie pieczenie na jednym ogniu: a) wprowadzić tematykę historyczną, która jest sednem wykładu i b) spowodować by słuchacz przyjął, że to co nastąpi od tej pory będzie wynikało z siebie jak logiczna dedukcja, aż do pointy.

Pamiętajmy, że zostało mi już tylko 7 minut! Nie mam czasu na wchodzenie w szczegóły – od tej pory wszystko służy przekonaniu Cię, drogi słuchaczu, że moja teza (którą usłyszysz za 6 minut) jest dobrze uzasadniona.

Dedukcja! To elementarne, drogi Watsonie!

Obserwacja pierwsza: sumaryczna inteligencja maszyn rośnie

Kontynuując wstęp powtarzam rzeczy oczywiste: wspomnianym maszynom (do których zaliczam wszelkie produkty informacyjne i usługi informacyjne, których przykłady były na wstępie) bez przerwy wykładniczo rośnie:

1) Storage (pamięć trwała, aby zaskoczyć odbiorcę pokazuję przykład ze starych bibliotek gromadzących papierowe książki)
2) Moc obliczeniowa (przykład: prawo Moore’a)
3) Strumień danych wejściowych (klasyczny przykład: kamery przemysłowe czyli CCTV)

Zaskoczenie: sumaryczna inteligencja ludzkości jest stała

To jest kluczowy moment wykładu, z którym bardzo trudno się pogodzić osobom, które nie rozumieją dobrze teorii ewolucji. Dlatego pokazuję realny przykład: rycinę ludzkiego mózgu z książki wydrukowanej 170 lat temu.

Wspomniane prawo Moore’a mówi, że co 2 lata podwaja się liczba tranzystorów w układzie scalonym, co odpowiada ich mocy obliczeniowej. Oznacza to, że za 170 lat moc obliczeniowa pojedynczego komputera 85 razy zdąży się podwoić, czyli wzrośnie 38685626227668133590597632 razy. Tak, proszę państwa: nasze prapraprawnuki w roku 2180 będą miały procesory nie tysiąc razy szybsze, ale około 40 milionów miliardów miliardów (4 i 27 zer) razy szybsze (jeżeli wszystko pójdzie jak dawniej i prawo Moore’a będzie nadal działać).

Z tej perspektywy gdyby nawet nasze biologiczne mózgi przyspieszyły pracę czterokrotnie w ciągu najbliższych 170 lat, różnica byłaby żadna. A nawet mimo tego – nie widać oznak, by w ciągu minionych 170 lat (od wydrukowania tej ryciny mózgu) zmieniło się cokolwiek.

Tymczasem dla ewolucji biologicznej 170 lat jest niezauważalne. Dobór naturalny działa w ten sposób, że nawet 10.000 lat jest mało istotne. Jeżeli nasze mózgi różnią się czymś od mózgów naszych przodków sprzed dziesięciu tysięcy lat, to ta różnica jest mniejsza niż różnica między dwojgiem ludzi mających najbliższych wspólnych przodków 10 tysięcy lat temu (np. jakiś Murzyn i jakiś Indianin).

Skoro więc po stronie ludzkości nie zmienia się:

  • moc obliczeniowa jednostkowego mózgu (bo nie zmienia się ani liczba neuronów czy sposób ich działania),
  • przepustowość nerwów (wzrokowych, słuchowych, węchowych itp.) ani
  • pojemność pamięci operacyjnej (słynna magiczna liczba 7 ±2)
  • ani całkowita liczba mózgów (no dobrze, powiedzmy że liczba ludności na Ziemi wzrośnie jeszcze pięciokrotnie – czy to coś zmieni wobec owych 4 i 27 zer?)

– to możemy przyjąć, że łączna inteligencja rodzaj ludzkiego (bez maszyn, cyber-implantów, książek itd.) jest i pozostanie stała.

Pierwsze prawo Minakowskiego

Czas sformułować pierwsze prawo:

Cała informacja produkowana przez maszyny DLA ludzi
=
Cała ludzka dostępna „pojemność informacyjna”
+
Informacyjne śmieci

Celem tego sformułowania jest przekazanie słuchaczom nowego punktu widzenia: informacja, której nie jesteśmy w stanie  przyswoić – nie istnieje. Książki, których nikt nie czyta, to makulatura. Wiadomości, których nikt nie słucha, to tylko puste dźwięki. Świat maszyn (komputerów, książek, nagrań) nie istnieje realnie – realnie istnieje to, co jest dostępne dla nas.

Drugie prawo Minakowskiego wynika z poprzedniego

Skoro nasza pojemność informacyjna jest stała, to

Suma informacji wychodzących ze świata maszyn i wchodząca do świata ludzi (tzn. ta, która nie jest śmieciem) jest stała

Oczywiście, stała w przybliżeniu. Jeżeli masa informacji absorbowanych przez ludzkość w ciągu najbliższych 200 lat zwiększy się dziesięciokrotnie (co jest możliwe), to prawo powyższe nie będzie pogwałcone. Ważne, że w tym czasie produkcja informacyjna maszyn może wzrosnąć miliardy miliardów miliardów razy.

Informacja pchana i informacja ciągnięta (push i pull)

Czynię tu istotną obserwację: są dwa podstawowe sposoby absorbowania informacji przez ludzi:

a) aktywne wyciąganie czyli zadawanie pytań
b) bierne przyjmowanie czyli obserwacja świata

Trzy kolejne slajdy przedstawiają to na przykładach ewolucyjnych.

Informacja w stylu „pull” to zarówno pytanie świętego mędrca o to, kiedy wreszcie spadnie deszcz i susza się skończy, jak i szukanie odpowiedzi w encyklopediach i słownikach, jak i wreszcie zadawanie pytań wyszukiwarce internetowej.

Informacja w stylu „push” to bierna zgoda na to, że informacja sama do nas dotrze: zobaczymy chmurę spoglądając od niechcenia w niebo (chyba będzie deszcz!), przeglądanie gazet (niesamowite, co ten człowiek zrobił!) jak i zgoda na to, że facebookowy „przyjaciel” będzie nas informował o tym, że nie chce mu się iść do pracy.

Te dwa sposoby przyjmowania informacji są z nami od tysiącleci – i nie ma szans, by cokolwiek się tu zmieniło.

Konkluzja

Skoro nic się nie zmieni po naszej stronie, bo nie będziemy w stanie przyjąć więcej informacji niż zmieści się to w naszych nerwach wzrokowych, słuchowych i w ogóle zmysłowych (nihil est in intellectu quod non fuerit in sensu jak pisał św. Tomasz z Akwinu), a jednocześnie produkcja intelektualna maszyn będzie rosła bez końca, a jednocześnie informację można aktywnie wyszukiwać lub biernie przyjmować, to za 200 lat Internet będzie wyglądał następująco:

Informacja „pull„: kryształowa kula, która odpowie na wszystkie pytania

Dla przykładu: na fundamentalne pytanie „jaką sukienkę mam na siebie teraz włożyć?” kryształowa kula mojej prapraprawnuczki odpowie natychmiast kierując się tym, co rzeczona moja potomkini miała dzień wcześniej na sobie, jaka jest temperatura, wiatr i wilgotność, jest prawodopodobieństwo, że inne panie założą coś podobnego itd. itd.

Informacja „pull„: idealna sekretarka, która obroni przed natrętami, powiadomi o rzeczach ważnych oraz zapewni przyjemność i rozrywkę

To wniosek trudny i miałem wiele kłopotów z jego wysłowieniem, zanim nie poprosiłem jako recenzenta własnej żony. Bardzo jej za to dziękuję!

Przesłaniem moim jest to, że skoro informacji w „świecie maszyn” będzie dziesiątki rzędów wielkości za dużo, to musi powstać maszyna, która będzie z tych informacji wybierać tylko najważniejsze – i tylko te dostarczać nam, ludziom. Obecnie najbliższy takiej maszyny jest Facebook, zwłaszcza od wdrożenia w listopadzie 2009 podziału na „live feed” i „news feed” czyli od momentu, gdy to, co standardowo widzimy nie jest już pełnym strumieniem informacji przechodzącym przez platformę Facebook, ale jest przefiltrowane pod kątem naszej przyswajalności. To temat wart osobnego, bardzo szerokiego potraktowania.

Dowcip finałowy: soczysta pointa o kryształowych jajach naszej idealnej sekretarki

Wyjaśniam od razu: pointa była przygotowana zawczasu. Nie wiedziałem tylko czy jej użyć. Jednak wobec tego, co przedstawił w swoim wcześniejszym wystąpieniu przedstawiciel kancelarii prawnej Bird&Bird (nakładanie prezerwatywy na ogórek) nie miałem wątpliwości.

Dlatego, mając za plecami ostatni slajd mojego wystąpienia, dokonałem świadomego przejęzyczenia i zamiast powiedzieć o tym, że czeka nas:

Perfect secretary with crystal ball

powiedziałem:

Perfect secretary with crystal balls

Literalnie można bronić takiej tezy (to tak jakbyśmy mieli jednego Facebooka i dwie wyszukiwarki: Google i Bing). Jednak w tym przypadku chodziło oczywiście o to, by teza została przez wszystkich zapamiętana.

Nawet kosztem tego, że ktoś mógł pomyśleć, że zbyt słabo znam angielski, by zrozumieć tę różnicę. To koszt wart poniesienia… 🙂

Ten wpis został opublikowany w kategorii Historia Internetu. Dodaj zakładkę do bezpośredniego odnośnika.

10 odpowiedzi na Internet za 200 lat: kryształowe jaja sekretarki (making of TEDx talk)

  1. sieciobywatel pisze:

    Jeżeli nasze mózgi różnią się czymś od mózgów naszych przodków sprzed dziesięciu tysięcy lat, to ta różnica jest mniejsza niż różnica między dwojgiem ludzi mających najbliższych wspólnych przodków 10 tysięcy lat temu (np. jakiś Murzyn i jakiś Indianin).
    Skoro więc po stronie ludzkości nie zmienia się:
    * moc obliczeniowa jednostkowego mózgu (bo nie zmienia się ani liczba neuronów czy sposób ich działania),

    I tutaj tkwi błąd w tym rozumowaniu. Powielając analogię mózg/procesor, w małym stopniu zmienia się jedynie liczba bramek/komórek logicznych. Ale nie oznacza to, że nie zmienia się architektura. Jeżeli porównać mózg do układów cyfrowych, to nie byłyby to układy podobne do procesorów, ale raczej układy programowalne typu PLD/FPGA. Tyle że „nasz procesor” jest dużo bardziej elastyczy i konfigurowalny (myślimy nie tylko mózgiem, ale całym układem nerwowym ze wspomaganiem np. układu hormonalnego).
    W tego typu układach to nie liczba bramek ma wpływ decydujący, ale algorytm. Prosta minimalizacja funkcji logicznej może przynieść wzrost o kilka rzędów wielkości. Tylko że dla procesorów możemy tego dokonać dla kilkunastu, góra kilkudziesięciu zmiennych. Ucząc się usprawniamy algorytmy analizy danych (np. z otoczenia, ocena odległości etc.) dla dziesiątek jeśli nie setek czynników. Wyobraźmy sobie, że złożoność algorytmu dla układu cyfrowego wynosi n^n!, a mózg ma heurystyczny algorytm o złożoności n^n. Daną wejściową są bodźce otoczenia, kilkanaście czynników o „rozdzielczości” powiedzmy 100 stopni każdy (np. 100 rozróźnianych zapachów, 100 dźwięków). O ile musiałby być szybszy układ cyfrowy, aby dorównać człowiekowi?
    Nie jest to czcze gadania, wystarczy zastanowić się, ile informacji o dużej złożoności musi przetrawić np. myśliwy w dżungli. Taki osobnik, może w ułamku sekundy wychwycić dźwięk, który może oznaczać zagrożenie, mimo tysiąca innych dzwięków i ciągłego ruchu wokół. To jest umiejętność nabyta przez praktykę, której nie sposób zaprogramować na żadnym znanym komputerze.
    * przepustowość nerwów (wzrokowych, słuchowych, węchowych itp.)
    Nieprawda. Np. u osób niewidomych wzrasta czułość innych zmysłów. Czyli mózg „przekonfigurować” obsługę zmysłów.
    * pojemność pamięci operacyjnej (słynna magiczna liczba 7 ±2)
    Znowu błąd. Liczbę Millera powinno się porównać nie do pamięci operacyjnej, ale do liczby rejestrów. Typowy pctowy procesor ma 4 rejestry ogólnego przeznaczenia. Czyli jednoczesnie potrafi operować na 4 liczbach. Gorzej niż człowiek. Jeżeli potrzebuje piątej, musi jedną z używanych zapisać do storage (cache, RAM, HD) i dopiero na zwolnionym miejscu może umieścić kolejną (po uprzednim jej pobraniu ze storage).
    Podsumowując – zgadzam się, że dzisiejsza ludzkość nie byłaby w stanie ogarnąć strumienia informacji za 100 lat. Tak jak Platon nie miałby szans odnaleźć się w czasach dzisiejszych.
    Ale z tego w żaden sposób nie wynika, że ludzie za 100 lat nie będą sobie w stanie z tym poradzić. Wystarczy, że będą myśleć inaczej niż my 😉

  2. @sieciobywatel
    * W tego typu układach to nie liczba bramek ma wpływ decydujący, ale algorytm.
    Znakomita hipoteza jak by powiedział K.R. Popper – jednocześnie odważna i empirycznie falsyfikowalna. Niestety – fałszywa, co zaraz pokażę.
    Z typowym Murzynem Bantu mam wspólnych przodków co najmniej kilkadziesiąt tysięcy lat temu (kilkadziesiąt tysięcy cykli Prawa Moore’a). Tymczasem mogę adoptować niemowlę murzyńskie, wychować z własnym dzieckiem i różnice w sposobie rozumowania, inteligencji itd. między nimi będą zaniedbywalne. Na pewno nie przekroczą dwukrotności (czyli tego, co maszyny pokonują w rozwoju w jednego cyklu Prawa Moore’a – dwóch lat). Eksperymenty tego typu (adoptowanie krewniaka z najbliższymi wspólnymi przodkami żyjącymi dziesiątki tysięcy lat temu) są przeprowadzane bez przerwy, zwł. w USA. Obserwowane różnice są minimalne. Genetycznie dwa razy bliżej jest mi do moich przodków żyjących te kilkadziesiąt tysięcy lat temu niż do pochodzących od nich moich kuzynów-Murzynów. Mamy więc wniosek, że dzisiejsze roczne niemowlę zachowuje się tak samo jak roczne niemowlę kilkadziesiąt tysięcy lat temu.
    Zatem to co mamy genetycznie ustalone, to nie tylko liczbę neuronów, mechanizmy działania synapsy itd., ale też podstawy „systemu operacyjnego” – to wszystko, co łączy zachowania niemowląt na całym świecie.
    Różnice między ludźmi oddalonymi o dziesiątki tysięcy lat nie są więc genetyczne, ale osobnicze i kulturowo-językowe. Czy tutaj też nie widać postępu?
    Przeprowadzałem tego typu eksperymenty: czytałem w oryginale utwory Arystotelesa (starszy ode mnie o 2356 lat) i św. Tomasza z Akwinu (starszy ode mnie o 698 lat). Słowo honoru, że obaj osobniczo byli lepsi ode mnie. Zarówno pod kątem zdolności do generalizacji jak i tempa produkcji intelektualnej. Nie widać żadnych śladów na to, by w ciągu najbliższych kilku tysięcy lat ludzkość mogła dzięki optymalizacji własnego software’u dokonać postępu takiego, jaki maszyny robią w ciągu lat dziesięciu.
    Co do liczby Millera – mówiąc o pojemności miałem na myśli przestrzeń adresową czyli liczbę „komórek”. To co do nich upchniemy zależy od naszych zdolności do generalizowania, ale tu, jak wspomniałem, uważam się za dużo gorszego od Arystotelesa, który się urodził 1178 cykli Prawa Moore’a przede mną…

  3. Boss pisze:

    No i wszystko się zgadza ilość bramek, zdolność adaptacji itd. Gdyby Tomasza z Akwinu prze-teleportować do naszych czasów, to – po przeżyciu szoku – nauczyłby się korzystać z Internetu i pisał by ciekawe komentarze na Facebooku i Tweeterze. Generalnie IMHO wydaje mi się że nie uzasadnione jest twierdzenie iż osiągnęliśmy już maksimum, że więcej się nie da – czyli jak to ujął @sieciowyobywatel że nie możemy zoptymalizować niektórych funkcji. I nie chodzi mi tutaj o genetyczną optymalizację niskopoziomową (na poziomie mutliplikacji przesyłu impulsów pomiędzy synapsami) , ale wykorzystanie adaptacyjne coraz nowszej technologi do coraz lepszego organizowania informacji.
    Doświadczenie 'naszych czasów’ jest o tyle cenniejsze, że sami jesteśmy świadkami *całej* historii internetu i obserwować nasze zdolności adaptacyjne do przyjmowania informacji: stopniowe zastępowanie szczegółowej treści, wyabstrahowanym modelem na ustalonym poziomie ogólności. Co nie znaczy że bardziej szczegółowe informację stanowią tylko informacyjne śmieci – przeciwnie: po prostu nie ładujemy ich od razu do pamięci a pozostawiamy do nich link i wczytujemy on demand (taki mózgowy lazy-load) (hmmm.. jakby to nazwać.. DetailsOnDemand.?;)
    Druga sprawa: to nie maszyny produkują informacje tylko ludzie (przynajmniej narazie) – maszyny tylko usprawniają ten proces – więc skoro limitowana jest liczba odbieranych i przetwarzanych informacji, przez analogię, limitowany jest również zakres ich produkcji (czyli tak jak to było w przypadku skeczu o komentatorze sportowym „on to mówi i on to słyszy więc znów to mówi i znów to słyszy – a musi mówić coraz szybciej żeby zdążyc powiedzieć to co dopiero słyszy)
    No i ostatnia sprawa: co jeśli nasza doskonała sekretarka, któregoś dnia zabierze swoje kryształowe jaja i pójdzie założyć własny biznes? Wtedy pojemność ludzkiej percepcji przestanie być ograniczeniem, tzn dla internetu – nie dla ludzi 😉
    Pozdrawiam 🙂

    • @Boss
      Nauka polega m.in. na tym, żeby w zmiennej rzeczywistości odnaleźć to, co niezmiennicze. Przykład – np. zasada zachowania pędu („suma wektorowa pędów wszystkich elementów układu izolowanego pozostaje stała”). Staram się więc tak zdefiniować strony równania, żeby po jednej stronie mieć coś praktycznie stałego.
      Moje rozważania wynikają częściowo z osobistego doświadczenia w obcowaniu z papierowymi materiałami archiwalnymi. Otóż problem jest taki, że nie ma wystarczająco ludzi żeby przeczytać to, co zostało napisane między XV a XIX wiekiem i nie widać szansy, że kiedykolwiek znajdziemy. Te księgi więc żyją własnym życiem (rozmawiają sobie z pleśnią, która je porasta), natomiast z naszej perspektywy jest tak, jakby one nie istniały: nie ma do nich indeksów, więc nawet nie wiemy, co w nich jest, nie możemy więc pobierać szczegółów „on demand”.

  4. sieciobywatel pisze:

    Te księgi więc żyją własnym życiem (rozmawiają sobie z pleśnią, która je porasta), natomiast z naszej perspektywy jest tak, jakby one nie istniały: nie ma do nich indeksów, więc nawet nie wiemy, co w nich jest, nie możemy więc pobierać szczegółów “on demand”.

    Zgadzam się, tylko co z tego miałoby wynikać? Leonardo Da Vinci również nie był w stanie przeczytać wszystkiego, co ludzkość wyprodukowała przez poprzednie 500 lat. Nie chodzi o to, żeby być w stanie przetrawić wszelką dostępną informację, ale o sposoby jej filtrowania i umiejętność wyłapywania wzorców. A zarządzanie informacją nie zależy od sprzętu, ale głównie od struktur danych i algorytmów. Do tego powstają narzędzie i instytucje jak sieci społeczne czy wizualizacja danych.
    Zwracam uwagę, że zawsze musieliśmy wiedzieć, że coś istnieje, aby uzyskać o tym informację. Nawet w czasach prehistorycznych, np. zupełni inny zakres informacji analizował myśliwy na stepie, inny łowca w dżungli. To proces wychowania w danym środowisku tworzy nasze oprogamowanie (algorytmy).
    Nie sądzę, żebyśmy mogli spodziewać się jakiegoś załamania. Jedno co jest pewne, to że nie da się w infochmurze przyszłości funkcjonować w oparci o stare przyzwyczajenia. Ale jestem optymistą i jestem absolutnie pewien, że nowe pokolenia znajdą sposoby efektywnego przetwarzania znacznie wiekszej ilości informacji, niż my.

  5. Zgadzam się, tylko co z tego miałoby wynikać? Leonardo Da Vinci również nie był w stanie przeczytać wszystkiego, co ludzkość wyprodukowała przez poprzednie 500 lat.

    Różnica jest fundamentalna. W 1472 najlepsza biblioteka uniwersytecka na świecie (Queen’s College w Cambridge) liczyła 199 książek. Jedna osoba była ją w stanie przeczytać w całości!
    Dzisiaj nawet w bardzo wąskiej dziedzinie nie da się śledzić tego, co jest produkowane na bieżąco. Nawet abstraktów.
    O ile kiedyś problem dotyczył poszczególnych osób (nikt nie mógł wiedzieć wszystkiego, ale wszyscy razem wiedzieli wszystko), to teraz problem przekroczył możliwość pojmowania całej ludzkości.
    Ja nie mówię o załamaniu. Mówię o przecięciu dwóch krzywych, z których jedna rośnie wykładniczo (liczba zapisanych informacji) a druga (liczba bajtów przyswajanych przez ludzkość) zbliża się do maximum, a potem być może zacznie spadać (jeżeli przyrost naturalny będzie ujemny).
    To przecięcie spowodowało, że przeszliśmy z rynku producenta informacji (informacji się szuka) na rynek konsumenta informacji (przed zalewem informacji trzeba się bronić).

  6. sieciobywatel pisze:

    Ja nie mówię o załamaniu. Mówię o przecięciu dwóch krzywych, z których jedna rośnie wykładniczo (liczba zapisanych informacji) a druga (liczba bajtów przyswajanych przez ludzkość) zbliża się do maximum, a potem być może zacznie spadać (jeżeli przyrost naturalny będzie ujemny).
    To przecięcie spowodowało, że przeszliśmy z rynku producenta informacji (informacji się szuka) na rynek konsumenta informacji (przed zalewem informacji trzeba się bronić).

    No to gratuluję refleksu, bo te krzywe przecięły się jakieś 150 lat temu, wraz z upowszechnieniem się wynalazku prasy bębnowej i gwałtownym rozwojem prasy.
    Dosyć oczywiste jest też, że rozwinęły się inne sposoby przetwarzania informacji, mniej oparte na erudycji, a w większym stopniu nad filtrowaniem informacji. Ale dla mnie to nie tylko logiczna konsekwencja wyżej wymienionych faktów, ale też bardzo pozytywna zmiana.
    Założeniem całego „talk’a” było, że zbliżamy się do kresu możliwości ludzkości, jeżeli chodzi o umiejętność przetwarzania informacji. I z tym się zupełnie nie zgadzam, bo po pierwsze nasi potomkowie zapewnie będą przetwarzać informację w bardziej efektywny sposób, po drugie nie można rozpatrywać tego w odniesieniu do możliwości jednostki. Jest to absurd w odniesieniu do technologi KOMUNIKACYJNYCH. Zdolność przetwarzania informacji przez pewną społeczność nie jest prostą sumą zdolności poszczególnych jej członków, mamy do czynienia nie tylko z zakłóceniami utrudniającymi przepływ informacji, ale też z synergią. Nowe technologie informacyjne, takie jak internet, z jednej strony mogą minimalizować negatywny efekt zakłóceń, z drugiej wzmacniać synergię.
    Czyli jestem optymistą. I radzę odrzucić zupełnie zwyczaj przykładania starych schematów do nowej rzeczywistości.

  7. @sieciobywatel
    Nieprawda: wynalazek prasy rotacyjnej i linotypu spowodował gigantyczny wzrost liczby egzemplarzy, ale nie spowodował wzrostu objętości RÓŻNYCH tekstów, a nawet przeciwnie – wszyscy czytali to samo, więc z punktu widzenia ludzkości w XIX wieku wystarczyłoby kilkaset osób, by na bieżąco czytać całą produkcję prasową.
    Założeniem mojego wykładu było coś zupełnie innego – ustalenie w jakim kierunku będą się rozwijały przyszłe media. Wcale nie mówiłem o kresie możliwości komunikacyjnych. Wręcz przeciwnie – komunikacja ta będzie się rozwijać, ale rozwój ten będzie przypominał rozwój samochodów – od kilkudziesięciu lat samochody robią to samo: mają cztery koła, silnik i urządzenia do sterowania (kierownica, pedały itp.): to się nie zmienia – nie przybywa kół, nie przybywa kierownic czy pedałów w samochodzie, a jednak zmiany „pod maską” są bardzo duże. Tyle że ja nie pracuję dla przemysłu motoryzacyjnego, ale dla przemysłu medialnego, więc mnie interesuje, jakie zmiany będą się odbywały „pod maską” mediów.

  8. I jeszcze jedno – argument, że ludzie będą nadal ewoluować, że przybędzie nam możliwości mentalnych przypomina mówienie, że ludziom wyrosną jeszcze dwie nogi, by móc obsługiwać więcej pedałów w samochodzie.
    Otóż nie – to nie ludzie się przystosowują do samochodów, ale samochody są coraz bardziej przystosowane do ludzi. Tak samo będzie z mediami (np. serwisami internetowymi i tym, co je zastąpi): będą coraz bardziej się dostosowywać do możliwości poznawczych człowieka.
    Równie dobrze można stwierdzić, że możliwości poznawcze będą się ZMNIEJSZAĆ, tak jak odkąd wynaleziono okulary POGARSZA SIĘ wzrok u ludzi. Nie jest też tak, że wynalezienie samochodu spowodowało, że ludzie biegają szybciej, by dorównać samochodom: jest dokładnie odwrotnie: ludzie biegają wolniej, bo nie muszą biegać tak często.

  9. sieciobywatel pisze:

    nieprawda do nieprawda: 🙂
    Wynalazek prasy sieciowej spowodował lawinowe pojawianie się w obiegu różnych tekstów. Dzieki radykalnej obniżce kosztów wydawniczych druga połowa XIX wieku to rozwój prasy, co pociągnęło za sobą utworzenie opinii publicznej. To z kolei spowodowało, że ludzie zaczęli dużo więcej publikować, dając publiczny wyraz swoim przemyśleniom. Przedtem taką możliwość miała jedynie garstka.
    Nie mówimy o nagłym przyroście możliwości mentalnych. Mówimy o innym sposobie ich wykorzystywania, w celu lepszego ogarniania coraz większego strumienia informacji. Nasz umysł ma kolosalne możliwości adaptacyjne – potrafi błyskawicznie rozpoznawać wzorce i opracowywać algorytmy.
    Oczywiście zgadzam się, że media będą (a przynajmniej powinny) dostosowywać się do zdolności poznawczych ludzi. Na tym polega ostatni hype na punkcie usability, UX i architektury informacji. Ale sposób przyswajania informacji także będzie ewoluował i bez sensu jest wyciąganie prostych pararel do komputerów, bo te działają zupełnie inaczej niż ludzki umysł. Polecam ciekawą recenzję G. Kasparowa, w sumie pisze on dokładnie to samo, co ja chcę przekazać. Tylko robi to jaśniej…
    Dodam jeszcze, że chociaż komputery potrafią pokonać ludzi w szachy, to robią dość prymitywnie, wykorzystując swoje zdolności kalkulacyjne. W problemach o większej złożoności obliczeniowej ludzie biją maszyny na głowę. Najlepsze programy przegrywają w Go z nastolatkiem, który nauczył się gry miesiąc wcześniej.
    Czyli jeszcze raz – zgadzam się, że stosując dzisiejsze metody przetwarzania informacji, za kilkanaście lat utonęlibyśmy w niej. Ale nie zgadzam się, że utoniemy – po prostu nauczymy się wykorzystać nasze zdolności w efektywniejszy, lepiej dostosowany do tej ilości danych sposób. Bądź wspomożemy się techniką (okulary).

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.