STUART KINLOUGH/IKON IMAGES/EAST NEWS
STUART KINLOUGH/IKON IMAGES/EAST NEWS

PRZYSZŁOŚĆ / 13:42,

Jak przewidzieć trendy, czyli trendologia stosowana

Przewidywanie trendów w technologii i kulturze to nie jest czysto abstrakcyjne ćwiczenie. Kto to potrafi, ma szansę zostać milionerem. Grupa badaczy z Uniwersytetu Warszawskiego podeszła do sprawy naukowo

Jak będzie zmieniał się internet? Które z nowych technologii zyskają na znaczeniu do 2025 roku? Może blockchain – ale jeśli tak, to w jakich zastosowaniach? Może sztuczna inteligencja? A może internet rzeczy – tylko czy rzeczywiście go potrzebujemy? 

Zadawanie podobnych pytań to niemal zawsze zaproszenie do spekulacji. Odpowiedzi ekspertów to zwykle dużo gadania, sporo przeczuć, trochę szczerej wiary i jeszcze więcej marketingowej otoczki, zwłaszcza gdy do głosu dorwie się reprezentant biznesu. A jednak Komisja Europejska w 2016 roku porwała się z motyką na słońce i powołała do życia nowy projekt badawczy: Internet Nowej Generacji (NGI). Jego celem było udzielnie odpowiedzi na pytanie o trendy i kierunki rozwoju sieci.

Jak dotąd nie wymyślono sensownej, naukowej metody badania i zgadywania trendów. Trzeba polegać na intuicji

Już na starcie było jasne, że to terra incognita do potęgi. Nie tylko nie wiadomo, w którą stronę zmierza internet, ale nie wiadomo nawet jaką, sensowną metodą badać trendy technologiczne. Ba, jak się okazało, także ci, którzy do tej pory się tematyką z powodzeniem zajmowali, nie mieli żadnej wiarygodnej metodologii.

Doskonałym przykładem jest tutaj tzw. „krzywa Gartnera”, modelowy schemat rozwoju nowych technologii opracowany – jeszcze w latach 90. - przez amerykańską firmę konsultingową. Teoretycznie wszystko jest bardzo rozsądne: spece Gartnera wyszli z założenia, że każda nowa technologia, by zacząć przynosić zyski, musi przejść przez etap przesadnych, rozdmuchanych oczekiwań, etap rozczarowań, gdy rzeczywiste wdrożenie zaczyna dowodzić do czego dana nowinka naprawdę może się przydać, oraz etap stabilnego rozpowszechnienia, gdy już wiemy, że nie tylko działa, ale również przynosi zyski.

Na chłopski rozum wszystko pasuje, żadna to wielka filozofia ale Gartner dorzucił do tego wykresy i sporo poezji. Najpierw więc mamy „wyzwolenie technologii”, która następnie wspina się na „szczyt rozdmuchanych oczekiwań”, by stamtąd płynnie zjechać do „doliny rozczarowania” a następnie rozpocząć wydłużony marsz „zboczem oświecenia” by ostatecznie osiągnąć „płaskowyż produktywności”.

JON BERKELEY/IKON IMAGES/EAST NEWS
Auta bez kierowcy o dziwo nie wywołują jeszcze wielkich dyskusji w internecie, choć przejechały - testowo - miliony kilometrów
JON BERKELEY/IKON IMAGES/EAST NEWS

I tak, przykładowo, w 2014 r. Gartner w swoim dorocznym raporcie stwierdzał, że „Big Data” właśnie zjeżdża w dolinę, z której wyjdzie za jakieś 5-10 lat, by ostatecznie osiągnąć fazę plateau. Pech polegał jednak na tym, że zaledwie rok później „big data” wypadły w ogóle z raportu. Nie dlatego, że zrezygnowano z analizy danych. Przeciwnie, upowszechniła się tak dalece i tak prędko, że w ogóle przestała być fenomenem. Z „wielkich danych” zrobiły się po prostu dane. Termin przestał być stosowany, rozszczepił się na pomniejsze, bardziej specjalistyczne pojęcia. Nie było ani doliny rozczarowania, ani zbocza oświecenia. 

Gartner zaś twierdził, że gdy coś nie pasuje mu do modelu, zwyczajnie to usuwa. I model jak trwał, tak trwa w niezmienionej postaci - odporny na wszelkie sygnały płynące z rzeczywistości. 

 Toteż ekonomiści nie od wczoraj mówią, że takie badanie trendów to żadne badanie. Ani to naukowe, ani oparte na danych (jakichkolwiek, niekoniecznie wielkich), ani potwierdzone rynkowo. Niektóre technologie dojrzewają długo, inne chwytają niemal od razu. Każdy przypadek jest osobny. Czasem nie ma żadnej doliny rozczarowania, czasem powszechne podekscytowanie rozprasza się samo z siebie, czasem świetne innowacje latami czekają na rynek, który zwyczajnie nie jest jeszcze gotowy. 

 Miał być uniwersalny trendomierz, a wyszły nici i trochę zamieszania wokół lewego wykresu, do którego na siłę dopasowuje się różne zjawiska i wynalazki.

Jak uniknąć tego błędu i stworzyć prawdziwy trendomierz? Tak brzmi jedno z pytań badawczych postawionych przez Komisję Europejską w ramach projektu NGI. Odpowiedź przyszła z… Uniwersytetu Warszawskiego. A konkretnie z DELab UW, niewielkiego zespołu badaczy zajmujących się zjawiskami gospodarki cyfrowej. 

- Dotychczasowe badania trendów technologicznych opierały się albo na wiedzy eksperckiej, z założenia uznaniowej, albo na prostych metodach automatycznych typu „google trends” - mówi dr Maciej Wilamowski, ekonomista nadzorujący pracę zespołu. - My spróbowaliśmy połączyć te dwa podejścia: „przeczytać” wszystkie eksperckie publikacje z zakresu nowych technologii dostępne w internecie, a następnie poddać je statystycznej analizie.

NICK LOWNDES/IKON IMAGES/EAST NEWS
Bitcoin umożliwia anonimowe zakupy w internecie - taką rolę w świecie realnym pełniła dotąd gotówka
NICK LOWNDES/IKON IMAGES/EAST NEWS

Ale jak przeczytać wszystko co w danym roku napisano np. o AI? Życia nie starczy, nawet gdyby czytanie ograniczało się do samych nagłówków. Zresztą, czy tu naprawdę chodzi o czytanie? Przecież celem jest śledzenie trendów. A trendy to nie to samo co poglądy, to raczej fakt, że coraz więcej ludzi i redakcji poświęca coraz więcej uwagi specyficznym rozwiązaniom lub wynalazkom. 

I tak zamiast czytać, naukowcy postawili na automatyzację procesu i wyławianie słów kluczowych. W tym celu stworzyli wirtualne, internetowe roboty – tzw. scrappery. To po prostu programy, które wpuszczone do sieci zasysały do plików treści z wybranych stron internetowych. Pobierały np. wszystko co przez ostatnie dwa lata opublikował słynny, popularno-naukowy serwis The Wired, ale też arXiv - elektroniczne archiwum artykułów naukowych z dziedzin bliskich nowym technologiom. Ściągały niusy technologiczne z serwisów Reutersa, Guardiana, teksty z Gizmodo, Fast Company, TechForge oraz naukowych bibliotek typu SSRN. 

 Łącznie przeanalizowały 140 tysięcy tekstów z tzw. mediów głównego nurtu, 95 tys. publikacji naukowych, ponad 1,2 mln komentarzy z technologicznego serwisu społecznościowego Reddit oraz 100 tys. artykułów z Wikipedii. 

Zanim ich wysiłki zostały poddane analizie i upublicznione w raporcie, pracowały przez dwa lata i osiem miesięcy. W efekcie powstał ogromny zbiór danych liczący kilkadziesiąt gigabajtów, z którego można było – przy użyciu względnie prostych algorytmów - wyłowić najczęściej występujące terminy. Tych terminów – tzn. słów czy zwrotów kluczowych - udało się wyselekcjonować 167. Następnie, analizując tzw. współwystępowanie określonych pojęć udało się wytypować 23 grupy najczęściej poruszanych zagadnień. Te zaś, by rzecz była bardziej przejrzysta, podzielono na stricte technologiczne, oraz te dotyczące spraw społecznych.

Już na tym etapie dało się zaobserwować ciekawe zjawisko, niby dobrze znane specom od nowych technologii, ale dotąd nieudowodnione. 

Gdy przychodzi do rozmowy o konsekwencjach społecznych – więcej do powiedzenia ma Europa. Gdy zaś rozmowa dotyczy samych kwestii technicznych – dominują Stany Zjednoczone. Poniekąd wynika to z faktu, że Unia Europejska jest rynkiem bardziej uregulowanym, czego najlepszym dowodem choćby RODO. Ale z drugiej strony sen z powiek spędzają nam głównie napięcia na arenie międzynarodowej. Na wykresach opracowanych prze DELab widac jednak bardzo wyraźnie: im częściej w tekstach przewijały się słowa „wybory”, „demokracja”, „fake”, „Rosja”, „etyczne” lub „propaganda” tym większa pewność, że dane teksty powstały w europejskich redakcjach lub na tutejszych uniwersytetach. Stary kontynent ekscytował się rosyjskimi działaniami w sieci, wpływem fake newsów na demokrację oraz regulacjami dotyczącymi prywatności. 

W tym samym czasie w źródłach amerykańskich najpopularniejsze słowa kluczowe z działki społecznej brzmiały odmiennie: pisano o „naruszeniach” (najpewniej w kontekście afery Cambridge Analityca) i „neutralności” (chodziło oczywiście o tzw. neutralność sieci, czyli równą szybkość dla wszystkich użytkowników i zastosowań internetu). 

Gdy zaś spojrzeć na kwestie technologiczne amerykanie zdecydowali przodowali w debacie nad sztuczną inteligencją (słowo AI było jednym z najczęściej używanych), podniecali się Alexą Amazona oraz Teslą. Europa w tym czasie nie miała szczególnie wyrazistej „własnej” debaty technologiczniej. Z równym zaangażowaniem co Amerykanie ekscytowaliśmy się natomiast blockchainem, bitcoinem, kopaniem kryptowalut i autonomicznymi systemami broni (zapewne po tym, jak pracownicy Google’a zbuntowali się przeciwko współpracy koncernu z Pentagonem). 

Po obu stronach Atlantyku śledzono też aferę Facebook’a – choć siłą rzeczy i tutaj zaangażowanie amerykańskie było większe.

AP/EAST NEWS
Kiedy wyszło na jaw, że dane 50 milionów kont z Facebooka wyciekły do prywatnej firmy Cambridge Analytica, były sprzedawane i wykorzystane np. w amerykańskich wyborach prezydenckich 2016 r., szef Facebooka Mark Zuckerberg opublikował przeprosiny na całej stronie New York Timesa
AP/EAST NEWS

Analiza słów kluczowych przyniosła także parę niespodzianek. Okazało się, że wśród pojęć najczęściej używanych w działce technologicznej są takie, których nie spodziewali się sami badacze, np. evolutionary computing, czyli dziedzina badań nad algorytmami. Podobnie jak w teorii ewolucji za przystosowanie danego gatunku odpowiadają procesy selekcji naturalnej, tak w świecie programowania ewolucyjnego dany algorytm uczy się odrzucania najmniej przydatnych rozwiązań danego problemu. To podejście przydatne w procesach optymalizacji, działka bliska temu, co dzisiaj potocznie nazywa się sztuczną inteligencją. 

 Jednak wśród globalnych trendów dominują kwestie kryptowalut i ich emisji. Drugi mega-temat to infrastruktura sieci, wszystko co gwarantuje dostęp do internetu. Trzeci – sztuczna inteligencja. Potem dopiero pojawiają się roboty, samochody autonomiczne i urządzenia mobilne. 

Względem czołówki słabo wypada internet rzeczy. A jeszcze słabiej problematyka chmur obliczeniowych, algorytmów, decentralizacji. W ogonie plasują się komputery kwantowe i systemy rzeczywistości wirtualnej (VR, czyli virtual reality). 

 Z kolei po stronie spraw społecznych dominują kwestie prywatności i tzw. kryzysu kontentu, czyli fałszywych niusów, propagandy, internetowego hejtu i cenzury. Trzeci wielki blok tematyczny to kolekcja rozmaitych zagrożeń: handlu ludźmi, uzależnienia od gier, molestowania seksualnego i bezpieczeństwa dzieci. Cyberbezpieczeństwo, zaburzenia procesu wyborczego, ekstremizm internetowy plasują się na dalszych pozycjach. Listę domyka „moralność sztucznej inteligencji” - temat raczej poboczny. 

A jakie są wnioski z tego badania? Maciej Wilamowski studzi przesadne oczekiwania. 

- Mieliśmy stworzyć metodologię i pokazać trendy. To się udało zrobić. Nie zbudowaliśmy szklanej kuli, ani wyroczni delfickiej. Dla kogoś kto śledzi na bieżąco debatę wokół nowych technologii, nasze ustalenia nie będą wielkim zaskoczeniem, raczej uwiarygodnieniem przypuszczeń, czasem zwróceniem uwagi na coś, co łatwo przeoczyć. Ale to chyba jedno z pierwszych tego rodzaju narzędzi oparte na wiarygodnych danych... 

Dla Polski z całej analizy i zastosowanej metodologii płynie jednak jeszcze jeden, dość krzepiący wniosek. Choć w ostatnim międzynarodowym rankingu uczelni wyższych, opracowanym przez prestiżowy miesięcznik Times of Higher Education, najlepsze polskie uniwersytety uplasowały się w mało zaszczytnej szóstej setce (Warszawski i Jagielloński wypadły tak samo słabo) – okazuje się, że nawet u nas, gdzieniegdzie, robi się naukę na najwyższym światowym poziomie. Warszawski DELab pod kierunkiem prof. Katarzyny Śledziewskiej jest jedną z takich wysp. 

Pytanie tylko czy Uniwersytet Warszawski już zdaje sobie z tego faktu sprawę, czy też – jak to się często zdarza w przypadku dużych instytucji – sam będzie potrzebował wyrafinowanego narzędzia badawczego, by ten fenomen zauważyć.

CHINA STRINGER NETWORK/REUTERS/FORUM
PRZYSZŁOŚĆ
Wiktor Cyrny

Księżyc made in China

Chiny jako pierwsze wylądują na niewidocznej stronie Księżyca. Planują też posadzić na nim rośliny
FANATIC STUDIO/SCIENCE PHOTO LIBRARY/EAST NEWS
PRZYSZŁOŚĆ
Bjorn Lomborg

Więcej wzrostu, mniej hipokryzji

Musimy zatrzymać wzrost gospodarczy, żeby ratować planetę? Nie słuchajcie takich bzdur. Przecież wzrost rozwiązuje - a nie stwarza - problemy środowiskowe. Najczyściej nie jest w krajach najbiedniejszych, tylko w najbogatszych
THORSTEN KEMPE/EAST NEWS
PRZYSZŁOŚĆ
Jakub Janiszewski

Sztuczna inteligencja głupsza, niż myślisz

Nadzieje i obawy związane ze sztuczną inteligencją są ogromne. I zapewne grubo przesadzone. Być może najbardziej przyda się ona totalitarnym dyktaturom, które dzięki AI mogą być znacznie bardziej efektywne niż dotąd
FUSHION MEDIA GROUP/EAST NEWS
PRZYSZŁOŚĆ
Michał Rolecki

Sorry, ale lotu na Marsa nie będzie

Wyprawa na Czerwoną Planetę byłaby horrendalnie droga, niebezpieczna dla astronautów i pozbawiona większego sensu. Więcej - jeśli ktoś wam mówi, że ludzkość kiedykolwiek skolonizuje inne planety albo wyśle kogoś daleko w kosmos, to zmyśla albo kłamie
Więcej
Ta strona używa plików cookies w celu świadczenia Państwu usług na najwyższym poziomie. Więcej szczegółów w naszej Polityce Cookies. Nie pokazuj więcej tego powiadomienia.
OK

Logowanie

0 %