Prawda i Dobro
Toksyczna przyjemność. Uzależniające substancje zagrażają młodym
11 października 2024
Musimy szczególnie dbać o to, co wprowadzamy do systemów AI. W przeciwnym razie zaczną one konfabulować: na pierwszej nieprawdzie zbudują kolejne nieprawdy, a na końcu tego procesu z wielkim prawdopodobieństwem uzyskamy spotęgowane kłamstwo. Innymi słowy: korzystając z narzędzi tego typu to my, ludzie powinniśmy stać w prawdzie, «karmić» systemy prawdą – mówi Artur Olejniczak, menedżer, dyplomowany trener biznesu i wykładowca Wyższej Szkoły Logistyki w Poznaniu.
Dariusz Rostkowski: połączyliśmy się przez komunikator. Skąd pewność, że rozmawia Pan z człowiekiem, a nie ze sztuczną inteligencją?
Artur Olejniczak: oczywiście, teoretycznie mógłby Pan być maszyną, a raczej ona mogłaby być na Pana miejscu. Ale zweryfikowałem wcześniej kontakt, dopytywałem się i domniemam, że rozmawiam z „białkiem”, a nie sztucznym wytworem.
Tak jestem człowiekiem. Różnię się jednak od sztucznej inteligencji, rozumianej jako zdolności maszyn do wykazywania ludzkich umiejętności, takich jak rozumowanie, uczenie się, planowanie, kreatywność itp.
Sztuczna inteligencja umożliwia urządzeniom w nią wyposażonym postrzeganie ich otoczenia i odpowiedniego reagowania na zachodzące w nim zmiany. W konsekwencji potrafią one rozwiązywać problemy, będąc nakierowanymi na wyznaczony cel. Systemy AI coraz lepiej dostosowują swoje zachowania do okoliczności i działają coraz bardziej autonomicznie.
Polecamy: Wojna korporacji z odbiorcami. Nowy pomysł może pokrzyżować plany Google’a
Amerykańskie laboratorium badawcze – OpenAI, które umożliwiło konwersowanie z GPT-3 (Generative Pre-trained Transformer 3, czyli generatywnym wstępnie wytrenowanym transformatorem – red.) pokazało, jak olbrzymi potencjał tkwi w obecnych systemach informatycznych. Generatywna sztuczna inteligencja, a w zasadzie algorytmy uczenia maszynowego oparte o sieci neuronowe i superszybkie komputery, umożliwiają agregowanie danych, do których ma dostęp. Kolokwialnie mówiąc: korzysta z ogólnodostępnych zasobów internetu, czyli wszystkich treści, które tworzymy i umieszczamy w sieci. Zatem to, co jest dzisiaj tym wielkim „wow” i przesądza o znaczeniu AI, to po prostu możliwość bardzo szybkiego agregowania informacji i na ich podstawie udzielania odpowiedzi na zadane pytania.
A jeśli pytanie jest źle zadane, np. nieprecyzyjne lub wieloznaczne?
Właśnie! Kluczową sprawą jest to, czy potrafimy odpowiednio odpytywać system! Nieporozumienia się zdarzają. Przygotowując się kiedyś do prelekcji, poprosiłem, aby ChatGPT-4, czyli najnowsza wersja, przeprowadził research na temat akumulatorów litowo-jonowych. I „wypluł” mi informację o tym, że najlepszym ekspertem w tej dziedzinie jest słynny szachista Garri Kasparow. Oczywiście było to wierutnym kłamstwem, a GPT-4 zasugerował się prawdopodobnie tym, że Kasparow użył w jednej ze swoich wypowiedzi jakiegoś sformułowania dotyczącego baterii litowo-jonowych.
Zatem podsumowując: ogromną zaletą systemów AI jest to, że pozyskują praktycznie w czasie rzeczywistym komplet potrzebnych nam informacji, których możemy dalej dowolnie używać. Z drugiej jednak strony szalenie istotna jest poprawność wprowadzonych danych. Powszechnie wiadomo, że obecnie internet jest pełen informacji nieistotnych, śmieciowych, a nawet fałszywych. Podczas dyskusji z moimi studentami czy w ramach spotkań biznesowych często podkreślam, że nie możemy realizować tzw. strategii SISO (shit in, shit out), czyli musimy szczególnie dbać o to, co wprowadzamy do systemów AI. W przeciwnym razie zaczną one konfabulować: na pierwszej nieprawdzie zbudują kolejne nieprawdy, a na końcu tego procesu z wielkim prawdopodobieństwem uzyskamy spotęgowane kłamstwo. Innymi słowy: korzystając z narzędzi tego typu to my, ludzie powinniśmy stać w prawdzie, „karmić” systemy prawdą.
Problem właściwego używania sztucznej inteligencji staje się coraz bardziej palący. Tymi sprawami zajmował się w czerwcu 2023 roku Parlament Europejski, przyjmując stanowisko w sprawie tzw. aktu o sztucznej inteligencji, czyli pierwszego zestawu kompleksowych przepisów do zarządzania ryzykiem związanym z AI. Wskazano tam największe szanse, ale też zagrożenia będące następstwem korzystania z AI. Wśród korzyści dla obywateli wymieniono poprawę opieki zdrowotnej. Na czym mogłoby to polegać?
Na przykład na szybszym i sprawniejszym analizowaniu danych. Już obecnie badania krwi przebiegają zupełnie inaczej, niż kiedyś – bez opisów, żmudnych obserwacji pod mikroskopem itd. Po prostu: laborantka pobiera próbkę, oznacza ją kodem kreskowym, zawierającym nasze dane. Następnie krew umieszczana jest w centrum analiz, gdzie pracę wykonują komputery. Zwykle jeszcze tego samego dnia wynik badań możemy pobrać za pośrednictwem internetu. Dzięki temu, że komputery dysponują ogromną liczbą danych dotyczących podobnych badań, norm itp., szybko wychwycą odchylenie od normy, zmniejszając przy tym ryzyko pomyłki.
Rzeczywiście, to przekonujące. Europosłowie piszą ponadto o tym, że w przyszłości produkty będą bardziej dostosowane do potrzeb użytkownika, a na dodatek tańsze i trwalsze. Czy to nie jest myślenie życzeniowe? W ostatnich dziesięcioleciach odczuwaliśmy często pogorszenie jakości, kosztem wzrostu cen…
Konkurencja wymuszała na firmach różne działania, a jak wiemy, niemal wszystkim zależy na maksymalizacji zysku. To jest kluczowy punkt działalności biznesowej. Wykorzystanie AI powinno wpłynąć na konkurencyjność produktów – i to z korzyścią jakościową i cenową dla konsumenta.
Jednocześnie chciałem zwrócić uwagę, że prawdopodobnie zajdą istotne zmiany w nawykach – śmielej wkroczy ekonomia współdzielenia. Widzimy to na przykładzie koncernów motoryzacyjnych, które zamiast maksymalizacji sprzedaży czy zysków z serwisu będą szły w kierunku abonamentów. W niedługim czasie nie będziemy już kupowali samochodów na własność, lecz je wynajmowali na czas użytkowania. Proszę zastanowić się, ile czasu jeździmy swoim autem? Dwie godziny na dobę? A przez resztę czasu ten tzw. zasób jest nieużywany, jednocześnie generując koszty w postaci opłat parkingowych, serwisów, ubezpieczeń, podatków itd. Dzięki algorytmom AI można zoptymalizować system współdzielenia, sprawiając, że samochód czy inne narzędzie używane będzie w sposób niemal ciągły. Będziemy zatem kupować dostęp do samochodu, bez posiadania go na własność.
Polecamy: Czy zdobycze techniki szkodzą naszym mózgom?
Kolejną korzyścią z AI, wymienioną przez Parlament Europejski jest… bezpieczeństwo pracy. Czy na pewno? Ludzie boją się raczej utraty pracy.
Tu chodzi raczej o roboty, o wysyłanie ich w niebezpieczne miejsca – tak, żeby chronić ludzkie życie i zdrowie. Już dzisiaj w przemyśle czy dystrybucji używa się maszyn, botów, dronów, które działają coraz bardziej autonomicznie. W pewnym sensie następuje dehumanizacja tych procesów. I dobrze. Nie chodzi nawet o to, że ludzie są z natury leniwi. Raczej o to, że nas męczy praca powtarzalna i źle działają szkodliwe jej warunki. Dlatego próbujemy, w zasadzie z powodzeniem, wdrażać systemy automatyczne bądź autonomiczne. To jest kolejny krok w tej w rewolucji przemysłowej – opracowywanie maszyn, pracujących bez udziału człowieka. Działają one zero-jedynkowo, nie mają niepotrzebnych wahań i zmian nastroju, nie grożą im ciche dni, nie biorą chorobowego itd.
Owszem, automatyzacja jest potrzebna. Ale w takim razie co z tą utratą miejsc pracy?
Badania naukowców amerykańskich i europejskich pokazują, że do 2040 roku 70 procent znanych nam dzisiaj zawodów zaniknie. To bardzo różne profesje. Już dzisiaj robot znanej firmy KUKA jest w stanie zastąpić barmana, inne automaty zastępują np. lakierników, spawaczy itd. Armia amerykańska z kilkoma ośrodkami medycznymi skonstruowała robota medycznego, operującego ludzi na odległość. Nie narażamy życia lekarza na udział w konflikcie zbrojnym, gdzie byłby pod ostrzałem. Może tę pracę wykonywać w warunkach bezpiecznych. Na tym polu Poznańskie Centrum Superkomputerowo-Sieciowe z sukcesami wdraża zaawansowane systemy telemedyczne, umożliwiające transmisję na żywo zabiegów medycznych z kilku miejsc jednocześnie.
Tak, ale z drugiej strony mamy np. wojnę w Strefie Gazy i tam raczej widać aktywny udział najnowszych zdobyczy techniki – w tym AI w zabijaniu, a nie ratowaniu życia.
To prawda. Często to, co z jednej strony jest szansą, z drugiej jest zagrożeniem. Podobnie jest ze zwykłym nożem: jesteśmy nim w stanie obrać ziemniaki, warzywa i przygotować przepyszny obiad, ale też możemy zabić człowieka. Tak samo dzieje się w przypadku sztucznej inteligencji i algorytmów. Pozostańmy przy przykładzie wojny: przecież konflikt na Ukrainie jest doskonałym, żywym poligonem doświadczalnym dla innowacyjnych rodzajów broni, w tym dla tych, które korzystają z AI. To prawdopodobnie pierwsza wojna, w której na tak szeroką skalę, używa się dronów bezzałogowych. Zatem częściowo jest to konflikt maszyn; wygrywa ten, kto wprowadzi skuteczniejsze metody walki.
Ale czy w końcu nie nadejdzie moment, w którym autonomiczne maszyny zwrócą się przeciwko ich twórcom – ludziom?
To szalenie ważny aspekt. Maszyny działają na bazie kodu – programu. Kod to zapis składający się z zer i jedynek, oznaczających fałsz lub prawdę. Ludzie nie postępują tak jednoznacznie skrajnie. Oglądałem ostatnio film dokumentalny, który ukazywał w praktyce dylemat podwójnego zastosowania. Jeden z europejskich naukowców wraz z zespołem badawczym napisał algorytm, umożliwiający opracowanie leków, opartych o znane związki chemiczne, możliwych do zastosowania w leczeniu rzadkich chorób.
Zespół wsparty algorytmem wykonywał fantastyczną robotę, mając na koncie kilka spektakularnych sukcesów. Naukowiec, celem doświadczenia, został poproszony o przeprogramowanie algorytmu tak, aby formował substancje, które szybko i skutecznie zabiją człowieka. Uczony z ciekawości efektów to zrobił. Gdy na drugi dzień przyszedł do biura, zniszczył pracę, którą wygenerował jego system. Nie chciał, aby w jakikolwiek sposób wyniki zostały użyte w śmiercionośnym celu.
Mimo wszystko wróćmy do pozytywnych sposobów wykorzystania AI. Europarlamentarzyści zwracają uwagę na biznesowe korzyści dla sektora turystycznego. Jak to ma zadziałać?
Kluczem jest tutaj analiza danych i dostosowanie oferty biur podróży do naszych potrzeb. Jeśli na przykład obawiamy się tsunami czy trzęsienia ziemi, system ominie potencjalnie niebezpieczne dla nas miejsca. Łatwa będzie tzw. analiza wielokryteriowa. Przy okazji weźmie pod uwagę zasobność naszego portfela i preferencje dotyczące np. kuchni, klimatu itp.
Kolejna korzyść z działania sztucznej inteligencji to różnorodne aplikacje umożliwiające porozumiewanie się w językach obcych. To znacząco ośmieli osoby, które ich nie znają. Pojawiają się aplikacje, po uruchomieniu których mówimy coś do smartfonu, a ten w czasie rzeczywistym wypowiada obce frazy. A potem w odwrotną stronę… Zdarzają się czasem związane z tym nieporozumienia, ale na pewno plusów jest więcej niż minusów.
Politycy mówią też o korzyściach społecznych – m.in. umacnianiu demokracji. Ale czy na pewno? Czy AI nie jest raczej po złej stronie mocy? Czy z jej użyciem nie powstają fałszywe filmiki z nieprawdziwymi wypowiedziami, czy nie są powielane fake newsy?
W stu procentach podzielam zdanie o zagrożeniach, zresztą mamy już przykłady wyborów w Stanach Zjednoczonych czy referendum na Wyspach Brytyjskich, gdzie dzięki zastosowaniu sztucznej inteligencji doszło do manipulacji. Stąd dzisiaj kluczową sprawą jest odsianie informacji prawdziwych od tych fejkowych. To nie jest łatwe w natłoku „newsów”, gdyż statystycznie w ciągu jednego dnia przyswajamy z różnego rodzaju źródeł około 100 tysięcy informacji. Dla porównania – nasi dziadkowie przyswajali podobną ilość w ciągu całego swego życia. Konkludując: nie jesteśmy fizycznie w stanie nad każdą z tych informacji pochylić się, przeanalizować i podjąć odpowiednią decyzję. Stąd stoi przed nami ogromne wyzwanie: wychwytywania tylko tych prawdziwych i rzetelnych. Obecnie nie jest to w pełni osiągalne.
W sieci znajdują się niewyobrażalna ilość danych. Jak je segregować?
Dane są obecnie paliwem dla gospodarki. Mówiąc obrazowo: mają większe znaczenie, niż węgiel czy inne paliwa. Na obrocie danymi zarabia się fortuny. A są tak cenne, gdyż na ich bazie firmy podejmują strategiczne decyzje. A my, konsumenci, nie zawsze świadomie tymi danymi dzielimy się, np. zapisując się do różnych programów lojalnościowych, a potem jesteśmy niejako sterowani, manipulowani, ulegając trendom i modom.
Mało się mówi o wpływie AI na nasze życie uczuciowe, towarzyskie. A to przecież algorytmy dobierają nas w pary i wyszukują znajomych na popularnych portalach…
Tak (śmiech). Miałem w ubiegłym tygodniu taką sytuację, gdzie odezwała się do mnie znajoma po kilkunastu latach, mówiąc, że Facebook podpowiedział jej mnie jako osobę do dodania do znajomych. I stwierdziła, że na pewno musiałem jej szukać i stąd ta podpowiedź. A wcale tak nie było, po prostu system z jakichś powodów po czasie zasugerował mnie jako kandydata na znajomego. I tyle.
Nie jest chyba przesadą twierdzenie, że wpływ sztucznej inteligencji na relacje międzyludzkie jest ogromny i wciąż rośnie. Tworzą się z tego realne związki, rodzą dzieci…
To dość skomplikowana sprawa. W przypadku portali randkowych z jednej strony ludzie łączą się w pary, choć bez nich pewnie też by do tego doszło, tylko w inny sposób. Z drugiej strony blisko 60 procent profili na tych portalach stanowią boty – wytwory sztucznej inteligencji. Są one uruchamiane po to, żeby dać nam poczucie, że jest jakaś osoba, która o nas myśli ciepło i blisko. Przy okazji chodzi o podtrzymanie zainteresowania skutkujące opłacaniem abonamentu za dostęp do aplikacji. Zatem w mojej ocenie w sporej części to biznes.
Może Cię zainteresować: Ludzkość stała się ofiarą własnego sukcesu. Rzeczy wzięły nas w posiadanie
W kwestii relacji między ludźmi sprawa raczej nie jest jednak tak skomplikowana, jak w przypadku nawiązania relacji emocjonalnych człowieka z maszyną…
Człowieczeństwo jest bardzo ważnym zagadnieniem. Chodzi o budowanie relacji, przytulania, kontakt fizyczny, rozmowy, czyli tak naprawdę odpowiedzi na nasze potrzeby. Jeśli ten wytwór sztucznej inteligencji wypełniał danej osobie lukę w jej życiu czy zaspokaja jakąś potrzebę emocjonalną to… może nic w tym złego. W zasadzie część ludzi w takich relacjach już funkcjonuje – choćby Japończycy, którzy biorą śluby z robotami humanoidalnymi.
Mnie w tych związkach trudno dostrzec pozytywy, ale dla tych osób pewnie jakieś są, skoro decydują się na taki model. W sumie mogą w każdym momencie wyłączyć taką maszynę. Ten robot na pewno nie będzie działał na ich niekorzyść, nie dostają bowiem negatywnego „ludzkiego” przekazu typu „nie wyniosłeś śmieci” albo „nie zrobiłaś znowu obiadu”. Myślę, że w tych relacjach są spełniane tylko i wyłącznie te dobre, upragnione potrzeby. Roboty działają zero-jedynkowo i części ludzi może to się podobać.
Wracając do zalet AI wymienianych przez ekspertów, pojawia się często argument ochrony i bezpieczeństwa, w tym zapobiegania przestępstwom…
I tu znów pojawia się dylemat podwójnego zastosowania. Bo z jednej strony algorytmy jak najbardziej pomagają w śledzeniu i wyłapywaniu przestępców. Z drugiej – trzeba pamiętać, że my sami jesteśmy nieustannie monitorowani. W naszej przestrzeni jest około 50 miliardów czujników, sensorów, urządzeń, które stale śledzą to, co się dzieje. Myślę o kamerach monitorujących natężenie ruchu, o detektorach np. zapylenia czy hałasu, mikrofonach itd.
Przy sobie nosimy średnio sześć sensorów umieszczonych w smartfonach, zegarkach itd., które nieustannie obserwują nas i nasze zachowania. I na tej bazie opracowano narzędzie, w zamyśle mające przeciwdziałać terroryzmowi (Pegasus – red.), a zostało wykorzystane do niecnych celów politycznych. Instalując kolejną aplikację w telefonie, zerknijcie na zakres jej dostępów (aparat, mikrofon, kontakty, lokalizacja) i zadajcie sobie pytanie: po co jej te dane?
O anonimowości możemy zapomnieć…
Tak. No, bo jeśli informacje o nas, w tym lokalizacje, zapisy rozmów, SMS-ów itd. są przez kilkanaście lat przechowywane przez firmy telekomunikacyjne, a organy państwa mogą za zgodą sądów uzyskać dostęp do tych danych, to o anonimowości nie ma mowy. Obecnie każdy nasz e-mail, wiadomość w komunikatorze czy wpis w mediach społecznościowych jest monitorowany i filtrowany przez algorytmy uczenia maszynowego. Mają one zakodowane wyszukiwanie po słowach kluczowych takich zachowań, które mogą być niebezpieczne dla społeczeństwa.
AI znacząco zmienia transport. Ale tam też: widzimy zarówno szanse, jak i zagrożenia…
W przypadku transportu brakuje pracowników, np. kierowców. Jest to zawód uciążliwy, monotonny, trochę jak marynarz. Ludzie wyjeżdżają na wiele tygodni, czasem dochodzi do zaburzeń, wydłużenia czasu pracy tak, jak ostatnio w przypadku blokady granicy z Ukrainą. Kierowcy siedzieli tam po 9–10 dni w nieodpowiednich warunkach, bo system został zaburzony.
W tym kontekście zastąpienie ludzi maszynami bardzo by pomogło. Tym bardziej że mało kto garnie się do tego typu pracy. Jednak druga strona medalu jest taka, że mamy do czynienia z niedopasowaniem legislacji do ruchu aut autonomicznych. Bo co się stanie, gdy dojdzie do wypadku. Kto jest odpowiedzialny? Czy firma, która to auto skonstruowała, czy podmiot, który dostarczył wbudowany system informatyczny, czy firma telekomunikacyjna, która prowadziła to auto w sposób autonomiczny? Ubezpieczyciele mają z tym gigantyczny problem.
A co z logistyką, w której Pan się specjalizuje?
Sztuczna inteligencja z pewnością zrewolucjonizuje wiele obszarów ludzkiej działalności, również logistykę. Dzisiaj jako logistycy staramy się szukać pozytywnych zastosowań. Tu mam na myśli analizę danych, wyciąganie wniosków, odpowiednie zarządzanie zasobami. Sztuczna inteligencja obecnie pomaga w obszarze odpowiedniego planowania produkcji i dystrybucji. Jeżeli weźmiemy pod uwagę sieć sklepów jak np. Żabka, to realizuje ona ponad półtora miliona dostaw rocznie do swojej sieci. Dopasowanie odpowiedniego samochodu, biorąc pod uwagę np. zielone strefy w miastach, jest problemem. AI nad tym zapanuje. Dobierze odpowiedni środek transportu, żeby dostarczyć towar we właściwe miejsce.
Algorytmy AI są też bardzo pomocne w zarządzaniu globalnymi łańcuchami dostaw. Jeśli towary są produkowane w Kambodży, Chinach, Wietnamie czy Indiach i należy je dostarczyć do Europy, to sprawa redystrybucji wymaga wielu analiz, które za nas dzisiaj wykonują algorytmy uczenia maszynowego. Takie systemy bardzo pomagają i usprawniają tę pracę i powodują, że te przepływy są efektywniejsze zarówno pod względem cen i wpływu na środowisko.
Inną sprawą jest zaangażowanie niedemokratycznych państw w biznes i wpływanie na łańcuchy dostaw. I to jest realne zagrożenie, bo względy polityczne w takich sytuacjach często przeważają nad ekonomicznymi.
Jeszcze większy problem możemy mieć z ubezpieczycielami, jeśli na przykład uzyskają oni szczegółowe dane na temat naszego stanu zdrowia…
Można sobie wyobrazić, że jeśli coraz bardziej zaawansowane systemy informatyczne zaczną ze sobą „rozmawiać” i na coraz wyższym poziomie wymieniać dane, to… algorytm nas wyceni. Obliczy, ile my jesteśmy w stanie dać przychodu gospodarce, oceni naszą kreatywność, stopień przydatności dla społeczeństwa, oraz jak długo będziemy żyli. I to jest przerażające!
W pewnym stopniu takie działania są już podejmowane w Chinach: obywatele są oceniani pod kątem ich przydatności dla społeczeństwa i eliminowani z niektórych działań. Wystarczy drobna niesubordynacja, np. kilkukrotne nieprawidłowe przechodzenie na czerwonym świetle i już jesteśmy na cenzurowanym. Jeżeli popełnię dwa, trzy razy takie wykroczenie, to dostanę automatycznie mandat. Jeżeli ten proceder będzie się powtarzał, to wręcz zostanę wyeliminowany ze społeczności, bo stwarzam niebezpieczeństwo dla ruchu drogowego!
Na poziomie politycznym i społecznym AI może wspierać wrogów demokracji – alarmują europarlamentarzyści.
Rzeczywiście, AI może wspomagać „produkowanie” i kolportowanie fake newsów. Zgromadzone w systemie dane mogą być używane tendencyjnie, a powstały po ich przeanalizowaniu obraz zostaje wypaczony. Można też tak zaprogramować algorytm, aby pokazywać same negatywne strony określonego zjawiska. Gorzej wyedukowany odbiorca to „kupi”. Poza tym wydaje mi się, że wraz z rozwojem narzędzi informatycznych stajemy się, niestety, coraz bardziej otępiali. Ostatnio napisałem artykuł poświęcony rozwojowi systemów lokalizujących człowieka w przestrzeni.
Dawno temu było to słowo, opowieść, gdzie i co się znajduje. Były też gwiazdy i Księżyc, pomagające się odnaleźć. Ponadto lepiej dostrzegaliśmy i odczytywaliśmy zmiany związane z porami roku. Po prostu lepiej orientowaliśmy się w przestrzeni. Dzisiaj mamy systemy globalnego pozycjonowania satelitarnego (GPS) i… gubimy się. Jesteśmy przekonani, że to, co nam pokazuje smartfon, jest prawdziwe i często ignorujemy właściwe sygnały. Olbrzymi odsetek ludzi łatwo daje się wprowadzić w błąd.
Powszechny jest lęk wielu osób przed utratą miejsc pracy z powodu sztucznej inteligencji. Obawiają się, że maszyny zabiorą im możliwość zarabiania. Czy rzeczywiście tak będzie i które zawody są najbardziej zagrożone?
Na pewno zagrożone są te stanowiska, w przypadku których mamy do czynienia z produkcją – to zostanie całkowicie zautomatyzowane. Podobnie centra dystrybucji, magazyny itp. Już dzisiaj mamy przykłady bardzo dużych, światowych graczy w tej branży, którzy korzystają niemal wyłącznie z robotów. Dla przykładu: pod Poznaniem jest duże, tradycyjne centrum dystrybucyjne, gdzie pracuje od trzech do sześciu tysięcy osób. Paręnaście kilometrów dalej mieści się analogiczne centrum tej samej firmy, gdzie pracuje trzy tysiące robotów i około trzydziestu osób. I maszyny wykonują tę pracę efektywniej, skuteczniej i szybciej, niż ludzie.
Ale patrząc z innej strony: roboty też potrzebują nadzoru. Gdy postanowiono zautomatyzować centrum dystrybucyjne bardzo dużej sieci handlowej we Francji, zwolniono operatorów wózków widłowych. Część tych osób jednak przeniosła się do sąsiedniego budynku, z którego nadzorowała pracę automatycznego systemu, reagując z wyprzedzeniem na możliwe awarie itp. – wszak maszyny z biegiem czasu też się zużywają. Konieczne będzie zatem przekwalifikowanie niektórych pracowników.
Ewoluować będzie system nauczania, czemu zresztą początek obserwowaliśmy po ogłoszeniu pandemii Covid-19. Przyzwyczailiśmy się już do nauki hybrydowej, w ramach której studenci uczestniczą w wykładach online i po pobraniu plików wideo mogą je odtworzyć kiedy chcą. Młodzi ludzie sami mówią o tym, że nie chcą przychodzić na uczelnię zgodnie z planem, woleliby korzystać z materiałów tak jak z Netfliksa, czyli odtwarzać je w dowolnym momencie. Potem, w dogodnym dla nich czasie skontaktowaliby się z profesorem, żeby omówić niektóre zagadnienia. Oznacza to, że pracy dla nauczycieli i wykładowców będzie coraz mniej. Tym bardziej że w internecie jest mnóstwo wiedzy, którą mamy na wyciągnięcie ręki.
Skutkiem ubocznym tych tendencji jest coraz większe wyalienowanie i osamotnienie ludzi, co sprawi, że potrzeba będzie znacznie więcej psychologów, terapeutów czy psychiatrów. To są zawody przyszłości. Podobnie jak np. opiekun-asystent dla osób starszych. Albo opiekun duchowy, czyli ksiądz. Sam się zastanawiam i żartuję z moją partnerką, że jeśli zniosą celibat, to przekwalifikuję się na duchownego.
Dowiedz się więcej: