Sztuczna inteligencja w szkołach. Boty pomagają, czy szkodzą uczniom?

Nikogo już nie dziwi, że sztuczna inteligencja (AI) pomaga uczniom. Odrabia za nich prace domowe, przygotowuje prezentacje i nierzadko zastępuje wręcz nauczycieli. Dlatego pojawiają się głosy, aby ściślej kontrolować treści generowane przez boty oraz zacząć prowadzić lekcje, na których najmłodsi dowiedzą się jak odpowiedzialnie i bezpiecznie stosować narzędzia takie, jak ChatGPT.

„Miałem mieć prezentację z geografii na kolejnej lekcji. Użyłem więc ChatGPT, żeby napisał dla mnie całe wystąpienie. Gdy je odczytywałem i zaczęły padać pytania o szczegóły, to nie miałem pojęcia, o czym mówię. Zostałem nawet za to ukarany”

– mówi jeden z uczniów.

Dzieci i młodzież najczęściej sami odrabiają prace domowe. Czasem pomagają im rodzice, co jest doskonałym, ale nie zawsze możliwym rozwiązaniem. AI jest jak darmowy „nauczyciel w domu”.

Uczyć odpowiedzialnego stosowania sztucznej inteligencji

„Wielu naszych przyjaciół próbowało poprawić jakość swoich prac, korzystając z technologii, która pozwala komputerowi odpowiadać niemal tak, jakby był człowiekiem”

– uważają Theo i Ben, nastolatkowie uczący się w jednej z brytyjskich szkół.

Przeprowadzili oni ankietę wśród trzydziestu trzech uczniów ze swojej placówki. Trzydzieści jeden osób przyznało, że stosowało AI w odrabianiu lekcji i przygotowywaniu się do zajęć a dwadzieścia siedem uważało, że należy uczyć, w jaki sposób odpowiedzialnie korzystać ze sztucznej inteligencji.

Większość młodych osób używa narzędzi takich jak ChatGPT. Potrafi on formułować odpowiedzi na różnorodne pytania, a jego język jest zbliżony do ludzkiego. W badaniach uczniowie przyznają, że stosują AI m.in. do opracowywania pomysłów, tematów, pisania wypracowań, rozwiązywania zadań i przygotowywania prezentacji.

Sztuczna inteligencja też się myli

Nie zawsze wszystko idzie zgodnie z planem, ponieważ boty są omylne. Jeden z ankietowanych uczniów przyznał, że ChatGPT podał mu złe daty do eseju z historii. Inny stwierdził, że „dziewięćdziesiąt procent odpowiedzi udzielonych przez AI w zadaniach z fizyki było błędnych”.

Zobacz też:

Dość powszechna jest świadomość, że nie zawsze można ufać sztucznej inteligencji. Nikogo jednak nie odstrasza to od korzystania z niej.

„Możemy na przykład uzyskać bardzo dobrze opracowaną odpowiedź od ChatGPT, a następnie obudować ją innymi badaniami”

– mówią uczniowie.

Niektórzy zastanawiają się, czy sztuczna inteligencja nie jest lepsza od nauczycieli. Szczególnie że jest powszechnie dostępna o każdej porze. Jednak AI nigdy nie zrozumie ucznia tak dobrze, jak doświadczony wychowawca. Dla innego człowieka nigdy nie będziemy całkowicie anonimowi, tymczasem dla botów już tak.

Nauczyciele również korzystają z AI

Nie ma co ukrywać, że nauczyciele również stosują sztuczną inteligencję, aby przygotowywać się do zajęć. Jonathan Wharmby, który uczy informatyki w szkole średniej Cardinal Heenan Catholic High School w Liverpoolu przyznaje, że korzysta z AI m.in. do opracowywania pytań do testów. Podkreśla jednak, że należy być przy tym bardzo ostrożnym.

„Czasem ChatGPT i podobne narzędzia odbiegają od tematu, albo udzielają niepoprawnych odpowiedzi. Zawsze sam dokładnie je sprawdzam”

– mówi Wharmby.

Zdaniem nauczycieli nie powinno pozwalać się uczniom na korzystanie z AI czy wyszukiwarek i ogólnie internetu podczas egzaminów, bo byłoby to oszustwo. Jednak boty mogą stanowić pomoc w nauce, o ile najmłodsi mają do nich krytyczne podejście i weryfikują otrzymywane informacje.

Rząd konsultuje, AI zaskakuje

Brytyjski rząd rozpoczął konsultacje społeczne na temat AI w edukacji, w tym o możliwości jej nadużywania. Wyniki analizy mają zostać opublikowane pod koniec 2023 roku.

Theo i Ben postanowili sprawdzić, czy potrafią rozróżnić prace napisane samodzielnie od tych wygenerowanych przy użyciu AI. Opracowali po dwie wersje eseju: jedną napisali sami, drugą wygenerował ChatGPT. Wymienili się potem odpowiedziami i… żaden nie odgadł poprawnie, która wersja została wygenerowana przez bota.

Premier Wielkiej Brytanii Rishi Sunak twierdzi, że świat „nie rozumie” ryzyka związanego ze sztuczną inteligencją. Jednak Wielka Brytania nie zamierza czekać i będzie „szybko” wprowadzać regulacje, które mają chronić obywateli.

Polecamy:

Artykuł powstał m.in. na podstawie programu BBC Young Reporter, który pozwala nastolatkom publikować własne, autoryzowane i sprawdzone treści dziennikarskie w internecie.

Dowiedz się więcej:

Fot.: Julia Cameron / Pexels

Opublikowano przez

Rafał Cieniek

Author


Idealista wierzący w miłość, prawdę i dobro, których szuka na świecie i wokół siebie. Mimo to starający się racjonalnie patrzeć na człowieka i rzeczywistość. Od kilkunastu lat związany z mediami elektronicznymi, gdzie był autorem, redaktorem i wydawcą. Lubi być zaskakiwany nowymi odkryciami naukowców, czytać i pisać o rozwoju technologii, historii, społeczeństwie, etyce i filozofii. Ma doktorat z nauk o mediach.

Chcesz być na bieżąco?

Zapisz się na naszą listę mailingową. Będziemy wysyłać Ci powiadomienia o nowych treściach w naszym serwisie i podcastach.
W każdej chwili możesz zrezygnować!

Nie udało się zapisać Twojej subskrypcji. Proszę spróbuj ponownie.
Twoja subskrypcja powiodła się.