,
Obserwuj
Śląskie

Generatory treści piszą magisterki? "Tylko naiwny student nie korzysta. Albo niedouczony"

5 min. czytania
17.06.2023 08:00
Na wielu uczelniach już jesienią mogą wejść w życie rekomendacje dotyczące używania chatGPT i innych generatorów treści. - Musimy przestać pisać prace tak, jak pisało się je sto lat temu - apelują eksperci. A kto właśnie zabiera się za pisanie pracy zaliczeniowej czy magisterskiej, może się spodziewać, że wkrótce zostanie ona zweryfikowana pod tym właśnie kątem.
|
|
fot. Richard Drew / AP Photo

- Trzeba być naiwnym, żeby wierzyć, że studenci i młodzież nie korzystają z generatorów treści i z różnych tego typu narzędzi. To jest oczywiste i naturalne, i przede wszystkim my musimy zmienić podejście i przestać pisać prace tak, jak pisało się je sto lat temu. Gdy trzeba było siedzieć w bibliotekach i przepisywać - mówi nam prof. Uniwersytetu Śląskiego dr hab. Dariusz Szostek, dyrektor Śląskiego Centrum Inżynierii Prawa, Techniki i Kompetencji Cyfrowych Cyber Science.

To konsorcjum naukowo-dydaktyczne utworzone przez Uniwersytet Śląski w Katowicach, NASK, Uniwersytet Ekonomiczny w Katowicach oraz Politechnikę Śląską. Zespół naukowców z Cyber Science opracował rekomendacje dla uczelni, ich studentów i pracowników dydaktycznych, dotyczące wykorzystywania narzędzi opartych na tzw. sztucznej inteligencji, takich jak coraz bardziej popularny chatGPT.

Jak tłumaczy nasz rozmówca, studentom absolutnie nie należy zabraniać korzystania z tego typu narzędzi. - To tak, jakbyśmy zabronili korzystania z komputera, bo jest to coś innego niż maszyna do pisania. Przecież były kiedyś maszyny do pisania, a potem komputery i nie zabroniliśmy tego - dodaje prof. Szostek. A że studenci korzystają, to w jego opinii - raczej oczywiste. - Naiwny student nie korzysta. Albo jakiś niedouczony. Albo jakiś nienormalny. Każdy z nas lubi sobie ułatwiać funkcjonowanie w pracy. I słusznie, że studenci to robią. Przecież po to są te narzędzia. Kwestia dotyczy czego innego. Nie - używania, tylko - przypisywania sobie autorstwa. Prawo autorskie przecież nadal pozostało takie jakie jest - zaznacza dyrektor Cyber Science.

Zapytałyśmy ChatGPT, czy zabierze nam pracę. Odpowiedź? Wodolejstwo. 'Moim celem jest pomaganie ludziom'

Korzystać? Tak, ale...

Jak przyznaje prof. Szostek, gdy sam 20 lat temu pisał swój doktorat, przekonywano go, że w pracy doktorskiej nie powinno się wprowadzać źródeł internetowych. Wtedy je umieścił, a dziś nikogo już one nie dziwią. Jego zdaniem podobnie jest z generatorami treści. To, co przez nie wytworzone, powinno być po prostu wyraźnie oznaczone, zgodnie z zasadami cytowania.

- Przywłaszczanie sobie praw autorskich do tekstu nie przeze mnie wygenerowanego [zachodzi w obu przypadkach]. Co za różnica, czy jest to tekst żywcem przepisany z książki, czy przeklejony z generatora treści bez podania zasad cytowania? - mówi prof. Szostek. Jak dodaje, każdy użytkownik - na przykład chatuGPT - powinien być również gotowy ponieść odpowiedzialność za błędy, które mogą pojawić się w wygenerowanych treściach. - To nie jest żadna prawda objawiona. Mamy obowiązek weryfikowania źródeł - stwierdza nasz rozmówca.

Szczegółowe rekomendacje ekspertów Cyber Science dla studentów, doktorantów i pracowników dydaktycznych, w związku z wykorzystaniem algorytmów AI, znaleźć można na przykład na stronie internetowej Uniwersytetu Śląskiego. Zawierają one m in. zalecenia otwartości naukowej na tego typu narzędzia, przy zachowaniu samodzielnego, krytycznego myślenia, konieczności weryfikacji źródeł informacji, poszanowania zasad etycznych i prawa, w szczególności praw autorskich.

"Osoba wykorzystująca generatory treści ponosi osobiście odpowiedzialność za dane opublikowane, a wcześniej wygenerowane przez generator" - czytamy w tych rekomendacjach. "Treść wygenerowana przez generatory treści, niezależnie czy jest to tekst, algorytm, oprogramowanie, czy obraz bądź muzyka, nie uznaje się za autorstwo studenta, doktoranta, pracownika naukowego itd., który użył tego narzędzia. Dla poprawności naukowej czy dydaktycznej należy podawać źródło ich wygenerowania" - podają dalej autorzy rekomendacji.

ChatGPT: szansa, zagrożenie, a może bzdura? AI wkracza do rzeźni [TECHSTORIE]

Bardzo istotna jest także część rekomendacji dotycząca procesu dydaktyki i sprawdzania wiedzy studentów. Chodzi o to, by przy układaniu egzaminów czy tematów prac zaliczeniowych uwzględnić możliwość wykorzystywania przez studentów generatorów treści. Jak więc weryfikować rzeczywistą wiedzę studentów? - Trzeba zmienić metodologię pracy. Ja - odkąd chatGPT stał się powszechnie znany, bo przecież generatory funkcjonują od wielu lat - zmieniłem sposób funkcjonowania na zajęciach ze studentami. Wręcz każę im korzystać z generatora treści, ale zadaję im takie case’y, że generator jest tylko narzędziem wspierającym, a nie zastępującym. Natomiast jeżeli będziemy pisali zwykłe, odtwórcze prace, to jest to wadliwe podejście - przestrzega prof. Szostek.

Sposób egzaminowania powinien, jego zdaniem, opierać się na pytaniach badawczych, problemach do rozwiązania. - Powiedzmy sobie szczerze - znakomita większość prac magisterskich czy inżynierskich to prace odtwórcze. Musimy tutaj po prostu zmienić podejście - dodaje wykładowca.

Jesienią rekomendacje na uczelniach

Na początku czerwca dyrektor Cyber Science przedstawiał rekomendacje dotyczące wykorzystania generatorów treści (zarówno chatuGPT, jak i generatorów dotyczących algorytmów czy obrazów) na Konferencji Rektorów Akademickich Szkół Polskich (KRASP). Grono to tworzą rektorzy 109 szkół wyższych z całego kraju, w tym 10 uczelni niepublicznych.

- Tam wprost wskazaliśmy, że należy używać - tak jak przez wiele lat używany był antyplagiat [program umożliwiający wykrycie plagiatu] - detektora treści wygenerowanych przez generatory. Przecież są takie narzędzia. Może nie są perfekcyjne, ale są. W związku z tym należy weryfikować prace, jeżeli są wątpliwości, przy użyciu takich detektorów - zaleca prof. Dariusz Szostek, przywołując zarazem przykład Akademii Leona Koźmińskiego, która w ramach swoich rekomendacji już wskazuje, że losowo będą wybierane prace do takiej analizy.

- Uniwersytet Śląski, Uniwersytet Ekonomiczny w Katowicach oraz Politechnika Śląska bardzo poważnie nad tym wszystkim debatują - mówi prof. Szostek. Wiele uczelni jednak z tą kwestią dopiero się zapoznaje.

- Temat był na KRASP-ie szeroko dyskutowany i myślę, że odpowiednie rekomendacje, a także przepisy, na uczelniach będą wprowadzone już jesienią tego roku - zapowiada dyrektor Cyber Science. A co z rozpoczynającą się właśnie sesją? - Prawo jest prawem, więc nie zdziwiłbym się, że za jakiś czas będą brane także do weryfikacji prace z obecnej sesji egzaminacyjnej. Prawa naruszać nie wolno - dodaje.

Maszyny człowieka (nie) zastąpią

Czy sztuczna inteligencja zastąpi wkrótce człowieka, jeśli tak, to w jakim zakresie? To pytania, które w tym kontekście wydają się dość naturalne.

- Co roku mamy nowe narzędzia, które zmieniają naszą rzeczywistość. Naiwnością jest myśleć, że sposób naszego funkcjonowania taki, jaki jest dzisiaj, pozostanie za dwa czy trzy lata - mówi nam prof. Szostek.

Jak tłumaczy, wiele czynności odtwórczych przejmą właśnie generatory treści. - Ja sam widzę, że praca, którą wykonywałbym sam, zajęłaby mi 10 godzin, a generator przy odpowiednim zadawaniu pytań [zrobi to w] 15 minut - twierdzi nasz rozmówca.

- Zadam pytanie odwrotne: czy mamy dzisiaj telefonistki? (...) Zapalaczy lamp gazowych? Tam, gdzie praca jest odtwórcza i powtarzalna, maszyny i automaty nas zastępują. Czy maszyna parowa spowodowała, że człowiek jest niepotrzebny? Nie, tylko musiał zmienić kwalifikacje. I taka będzie rola [generatorów treści]. Natomiast oczywiście my pozostaniemy, ale nie będziemy mogli funkcjonować wszyscy - ani ja, ani pani - za trzy czy cztery lata tak samo jak pracujemy teraz. Trzeba być tego świadomym - zastrzega prof. Szostek.