„Czasem podczas czytania pracy studenckiej ogarnia cię poczucie niepokoju. Wiesz wtedy, że coś jest nie tak, ale często nie możesz udowodnić, że całość została napisana przez generatywną sztuczną inteligencję” – powiedział gazecie prof. Steven Vanderputten z Uniwersytetu w Gandawie. Zwrócił uwagę, że wykładowcy nie dysponują dziś narzędziami pozwalającymi jednoznacznie potwierdzić autorstwo tekstów. Jeśli brakuje dowodów, wykładowcy często muszą odstąpić od działań dyscyplinarnych.
Coraz więcej przypadków plagiatowania z pomocą AI na uniwersytetach w Belgii
Według danych Uniwersytetu w Gandawie w roku akademickim 2022/2023 sztuczna inteligencja pojawiła się w 19 z 73 postępowań dotyczących plagiatu. Rok później odnotowano 13 takich przypadków, w tym trzy w pracach magisterskich. Podobne tendencje wykazał Katolicki Uniwersytet w Leuven (KU Leuven), gdzie liczba spraw wzrosła z 18 do 23 w ciągu roku.
Profesor literatury Pieter Vermeulen z KU Leuven zaznaczył, że wpływ AI widać nawet tam, gdzie nie ma dowodów na nadużycia – analizy stają się płytsze, a prace coraz bardziej do siebie podobne. Z kolei prof. Vincent Ginis z Wolnego Uniwersytetu w Brukseli ocenił, że AI „zdemokratyzowała” możliwość zlecania zadań zewnętrznym „pomocnikom”.
Badania cytowane przez dziennik wskazują, że w 2025 r. aż 92 proc. studentów w Wielkiej Brytanii deklarowało korzystanie z narzędzi AI przy realizacji zadań akademickich, wobec 66 proc. rok wcześniej.
Walka z plagiatami AI na uniwersytetach jest szalenie trudna
Uniwersytety próbują reagować, zlecając studentom więcej częściowych prac i wprowadzając obowiązkowe prezentacje ustne, by łatwiej było wychwycić nieuczciwe praktyki. Eksperci przyznają jednak, że walka z oszustwami związanymi z AI przypomina wyścig między strażnikami a kłusownikami, w którym żadna ze stron nie ma trwałej przewagi.
Na początku sierpnia pojawiła się wersja 5.0 ChatGPT – pierwsza, która łączy zalety wcześniejszych generacji modelu i według twórców ma działać szybciej i precyzyjniej.