
Sztuczna inteligencja kontra naturalna
Co dziesiąty badacz jest zdania, że wykorzystywanie sztucznej inteligencji do pisania prac naukowych jest niewłaściwe. Ponad połowa uczonych dopuszcza taką praktykę tylko pod warunkiem, że zostanie transparentnie ujawniona w opublikowanym artykule. Wszystko dlatego, że AI potrafi popełniać merytoryczne błędy, które łatwo mogą umknąć osobom bez odpowiedniej wiedzy i przygotowania. Zdarza się, że sztuczna inteligencja preparuje źródła, które nie istnieją.
- Piotr Rzymski w „Menedżerze Zdrowia” udowadnia, że sztuczna inteligencja nie zastąpi tej naturalnej
- Pomysł na tekst powstał za sprawą pewnego artykułu dotyczącego rzeżuchy, który był pełen ogólników i nadinterpretacji
- Uwagę Rzymskiego zwróciły podane pod artykułem źródła. W jednym z nich znalazł swoje nazwisko. Publikacja dotyczyła wpływu roślin kapustnych na zdrowie i miała być opublikowana w recenzowanym czasopiśmie „Nutrients”
- Piotr Rzymski jest autorem ośmiu publikacji w tym periodyku, ale nigdy nie napisał żadnej na temat roślin kapustnych
Przygotowując teksty, badacze i dziennikarze coraz częściej sięgają po narzędzia generatywnej sztucznej inteligencji (AI), zapominając o tej naturalnej (NI). O ile do pewnego stopnia mogą być one przydatne, o tyle ślepe zawierzanie im może okazać się zgubne – nie tylko obniżając jakość i wiarygodność tworzonych treści, ale również, w dłuższej perspektywie, negatywnie wpływając na kreatywność autora.
Pisanie artykułów naukowych, najważniejszej formy prezentowania wyników badań, wymaga nie tylko merytorycznej wiedzy, lecz także dobrych umiejętności logicznej interpretacji hipotez i danych.
Często przypomina to składanie puzzli w spójną całość, by zracjonalizować cel badania i osadzić uzyskane wyniki w szerszym kontekście. Niejednokrotnie konieczne jest spojrzenie na zagadnienie z perspektywy interdyscyplinarnej, aby uczynić rezultaty atrakcyjnymi dla różnych grup odbiorców. Powiedzmy wprost – to nie jest łatwe, a nikt nie rodzi się z takimi kompetencjami. Trzeba w nie inwestować – systematycznie obcując z literaturą naukową, samodzielnie pisząc manuskrypty i z pokorą przyjmując krytykę recenzentów. To procentuje – trening czyni mistrza.
Modele AI jak kalkulator?
Z powyższych powodów niektórzy wybierają drogę na skróty. O ile osoby z dużym doświadczeniem w pisaniu tekstów naukowych mogą wykorzystywać generatywną AI do szlifowania języka czy na przykład znalezienia odpowiedniego tytułu, o tyle u mniej doświadczonych narzędzia te mogą wręcz zahamować rozwój. Dlaczego? Wyobraźmy sobie, że naukę matematyki w szkole ograniczylibyśmy do przeszkolenia dzieci z obsługi kalkulatora. Owszem, potrafiłyby uzyskać wyniki niektórych działań, ale na pewno nie rozwinęłyby myślenia abstrakcyjnego, umiejętności analitycznych, logicznego rozumowania – czyli kompetencji niezbędnych również w życiu codziennym. W przypadku modeli językowych AI jest jeszcze gorzej – kalkulator przynajmniej podaje prawidłowy wynik, podczas gdy sztuczna inteligencja potrafi popełniać merytoryczne błędy, które łatwo mogą umknąć osobom bez odpowiedniej wiedzy i przygotowania.
Być może dlatego zdania dotyczące wykorzystywania AI w pisaniu prac naukowych są w środowisku akademickim podzielone. Zgodnie z wynikami niedawnej ankiety przeprowadzonej przez czasopismo „Nature” 10 proc. badaczy uważa taką praktykę za niewłaściwą, a ponad połowa dopuszcza ją tylko pod warunkiem, że zostanie transparentnie ujawniona w opublikowanym artykule.
Artykuły, których nie było
Pomysł na ten tekst powstał za sprawą artykułu opublikowanego przez Onet we współpracy z jednym z partnerów. Dotyczył on prozdrowotnych właściwości pieprzycy siewnej, czyli popularnej rzeżuchy. Merytorycznie był pełen ogólników i nadinterpretacji, ale najciekawszy był dołączony spis literatury naukowej, na której rzekomo oparto tekst. Wśród źródeł znalazł się między innymi artykuł współautorstwa Rzymskiego P., dotyczący wpływu roślin kapustnych na zdrowie, opublikowany rzekomo w recenzowanym czasopiśmie „Nutrients”. Choć jestem autorem ośmiu publikacji w tym periodyku, nigdy nie napisałem żadnej na ten temat. Co więcej, sam „Nutrients” nigdy nie opublikował artykułu o podanym tytule – podobnie zresztą jak żadne inne recenzowane czasopismo indeksowane w bazach Web of Science czy Scopus. Ostatecznie okazało się, że cztery z pięciu przytoczonych pozycji literaturowych były całkowicie zmyślone. Stało się jasne, że zarówno spis literatury, jak i najprawdopodobniej cały artykuł zostały wygenerowane przez model AI, najpewniej GPT-4 lub podobny. Po interwencji tekst został usunięty z portalu.
Delve into…
Przypadki nieodpowiedzialnego wykorzystywania AI w dziennikarstwie nie powinny zaskakiwać – zdarzają się także w nauce. Jaskrawym przykładem są manuskrypty, w których autorzy bezrefleksyjnie skopiowali wygenerowane fragmenty tekstu, nie zadając sobie nawet trudu ich przeczytania. W efekcie we wstępie jednej z prac można było wyczytać formułkę: „Certainly, here is a possible introduction for your topic”, a w innej, która była opisem przypadku w czasopiśmie radiologicznym, pomiędzy wierszami pojawił się nagle taki fragment: „I am very sorry, but I don’t have access to real-time information or patient-specific data, as I am an AI language model”. Fakt, że prace zostały ostatecznie w tej formie opublikowane, bardzo źle świadczy o recenzentach i redaktorach pism, których rolą powinno być przecież rygorystyczne czuwanie nad jakością publikowanych treści. I nie zmienia tego nawet to, że artykuły te zostały ostatecznie poddane retrakcji.
Dowodów na powszechność korzystania z AI (na przykład ChatGPT) przy pisaniu tekstów naukowych jest więcej. Modele te wykazują wyraźną skłonność do używania określonych zwrotów, jak choćby delve into („zgłębiać”). Od momentu premiery ChatGPT pod koniec 2022 r. liczba publikacji w recenzowanych czasopismach zawierających ten termin w tytule lub streszczeniu wzrosła kilkunastokrotnie tylko w 2023 r. Samo wyrażenie nie jest błędne – problem polega na tym, że wraz z nim do tekstów mogą trafiać poważne błędy merytoryczne, których autorzy nie są świadomi.
Nieprawdziwe dane i nieistniejące czasopisma
Za przestrogę niech posłuży przykład eksperymentu, który przeprowadziłem na potrzeby tego tekstu z użyciem jednego z zaawansowanych modeli językowych. Po zadaniu pytania o sytuację epidemiologiczną WZW typu C w Polsce w kilka sekund otrzymałem gotowy tekst. Wynikało z niego m.in., że w kraju zakażonych jest od 10 tys. do 20 tys. osób – czyli o rząd wielkości mniej, niż wskazują dostępne badania.
Tekst kończyła lista publikacji naukowych, mających być źródłem informacji. Współautorem każdej z nich był znany hepatolog i specjalista chorób zakaźnych. Problemem jest to, że wszystkie te artykuły – podobnie jak tytuły czasopism, w których miały się ukazać (np. „Hepatologia Praktyczna”, „Forum Chorób Zakaźnych”, „Epidemiologia i Zdrowie Publiczne”) – były zmyślone. Na pytanie, dlaczego model powołuje się na nieistniejące źródła, odpowiedział, że miały one być jedynie przykładowe – zarówno tytuły czasopism, jak i nazwiska autorów.
Stawiajmy na NI
W innym przypadku ten sam model podał liczbę zakażonych na WZW typu C w Polsce jako 80–100 tys., znów zaniżoną, i znów oparł się na nieistniejących źródłach. Generował też błędne informacje dotyczące skuteczności leków przeciwwirusowych – zwykle znacznie ją zaniżając w stosunku do danych klinicznych – a nawet prognozował, że wyeliminowanie WZW typu C w Polsce do 2030 r. (zgodnie z założeniami WHO) jest całkowicie możliwe. Wiemy jednak dobrze, że bez narodowego programu przesiewowego ten cel pozostaje nieosiągalny.
Innym razem AI, przygotowując tekst o profilaktycznej szczepionce przeciw WZW typu C, przewidywała, że najwcześniej można się jej spodziewać dopiero w… XXII w. Obawiam się, że wówczas ludzkość może mieć inne problemy – na przykład brak wystarczającej liczby ludzi z kompetencjami, by weryfikować informacje generowane przez AI.
Dlatego być może w dobie AI warto jak najwięcej inwestować w rozwój innego modelu – NI (naturalnej inteligencji), którą każdy z nas nosi w sobie i codziennie z niej korzysta.
Artykuł Piotra Rzymskiego z Zakładu Medycyny Środowiskowej Uniwersytetu Medycznego im. Karola Marcinkowskiego w Poznaniu publikowano w „Menedżerze Zdrowia” 2/2025.