Organizatorzy czołowych konferencji z dziedziny sztucznej inteligencji i wydawcy publikacji akademickich ostrzegają, że badacze nie powinni korzystać z narzędzi takich jak ChatGPT do automatycznego recenzowania prac. Obawa wynika z utrzymania integralności intelektualnej.
Ze względu na ostatnie postępy w obszarze dużych modeli językowych, badacze coraz częściej wykorzystują je do pisania recenzji prac naukowych - długoletniej tradycji akademickiej, która ocenia nowe badania i ocenia ich wartość, pokazując, że praca osoby została przejrzana przez innych ekspertów w dziedzinie. Dlatego też prośba o analizę prac przez ChatGPT i krytykę badań, bez wcześniejszego zapoznania się z nimi, podważyłaby proces recenzji przez rówieśników.
Aby rozwiązać ten problem, konferencje dotyczące sztucznej inteligencji i uczenia maszynowego zastanawiają się obecnie nad aktualizacją swoich zasad, ponieważ niektóre wytyczne nie zabraniają wyraźnie wykorzystywania AI do przetwarzania prac, a język może być niejasny. Conference and Workshop on Neural Information Processing Systems (NeurIPS) rozważa powołanie komitetu do określenia, czy należy zaktualizować swoje zasady dotyczące korzystania z dużych modeli językowych do recenzji rówieśniczych, poinformował rzecznik portalu Semafor.
Na NeurIPS, badacze nie powinni np. „udostępniać zgłoszeń nikomu bez wcześniejszej zgody”, podczas gdy kodeks etyki na corocznym zlocie Międzynarodowej Konferencji na Temat Reprezentacji Uczenia (ICLR), której doroczna konferencja rozpoczęła się we wtorek, stanowi, że „duże modele językowe nie kwalifikują się do autorstwa”.
Przedstawiciele z NeurIPS i ICLR stwierdzili, że pojęcie „ktokolwiek” obejmuje AI, a autorstwo odnosi się zarówno do artykułów, jak i komentarzy recenzji rówieśniczych. Rzecznik firmy Springer Nature, znanego wydawcy publikacji akademickich, przede wszystkim z jej najwyżej ocenianego czasopisma badawczego „Nature”, powiedział, że eksperci są zobowiązani do oceny badań, a pozostawienie tego AI jest ryzykowne.
ELI5: Badacze nie powinni używać sztucznej inteligencji do recenzowania prac naukowych, ponieważ narusza to tradycyjny proces, w którym eksperci w dziedzinie oceniają nowe badania. Konferencje naukowe zaczynają rozważać zmiany w swoich zasadach, aby uniknąć tego problemu. NeurIPS i ICLR nie zalecają korzystania z dużych modeli językowych do recenzji prac naukowych, ponieważ automatyczne recenzowanie może mieć negatywne konsekwencje. Firmy wydające publikacje naukowe, takie jak Springer Nature, również podkreślają, że eksperci powinni oceniać prace, a nie polegać na sztucznej inteligencji.
Źródła: