Polityka wykorzystania AI

Postanowienia ogólne

Polityka dotycząca wykorzystania sztucznej inteligencji oraz technologii wspieranych przez AI określa zasady i standardy korzystania z narzędzi sztucznej inteligencji (AI) przez autorów, recenzentów oraz członków redakcji czasopisma „Agora. Social Sciences Journal” podczas przygotowywania, składania, recenzowania i redagowania publikacji.

Celem tej polityki jest zapewnienie przejrzystości, odpowiedzialnych praktyk naukowych oraz zgodności z międzynarodowymi standardami etyki publikacyjnej, zgodnie z zaleceniami COPE, WAME oraz JAMA Network.

Definicja

Narzędzia AI odnosi się do wszelkich zautomatyzowanych lub częściowo zautomatyzowanych systemów, w tym generatywnych modeli językowych, narzędzi do automatycznej analizy tekstu, algorytmów przetwarzania obrazu, narzędzi do programowania lub analizy danych, usług edycji mowy oraz innych podobnych zasobów.

Główne zasady 

Odpowiedzialność człowieka. Sztuczna inteligencja nie może być uznana za autora materiałów naukowych. Tylko ludzie są w stanie ponosić etyczną, prawną i naukową odpowiedzialność za treść artykułu.

Transparentność. Każde użycie AI musi być jasno ujawnione zgodnie z wymaganiami niniejszej polityki.

Rzetelność. Autorzy ponoszą pełną odpowiedzialność za poprawność, ważność i dokładność wszystkich wyników, informacji oraz interpretacji, w tym tych wygenerowanych lub zmodyfikowanych przez narzędzia AI.

Etyka i zgodność ze standardami. Wykorzystanie AI nie może prowadzić do naruszenia integralności naukowej, w tym fałszowania danych, plagiatu, fikcyjnych cytowań ani wprowadzających w błąd wizualizacji.

Wymagania dla autorów

  1. Zakaz wymieniania AI jako autora

Narzędzia AI nie mogą być uwzględniane na liście autorów, ponieważ nie spełniają kryteriów autorstwa.

  1. Obowiązkowe ujawnienie użycia AI

Przy składaniu publikacji autorzy muszą ujawnić:

  • czy użyto AI (tak/nie);
  • nazwy narzędzi (np. ChatGPT, Gemini, Copilot itd.), wersja (jeśli dostępna) oraz data użycia;
  • cel i zakres wykorzystania AI (korekta językowa, generowanie tekstu, analiza danych, tworzenie obrazów itp.);
  • części materiału, do których zastosowano AI.

Jeśli sztuczna inteligencja została wykorzystana do prowadzenia badań lub analizy danych, należy to opisać w sekcji „Metody i dane” manuskryptu. Inne zastosowania (takie jak edycja tekstu) można wskazać w sekcji „Podziękowania”.

  1. Odpowiedzialność za treści

Autorzy gwarantują:

  • weryfikacja wszystkich tekstów, obrazów i danych stworzonych/zmodyfikowanych przez AI;
  • brak plagiatu, fabrykacji, fikcyjnych źródeł oraz manipulacji;
  • zgodność uzyskanych wyników ze standardami naukowymi i etycznymi.

Redakcja może poprosić o dodatkowe materiały (dane źródłowe i polecenia) w celu weryfikacji poprawności.

Wykorzystanie sztucznej inteligencji do tworzenia obrazów, grafik i ilustracji

Jeśli obrazy, diagramy, mapy lub wykresy zostały stworzone lub zmodyfikowane przez AI, podpis musi wskazywać użyte narzędzie oraz charakter jego zastosowania.

Autorzy muszą zapewnić dokładność i nie wprowadzać czytelników w błąd, w szczególności poprzez unikanie używania wizualizacji generowanych przez AI, które mogą powodować fałszywe wrażenie na temat rzeczywistych danych.

Jeśli AI zostanie użyta do tworzenia materiałów wizualnych, autorzy muszą upewnić się, że posiadają odpowiednie prawa do ich wykorzystania.

Użycie sztucznej inteligencji przez recenzentów

  1. Poufność

Recenzenci nie mogą przesyłać manuskryptów ani ich fragmentów do zewnętrznych usług AI, które nie gwarantują poufności danych.

  1. Ujawnienie wykorzystania AI przez recenzenta

Jeśli recenzent skorzystał z narzędzi AI w celu wsparcia w formułowaniu wniosków lub do edycji technicznej, musi poinformować o tym redakcję.

Wykorzystanie AI przez zespół redakcyjny

  1. Zespół redakcyjny może wykorzystywać AI do technicznego przetwarzania manuskryptów (sprawdzanie plagiatów, identyfikacja problemów strukturalnych, redakcja językowa); jednak wszystkie decyzje redakcyjne podejmują ludzie.
  2. Automatyczne wnioski nie mogą być jedyną podstawą podejmowania decyzji etycznych dotyczących manuskryptu; w takich przypadkach zespół redakcyjny przeprowadza ekspercką ocenę.

Korzystanie z narzędzi do wykrywania AI

Zespół redakcyjny może korzystać ze specjalistycznych narzędzi do wykrywania tekstów i obrazów stworzonych przez AI. Jednak automatyczne wskaźniki nie są uznawane za wystarczający dowód naruszenia. W przypadku wątpliwości zespół redakcyjny może skontaktować się z autorami w celu uzyskania wyjaśnień i dodatkowych informacji.

Naruszenie polityki

 Naruszenia obejmują:

  • ukryte użycie AI;
  • zaniżanie lub fałszowanie informacji dotyczących wykorzystania AI;
  • użycie AI skutkujące sfabrykowanymi danymi, odnośnikami lub wizualizacjami;
  • naruszenie poufności manuskryptu przez recenzentów.

W zależności od charakteru naruszenia, redakcja może podjąć następujące działania: poprosić o wyjaśnienie, zażądać poprawek, odmówić publikacji, poinformować instytucję autora lub wycofać opublikowany artykuł zgodnie z procedurą wycofania.

Zalecane sformułowanie dla autorów

W liście motywacyjnym:

Autor(zy) ujawniają, że narzędzia AI [nazwa, wersja] zostały użyte do [zadanie] podczas przygotowywania tej publikacji. Wszystkie wyniki stworzone lub zmodyfikowane przez AI zostały dokładnie sprawdzone i są zgodne z wymogami integralności naukowej.

W artykule (w sekcji „Podziękowania” lub „Metody i dane”):

"Narzędzie AI [nazwa, wersja] zostało użyte do [zadanie] podczas przygotowywania tego manuskryptu. Autorzy potwierdzają, że wszystkie dane i wnioski są dokładne i zostały zweryfikowane."

Przegląd Polityki

Ze względu na szybki rozwój sztucznej inteligencji, niniejsza Polityka będzie poddawana przeglądowi co najmniej raz w roku lub po opublikowaniu nowych wytycznych przez COPE lub inne wiodące organizacje w dziedzinie publikacji naukowych.