
Nascono come funghi, questi strumenti di intelligenza artificiale e machine learning. Anzi di più, considerando la penuria del raccolto di porcini degli ultimi anni. Anche seguendo da lontano queste novità, è difficile non farsi delle domande sul ruolo dei ricercatori e sulla funzione che l’attività di scrivere e pubblicare riveste nel loro lavoro. In altre parole, fino a che punto dovrebbe interessarci che gli autori scrivano ogni parola della loro ricerca?
È questa la domanda che si pone Avi Staiman in un post uscito su The Scholarly Kitchen a fine marzo 2023 (1). “Almeno nel contesto della comunicazione medico-scientifica – scrive Staiman – il processo di scrittura è un mezzo per raggiungere il fine di trasmettere risultati importanti in modo chiaro e coerente. Se possiamo farlo in modo più rapido ed economico, allora forse dovremmo soffermarci a considerare i potenziali benefici”.
A supporto di questa convinzione, il fondatore della Academic Language Experts chiede al lettore cosa sarebbe accaduto se, nel bel mezzo della pandemia, ci fossimo fermati a ragionare su queste questioni ritardando il flusso di dati, documenti e articoli essenziali per mettere a fuoco l’assistenza ai pazienti. “Posso giustificare politiche più severe nei casi in cui l’atto di scrivere costituisce una parte essenziale della ricerca o negli studi etnografici e qualitativi in cui il ruolo dell’autore influisce sulla natura dello studio. Ma è necessario riflettere ulteriormente sul modo in cui legiferiamo sull’uso degli strumenti di intelligenza artificiale e su un livello più granulare”.
Staiman si rivolge al lettore ponendo domande dirette. Una – centrale – riguarda il concetto di plagio, riguardo il quale esiste una ricca letteratura ma ciononostante sarebbe utile trovare un’intesa. “Se intendiamo per plagio l’uso di materiali che gli autori non scrivono a proprio nome, allora la scrittura assistita dall’intelligenza artificiale dovrebbe essere considerata un plagio. Tuttavia, se per plagio si intende prendere idee da altri e spacciarle per proprie, allora l’uso di un GPT potrebbe non essere assimilato a un plagio, in quanto questi testi sono nuovi e non estrapolati dal lavoro di qualcun altro. La scrittura accademica prevede necessariamente l’utilizzo del lavoro precedente attorno alla quale il ricercatore può aggiungere novità”.
Altro interrogativo è quello su quanto in fondo sia diverso ChatGPT da altri strumenti a cui ricorrono molto spesso tanti autori. “Strumenti come Grammarly, Writeful e persino il controllo grammaticale di Microsoft sono molto utilizzati dagli autori. Se un autore utilizza ChatGPT per scopi linguistici, perché questo dovrebbe essere dichiarato e altri strumenti no? I ricercatori di molti settori utilizzano software e strumenti per raccogliere, organizzare e analizzare i dati senza che nessuno batta ciglio”.
I direttori delle riviste dovrebbero avere uno sguardo meno ottuso e incoraggiare i ricercatori a utilizzare tutti gli strumenti a loro disposizione per rendere non solo il loro lavoro più accessibile ma anche capace di avere un impatto maggiore, continuando a educare i ricercatori su come trovare, esaminare e verificare le informazioni. “Allo stesso tempo, gli editor delle riviste devono accelerare un cambiamento della peer review, per essere pronti a gestire i confini ancora più torbidi tra fatti e finzione”.
Bibliografia
1. Staiman A. Academic publishers are missing the point on ChatGPT. The Scholarly Kitchen 2023; 31 marzo.