Funzionamento, limiti e soluzioni
Nell’era dell’Intelligenza Artificiale, le università si trovano ad affrontare una trasformazione profonda nel modo in cui si studia e si produce conoscenza. Strumenti basati su IA sono ormai ampiamente utilizzati in ambito lavorativo, dove spesso rappresentano un supporto legittimo e persino incoraggiato. In ambito accademico, però, il tema è più delicato.
Se l’intelligenza artificiale viene utilizzata per scrivere integralmente un elaborato, senza un reale contributo personale, si pone un problema etico di merito. Per questo motivo, sempre più università si sono dotate di software in grado di analizzare i testi e individuare possibili contenuti generati dall’IA.
Strumenti come Turnitin, Compilatio e Copyleaks non si limitano a rilevare somiglianze con fonti esistenti (il caro e vecchio plagio), ma dichiarano anche di poter stimare la probabilità che un testo sia stato prodotto da un sistema di intelligenza artificiale. Offrono, quindi, un supporto utile ai docenti nel monitorare l’originalità degli elaborati.
Tuttavia, è importante ricordare un aspetto fondamentale: questi software sono strumenti, non giudici. Si basano a loro volta su modelli statistici e algoritmi — spesso riconducibili alla stessa matrice tecnologica che cercano di individuare — e non sono infallibili. Possono generare errori e, in alcuni casi, segnalare come “sospetto” un testo interamente scritto da uno studente. È il cosiddetto problema dei falsi positivi.
Per questo motivo è essenziale capire come funzionano questi strumenti, quali sono i loro limiti e, soprattutto, come comportarsi nel caso in cui un testo venga erroneamente segnalato.
In questo articolo vedremo proprio questo: come evitare inutili allarmismi, come ridurre il rischio di falsi positivi e come affrontare la situazione in modo consapevole e professionale.
Indice dei contenuti
- Come funzionano i software di rilevamento dell’intelligenza artificiale
- I loro limiti: il rischio dei falsi positivi
- Come fare per evitarli: tips e best practice
- Conclusioni
1. Come funzionano i software di rilevamento dell’intelligenza artificiale
I software di rilevamento dell’IA non “leggono” il testo come farebbe un docente e non hanno accesso a un archivio segreto di tutti i testi generati dai modelli come ChatGPT. Funzionano, piuttosto, su base statistica.
In modo semplificato, analizzano il testo e cercano di stimare quanto sia “probabile” che sia stato prodotto da un modello linguistico. Per farlo osservano alcuni elementi ricorrenti:
- Perplessità (perplexity): misura quanto un testo risulta prevedibile. I modelli di IA tendono a produrre frasi molto fluide, grammaticalmente corrette e statisticamente coerenti. Un testo troppo “regolare” può essere considerato sospetto.
- Burstiness: valuta la variazione nella lunghezza e nella struttura delle frasi. Gli esseri umani alternano spesso frasi brevi e lunghe, cambi di ritmo e piccole imperfezioni; i testi generati dall’IA tendono a essere più uniformi.
- Pattern linguistici ricorrenti: alcune costruzioni sintattiche o formule espressive sono più frequenti nei testi generati artificialmente.
Sulla base di questi indicatori, il software restituisce una percentuale di probabilità, non una certezza assoluta. Per esempio, può indicare che un testo ha “alta probabilità” di essere stato generato dall’IA. Questo non significa automaticamente che lo sia.
In definitiva, dovrebbero essere strumenti di supporto al docente nell’individuare quei testi che hanno bisogno di una verifica più approfondita e, soprattutto, umana.
I principali software utilizzati sono Turnitin, Compilatio e Copyleaks.
2. I loro limiti: il rischio dei falsi positivi
Il tema dei falsi positivi è oggi una delle principali preoccupazioni degli studenti. L’idea che la propria carriera accademica possa essere messa a rischio dai limiti di un software non è per niente rassicurante. Tant’è che molti studenti non solo non utilizzano l’IA neanche nel perimetro di legittimità (vedi articolo su come utilizzare correttamente l’IA per scrivere la tesi), ma tendono a forzare le proprie capacità di scrittura, il lessico, il ritmo, la complessità proprio per non sembrare contenuti “AI-generated”.
Ma perché succede?
Come abbiamo visto, i detector si basano su indicatori statistici. Non verificano l’intenzione dell’autore, ma analizzano caratteristiche linguistiche. Questo significa che alcuni testi scritti da esseri umani possono, dal punto di vista matematico, assomigliare a testi generati da un modello di IA.
Tra le cause più comuni troviamo:
- Scrittura molto lineare e formalmente corretta: un testo con frasi grammaticalmente impeccabili, struttura regolare e lessico accademico coerente può risultare “troppo prevedibile” per l’algoritmo.
- Uso di correttori automatici: strumenti di editing linguistico (come software di correzione grammaticale o di revisione automatica) possono rendere il testo più uniforme e statisticamente simile a un output generato dall’IA.
- Scrittura in lingua straniera: diversi casi hanno mostrato che studenti non madrelingua, soprattutto in inglese, tendono a utilizzare strutture sintattiche più semplici, formule ricorrenti e costruzioni standardizzate. Paradossalmente, proprio questa semplicità può aumentare la probabilità che il testo venga classificato come artificiale.
- Pattern comunicativi atipici: alcune ricerche preliminari hanno evidenziato che anche testi scritti da persone neurodivergenti possono essere classificati erroneamente come generati dall’IA, a causa di specifiche regolarità linguistiche o modalità espressive non convenzionali.
Questo apre una riflessione importante sui limiti statistici di questi strumenti, sottolineando la necessità di integrare sempre il giudizio umano nella valutazione dei testi.
Come si comportano i software?
Proprio per cercare di limitare il rischio di falsi positivi, molti software, tra cui Turnitin, hanno smesso di segnalare percentuali basse di IA. Se il sistema rileva una probabilità di IA tra l’1% e il 19%, spesso non mostra alcun punteggio o mette un asterisco. Solo sopra il 20% il dato viene mostrato al professore, riducendo drasticamente le segnalazioni inutili.
Il software Compilatio, invece, ha un’affidabilità media del 90%, ma questo non significa che ogni documento venga classificato correttamente. In un test svolto su più testi generati sia da persone sia dall’IA in più lingue, la maggior parte dei risultati è attendibile, ma in alcuni casi l’analisi può sbagliare, soprattutto se lo stile umano somiglia a quello di un’intelligenza artificiale o se lo studente ha utilizzato strumenti di riformulazione automatica. Perciò, il punteggio va considerato come un indicatore e non come una sentenza definitiva, e va sempre integrato con un dialogo con lo studente per valutare la reale padronanza del contenuto. Analizzando più nel dettaglio i risultati di Compilatio, emerge che il 22% dei documenti raggiunge un’affidabilità quasi totale, vicino al 100%; il 33,3% presenta un punteggio inferiore al 90%, mentre una minima parte, lo 0,25%, scende sotto il 50%.
Copyleaks, infine, permette (soprattutto nelle versioni per docenti e aziende) di regolare la “sensibilità” dell’algoritmo. Esistono tre modalità principali:
- Extra Safe (Minimi Falsi Positivi): questa impostazione è la più prudente. Segnala l’IA solo quando le prove sono schiaccianti, riducendo quasi a zero il rischio di accusare un umano (il tasso di errore dichiarato in questa modalità è incredibilmente basso, circa lo 0.009%);
- Balanced (Predefinito): un equilibrio tra precisione e capacità di trovare l’IA;
- Extra Sensitive: utile per trovare testi “umanizzati” (testi IA leggermente ritoccati), ma con un rischio leggermente più alto di falsi positivi.
Oltretutto, consapevole che chi non è madrelingua inglese rischia più falsi positivi, il software ha investito in database che includono oltre 30 lingue. Questo permette all’algoritmo di comprendere le sfumature linguistiche specifiche di un non nativo che scrive in inglese, distinguendo la “semplicità” tipica di chi sta imparando una nuova lingua, dalla “piattezza” di un algoritmo.
3. Come fare per evitarli: tips e best practice
Per ridurre il rischio di falsi positivi è importante adottare alcune accortezze nella scrittura:
- Evitare il copia-incolla: cerca di esprimere le idee con parole tue, senza copiare o parafrasare completamente le informazioni prese dalle fonti, citandole correttamente secondo lo stile richiesto. L’uso di strumenti di intelligenza artificiale, come ChatGPT o Grammarly, può essere utile per fare brainstorming o revisionare la grammatica, ma non bisogna affidarsi a essi per generare interi paragrafi: qualsiasi contenuto prodotto da questi strumenti va sempre riformulato con il proprio linguaggio.
- Utilizzare uno stile coerente: è consigliabile mantenere un tono e un vocabolario adeguato al proprio livello, evitando cambi improvvisi di complessità o frasi troppo uniformi, che possono apparire artificiali. Quando si fa una parafrasi delle fonti utilizzate, bisogna farlo in maniera approfondita e naturale, senza limitarsi a sostituire poche parole, e usare le citazioni dirette solo quando necessario, inserendole correttamente nella bibliografia. Allo stesso modo, strumenti di correzione automatica vanno utilizzati con attenzione: correzioni eccessive possono rendere il testo troppo “perfetto” e facilmente segnalabile dai rilevatori.
- Conservare le tracce del processo di scrittura: bozze, schemi e appunti, versioni intermedie e materiali preparatori, costituiscono una prova concreta del lavoro svolto in prima persona. Anche la cronologia dei documenti (ad esempio lo storico delle revisioni Word o di altri editor) e i timestamp (record digitale che certifica data e ore esatte), per tracciare la creazione e la modifica dei file e gli eventuali backup automatici, possono essere utili per dimostrare l’evoluzione progressiva del testo nel tempo, tutelando lo studente nel caso di contestazioni o sospetti di utilizzo improprio di strumenti esterni. Inoltre, se possibile, eseguire un controllo preliminare del testo con funzioni come l’invio delle bozze su Turnitin, consente di individuare eventuali criticità e correggerle prima della consegna finale.
Seguendo queste semplici regole, si riduce il rischio di essere erroneamente accusati di aver utilizzato l’IA per scrivere la tesi e si garantisce un lavoro originale, trasparente e verificabile.
4. Conclusioni
In un mondo dove tutto sta diventando automatico, c’è il rischio che un numero su un report diventi una condanna senza appello. Se un software segna “90% AI”, non significa necessariamente che hai usato ChatGPT, ma solo che il tuo stile è molto curato, regolare o forse che non sei madrelingua.
Il pericolo è che gli studenti inizino a scrivere con la paura di “sembrare dei robot”, preoccupandosi più di evitare i sospetti che di esprimere le proprie idee. In questo modo, il dubbio tecnologico finisce per soffocare la creatività.
Software come Turnitin, Compilatio e Copyleaks sono ottimi strumenti per rilevare il plagio o testi generati dall’IA, ma non sono infallibili. Spesso producono dei falsi positivi, scambiando una scrittura precisa e corretta per un testo artificiale. Per questo, è fondamentale usare questi software con criterio ed evitare allarmismi. La tecnologia deve essere solo un supporto in più: il giudizio finale deve restare umano.
Affidarsi a Sottotesi permette di affrontare gli ultimi controlli antiplagio e IA con serenità. Grazie a una verifica professionale prima della consegna, potrai chiarire tutti i tuoi dubbi e presentare il tuo elaborato con la certezza di aver fatto un lavoro originale, solido e al riparo da errori dei software.


