Wikipedia: quando l’Intelligenza Artificiale entra dalla porta di servizio
Avevo già scritto in questo articolo dell’arrivo educato dell’intelligenza artificiale anche in spazi simbolici come Wikipedia. L’annuncio era rassicurante: l’IA sarà usata solo per alleggerire i compiti “ripetitivi e noiosi per gli esseri umani” che terranno sempre il controllo su quanto prodotto. Una frase-manifesto che sembra coniata apposta per non far scattare nessun campanello d’allarme. (...)
Eppure qualcosa non torna. Perché a ogni “uso marginale” annunciato, segue quasi sempre una fase in cui l’IA comincia a generare contenuti invece di limitarsi ad assistere. In Wikipedia, ad esempio, un recente esperimento ha introdotto riassunti generati automaticamente in cima agli articoli. Doveva durare due settimane, coinvolgendo solo gli utenti mobile. È durato pochi giorni: una parte significativa della comunità di redattori ha protestato, rilevando che le sintesi automatizzate rischiavano di semplificare e distorcere informazioni complesse, minando l’intera affidabilità della piattaforma.
Non si tratta solo di rigetto ideologico verso l’innovazione, ma di una domanda di fondo: quanto margine resta per l’intervento umano, quando la macchina inizia a scrivere per noi?
La tentazione di affidarsi all’IA, va detto, è forte ovunque. Le promesse di “efficienza”, “riduzione dei costi”, “scalabilità” sono musiche seducenti. Ma ogni volta che ci si lascia cullare da queste melodie, accade qualcosa di simile a quanto è successo su StackOverflow: calo drastico degli accessi, in parte dovuto al fatto che sempre più utenti preferiscono chiedere direttamente alle AI piuttosto che leggere risposte (umane) spesso articolate, discusse, verificate e aggiornate. Quando l’unica metrica diventa la velocità della risposta, l'approfondimento sparisce.
Wikipedia e StackOverflow condividono un’origine nobile: sono il frutto di collaborazione umana strutturata, che si è sviluppata in oltre 15/20 anni, non semplicemente un archivio di dati. Per questo la questione non è solo se queste piattaforme adotteranno l’IA, ma quando inizieranno i singoli operatori a usarla, in modo silenzioso o magari anche inconsapevole.
Ed è qui che vorrei aggiungere un aneddoto personale. Qualche giorno fa, in una prima media, ho assegnato a due piccoli gruppi di studenti il compito di preparare delle domande per un’intervista da fare a dei ragazzi di un'altra classe. Un gruppo ha deciso di scrivere "a mano" le domande, il secondo gruppo di "aiutarsi" con Internet. Durante un passaggio vicino al tavolo del secondo gruppo due su tre hanno spento o coperto lo schermo del loro cell: stavano consultando un elenco di domande trovato online. Io ho commentato con: “Usate pure le risorse online, non importa da dove prendete le domande, ma usate il vostro giudizio per capire se hanno senso nel contesto in cui le dovremo usare.”
Credo valga anche per l’IA. Non si tratta di demonizzarla né di fuggirla. Si tratta di allenare il giudizio, lo stesso che serve per selezionare una buona domanda o verificare un’affermazione. Perché, che sia uno scolaro di 11 anni o un editor volontario di Wikipedia, il rischio non è usare uno strumento. È smettere di chiedersi se quello che sta scrivendo ha davvero senso.