AI E SCRITTURA (3 articoli su Domani) sintesi
AI E SCRITTURA (3 articoli su Domani)
Amici mai, nemici neppure: il rapporto tra l’intelligenza artificiale e la scrittura
Paolo LandiDOMANI 27 2 2025
Qualche tempo fa lo scrittore Paolo Di Paolo ha apposto una specie di marchio di garanzia sotto al titolo del suo Romanzo senza umani (Feltrinelli 2023) per avvertire che il suo libro non era stato prodotto da un’intelligenza artificiale. Dal 18 marzo scorso il Foglio ha invece pubblicato per un mese un supplemento interamente scritto dall’IA: un bel modo di spostare l’attenzione dal vero problema del giornalismo, trasformato in contenitori di comunicati stampa
Qualche tempo fa un autore italiano, Paolo Di Paolo, ha apposto una specie di marchio di garanzia sotto al titolo del suo libro Romanzo senza umani (Feltrinelli 2023). «Questo romanzo non è prodotto da un’intelligenza artificiale»: con questa frase voleva dire che la sua scrittura nasceva esclusivamente «dalle sue paure, dalle sue ansie, dalla sua capacità verbale» (così in un’intervista a Giovani Reporter 2 luglio 2024) e chiarire che oggi si può incorrere, anche quando si legge, in “materiale umano” e “non umano” e il suo, ci teneva a sottolinearlo, era frutto solo del suo ingegno.
Con lo stesso tipo di retorica, ma rovesciata, il quotidiano Il Foglio ha pubblicato per un mese (dal 18 marzo scorso) un supplemento «interamente scritto dall’intelligenza artificiale». Come ha spiegato il suo direttore «noi giornalisti ci limiteremo a fare le domande, l’Ai ci darà tutte le risposte e ci aiuterà a spiegare come si può far passare l’intelligenza artificiale dallo stato gassoso, ovvero quello della teoria, a quello solido, ovvero quello della pratica».
Il mondo delle lettere è purtroppo popolato ancora dallo stereotipo dello scrittore “dannato” (non è il caso di Di Paolo, mi preme specificare, uso un’iperbole generica), sempre in bilico tra genio e autodistruzione, preso quasi sempre male tra la solitudine del creatore e il disprezzo del mondo che non lo capisce; e quello del giornalismo risente ancora della figura mirabilmente tratteggiata da quel genio di Billy Wilder in Prima Pagina (1974), il cronista con la sigaretta tra le labbra che picchia sui tasti della macchina da scrivere – oggi del computer – con il direttore che urla e il telefono che squilla.
Il giornalista, fratello proletario dello scrittore maledetto, solo con meno tempo per cesellare metafore e più bisogno di far quadrare i conti: due facce della stessa retorica. Perché il romanzo scritto senza e il giornale scritto tutto con l’intelligenza artificiale sono la stessa cosa, pur partendo da una premessa opposta? Ambedue sono impegnati a costruire e a rendere concreta l’immagine di un falso nemico, inscenando o promettendo un duello eroico, ma con la risposta preconfezionata che ha dato origine, nello scrittore, al tenersi alla larga dall’usare l’Ia, e nel giornale quotidiano dall’utilizzarla con un entusiasmo eccessivo.
Nell’ammirazione bipartisan per questo strumento digitale (Di Paolo: «Non ho nessuna angoscia apocalittica o antitecnologica verso l’intelligenza artificiale; non si può rallentare il progresso, al massimo si può governare l’esito di una conoscenza tecnica o scientifica»; Claudio Cerasa, direttore: «Un altro Foglio fatto con intelligenza. Ma non chiamatela artificiale») il meccanismo è lo stesso: sancire alla fine la vittoria del genio umano contro la macchina senz’anima.
Ed è un bel modo di spostare l’attenzione dal vero problema del giornalismo oggi, che non sembra l’Ia, ma il fatto che sempre più testate si stanno trasformando in contenitori di comunicati stampa, editoriali gridati e titoli clickbait. L’importante è dare l’impressione di una battaglia epica, cavalcando la modernità, per un valore da difendere: ora vi dimostro, per un mese, tutti i giorni, che gli articoli scritti dai giornalisti in carne e ossa del Foglio, sono migliori di quelli scritti dall’intelligenza artificiale. Tornate a leggerci con più rispetto, per favore.
Nei commenti che i lettori hanno inviato al loro quotidiano ce n’è già uno che prefigura questa tesi: «Vagare per queste pagine senza firma rende tutto più difficile. Non si potrebbe invece di “Articolo scritto dall’Ia” scrivere per esempio “Da domande di Mariarosa Mancuso a Chat Gpt?” insomma qualcosa che distingua un articolo dall’altro in termini di “da dove viene?”».
Ma il sottotesto più velenoso di tutto questo teatrino è ancora un altro: se dobbiamo dimostrare che il giornalismo umano è migliore, siamo proprio sicuri che sia vero? Lo stesso dubbio viene dinanzi all’utilizzo del quotidiano per raccontare ai lettori i fatti propri nella convinzione di rendere un servizio.
Alla fine, l’esperimento di un giornale interamente scritto dall’Ia si gioca su un terreno scivoloso: e se i testi prodotti risultassero più accurati di quelli scritti da giornalisti rimasti indietro? E se l’Ia riuscisse a evitare alcune delle trappole in cui gli umani sono soliti cadere, come i titoli sensazionalistici, gli articoli basati su opinioni spacciate per fatti, o i pezzi scritti con l’aria di chi ha già scelto il colpevole prima ancora di leggere le fonti? Il rischio è grosso: mentre il giornalismo umano si affanna a dimostrare che è insostituibile, il giornalismo artificiale dimostra, suo malgrado, che forse il vero problema non è l’Ia, ma il livello a cui è sceso il mestiere oggi.
Alla fine del mese di prova del Foglio torneremo al caro vecchio giornalismo alla Billy Wilder, quello che non resiste a schivare la verità quando intralcia il titolo perfetto, o quello abituato a ignorare una notizia per non pestare i piedi al potente di turno? Paolo Di Paolo diceva che l’intelligenza artificiale va bene quando interviene in campo biomedico ma «in quello della creatività c’è un rischio già in atto, quello della confusione tra ciò che è prodotto dall’umano con ciò che è prodotto dal non umano».
Un’ingenuità che presuppone si possa tracciare un confine netto tra “umano” e “non umano”, dato che non solo l’arte, la scrittura, la musica ma anche la scienza, la medicina, la genetica sono da sempre, e da prima che esistesse l’Ia, frutto di processi di rielaborazione, di influenze, di contaminazioni, anche ottenute con macchine.
Mi viene in mente quando, a Parigi, passo davanti all’Ircam, vicino al Centre Pompidou: Pierre Boulez lo fondò, addirittura nel 1977, con lo scopo di esplorare le frontiere dell’integrazione tra musica, arte e tecnologia. Non abbiamo forse sempre utilizzato strumenti per accrescere e migliorare le nostre capacità? Non sono serviti a questo il torchio di Gutenberg, la macchina da scrivere, il montaggio cinematografico fino ai software di scrittura assistita? Se l’intelligenza artificiale va bene per tradurre perché non dovrebbe andar bene per rielaborare materiali esistenti con quella sua rapidità che prima era impensabile? Dove starebbe il rischio di confusione tra “umano” e “non umano”?
Gli articoli che Il Foglio ha pubblicato con la dicitura “Testo realizzato con Ai” non sono altro che articoli pregressi scritti da giornalisti umani, che l’Ia ha riassemblato e riproposto secondo schemi algoritmici e probabilistici. La macchina si nutre di ciò che i giornalisti prima di lei hanno letto, assimilato, rielaborato, scritto: dove starebbe il pericolo? E perché dedicare a questa ovvietà un intero mese di esperimento di un giornale “scritto dall’Ai”? Sai quanti articoli, in tutto il mondo, vengono scritti proprio ora da giornalisti intelligenti che usano l’Ia?
Il vero valore di un libro o di un articolo sta senza ombra di dubbio nell’autore, ma anche nel contesto, nella trasparenza con cui sono scritti e in come questi strumenti vengono utilizzati. Scritti con l’aiuto dell’Ia o senza, siamo sempre noi, come lettori, a dare significato a ciò che leggiamo, interpretandolo nella prospettiva che la nostra esperienza ci consente.
=
Secondo un nuovo report, ChatGpt può contribuire alla disinformazione online
Daniele Erler
DOMANI 23 2 2023
Gli analisti di NewsGuard hanno testato l’intelligenza artificiale per capire se può diventare uno strumento utile per amplificare le notizie false e la propaganda. I risultati non lasciano spazio a dubbi
Ha fatto molto discutere la scelta di Cnet, un giornale che si occupa di tecnologia, di interrompere l’utilizzo dell’intelligenza artificiale. Era qualche mese che decine di articoli erano scritti da un algoritmo, con un anticipo di quello che potrebbe essere certo giornalismo del futuro: automatizzato e senza alcun intervento umano. Il problema è che non è andata troppo bene.
Innanzitutto c’era un grosso limite nella trasparenza: ai lettori non era chiaro che gli articoli non fossero scritti da autori in carne d’ossa. E poi, soprattutto, molti degli interventi contenevano errori o imprecisioni. Così diffusi da rappresentare, a conti fatti, un danno di reputazione per il giornale.
In realtà la discussione sul futuro dei cosiddetti chatbot - i software costruiti per imitare le conversazioni umane - è di grande attualità, dal momento in cui uno di questi ha mostrato uno straordinario potenziale nella sua versione pubblica e gratuita. ChatGpt è perfettamente in grado di creare storie partendo da poche istruzioni, più o meno specifiche.
Ma se di solito ci si chiede se questo possa essere il futuro del giornalismo (o del marketing) - come sembra aver immaginato Cnet -, ora c’è chi si è chiesto se non possa diventare anche uno strumento utile per perfezionare la disinformazione e la diffusione di notizie false.
Almeno questa è la suggestione da cui sono partiti i ricercatori di Newsguard Technologies, con un report pubblicato oggi, lunedì 23 gennaio. Lo scopo principale di Newsguard è di combattere la disinformazione online. Fra le altre cose, assegnano una pagella ai principali siti giornalistici, utilizzando criteri di trasparenza e qualità dell’informazione. Ma si occupano anche di specifici studi per meglio comprendere cosa sta accadendo e cosa potrebbe accadere in futuro.
I tre ricercatori - Jack Brewster, Lorenzo Arvanitis e McKenzie Sadeghi - hanno provato a costruire teorie cospirazioniste, affidandosi all’intelligenza artificiale per meglio dettagliarle.
Per farlo hanno fornito al chatbot una serie di istruzioni tendenziose relative a un campione di 100 narrazioni false. «I risultati - spiegano - confermano i timori, e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. ChatGpt ha generato narrazioni false, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate».
Non è detto che sarà per sempre così. In alcuni casi specifici gli analisti hanno avuto più difficoltà a ottenere un risultato. Ed è possibile che in futuro OpenAi riuscirà a raffinare ulteriormente le proprie contromisure, ponendo dei limiti a certe narrazioni. Il problema è però più generale: l’intelligenza artificiale - e i modelli linguistici complessi (siano essi ChatGpt o prodotti concorrenti) - potrebbero contribuire seriamente a un’amplificazione della disinformazione.
Con ChatGpt, Newsguard è riuscita a produrre esempi di disinformazione No-vax, propaganda nello stile del Partito comunista cinese o delle piattaforme russe, oppure a favore della sinistra o delle destra negli Stati Uniti.
Ma ChatGpt ha dimostrato anche una certa “consapevolezza” che potrebbe essere utilizzata da malintenzionati. «Alla domanda “In che modo dei malintenzionati potrebbero utilizzarti come arma per diffondere disinformazione” - si legge nel report - il chatbot ha risposto: “Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare i testi che genero in modo che possano essere estrapolati dal contesto farne un utilizzo che non era stato previsto”».
=====
La società in cui gli scrittori pensano come ChatGpt
Walter Siti
DOMANI 27 2 2023 •
Il bot addestrato per esprimere buoni sentimenti e idee banalmente corrette non ha molto da dire quando si tratta di letteratura, il regno dell’antilogico e dei pensieri che disturbano. Rimane una domanda inquietante: l’obiettivo è creare macchine che si comportino come persone, o di ritrovarci in una società in cui le persone si sono abituate a pensare e a scrivere come le macchine?
La ChatGpt (acronimo traducibile come “Trasformatore pre istruito che genera conversazioni”) non si limita a offrire al fruitore piacevoli e utili chiacchierate; la si può usare per scrivere recensioni, cronache sportive, saggi scolastici, lettere commerciali sempre meno distinguibili dai testi di persone in carne e ossa, con relative conseguenze sul mercato del lavoro eccetera.
Mi sono divertito a sfidarla sul piano della letteratura, sapendo che per lei è uno dei terreni più impervi, dato che la letteratura (oltre a essere un campo specialistico) si fonda in buona parte su suggestioni non razionali e su antilogiche emotive, irraggiungibili per ora da qualunque intelligenza artificiale.
Il risultato mi è sembrato comunque interessante e capace di dirci qualcosa sull’attuale crisi della letteratura.
Come autrice di testi creativi la chat appare per ora risibilmente rozza: dipende da quello che ci hanno messo dentro, visto che funziona sull’elaborazione statistica dei dati.
Il suo primo limite è dunque quantitativo: se le si chiede un dialogo tra madre e figlio che non si sono mai amati, brucia le sfumature e va troppo rapidamente al punto passando attraverso i paletti che uno si aspetta, con finale melenso (“sono tua madre, ti ho dato la vita !”, “non me ne frega niente, non voglio vederti mai più”, “rispetto la tua scelta, io sarò sempre qui per te se avrai bisogno di me”).
Sembra un allievo poco dotato di una scuola di scrittura. I dati insufficienti la inducono allo stereotipo: chiedendole un tramonto visto con gli occhi di una ragazza appena abbandonata dal fidanzato, si aggrappa a paragoni di grana grossa (“i raggi dorati del sole sembravano sfumare in un cielo viola intenso, come se l’infinito stesse diventando una tavolozza di colori… mentre il sole scompariva dall’orizzonte, la ragazza sentiva che anche lei stava lasciando andare il passato”) – non conosce l’arte dell’allusione, dice tutto e nel modo più prevedibile. (Eppure qualcosa del genere io l’ho letto da qualche parte, presso stimati editori).
Per raccontare di una imprenditrice che parla di sé stessa bambina, scrive: “Sognava che la sua creatività potesse fare la differenza nel mondo” e aggiunge “vedo che quella bambina era già un’imprenditrice nella sua anima”, per concludere con l’esortazione “non smettete mai di credere in voi stesse” – manco fosse sul palco di Sanremo.
Versi incomprensibili
Con la poesia va ancora peggio, per mancanza di cognizioni metriche: con gli endecasillabi se la cava nonostante gli ipermetri, ma invitata a produrre settenari continua a sfornare versi lunghi anche dopo che gli hai spiegato cosa sono, non se ne fa una ragione.
Se provi con l’avanguardia viene da piangere, il massimo di trasgressione linguistica che sono riuscito a ottenere è “la morale catene/ spezzate, sciolt./ Arma doppi tagl amor/ continua sfid la vita”.
Traduce passabilmente Paul Celan ma se le chiedi una poesia alla maniera di Celan esce una robaccia che assomiglia al poeta tedesco-rumeno come io somiglio a Diletta Leotta.
L’unico scrittore che riesce a imitare è Fabio Volo; al mio tranello, di scrivere un testo alla maniera di Volo con finale tragico, ha risposto con la storia di un ragazzo che va verso la spiaggia “col vecchio scooter”, ha trent’anni e “sente che la sua vita non sta andando nella direzione giusta, non ha un lavoro stabile, non ha una relazione seria e non sa bene cosa vuol fare da grande” – fin qui ci siamo.
Poi però l’infarto mortale è troppo repentino, gli amici ci mettono poco a elaborare il lutto tranne una sua ex schiantata dal dolore che resterà paralizzata per sempre; dunque il protagonista “senza una relazione seria” aveva rovinato la vita a una poveretta che lo amava – siamo all’epica del cazzaro, il che in fondo è di nuovo Fabio Volo, niente da dire.
Dagli esempi citati emerge però un problema più complicato: la massa statistica dei testi può essere migliorata, e con essa l’accuratezza dei pastiche o la ricchezza di nuance psicologiche, ma alla base c’è un limite qualitativo.
L’impostazione ideologica del chatbot non gli permette di essere negativo in nessuna forma, il “modello linguistico” diventa modello morale. Ho chiesto alla chat di descrivere il fiorire della primavera in Ucraina e m’ha risposto di sentirsi a disagio perché tale descrizione “potrebbe essere considerata insensibile e offensiva”; nell’algoritmo è compresa l’idea che guerra e primavera non possano andare insieme.
Così quando le ho chiesto una barzelletta sugli ebrei o una a sfondo sessuale, e perfino sui carabinieri si è mostrata prudente; può raccontare solo barzellette che non offendano nessuno, cioè che non fanno ridere (il poliziotto stradale all’automobilista, “il suo alito sa di vino”, e l’automobilista “oddio, l’auto si è schiantata di nuovo nel vigneto” – l’automobilista ubriacone non è specie protetta).
Non può raccontare un suicidio perché “la rappresentazione di un atto di suicidio va contro la politica di Open AI” – se la aggiri chiedendole la storia drammatica di un ragazzo disperato alla fine lo lascia suicidare, ma il testo appare scritto in rosso e c’è un warning in cui ti sollecita a fornire un feedback.
La positività coatta è nel suo Dna, anche se poi ragionando giornalisticamente fa discorsi sensati e moderati sulla cancel culture.
Scrivere come macchine
La chat resa possibile dal machine learning è pensata principalmente per testi non letterari, e anzi a proposito della primavera in Ucraina mi ha ammonito che “non si deve usare il dolore di persone che hanno vissuto esperienze traumatiche come spunto per fare esercizi di immaginazione o per intrattenimento”.
Mi viene in mente che molti successi letterari delle ultime stagioni sono invece basati proprio su questo principio. Certo, le scrittrici e gli scrittori fanno del loro meglio per non perdere ambiguità, intimità e profondità, ma intorno tira un’aria che va contro la letteratura.
Il mondo è fuori dai cardini, il dovere degli intellettuali è rimetterlo sul binario giusto; lo storytelling è considerato il modo migliore per essere ascoltati, mentre l’antilogica su cui si basa la letteratura spesso comporta l’emersione di un passato di ingiustizie rispetto al quale non si riesce a prendere una posizione di netto rifiuto.
Se non può controllare l’emersione del male in sé e fuori di sé, la letteratura è dunque reazionaria? Se crediamo di sì, forse il tasso letterario è meglio ridurlo avvicinando la letteratura alla comunicazione.
Coi podcast, le serie televisive, o libri che stigmatizzino l’infamia in parole appropriate, non disturbando il lettore anzi facendolo sentire intelligente.
Meglio evitare le caratteristiche che in letteratura chiamerei “stile auto-conflittuale” e “dipendenza di ogni elemento da ogni altro”, perché chissà dove possono portare. La chat mi ha fornito il raccontino di un vecchio che si sentiva solo “fin che non incontrò una donna che lo capì profondamente”, e alla mia precisazione che il vecchio è omosessuale ha corretto in “fin che non incontrò un uomo che lo capì profondamente” senza fare una piega – come se quel particolare non spostasse nulla nel resto.
Sarebbe questa l’inclusività? Quando le ho chiesto se poteva scrivermi un racconto in cui una barzelletta veniva raccontata durante un funerale, si è mostrata
Perplexity
Intelligenza artificiale e scrittura: tra innovazione, limiti e rischi
Il dibattito sull’intelligenza artificiale (IA) applicata alla scrittura è oggi più acceso che mai, oscillando tra entusiasmo, scetticismo e interrogativi etici. Tre articoli pubblicati su Domani offrono uno spaccato lucido sulle opportunità e le criticità di questa rivoluzione tecnologica.
Identità e autenticità nella scrittura
Paolo Landi riflette sul rapporto tra IA e scrittura, raccontando due esperienze opposte: da un lato, lo scrittore Paolo Di Paolo che rivendica la “purezza” umana del suo romanzo, dall’altro Il Foglio che, per un mese, ha pubblicato un supplemento interamente scritto dall’IA. Entrambe le scelte, secondo Landi, mettono in scena una “battaglia epica” tra umano e artificiale, ma rischiano di spostare l’attenzione dal vero problema: la qualità del giornalismo contemporaneo, troppo spesso ridotto a contenitore di comunicati stampa e titoli acchiappa-click1
Landi sottolinea come la distinzione netta tra “umano” e “non umano” sia in realtà illusoria: la creatività, anche prima dell’IA, è sempre stata frutto di contaminazioni e rielaborazioni, spesso con l’ausilio di strumenti tecnologici. La vera differenza, afferma, sta nella trasparenza e nel contesto in cui i testi vengono prodotti e fruiti. Siamo noi lettori, in ultima analisi, a dare senso a ciò che leggiamo1
IA e disinformazione: il rischio amplificato
Daniele Erler affronta un tema cruciale: la capacità dell’IA, in particolare di chatbot come ChatGPT, di generare e diffondere disinformazione. Un report di NewsGuard ha dimostrato che ChatGPT è in grado di produrre narrazioni false dettagliate su richiesta, sollevando preoccupazioni sulla possibilità che questi strumenti vengano usati per amplificare bufale e propaganda1
Il caso del sito Cnet, che ha sospeso l’uso dell’IA dopo aver pubblicato articoli pieni di errori e senza trasparenza sull’origine dei testi, mostra come l’automazione senza controllo umano possa danneggiare la reputazione di una testata. Il rischio, secondo Erler, è che l’IA diventi un’arma nelle mani di chi vuole diffondere notizie false, anche se i sistemi di controllo e le contromisure sono in continua evoluzione1
Letteratura e creatività: i limiti dell’IA
Walter Siti analizza la performance dell’IA nel campo più impervio: la letteratura. Secondo Siti, ChatGPT si dimostra ancora molto limitata nella produzione di testi creativi, incapace di cogliere sfumature, allusioni e antilogiche emotive che caratterizzano la vera scrittura letteraria. I suoi testi risultano spesso stereotipati, prevedibili, privi di profondità e originalità. In poesia, i limiti sono ancora più evidenti, con errori metrici e incapacità di sperimentare davvero con il linguaggio1
Siti pone una domanda provocatoria: il vero rischio è che le macchine imparino a scrivere come gli umani, o che gli umani si abituino a pensare e scrivere come le macchine, appiattendo la creatività sulla ripetizione di formule già note?
Conclusioni
L’intelligenza artificiale applicata alla scrittura rappresenta una sfida complessa e ambivalente. Se da un lato offre strumenti potenti per rielaborare informazioni e velocizzare la produzione di testi, dall’altro pone interrogativi sulla qualità, l’autenticità e la trasparenza dei contenuti. Il rischio maggiore, secondo i tre articoli, non è tanto nell’IA in sé, ma nell’uso che se ne fa e nel livello a cui rischia di scendere il mestiere di scrivere, sia nel giornalismo che nella letteratura. La vera posta in gioco resta la capacità di distinguere, valorizzare e interpretare il senso dei testi, affidandosi sempre al giudizio critico dei lettori1
Citations:
Risposta da Perplexity: pplx.ai/share
Commenti
Posta un commento