Questa non è satira. È governance algoritmica.
Dalla gaffe al cambiamento: come l’AI sta riscrivendo i messaggi istituzionali, e cosa possiamo (davvero) fare come professionisti.
Nel post pubblicato dal profilo ufficiale del presidente della Regione Siciliana Renato Schifani, per pochi minuti è apparso qualcosa che non dovevamo vedere: il prompt per ChatGPT.
Una frase che ormai rimbalza in centinaia di uffici stampa, ma che improvvisamente si è fatta corpo, errore, imbarazzo. Non è grave aver usato l’AI per scrivere un contenuto istituzionale. È grave che la voce pubblica si sia rivelata per quello che ormai troppo spesso è: una voce senza voce.
La scena è surreale e precisissima. Per un attimo, abbiamo visto come si fabbrica la parola pubblica nel 2025: non con una visione politica, ma con una richiesta algoritmica ben formattata. Scrivi, emoziona, suona istituzionale, ma non troppo. Sii autentico, ma ottimizzato.
La comunicazione politica non è un’esercitazione di stile: è un atto di responsabilità, un rischio espressivo, una forma di esposizione. Se a parlare è un modello predittivo addestrato su discorsi passati, allora chi sta parlando? E soprattutto: chi può essere contraddetto?
L’AI in sé non è il nemico. Ma quando viene usata per confezionare messaggi pubblici senza intenzione politica e senza controllo umano, allora non siamo più davanti a un aiuto tecnologico: siamo in piena automatizzazione del significato.
E mentre i governi parlano di trasparenza, accountability, innovazione, dimenticano di dirci chi firma davvero quei messaggi.
Secondo l’OECD, solo il 15% delle pubbliche amministrazioni ha linee guida chiare sull’uso dell’AI nella comunicazione. Il resto si muove in una zona grigia fatta di buone intenzioni e prompt riciclati. Una zona dove, se tutto funziona, nessuno se ne accorge. E se qualcosa va storto, nessuno si assume la colpa.
Il caso Schifani, dunque, non è un episodio isolato, ma un’epifania grottesca. Un glitch che ci ha ricordato quanto siano diventate impersonali le parole che riceviamo dalle istituzioni. E quanto ci siamo abituati a non chiederci più chi le ha scritte. In fondo, il vero problema non è l’intelligenza artificiale. Il problema è la delega assoluta, la resa comunicativa, la fiducia riposta in un testo ben formattato anziché in un pensiero complesso.
Aspettiamo precisazioni. Ma da chi? Dal presidente? Dal suo staff? Dal sistema? Dal server? O magari proprio da ChatGPT. Che in fondo, come sempre, ha solo fatto quello che gli era stato chiesto.
I numeri dell'accelerazione AI nella PA
Secondo il recente studio globale di SAS, Il tuo viaggio verso il futuro dell’IA Generativa, l'84% dei decisori pubblici prevede di investire in Generative AI nel corso del 2025. L'indagine, condotta su 1.600 organizzazioni (237 del settore pubblico), evidenzia:
Una crescente valorizzazione dei dati non strutturati (testi, immagini, audio) come risorsa strategica.
L'emersione di un divario algoritmico tra chi investe e chi resta indietro.
L'importanza della governance AI per affrontare bias, regolamentazioni e rischi interni.
Applicazioni concrete in lotta alle frodi, gestione emergenze e sicurezza pubblica.
La PA si prepara a una nuova stagione, ma restano forti criticità: dalla bassa qualità dei dati, evidenziata dal fatto che molti progetti usano fonti interne non validate o dati sintetici, alla mancanza di competenze specifiche, con una forte dipendenza da consulenze esterne, fino alla necessità urgente di integrare l'AI con processi e obiettivi chiari e misurabili, considerando che solo il 20% dei progetti attuali presenta KPI definiti secondo il report AgID.
Scarica e leggi il rapporto qui: https://www.sas.com/it_it/whitepapers/your-journey-to-a-gen-ai-future-a-strategic-path-to-success-for-government-114056.html
Il quadro italiano secondo AgID
Il report "L'intelligenza Artificiale nella Pubblica Amministrazione" dell'AgID ha censito 120 progetti IA in 108 enti pubblici. I dati più rilevanti:
Il 42% dei progetti punta a migliorare l’efficienza operativa;
Oltre il 60% usa chatbot o assistenti virtuali;
Solo il 20% ha KPI definiti;
Scarsa attenzione alla qualità dei dati e dipendenza da consulenti esterni.
Le raccomandazioni AgID includono l'adozione di tecnologie affidabili, a basso impatto ambientale e facilmente integrabili nei sistemi esistenti, un procurement pubblico più innovativo con gare dedicate e fasi pilota, una formazione specifica e trasversale del personale, il potenziamento delle competenze interne con riduzione della dipendenza da consulenti esterni, e la creazione di figure professionali dedicate come l’AI Officer e il Data Steward. Si sottolinea inoltre la necessità di definire KPI chiari per tutti i progetti, promuovere l'open innovation e migliorare la gestione della qualità e interoperabilità dei dati, garantendo il rispetto della privacy e la tracciabilità delle fonti informative.
Leggi il rapporto qui: https://www.agid.gov.it/it/notizie/ia-nella-pubblica-amministrazione-pubblicata-la-prima-indagine-di-agid-svolta-presso-le
Responsabilità e ruoli
Il 2025 sarà un anno decisivo. Le tecnologie sono pronte. I modelli esistono. Ma la voce pubblica non può essere solo un output.
Serve una nuova grammatica della responsabilità: perché se ogni frase è scritta da un algoritmo, chi risponde del senso?
E se nessuno risponde, allora davvero non stiamo comunicando: stiamo solo pubblicando.
Chi lavora nella comunicazione pubblica, e ancor di più chi usa strumenti di AI, ha oggi una responsabilità amplificata: non solo informare, ma scegliere con cura cosa dire, come e perché. Ogni prompt è intenzione. Ogni output è una traccia di potere. L’etica di chi comunica non si misura solo nell’efficienza, ma nella capacità di mantenere umano ciò che è tecnicamente automatizzabile.
Come professionisti del marketing digitale, possiamo proporre un cambio di paradigma: non basta integrare l’AI nei flussi produttivi, serve insegnare la cultura della verifica, della paternità narrativa, del contesto. Possiamo progettare contenuti con l’AI, ma siamo noi a dover garantire coerenza, trasparenza e senso.
Abbiamo un ruolo strategico: aiutare chi comunica a non nascondersi dietro l’efficienza, ma a firmare ogni parola. Perché oggi più che mai, un contenuto ben scritto non basta. Serve sapere chi parla. E perché lo fa.
Ecco quattro indicazioni operative per chi lavora con l’AI nella comunicazione pubblica e digitale:
Traccia ogni prompt. Progetta ogni input.
Ogni istruzione che forniamo all’AI è una scelta redazionale. Annotare e archiviare i prompt non è solo buona prassi: è un atto di trasparenza e responsabilità comunicativa.L’AI propone. Il professionista rifinisce.
Nessun testo generato dovrebbe essere pubblicato senza un processo di editing consapevole. Rilettura, taglio, contesto: un contenuto può essere scritto da chiunque; l’autorevolezza, no.Definisci regole d’ingaggio, non automatismi.
Anche in team piccoli, è utile definire quando, come e perché si usa l’AI. Le policy interne sono una forma di tutela, verso clienti, colleghi e cittadini.Non delegare l’umanità.
Le emozioni pubbliche come le scuse, dichiarazioni, prese di posizione, devono restare terreno della voce umana. Un modello statistico può imitarle, ma non viverle.
Possiamo usare l’AI per migliorare la comunicazione. Ma solo se sappiamo dove finisce l’efficienza e dove inizia la responsabilità.
GPT personalizzati: una via responsabile all’integrazione dell’AI
A forza di lavorare con l’AI, ho capito che non basta usarla bene.
Serve un metodo. Serve una voce. Serve un ambiente che renda chiaro perché un contenuto è stato generato, da dove nasce e a che scopo è diretto.
Per questo, oggi, non mi limito a redigere policy o salvare prompt in Excel o Notion.
Progetto e sviluppo GPT personalizzati: assistenti AI costruiti su misura per obiettivi, stili e contesti specifici. Ogni GPT personalizzato è una sintesi operativa di linee guida, documenti strategici, tone of voice e flussi editoriali.
Questi strumenti non sono “AI generica”, ma intelligenze contestualizzate, capaci di restituire coerenza, replicabilità e tracciabilità. Li configuro perché siano parte integrante dei processi comunicativi, non scorciatoie. Conoscono il tono di voce del cliente, le sue linee guida, i limiti tematici. E soprattutto, sono progettati per porre domande giuste, guidare scelte consapevoli e favorire personalizzazioni a prova di pensiero.
Costruire GPT responsabili è un atto di cura professionale, una forma concreta di etica operativa: non accettare che la macchina decida cosa dire, ma guidarla con metodo, consapevolezza e responsabilità.
Vuoi capire come potrebbe funzionare un GPT nel tuo contesto?
Rispondi a questa newsletter. Parliamone. Nessun automatismo: solo confronto, metodo e soluzioni su misura.
L’intelligenza artificiale può trasformare la comunicazione pubblica. Ma solo se prima trasformiamo il modo in cui scegliamo di usarla.