progettare con AI

L'AI scrive il progetto, un algoritmo lo valuta: benvenuti nel futuro della progettazione

E' inutile girarci intorno: chi scrive oggi i progetti di cooperazione internazionale usa l'intelligenza artificiale. ChatGPT, Claude, Gemini, Copilot, Perplexity — sono strumenti già entrati stabilmente nei flussi di lavoro dei progettisti di ONG, fondazioni e università. Non è più una tendenza emergente ma una realtà consolidata destinata a riscrivere silenziosamente le regole del gioco della progettazione. E che, finalmente, sta costringendo donatori e istituzioni a prendere posizione.

La domanda non è più se usare l'AI nella scrittura dei progetti. La domanda è: che effetti sta producendo questo cambiamento sul sistema complessivo dei bandi e della filantropia? Quali regole servono? E siamo sicuri che i modelli con cui valutiamo e finanziamo i progetti siano ancora adeguati nell'era dell'AI generativa?

Cosa può fare davvero l'AI nella progettazione

Prima di entrare nel dibattito, vale la pena capire concretamente cosa significa applicare l'AI alla progettazione. Non si tratta di premere un pulsante e ottenere una proposta pronta. L'AI può intervenire lungo l'intero ciclo di progetto: analizza la documentazione dei bandi — spesso lunga, tecnica e stratificata — estraendo i criteri chiave di eleggibilità e valutazione; aiuta a strutturare il concept, il quadro logico, la teoria del cambiamento; può creare una struttura delle sezioni narrative della proposta sulla base dei requisiti; ottimizza lo stile, uniforma la terminologia, verifica la coerenza interna tra obiettivi, risultati e indicatori; traduce istantaneamente in diverse lingue; e, a progetto avviato, può contribuire al monitoraggio, alla rendicontazione e alla gestione.

I professionisti del nostro settore dichiarano normalmente un uso consapevole dell'AI, partendo da un'idea propria e utilizzando gli strumenti generativi per migliorarla, renderla più aderente al bando e comunicarla in modo più efficace. Non si tratterebbe di un'automazione cieca ma di un'amplificazione delle competenze umane. Ma è proprio qui che iniziano le domande scomode.

Spuntano le prime regole: cosa dicono i donatori

Il panorama normativo nel mondo dei donatori e della filantropia si sta iniziando a muovere, anche se in modo frammentato e spesso in ritardo rispetto alla pratica reale.

Il Programma Horizon Europe ha pubblicato nel luglio 2025 uno "Standard Briefing", che definisce le regole per l'uso dell'AI sia da parte dei proponenti che dei valutatori. Il messaggio centrale è chiaro: l'uso consapevole e dichiarato dell'AI nella preparazione delle proposte non comporta alcuna penalizzazione a patto che sia dichiarata e documentata. I contenuti generati devono essere verificati, le fonti dichiarate, e la responsabilità finale — anche per errori e violazioni di copyright — resta sempre in capo agli autori. Sul fronte della valutazione, la linea è rigida: l'AI può supportare attività accessorie come la raccolta di informazioni di contesto, ma è vietato usare strumenti generativi per leggere, analizzare o commentare le proposte. Il giudizio deve restare umano.

Il Programma Erasmus+ ha aggiunto un paragrafo dedicato nelle linee guida dove richiede contenuti originali e invita alla massima attenzione sul rischio di plagio, ricordando che le domande devono essere adeguate alla reale capacità operativa dell'organizzazione richiedente. Non si fa però riferimento esplicito a casi di ineleggibilità.

Il programma Interreg, con la sua ultima call dell'area Italia-Croazia, fa un passo ulteriore: non solo ammette l'uso dell'AI, ma propone un modello esemplificativo di dichiarazione da inserire nel modulo di candidatura, specificando quali strumenti sono stati usati, in quali sezioni e come sono stati verificati i contenuti. Un approccio pragmatico che riconosce la realtà senza demonizzarla.

Il Consiglio Europeo della Ricerca (ERC) sottolinea che l'uso di aiuti esterni — inclusa l'AI — non solleva gli autori dalle responsabilità di paternità, riconoscimento delle fonti e rispetto delle norme etiche. E vieta esplicitamente qualsiasi uso dell'AI nella valutazione delle proposte, citando sia l'obbligo di indipendenza dei revisori che le preoccupazioni sulla riservatezza.

Sul fronte delle fondazioni private, le posizioni sono più articolate. La Wellcome Foundation distingue tra "uso sostanziale" — che va dichiarato — e "uso minimale" come traduzione o formattazione, che non richiede disclosure. Vieta categoricamente la generazione di intere sezioni senza coinvolgimento umano e l'uso di citazioni false. La Fondazione Compagnia di San Paolo va ancora più lontano: accetta l'AI solo per la rielaborazione linguistica e testuale, escludendo l'uso per la costruzione del contenuto progettuale.

Secondo un'indagine realizzata da Candid del 2025 su un campione di fondazioni e donatori privati, il 57% degli intervistati ammette di non sapere se ha già ricevuto proposte generate con AI, il 67% è ancora indeciso su quale policy adottare, solo il 10% accetterebbe esplicitamente proposte con contenuti AI, e il 23% non le accetterebbe ma non ha ancora una politica formale. Un quadro che fotografa perfettamente il ritardo strutturale del settore rispetto a una realtà già in atto.

I pro: perché l'AI può migliorare la progettazione

Gli argomenti a favore di un uso consapevole dell'AI nella scrittura dei progetti sono concreti e non si riducono alla semplice accelerazione dei tempi.

  • L'AI può democratizzare l'accesso alla progettazione. Organizzazioni piccole, con poche risorse umane e senza un progettisti dedicato, possono competere con attori più strutturati. La qualità formale delle proposte diventa meno dipendente dal budget disponibile per eventuali consulenze.
  • L'AI può ridurre gli errori di coerenza interna — tra obiettivi, risultati e indicatori — che sono tra le cause più frequenti di rigetto delle proposte. Uniforma il linguaggio quando scrivono più autori. Accelera la fase di analisi documentale, liberando tempo per il lavoro strategico di costruzione dell'idea progettuale.
  • In contesti multilingue — come quello della cooperazione internazionale — l'AI abbatte barriere linguistiche reali, permettendo a organizzazioni locali di accedere a fondi che richiedono proposte in itaiano, inglese o in francese senza necessariamente disporre di un madrelingua nel team.

I contro: i rischi che il settore non può ignorare

Le criticità, però, sono altrettanto reali e meritano discusse con uno sguardo al futuro. Il primo rischio è la standardizzazione. Se tutti usano gli stessi strumenti AI con prompt simili, le proposte tendono ad assomigliarsi sempre di più: stesso lessico, stessa struttura argomentativa, stesse formulazioni sull'impatto. Per un valutatore umano — e a maggior ragione per un sistema AI di valutazione — distinguere la proposta autentica e innovativa dalla proposta formalmente ineccepibile ma vuota di contenuto reale diventa progressivamente più difficile.

Il secondo rischio è la disconnessione tra proposta e realtà operativa. Un progetto scritto con l'AI che sembra perfetto sulla carta può non corrispondere alle reali capacità dell'organizzazione che lo ha sottoposto. Il rischio non è solo il rigetto, ma la selezione di organizzazioni che vincono grant per progetti che non riusciranno a implementare correttamente.

Il terzo rischio riguarda la concentrazione del vantaggio competitivo. Chi sa usare l'AI in modo avanzato — non il semplice copia-incolla, ma la costruzione di prompt sofisticati, l'elaborazione di dati complessi, l'uso di strumenti settoriali — può amplificare la propria capacità progettuale in modo esponenziale. Il divario tra chi ha accesso a queste competenze e chi no rischia di ampliarsi, non di ridursi.

Le domande che il settore deve affrontare

Il dibattito vero, però, non è si limita all'eventuale regolamentazione dell'uso dell'AI. È il sistema di cui l'AI è diventata lo specchio che viene messo in discussione nel medio e lungo periodo. Così come in altri settori emergono domande alle quali dovranno essere date delle risposte:

Hanno ancora senso i bandi così come li conosciamo? Se un sistema AI può produrre in poche ore una proposta progettuale formalmente eccellente su qualsiasi tema, la capacità di scrivere una bella proposta cessa di essere un indicatore attendibile della qualità dell'organizzazione o della bontà dell'idea. Il bando come strumento di selezione basato principalmente sulla qualità redazionale della proposta rivela qui la sua debolezza strutturale.

Come cambia la valutazione? Se i proponenti usano l'AI per scrivere, è solo una questione di tempo prima che la pressione si sposti sulla valutazione. L'idea di usare AI per scremare migliaia di proposte è già in discussione in alcuni programmi. Ma i rischi sono importanti: sistemi addestrati su proposte di successo passate tendono a privilegiare il conformismo rispetto all'innovazione; i bias dei training data si trasferiscono ai criteri di selezione; la riservatezza delle proposte non pubblicate diventa un problema irrisolvibile se i contenuti vengono caricati su piattaforme esterne. La regola dell'ERC — il giudizio deve restare umano — è saggia, ma regge finché i volumi restano gestibili.

Chi ci guadagna davvero? Vale la pena chiedersi se la diffusione dell'AI stia effettivamente riducendo il carico burocratico sul sistema, oppure stia semplicemente spostando il problema. Se le organizzazioni producono più facilmente proposte, i donatori ricevono più proposte da valutare, i tassi di successo scenderanno ulteriormente al crescee della frustrazione.

Ci sono modelli alternativi?

Il dibattito sull'AI rinforza alcune tendenze già in atto nella filantropia internazionale e potrebbe facilitare dinamiche di cambiamento. Il modello del trust-based philanthropy — finanziamenti pluriennali e flessibili alle organizzazioni piuttosto che ai singoli progetti — riduce strutturalmente la dipendenza dalla proposta come strumento unico di selezione, valorizzando la relazione tra donatore e organizzazioni e la fiducia nel tempo. Inoltre la relazione sul campo tra donatore e organizzazioni può creare dimensioni che nessuna proposta — scritta da un umano o da un'AI — può trasmettere. Anche le dinamiche di co-progettazione tra diversi attori possono ridurre la centralità del "documento di progetto" e valorizzare la conoscenza diretta dei contesti e la condivisione di strategie e obiettivi.

Nessuno di questi modelli è nuovo. Ma nell'era dell'AI generativa, la loro sperimentazione concreta diventa l'unica alternativa al business as usual. L'AI nella progettazione non è un problema tecnico che si risolve con le giuste linee guida — anche se le linee guida sono necessarie. È lo specchio di una tensione più profonda tra la logica burocratica dei sistemi di finanziamento e la realtà operativa delle organizzazioni che quei finanziamenti cercano di intercettare. Vale la pena guardarci dentro, senza pregiudizi ma anche senza ingenuità.





Informativa

L'accesso ai nostri contenuti è soggetto al consenso per l'utilizzo dei cookie per la sola finalità relativa ai dati relativi alle visite in forma anonima come indicato nella Cookie Policy.
Se accetti i cookie per le finalità indicate, potrai navigare liberamente su Info-cooperazione.it e noi potremo erogarti pubblicità e contenuti personalizzati.
Grazie ai ricavi realtivi a tali attività, supporterai il lavoro della nostra redazione.