
L'AI sta evolvendo da assistente che esegue comandi a sistema che prende iniziative, diventando un agente autonomo che agisce in settori critici, come banking, healthcare, logistica e customer care. Parliamo di sistemi che percepiscono il contesto, prendono decisioni e fanno azioni per conto dell'utente, spesso senza che la persona debba chiedere esplicitamente.
Questo passaggio segna un cambio di paradigma progettuale. Non pensiamo più solo esperienze human-centered, ma ecosistemi ibridi dove l'intelligenza umana e quella artificiale si alternano e si integrano completandosi.
All’interno di questi sistemi, l'esperienza utente dipenderà anche da come l'autonomia dell'agente viene orchestrata. Qui il service design smette di essere opzionale e diventa il sistema operativo dell'AI. Senza questa progettazione, un agente potente è solo un rischio per l'utente, per il brand, per il servizio stesso.
Siamo abituati a pensare a software che eseguono istruzioni precise e totalmente controllabili. Con un agente AI è diverso, siamo di fronte ad un sistema che percepisce, decide e agisce in autonomia. Questa è una differenza concettuale, che ridefinisce completamente il modo in cui progettiamo i servizi.
Progettare un agente significa lavorare su principalmente su tre dimensioni.
Ma c'è una quarta dimensione, spesso sottovalutata, cioè il posizionamento dell'agente rispetto alla percezione dell'utente. Un agente può operare in frontstage, dove l'interazione è diretta, visibile, consapevole, oppure in backstage, dove ottimizza flussi e processi senza farsi notare. Questa scelta influisce sulla relazione di fiducia definendo il livello di controllo percepito dall'utente, la responsabilità quando qualcosa non funziona, e le aspettative su ciò che il servizio può e deve fare autonomamente.
Per navigare questa complessità, Mortati e Viana Mundstock Freitas (2025) propongono un framework che incrocia due ruoli fondamentali: chi fornisce il servizio (provider) e chi lo utilizza (user). In ciascun caso, il ruolo può essere ricoperto da un umano o da un agente AI. Questa matrice 2×2 genera quattro tipologie distinte di interazione, ciascuna con implicazioni progettuali specifiche.
L'obiettivo progettuale del framework è definire consapevolmente in quale quadrante opera l'agente in ogni fase del servizio, assicurandosi che questo posizionamento sia coerente con le aspettative dell'utente, i valori del brand e gli obiettivi del servizio stesso.
Progettare agenti AI significa affrontare sfide che il design tradizionale non contemplava. La prima riguarda trasparenza e trust: l'utente deve sempre sapere chi sta agendo e perché è stata presa una decisione. Non basta che l'agente funzioni, deve essere comprensibile. Questo vale anche quando l'agente opera in backstage.
La seconda sfida è l’handover, cioè il momento in cui l'AI deve cedere il controllo all'umano o viceversa. Il passaggio di testimone è un touchpoint critico del servizio ibrido. Va progettato con attenzione cosa succede quando l'agente non sa come procedere, quando la richiesta esce dai suoi confini operativi e quando l'utente esprime disagio. Nel farlo, bisogna prendere in considerazione anche il fallback, ovvero cosa succede quando l'agente fallisce. Infatti la gestione del fallimento è una componente strutturale del servizio, non è un caso limite.
La terza sfida riguarda etica e bias. Un agente AI eredita i valori del brand. Quando ne progettiamo il comportamento, decidiamo l'etica operativa. Dovremo valutare e scegliere come gestisce le priorità quando ci sono conflitti di interesse; come bilancia efficienza e attenzione alla persona; o come risponde a situazioni ambigue dove non esiste una risposta "giusta".
Questi cambiamenti richiedono al service design un’evoluzione. Dovremo orchestrare intelligenze multiple che collaborano in tempo reale, abbandonando l’idea di mappare semplici journey lineari.
Progettare servizi agentici richiede strumenti nuovi. In Conflux stiamo sviluppando un toolkit specifico che estende e adatta i metodi classici del service design alla nuova realtà degli agenti AI.
L'Agentic Service Blueprint non usa più linee statiche che descrivono flussi deterministici, ma introduce nodi decisionali algoritmici, cioè punti in cui l'agente valuta il contesto e sceglie tra percorsi alternativi. Questo blueprint deve rendere visibile non solo cosa succede, ma cosa potrebbe succedere in base alle condizioni.
L'Hybrid Journey Map integra i touchpoint agentici e marca con precisione i momenti di "scambio di testimone" tra umano e AI. Si mappano le interazioni, le transizioni, i momenti di incertezza, i punti dove la responsabilità si trasferisce da un attore all'altro.
Il terzo strumento, forse il più importante, è il Behavioral Prototyping. Serve a testare come si comporta l'agente, quali decisioni prende, come comunica. Spesso usiamo tecniche Wizard of Oz dove un operatore umano simula il comportamento dell'AI durante i test con gli utenti. Questo ci permette di osservare reazioni, aspettative e punti di frizione prima ancora di sviluppare il sistema vero e proprio, quando modificare costa ancora poco.
Si tratta di una trasformazione metodologica necessaria quando si ripensa l'intero modo di progettare servizi. Gli strumenti tradizionali non bastano più quando l'intelligenza si distribuisce tra umani e macchine.
La sfida progettuale diventa concreta quando si osservano i settori in cui gli agenti AI stanno già trasformando i servizi. In ciascuno di questi ambiti, la questione non è se usare l'AI, ma come progettare l'equilibrio tra autonomia e supervisione, tra efficienza e controllo umano.
Nel fintech, gli agenti per il wealth management possono ottimizzare portafogli in tempo reale, ma quando si tratta di decisioni strategiche o alta volatilità, il passaggio al consulente umano deve essere fluido. La progettazione di questo handover determina se il sistema è percepito come affidabile o imprevedibile.
Un equilibrio ancora più delicato si trova nell’healthcare, dove il monitoraggio post-dimissioni può salvare vite, ma solo se accompagnato da un'assistenza medica reattiva. Qui l'agente deve funzionare sempre e sapere riconoscere con precisione quando una situazione supera le sue competenze.
Anche nel retail ed e-commerce, la progettazione fa la differenza. Personal shopping agent che anticipano resi o suggeriscono alternative prima che si crei insoddisfazione. Cambiano il rapporto con il brand, ma solo se la proattività è percepita come valore, non come invadenza.
In tutti questi casi, è essenziale la fiducia nel sistema, possibile solo se il design agentico segue criteri chiari e ha risposto ad alcune domande necessarie.
Nel nostro lavoro di progettazione di sistemi agentici, abbiamo sviluppato una checklist di governance che ogni progetto dovrebbe rispettare, una serie di domande fondamentali che guidano le scelte progettuali.
Autonomia: quali sono i limiti decisionali dell'agente? Dove può scegliere, dove deve chiedere conferma, dove deve fermarsi e delegare? Questi confini devono essere espliciti, documentati e verificabili.
Percezione: l'utente comprende la natura dell'interlocutore? Sa quando sta parlando con un agente AI e quando con un umano? Sa cosa l'agente può fare e cosa non può fare? La trasparenza è un prerequisito.
Protocollo di handover: come avviene il passaggio all'operatore umano? In quanto tempo? Con quale contesto condiviso? Deve essere progettato come una transizione fluida, non come un fallimento.
Monitoring: come tracciamo l'evoluzione del comportamento dell'agente nel tempo? Come misuriamo la qualità delle decisioni? Come intercettiamo derive, bias, pattern problematici prima che diventino sistemici?
Rispondere a queste domande ci permette di progettare servizi ibridi AI-umano che funzionano, generano fiducia e migliorano l’esperienza utente.
L'AI agentica senza design è un rischio reputazionale e operativo. Un agente potente ma mal progettato può danneggiare la fiducia più velocemente di quanto qualsiasi campagna marketing possa ricostruirla. Può creare esperienze frustranti, prendere decisioni sbagliate, amplificare bias nascosti.
In Conflux lavoriamo per trasformare la potenza degli agenti AI in servizi coerenti, trasparenti e orientati al valore umano. Il nostro approccio non consiste nello "spruzzare AI" (AI spray) su un servizio esistente, ma nel ripensarlo come un sistema intelligente, in cui umani e agenti operano in sinergia, ciascuno nel proprio dominio di competenza.
Il futuro dei servizi non sarà più la somma di tool disconnessi. Sarà l'orchestrazione di intelligenze ibride progettate per funzionare insieme. Per raggiungere questo obiettivo, sarà richiesto rigore, metodo e visione sistemica, esattamente ciò che il service design può offrire.

