L’interfaccia grafica (GUI) innovativa è stata sviluppata nell’ambito del progetto PenGUIn  con l’obiettivo di migliorare l’esperienza utente con soluzioni inclusive, adattive e altamente usabili. Il progetto ha unito tecnologia, usabilità e content design secondo la metodologia Interaction Engineering di RE:LAB, basata su un approccio user-centred. Le interfacce sono personalizzabili in base all’utente, al contesto e al compito, sensibili alle emozioni tramite emotion tracking, e integrabili con sistemi di intelligenza artificiale. Per validare il processo e le scelte adottate durante la progettazione sono state condotte simulazioni d’uso, analisi delle interazioni e test con utenti, risultato è stato un sistema modulare e flessibile, in grado di adattarsi a diverse esigenze mantenendo coerenza e standardizzazione.

Scarica versione PDF
Laboratorio
Referenti
Roberto Montanari
Area di specializzazione
Digitale
Keyword
Adaptive Interface
User-Centred Design
Emotion-Aware Interaction
Intuitive Interfaces, Smarter Interactions.
Descrizione

Per la creazione dell'interfaccia PenGUIn è stato portato avanti un approccio di design centrato sull’utente per prototipare una libreria di elementi grafici che siano intuitivi, trasversali e compatibili con i criteri di usabilità. L’obiettivo è stato quello di creare un’interazione trasparente, inclusivi e orientata al dialogo, considerando diversi casi d’uso per lo sviluppo di logiche di interazione adattabili.

L’approccio usato ha considerato:

  • la simulazione dell’uso in diversi contesti,
  • il tipo di interazione e comunicazione tra operatore e utenti,
  • il tracciamento delle emozioni e gli input dell’intelligenza artificiale,
  • il tipo di informazioni e contenuti da gestire (anche adattabili alle emozioni rilevate),
  • la flessibilità di personalizzazione,
  • la validazione dell’interfaccia sviluppata.

RE:LAB ha valutato l’interazione attraverso analisi di esperti, focus group e test con gli utenti in modo iterativo. Lo sviluppo del design grafico ha fornito un prodotto adatto a diverse esigenze di interazione (personalizzabili), mantenendo al contempo una struttura coerente e standardizzabile (semi-personalizzata).

Aspetti innovativi

La progettazione ha seguito un approccio innovativo rivolto alla comunicazione virtuale, combinando tecnologie all’avanguardia di traduzione automatica, sintesi multimodale, tracciamento emotivo e intelligenza artificiale. L’innovazione risiede nella capacità del sistema di interpretare non solo la lingua, ma anche il tono, il contesto e lo stato emotivo degli utenti, adattando in tempo reale la risposta e l’interfaccia. I due casi d’uso – assistente virtuale per riunioni multilingue e supporto al customer service – si pongono come obiettivo quello di superare le barriere linguistiche ed emotive, favorendo una comunicazione realmente inclusiva.

Inoltre, è stata sviluppata un’interfaccia utente altamente personalizzabile e modulare, progettata attraverso un processo iterativo centrato sull’utente. L’integrazione tra wireframing, test con utenti e validazione esperta ha consentito soluzioni adattabili a contesti diversi, assicurando la scalabilità, interoperabilità e apertura verso nuovi scenari applicativi.

Applicazioni

Le interfacce utente puntano a un uso più efficace delle tecnologie, migliorando l’esperienza utente in modo sicuro e intuitivo. RE:LAB sviluppa soluzioni per potenziare la collaborazione uomo-macchina e il benessere lavorativo. Gli HMI adattivi riducono il carico cognitivo e aumentano la produttività. Un design centrato sull’uomo, supportato da esperti UX, ergonomia e psicologia, favorisce motivazione e integrazione con le tecnologie emergenti, riducendo i rischi legati all’automazione.

Interfaccia grafica dello use case “customer service”
Esempio di applicazione

Casi d’uso principali sviluppati: un assistente virtuale per riunioni multilingue online, capace di tradurre in tempo reale, creare riassunti e annotare i punti salienti, facilitando la comunicazione tra lingue diverse; e uno strumento per il servizio clienti multilingue, che aiuta gli operatori con risposte personalizzate basate su contesto, lingua, tono ed emozioni. Entrambi si basano su tecnologie avanzate, pipeline aperte e modelli spiegabili per garantire efficienza e trasparenza.

Descrizione applicazione e risultati

Nel progetto è stato adottato un modello di applicazione basato sull’approccio di interaction engineering e sulle metodologie sviluppate da RE:LAB, con un forte orientamento al design centrato sull’utente. Il processo si è articolato in diverse fasi chiave. In primo luogo, è stato condotto uno studio approfondito per definire un framework di design dell’informazione in grado di supportare efficacemente i compiti e i ruoli degli utenti nei due casi d’uso principali. Questo è stato possibile anche grazie a un’analisi comparativa tra le interfacce già esistenti e soluzioni analoghe presenti sul mercato, utile a individuare punti di forza e margini di miglioramento.

Successivamente, è stata adottata una metodologia di prototipazione incrementale, tipicamente utilizzata da RE:LAB. Partendo dai template UI già realizzati in Figma, si è passati da prototipi a bassa fedeltà (wireframe) a versioni più avanzate e interattive ad alta fedeltà, capaci di simulare in modo realistico l’esperienza utente.

Infine, il processo ha previsto l’organizzazione di una sessione partecipativa di co-creazione, strutturata come workshop online in forma di focus group. Questa fase ha permesso di raccogliere contributi qualitativi direttamente dagli utenti potenziali, fornendo indicazioni preziose per il miglioramento delle interfacce e l’adattamento alle reali esigenze degli utilizzatori finali.

Partner coinvolti

RE:LAB ha collaborato con i partner del progetto UTTER, in particolare con Unbabel e Naver Labs Europe.

Tempi di realizzazione
6 mesi - da valutare in base alle specifiche
Livello di maturità tecnologica
TRL 7 - prototipo dimostrativo in ambiente operativo
Valorizzazione applicazione

Su richiesta in base alle specifiche del cliente

Interfaccia grafica dello use case “multilingual online meeting assistant”
Data pubblicazione