Un'interfaccia utente naturale (NUI) è un sistema per l'interazione uomo-computer che l'utente opera attraverso azioni intuitive legate al comportamento umano naturale e quotidiano.
Una NUI può essere utilizzata in diversi modi, a seconda dello scopo e delle esigenze dell'utente. Alcune NUI si basano su dispositivi intermedi per l'interazione, ma le NUI più avanzate sono invisibili all'utente o così discrete da sembrare rapidamente invisibili.
Alcuni esempi e applicazioni di interfacce utente naturali:
Le interfacce touch screen consentono agli utenti di interagire con i controlli e le applicazioni in modo più intuitivo rispetto a un'interfaccia basata su cursore perché è più diretta: invece di spostare un cursore per selezionare un file e fare clic per aprirlo, ad esempio, l'utente tocca una rappresentazione grafica del file per aprirlo. Smartphone e tablet in genere abilitano l'input tattile. Il tocco viene adattato anche per applicazioni non sullo schermo. Ad esempio, Microsoft sta lavorando a un'interfaccia touch chiamata "skinput" che consente agli utenti di interagire toccando la propria pelle.
I sistemi di riconoscimento dei gesti tracciano i movimenti dell'utente e li traducono in istruzioni. I sistemi di gioco in movimento Nintendo Wii e PlayStation Move funzionano tramite accelerometri e giroscopi basati su controller per rilevare l'inclinazione, la rotazione e l'accelerazione. Un tipo più intuitivo di NUI è dotato di una fotocamera e di un software nel dispositivo che riconosce gesti specifici e li traduce in azioni. Kinect di Microsoft, ad esempio, è un sensore di movimento per la console di gioco Xbox 360 che consente agli utenti di interagire attraverso i movimenti del corpo, i gesti e i comandi vocali. Kinect riconosce i corpi e le voci dei singoli giocatori. Il riconoscimento dei gesti può essere utilizzato anche per interagire con i computer.
Il riconoscimento vocale consente agli utenti di interagire con un sistema tramite comandi vocali. Il sistema identifica le parole e le frasi pronunciate e le converte in un formato leggibile dalla macchina per l'interazione. Le applicazioni di riconoscimento vocale includono l'instradamento delle chiamate, la sintesi vocale e il funzionamento di computer e telefoni cellulari in vivavoce. Il riconoscimento vocale viene talvolta utilizzato anche per interagire con i sistemi incorporati.
Le interfacce di tracciamento dello sguardo consentono agli utenti di guidare un sistema attraverso i movimenti degli occhi. Nel marzo 2011, Lenovo ha annunciato di aver prodotto il primo laptop con controllo oculare. Il sistema Lenovo combina una sorgente di luce a infrarossi con una fotocamera per catturare riflessi riflettenti dagli occhi dell'utente. Il software calcola l'area dello schermo che viene esaminata e utilizza tali informazioni per l'input.
Le interfacce cervello-macchina leggono i segnali neurali e utilizzano programmi per tradurre quei segnali in azioni. BCI può consentire a qualcuno che è paralizzato di utilizzare un computer, una sedia a rotelle motorizzata o un arto protesico attraverso il solo pensiero.
Intervenendo a una conferenza del 2008, August de los Reyes di Microsoft ha parlato della NUI come il prossimo stadio evolutivo del computing dall'interfaccia utente grafica (GUI), poiché la GUI proveniva dall'interfaccia della riga di comando (CLI).
Vedi anche: usabilità, informatica pervasiva, casa intelligente
Continua a leggere sulle interfacce utente naturali:
Wikipedia sulle interfacce utente naturali
Interfacce utente naturali: voce, tocco e oltre
I laptop Lenovo sono i primi ad avere la capacità di controllo visivo
Definizione dell'interfaccia utente naturale