Method Article
L'obiettivo del protocollo è quello di dettaglio come raccogliere i dati video per l'uso in laboratorio; come registrare i dati Eye-Tracking dei partecipanti guardando i dati e come analizzare in modo efficiente il contenuto dei video che stavano guardando utilizzando una tecnica di apprendimento automatico.
Come individui sempre più vivono in città, metodi per studiare i loro movimenti quotidiani e i dati che possono essere raccolti diventa importante e prezioso. Gli Eye-Tracking informatici sono conosciuti per connettersi a una serie di sentimenti, condizioni di salute, stati mentali e azioni. Ma poiché la visione è il risultato di continui movimenti oculari, prendere in giro ciò che è importante da ciò che è il rumore è complesso e intensivo di dati. Inoltre, una sfida significativa sta controllando ciò che le persone guardano rispetto a ciò che gli viene presentato.
Di seguito viene presentata una metodologia per combinare e analizzare gli eye-tracking su un video di una scena naturale e complessa con una tecnica di machine learning per l'analisi del contenuto del video. Nel protocollo ci concentriamo sull'analisi dei dati da video girati, come un video può essere utilizzato al meglio per registrare i dati degli occhi dei partecipanti, e soprattutto come il contenuto del video può essere analizzato e combinato con i dati di tracciamento degli occhi. Presentiamo un breve riassunto dei risultati e una discussione del potenziale del metodo per ulteriori studi in ambienti complessi.
Le nostre esperienze quotidiane vissute negli ambienti urbani influiscono notevolmente sulla nostra salute e sul nostro benessere. Il nostro benessere può dipendere dalla quantità di spazi verdi che vediamo e sperimentiamo1,2,3, e queste viste possono essere quantificate utilizzando attrezzature Eye-Tracking per guidare il processo decisionale su Park Design. Tuttavia, si verifica un problema con il volume di dati di rilevamento degli occhi che viene generato e che dà un senso di questi dati. Poiché l'apparecchiatura per la registrazione dei dati dello sguardo in un laboratorio o in un ambiente naturale diventa più facile da usare e più potente, i ricercatori devono considerare come possiamo raccogliere e analizzare i dati validamente per aiutare con le domande decisionali.
Finora, una grande quantità di ricerca Eye Tracking ha usato fotografie in un sondaggio o impostazione di laboratorio4. Sebbene questa metodologia consenta una grande quantità di riproducibilità e controllo sui risultati, non è in grado di trarre vantaggio degli ultimi progressi nella tecnologia Eye-tracking che includono l'uso di video e Wearable eye-tracker mobili. Inoltre, vorremmo sostenere che l'atto di camminare e di rilassarsi è necessariamente dinamico soprattutto quando orientato verso un compito come segnaletica5. Pertanto, una conoscenza pienamente scientifica di queste impostazioni dovrebbe avvenire al di fuori del laboratorio. Tuttavia, al momento, l'Eye-Tracking in un ambiente naturalistico reale rende il confronto dell'esperienza tra soggetti molto difficile. Per esempio, se volevamo confrontare se un rispondente Guarda gli alberi più di un altro, come possiamo controllare per il fatto che il loro punto di vista sarebbe in continua evoluzione rispetto ad altri o che la loro testa potrebbe essersi trasformata. L'analisi dettagliata in queste condizioni è quasi impossibile con le tecniche di analisi attuali. Vorremmo sostenere che è importante controllare le aree di visualizzazione disponibili per l'individuo in fase di studio e nell'analisi per essere in grado di tenere conto della scena totale visualizzata in qualsiasi momento.
Ci sono una serie di teorie che collegano i livelli di stress e le percezioni di sicurezza alle viste panoramiche e alle misure ben evolute dello stress6,7. C'è stato anche un rapido aumento della sofisticazione delle attrezzature Eye-Tracking per misurare lo sguardo8. L'Eye-Tracking è importante perché i movimenti involontari degli occhi possono essere collegati in modo più affidabile alle preferenze, allo stress e ad altre misure tradizionali rispetto ai sondaggi e ai test fisiologici intrusivi, come i livelli di cortisolo salivare. L'obiettivo di questa ricerca è quello di sviluppare strumenti che consentano una misurazione più precisa dei dati di tracciamento degli occhi applicati a contesti più naturalistici, in modo da fornire ulteriori prove o confutare le teorie paesaggistiche di lunga data che hanno informato la progettazione del parco per Decenni.
Lo scopo di questo progetto è quello di sviluppare e testare una nuova tecnica di analisi in grado di generare dati di tracciamento degli occhi rilevanti per diversi video di simulazioni di camminata del parco. Il nostro lavoro riportato qui e altrove9 rappresenta un punto a metà strada tra l'impostazione naturalistica di un sistema di tracciamento degli occhi completamente mobile e gli studi fotografici basati su laboratorio di cui sopra. In particolare, ci concentriamo sull'utilizzo di video come materiale di stimolo, esplorando come questo materiale può essere utilizzato per testare la quantità di fascino che i diversi parchi generano nella città di Melbourne. Il nostro lavoro si basa sul presupposto che un'analisi dettagliata dei video sia un passo necessario per violare prima di intraprendere una valutazione più completa e più naturalistica del potenziale dei parchi per fornire il restauro dallo stress.
In questo studio, abbiamo impiegato un eye-tracker desktop con video di passeggiate attraverso parchi urbani e ha chiesto ai partecipanti di immaginare che stavano facendo una passeggiata rilassante attraverso un parco. Descriviamo un metodo per consentire la quantità di tempo che i partecipanti hanno speso a guardare diversi oggetti per essere comparabili tra i parchi. Gli studi sul desktop sono generalmente più facili da controllare rispetto agli studi ET mobili e consentono l'analisi comparativa di ogni soggetto.
Il software di tracciamento degli occhi standard utilizza uno strumento di area di interesse manuale in cui un operatore può disegnare manualmente i contorni intorno agli oggetti di interesse in ogni scena. In questo modo la quantità di tempo che i partecipanti hanno speso a guardare diversi oggetti da conteggiare automaticamente. Per i dati video, questo processo è intensivo di manodopera e soggetto a soggettività e errore dell'operatore. Nelle versioni successive del software di analisi Eye-Tracking, AOIs può monitorare automaticamente gli oggetti tra i fotogrammi quando sono della stessa dimensione nel video. Questo è un miglioramento, tuttavia, questo è destinato solo per essere utilizzato per un piccolo numero di stimoli in ogni immagine e ogni immagine deve essere verificata e confermata.
L'etichettatura manuale degli oggetti in un'immagine è comune e supportata da software di editing di immagini come il programma di manipolazione delle immagini GNU (GIMP). Dato che 1 s produce 30 fotogrammi o immagini, l'etichettatura manuale dei video è poco pratica. Inoltre, l'etichettatura AOI disegnando poligoni vettoriali attorno al bordo di oggetti complessi come le tettine degli alberi richiede molto tempo. Infine, sebbene sia plausibilmente possibile calcolare la dimensione degli oggetti in un campo visivo utilizzando l'etichettatura vettoriale, questa funzione non è attualmente disponibile.
Il metodo che riportiamo qui di seguito si occupa di queste limitazioni. Questo studio ha impiegato l'etichettatura automatica degli oggetti. Questo è possibile utilizzando una tecnica di elaborazione delle immagini nota come etichettatura semantica, in cui ogni pixel in ogni fotogramma del video viene assegnata un'etichetta che indica una classe di oggetti. L'apprendimento automatico viene utilizzato per derivare i classificatori di pixel per ogni classe di oggetti di interesse. Questi classificatori forniscono un'etichetta probabilistica per ogni pixel (noti come potenziali unari), che vengono poi perfezionati in un successivo processo di ottimizzazione per ottenere l'output finale etichettato. Questi classificatori imparano i confini delle decisioni statistiche tra ciascuna classe di oggetti nello spazio delle feature estratte dall'immagine, tra cui texture, istogramma degli orientamenti dei bordi, valori di colore RGB e le coordinate dell'immagine normalizzata. Una tecnica appropriata per questo è implementata nella cassetta degli attrezzi di DARWIN Machine Learning10 ed è descritta di seguito.
L'approvazione etica per questo progetto è stata data dal numero di approvazione della Commissione etica dell'Università cattolica australiana #201500036E. Ciò ha assicurato che il consenso informato è stato acquisito da tutti i partecipanti e tutti i partecipanti hanno partecipato volontariamente, e che i dati dei partecipanti sono rimasti anonimi e riservati. Inoltre l'approvazione è stata data a causa del metodo e delle attrezzature conformi alle norme di sicurezza australiane.
1. riprese di scene urbane che possono essere utilizzate in uno studio Eye-Tracking
2. configurazione e calibrazione del desktop dell'apparecchiatura di tracciamento oculare
3. reclutamento ed etica
4. configurazione sperimentale dei partecipanti
5. collegamento dei parchi visti alle impressioni dei video
6. analisi video automatica per estrazione area di interesse
7. registrazione dei dati di tracciamento degli occhi ai contenuti video
8. visualizzazione della quantità di tempo che i partecipanti hanno esaminato diverse classi di oggetti nei video
Nota: a causa delle enormi dimensioni dei dati di tracciamento degli occhi, il linguaggio di programmazione Python è meglio utilizzato per passi fino a 8,4, anche se può essere utilizzato anche un programma di elaborazione dati.
Figura 1 e Figura 2 mostrano il risultato di prendere tutti i dati Eye-Tracking per l'intero video in tutti i partecipanti e la produzione di una mappa di calore; Questo è l'approccio standard disponibile nei pacchetti software Eye-Tracking. Confrontando la Figura 1 e la Figura 2 è possibile identificare che in media i partecipanti scansionati a destra e a sinistra sulla coordinata x del video in Figura 1 rispetto alla Figura 2, che mostra una forma tuttofare. Questo perché la Figura 1 aveva più elementi orizzontali in tutto il video rispetto al parco in Figura 2. L'immagine dietro la mappa di calore è un singolo fotogramma e non rappresenta adeguatamente il contenuto completo del video.
Il sistema di tracciamento degli occhi del desktop e il software contano solo i risultati in cui entrambi gli occhi possono essere posizionati allo stesso tempo. In altre parole, se uno o entrambi gli occhi non possono trovarsi, i dati vengono conteggiati come persi. Nel nostro caso i dati Eye-Tracking sono stati catturati per > 80% del tempo.
Figura 3 e Figura 4 mostrano il risultato dell'utilizzo del protocollo e l'uso di machine learning per analizzare il contenuto dei video. Figura 3 Mostra la fitta vegetazione di Fitzroy Gardens rispetto alla vegetazione relativamente scarsa di Royal Park (Figura 4). In quest'ultimo, più cielo è visibile, più delle scene sono dominate da vegetazione arbusto. Figura 5 Mostra il tempo di fissazione% sui diversi oggetti durante il corso del video per uno dei partecipanti. Esso mostra che anche se il percorso è chiaramente visibile durante il corso del video, il partecipante Guarda solo a questa funzione occasionalmente ma in punti chiave. Analogamente, come Mostra la Figura 6 , anche se una piccola frazione del contenuto del video in Royal Park riguarda oggetti artificiali, il partecipante allo studio esamina queste caratteristiche in misura relativamente grande.
I risultati della figura 3, figura 4, Figura 5e Figura 6 possono essere riepilogati in Figura 7 e Figura 8 per tutti i 39 partecipanti i cui dati sono stati utilizzati in questo studio. Figura 7 Mostra il tempo di permanenza per tutti i partecipanti quando si Guarda gli oggetti per tutta la lunghezza del video. Figura 8 Mostra gli stessi dati divisi per la quantità di tempo e lo spazio che questi diversi oggetti occupati nel video. Il valore 1 indica che il tempo di permanenza può essere contabilizzato in base alla quantità di oggetto nel video. La Figura 7 Mostra che gli oggetti artificiali come le luci di strada e le panchine sono abitate in misura maggiore rispetto ad altri oggetti (> 1). Figura 7 Mostra anche che gli oggetti che erano meno pertinenti, come il cielo in entrambe le immagini, sono stati visti relativamente meno (< 1).
Figura 1: esempio di mappa termica prodotta per l'intero video di uno dei parchi. Questo mostra dove sono state situate la maggior parte delle tracce oculari. Si noti la forma orizzontale della mappa di calore a causa della dominanza degli elementi orizzontali nel video. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 2: esempio di mappa termica che viene prodotta per l'intero video di un altro dei parchi. Si noti la forma più arrotondata a causa della presenza di elementi verticali e orizzontali nel video. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 3: istogramma del contenuto nel video di Fitzroy Gardens analizzato utilizzando la tecnica di apprendimento automatico. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 4: istogramma del contenuto nel video di Royal Park analizzato utilizzando la tecnica di apprendimento automatico. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 5: tempo di fissazione Eye Tracking speso guardando gli oggetti in Fitzroy Gardens. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 6: tempo di fissazione Eye Tracking speso guardando gli oggetti in Royal Park. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 7: tempi di permanenza del tracciamento degli occhi aggregati per tutti i partecipanti e oggetti per entrambi i parchi. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Figura 8: tempi di permanenza del tracciamento degli occhi aggregati relativi al contenuto per tutti i partecipanti e oggetti per entrambi i parchi. Si prega di cliccare qui per visualizzare una versione più grande di questa cifra.
Generalmente, nei pacchetti software standard per l'analisi dei dati di tracciamento oculare, viene utilizzato un vettore AOI. Anche per una singola immagine fissa, la dimensione del vettore non può essere facilmente misurata. Inoltre, includendo tutti gli AOIs in un'immagine e calcolando le relative quantità di AOIs è laborioso. È quasi impossibile farlo manualmente su un video senza una tecnica di apprendimento automatico come quella descritta. Questa è stata una dichiarazione relativamente semplice che deduce una situazione di visione libera. Uno scenario molto più preciso può essere utilizzato e diverse descrizioni dello scenario prima che lo stesso stimolo possa influenzare anche i movimenti oculari11.
La nostra ricerca ha utilizzato un metodo per classificare accuratamente gli oggetti in un video e analizzare la misura in cui questi erano visibili all'occhio. Il metodo rappresenta un mezzo di contabilità per la misura in cui i movimenti oculari sono collegati a oggetti di interesse. Ciò consente di controllare la misura in cui gli oggetti di interesse sono presenti in un campo visivo quando si confronta il tracciamento degli occhi da soggetti diversi con un dispositivo mobile per il tracciamento degli occhi o posizioni diverse quando si utilizza un sistema basato su desktop. Considerazioni che possono influenzare la classificazione automatica degli oggetti utilizzando l'apprendimento automatico che impieghiamo includono illuminazione, forme rispetto a ciò che viene classificato (ad esempio , non solo un tipo di albero, ma una serie di tipi di albero, la loro posizione nel l'immagine, il modo in cui sono illuminati ecc.), la texture e il colore. Le considerazioni sul numero di fotogrammi includono la lunghezza e la variazione delle condizioni visive esposte sul video analizzato, nonché il numero di classi di oggetti da identificare e la frequenza del loro aspetto. I fotogrammi cambiano ogni 1/25 secondi, ma il tracciamento degli occhi con il software si verifica a 1/120 (120 Hz). Per questo motivo i dati di tracciamento degli occhi saranno raccolti a 4,8 volte la velocità con cui viene visualizzato un nuovo fotogramma. Non è possibile etichettare completamente con precisione, ma l'etichettatura dei telai dovrebbe cambiare ogni 5 volte. Ad esempio, i dati di tracciamento degli occhi durante 99 a 101 s sono stati presi in considerazione per il fotogramma del 100 ° secondo del video.
Un vantaggio significativo degli attuali pacchetti Eye-Tracking è che sono impostati per consentire agli utenti di rivedere un film di loro fissazioni e percorsi di tracciamento degli occhi e descrivere il motivo per cui hanno guardato alcuni oggetti. Ciò si traduce in un set di dati qualitativi che può rivelare perché i singoli soggetti pensano di aver esaminato determinati oggetti. Un'estensione del progetto potrebbe anche mostrare loro la quantità di tempo trascorso a guardare gli oggetti in momenti diversi rispetto al contenuto, ad esempio le informazioni in Figura 8. Eppure, facendo questo controllando per il numero di oggetti in una scena abbastanza rapidamente non è attualmente possibile.
Ad esempio, ai partecipanti potrebbe essere chiesto di visualizzare i propri percorsi di sguardo che erano stati registrati e di descrivere il motivo per cui avevano guardato i particolari oggetti12. Nel nostro caso, alla fine di ogni film i partecipanti sono stati invitati a votare ciascuno dei parchi su una scala di 1-10, in primo luogo per se si sentiva che sarebbero in grado di riposare e recuperare in quell'ambiente (1, non molto, a 10, molto) e in secondo luogo quanto hanno fatto a loro piace il Parco (1, non molto, a 10, molto).
nessuno
Questo lavoro è stato sostenuto finanziariamente dalla città di Melbourne e parzialmente da ARC DP 150103135. Vorremmo ringraziare Eamonn Fennessy per il suo Consiglio e l'approccio collaborativo. Con un ringraziamento speciale agli assistenti di ricercatore Isabelle Janecki e Ethan Chen che hanno anche contribuito a raccogliere e analizzare questi dati. Tutti gli errori restano gli autori.
Name | Company | Catalog Number | Comments |
12 mm lens | Olympus | Lens | |
Panasonic GH4 | Panasonic | Video Camera | |
Tobii Studio version (2.1.14) | Tobii | Software | |
Tobii x120 desktop eye-tracker | Tobii | Eye-tracker |
Richiedi autorizzazione per utilizzare il testo o le figure di questo articolo JoVE
Richiedi AutorizzazioneThis article has been published
Video Coming Soon