Method Article
プロトコルの目的は、実験室で使用するためのビデオデータを収集する方法を詳述することです。データを見ている参加者の目を追跡するデータと、機械学習の手法を使用して見ていたビデオのコンテンツを効率的に分析する方法を記録する方法。
都市で生活する人が増えていく中で、日々の動きや収集できるデータを研究する方法が重要で価値あるものとなっています。アイトラッキング情報は、感情、健康状態、精神状態や行動の範囲に接続することが知られています。しかし、ビジョンは絶え間ない目の動きの結果であるため、雑音とは何かということから重要なことは、複雑でデータ集約的である。さらに、彼らに提示されたものと比較して人々が見るものを制御することも重要な課題です。
次に、自然で複雑なシーンのビデオのアイトラッキングを組み合わせて分析する方法と、ビデオのコンテンツを分析するための機械学習手法を示します。このプロトコルでは、撮影したビデオからのデータの分析、ビデオが参加者の視線データを記録するのに最もよく使用される方法、ビデオのコンテンツを分析してアイトラッキングデータと組み合わせる方法に重点をおいています。我々は、結果の簡潔な要約と、複雑な環境におけるさらなる研究のための方法の可能性についての議論を提示する。
都市環境における私たちの日々の経験は、私たちの健康と幸福に大きく影響します。私たちの幸福は、私たちが見ることができる緑の空間の量に依存することができ、1,2,3, そして、これらのビューは、公園の設計についての意思決定を導くために、アイトラッキング機器を使用して定量化することができます.ただし、生成される視線追跡データの量と、このデータの意味に関する問題が発生します。ラボや自然環境で視線データを記録するための設備がより使いやすく、より強力になるにつれて、研究者は、意思決定の質問に役立つデータをどのように収集して分析できるかを検討する必要があります。
これまでのところ、多くのアイトラッキング研究では、調査や実験室の設定4で写真を使用してきました。この方法は、再現性と結果の制御の多くを可能にしながら, ビデオやウェアラブルモバイルアイトラッカーの使用を含むアイトラッキング技術の最新の進歩を活用することができません。.さらに、歩行とリラックスの行為は、特にウェイファインディング5のような仕事に向いているとき、必然的に動的であると主張します。したがって、これらの設定の完全に科学的な理解は、研究室の外で行われるべきです。しかし、現時点では、現実の自然環境でのアイトラッキングは、被験者間の経験を非常に困難なものと比較します。たとえば、ある回答者が樹木を他のものよりも見ているかどうかを比較する場合、自分の視点が他の人に比べて常に変化しているか、または頭が回転しているかどうかを制御する方法があります。これらの条件での詳細な解析は、現在の解析手法ではほぼ不可能です。私たちは、調査されている個人に利用可能な表示領域を制御することが重要であると主張し、分析では、任意の時点で見られている全体のシーンを考慮することができるようにします。
ストレスレベルと安全性の認識を景観ビューに結びつける一連の理論と、応力6,7のよく進化した尺度があります。視線8を測定するアイトラッキング装置の高度化も急速に進展している。目を追跡することは、不随意の目の動きがより確実に好み、ストレスや他の従来の測定よりも、アンケートや、唾液のコルチゾールなどの侵入性の生理学的検査よりも安全に接続される可能性があるため重要です。本研究の目的は、より自然な設定に適用される視線追跡データのより正確な測定を可能にするツールを開発することであり、これにより、公園の設計に情報を提供した長期にわたるランドスケープ理論を反論したり、数 十 年。
このプロジェクトの目的は、パークウォークのシミュレーションのさまざまなビデオに関連する視線追跡データを生成する新しい分析手法を開発し、テストすることです。ここと他の場所で報告された私たちの仕事は、完全にモバイルのアイトラッキングシステムの自然主義的な設定と上記で言及したラボベースの写真研究との中間点を表しています。特に、私たちは刺激材料としてビデオを使用することに集中し、この材料を使用してメルボルン市で異なる公園が生成する魅力の量をテストする方法を模索しています。私たちの仕事は、ビデオの詳細な分析がストレスからの回復を提供するために、公園の可能性の完全な、より自然な評価を行う前に、違反する必要があるステップであるという仮定に基づいています。
本研究では、都市公園を散策した映像を用いたデスクトップ・アイ・トラッカーを用いて、公園内をのんびりと散歩しているとの想像を求めた。我々は、参加者が異なるオブジェクトを見て、公園間で匹敵する時間を費やすことを可能にする方法を説明する。一般に、デスクトップスタディはモバイル ET の研究と比較して制御が容易で、各被験者の比較分析が可能です。
標準的なアイトラッキングソフトウェアでは、手動による対象領域ツールを使用して、オペレータが各シーンで目的のオブジェクトの周囲に手動で境界を描画することができます。これにより、参加者が異なるオブジェクトを見て自動的にカウントされるまでの時間を設定できます。ビデオデータの場合、このプロセスは労働集約的であり、オペレータの主観とエラーの対象となります。アイトラッキング解析ソフトウェアのそれ以降のバージョンでは、AOIs は、それらがビデオで同じサイズである場合、フレーム間でオブジェクトを自動的に追跡することができます。これは改善であるが、これは各画像の少数の刺激に対してのみ使用されることを意図しており、各画像は確認および確認されなければならない。
画像内のオブジェクトの手動ラベリングは一般的であり、GNU 画像操作プログラム (GIMP) などの画像編集ソフトウェアによってサポートされています。1 s が30フレームまたはイメージを生成することを考えると、ビデオの手動ラベリングは実用的ではありません。さらに、樹木の天蓋のような複雑なオブジェクトの端の周りに描画ベクトルポリゴンによる AOI ラベリングは非常に時間がかかります。最後に、ベクトルラベリングを使用してビューのフィールド内のオブジェクトのサイズを計算することは可能ですが、この機能は現在使用できません。
以下で報告する方法は、これらの制限を扱っています。本研究ではオブジェクトの自動ラベリングを採用した。これは、ビデオのすべてのフレーム内のすべてのピクセルにオブジェクトクラスを示すラベルが割り当てられる、セマンティックラベリングと呼ばれる画像処理手法を使用して可能です。機械学習は、対象のオブジェクトクラスごとにピクセル分類子を導出するために使用されます。これらの分類子は、各ピクセルに確率的なラベル (単項電位として知られている) を提供し、最終的なラベル出力を達成するために後続の最適化プロセスでリファインされます。これらの分類子は、テクスチャ、エッジの向きのヒストグラム、RGB カラー値、正規化された画像座標など、画像から抽出されたフィーチャの空間における各オブジェクトクラス間の統計的決定境界を学習します。このための適切な技術は、ダーウィン機械学習ツールボックス10に実装されており、以下に説明されています。
このプロジェクトの倫理的な承認は、オーストラリアのカトリック大学倫理委員会の承認番号 #201500036E によって与えられました。これにより、すべての参加者からインフォームドコンセントが得られ、参加者全員が自発的に参加し、参加者データは匿名かつ機密のままでした。さらに、承認は方法と設備オーストラリア規格安全規則を満たすために与えられました。
1. アイトラッキング研究で使えるアーバンシーンの撮影
2. アイトラッキング機器のセットアップとデスクトップキャリブレーション
3. 採用・倫理
4. 参加者実験のセットアップ
5. 視聴した公園を動画の感想につなげる
6. 関心領域抽出のための自動ビデオ分析
7. アイトラッキングデータを動画コンテンツに登録する
8. 参加者がビデオ内のさまざまなクラスのオブジェクトを調べた時間の表示
注意: 目を追跡するデータの巨大なサイズのために、Python のプログラミング言語は、データ処理プログラムも使用することができますが、8.4 へのステップのために使用する方が良いです。
図 1と図 2は、すべての参加者のビデオ全体のすべての目のトラッキングデータを取得し、ヒートマップを作成した結果を示しています。これは、アイトラッキングソフトウェアパッケージで利用できる標準的なアプローチです。図1と図 2を比較することにより、図1のビデオの x 座標上で平均的な参加者が左右に走査した図2に比べて、丸い形を示していることが確認できる。図1では、図2の公園と比較して、ビデオ全体で水平方向の要素が増えています。ヒートマップの背後にあるイメージは単一のフレームであり、ビデオの完全な内容を適切に表現していません。
デスクトップアイトラッキングシステムとソフトウェアは、両方の目を同時に配置できる結果のみをカウントします。つまり、片方または両方の目が見つからない場合、データは失われたものとしてカウントされる。我々のケースでは、アイトラッキングデータは、時間の 80% > のために捕獲されました。
図 3と図 4は、ビデオの内容を分析するためのプロトコルと機械学習の使用の結果を示しています。図 3は、ロイヤルパークの比較的まばらな植生に比べて、フィッツロイ庭園の密集した植生を示しています (図 4)。後者では、より多くの空が見える、より多くのシーンは低木の植生によって支配されています。図 5は、参加者の1人のビデオの経過中の異なるオブジェクトに対する% 固定時間を示しています。これは、ビデオの進行中にパスがはっきりと見えても、参加者はこの機能だけをときどき重要な点で見ることができることを示しています。同様に、図 6に示すように、ロイヤルパークのビデオのコンテンツのごく一部は人工物に関連していますが、研究の参加者はこれらの特徴を比較的大きな範囲で調べています。
図3、図 4、図 5、および図 6の結果は、この調査でデータが使用されたすべての39参加者の図7と図8にまとめられています。図 7は、ビデオの長さ全体にわたってオブジェクトを見るときのすべての参加者の滞留時間を示しています。図 8は、この同じデータを、これらのさまざまなオブジェクトがビデオで占めていた時間と空間の量で割ったものを示しています。値を1に設定すると、ビデオ内のオブジェクトの量によってドウェル時間を計上できることを示します。図 7は、街灯やベンチなどの人工的なオブジェクトを、他のオブジェクト (> 1) と比較して大きな範囲にわたっていることを示しています。図 7は、両方の画像の空など、あまり関係のないオブジェクトが比較的少ない値 (< 1) で表示されていることも示しています。
図 1: 公園の1つのビデオ全体に対して生成されるヒートマップの例。これは、アイトラックの大半が位置していた場所を示しています。ビデオ内の水平方向の要素が優勢であるため、ヒートマップの水平方向の形状に注意してください。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 2: 公園の別の1つのビデオ全体に対して生成されるヒートマップの例ビデオに垂直および水平の要素が存在するため、より丸みのある形状に注意してください。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 3: フィッツロイ庭園のビデオのコンテンツのヒストグラムは、機械学習技術を使用して分析しました。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 4: 機械学習技術を用いて分析した王立公園の映像におけるコンテンツのヒストグラム。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 5: フィッツロイ庭園内のオブジェクトを見て過ごすアイトラッキング固定時間。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 6: ロイヤルパークのオブジェクトを見て過ごすアイトラッキング固定時間。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 7: 両方の公園のすべての参加者とオブジェクトの目を追跡する集約時間。この図の大規模なバージョンを表示するには、ここをクリックしてください。
図 8: 集約されたアイトラッキング両方の公園のすべての参加者とオブジェクトのコンテンツに対する滞留時間。この図の大規模なバージョンを表示するには、ここをクリックしてください。
一般的に、アイトラッキングデータを解析するための標準的なソフトウェアパッケージでは、ベクトル AOI が使用されます。1つの静止画像でも、ベクトルのサイズを簡単に測定することはできません。さらに、画像中の全ての AOIs を含む、AOIs の相対量を計算することは面倒である。説明したような機械学習の手法を使用せずに、ビデオに手動でこれを行うことはほとんど不可能です。これは、自由な表示状況を推測する比較的単純なステートメントでした。はるかに正確なシナリオを使用することができ、同じ刺激の前に異なるシナリオの説明は、眼球の動き11にも影響を与えることができます。
本研究では、映像中の物体を正確に分類し、目に見える範囲を解析する手法を用いた。この方法は、視線の動きが目的のオブジェクトにリンクされている範囲を表す1つの計算方法を表します。これにより、対象となるオブジェクトが、異なる被験者からの視線追跡をモバイルアイトラッキングデバイスと比較する際に、またはデスクトップベースのシステムを使用している場合に異なる場所で制御される視野内に存在する範囲を可能にする。機械学習を使用してオブジェクトの自動分類に影響を与える考慮すべきことは、分類されているものに関して照明、形状 (例えば、木の種類だけではなく、樹木の種類の範囲であり、その位置イメージ、それらが照らされる方法など)、テクスチャ、および色。フレーム数の考慮事項には、分析対象のビデオ全体にわたって表示される視覚状態の長さと変化、および識別するオブジェクトクラスの数とその出現頻度が含まれます。フレームは1/25 秒ごとに変更されますが、ソフトウェアによるアイトラッキングは 1/120 (120 Hz) で発生します。このため、アイトラッキングデータは、新しいフレームが表示されるレートの4.8 倍で収集されます。完全に正確にラベルを付けることはできませんが、フレームのラベリングは5回ごとに変更する必要があります。たとえば、99 ~ 101 s の間の視線追跡データは、ビデオの100秒のフレームで考慮されています。
現在のアイトラッキングパッケージの大きな利点は、ユーザーが自分の目を追跡する凝視点と経路のフィルムをレビューし、特定のオブジェクトを見た理由を説明できるように設定されていることです。これにより、個々の被験者が特定のオブジェクトを見たと思う理由を明らかにする定性的なデータセットが得られます。プロジェクトの拡張では、図 8の情報など、コンテンツに対してさまざまなタイミングでオブジェクトを参照するために費やされた時間も表示されます。しかし、シーン内のオブジェクト数を制御することによって、これを行うことは、現在は不可能です。
例えば、参加者は、記録された自分の視線の軌跡を見て、なぜ彼らが特定のオブジェクト12を見たのかを説明するよう求められる。我々のケースでは、各映画参加者の終わりに1-10 のスケールで各公園を評価するように求められ、まず、その環境で休息して回復することができると感じたかどうか (1、あまり、10、非常に多く)、そして第二に彼らはどれくらい好きだったか公園 (1、あまりにも多く、10、非常に多く)。
なし
この作業は、メルボルン市と部分的にアーク DP 150103135 によって財政的にサポートされました。私たちは彼のアドバイスと協調的なアプローチのための Eamonn Fennessy に感謝したいと思います。研究助手イザベル Janecki とイーサン・チェンにも特別な感謝を込めて、このデータの収集と分析を支援しました。すべてのエラーは作者のままです。
Name | Company | Catalog Number | Comments |
12 mm lens | Olympus | Lens | |
Panasonic GH4 | Panasonic | Video Camera | |
Tobii Studio version (2.1.14) | Tobii | Software | |
Tobii x120 desktop eye-tracker | Tobii | Eye-tracker |
このJoVE論文のテキスト又は図を再利用するための許可を申請します
許可を申請This article has been published
Video Coming Soon
Copyright © 2023 MyJoVE Corporation. All rights reserved