国产中文字幕av一区-亚洲国产精品二区三区-揄拍成人国产精品视频-亚洲一区二区三区国产-国产码一区二区三区

歡迎來到北京津發(fā)科技股份有限公司!
Products產(chǎn)品中心
首頁 > 產(chǎn)品中心 > > 視覺與眼動追蹤 > ErgoLAB Eyetracking眼動軌跡分析模塊

ErgoLAB Eyetracking眼動軌跡分析模塊

簡要描述:眼動追蹤通過紅外光反射原理,測量眼睛的注視點位置或者眼球相對頭部的運動而實現(xiàn)對眼球運動的追蹤,進而分析視覺加工特征。ErgoLAB眼動追蹤模塊采用高精度的眼動追蹤元件同步記錄個體的眼動軌跡、視線變化、眼動狀態(tài)等數(shù)據(jù),在多種視覺刺激和環(huán)境下開展人類行為研究。同步記錄如眼部或頭部3D空間位置、注視時間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周圍事物的視

  • 產(chǎn)品型號:
  • 廠商性質(zhì):生產(chǎn)廠家
  • 更新時間:2024-08-21
  • 訪  問  量:1530

詳細介紹

品牌津發(fā)科技產(chǎn)地類別國產(chǎn)
應用領域交通,汽車,綜合


產(chǎn)品簡介

眼動追蹤通過紅外光反射原理,測量眼睛的注視點位置或者眼球相對頭部的運動而實現(xiàn)對眼球運動的追蹤,進而分析視覺加工特征。ErgoLAB眼動追蹤模塊采用高精度的眼動追蹤元件同步記錄個體的眼動軌跡、視線變化、眼動狀態(tài)等數(shù)據(jù),在多種視覺刺激和環(huán)境下開展人類行為研究。同步記錄如眼部或頭部3D空間位置、注視時間、瞳孔大小、眨眼次數(shù)、眼跳、眼瞼閉合度等數(shù)據(jù),發(fā)現(xiàn)能夠吸引人們注意力的因素,了解人們感知其周圍事物的視覺方式以及驅(qū)使人們作出決策的因素,捕獲不受被試者或主試者意識影響的自然反應,并將這些自然反應實時記錄與反饋。

眼動追蹤系統(tǒng)
屏幕式高精度眼動儀:高采樣率與高精度數(shù)據(jù)質(zhì)量采集,適用于快速眼動狀態(tài)研究。
Glasses可穿戴眼動儀:自然的眼動追蹤系統(tǒng),專為現(xiàn)實環(huán)境的眼動研究而設計。
虛擬現(xiàn)實眼動:將眼動追蹤與VR結(jié)合,在受控的虛擬實驗環(huán)境中開展眼動行為研究。
遙測式眼動儀:超薄、便攜式遙測式眼動儀,可方便地在任何場所開展眼動行為研究。
便攜式手持設備臺,高精度眼動數(shù)據(jù)采集,滿足任何移動終端環(huán)境下的可用性測試研究。
功能

眼動狀態(tài)分析

標準化眼動處理參數(shù):系統(tǒng)采用I-VT注視點提取算法,通過Velocity Calculator、Merge Adjacent Fixation、Discard fixation deration等一系列參數(shù),精確提取注視點、眨眼、以及眼跳等狀態(tài)。支持原始原始、注視數(shù)據(jù)、注意數(shù)據(jù)的自定義選擇性研究。
完整的數(shù)據(jù)分析與導出:支持以Excel或CSV格式導出所有原始數(shù)據(jù)、處理數(shù)據(jù)、分析數(shù)據(jù)。眼動分析指標主要包括眼跳次數(shù)、眼跳時間、眼跳幅度、眼跳距離、眨眼次數(shù)、眨眼頻率、總注視時間、平均注視時間、注視次數(shù)、瞳孔直徑等。

眼動可視化分析

支持基于2D刺激材料、APP長圖、以及360°圖片/視頻或3D虛擬場景分析;
實時監(jiān)測個體在任何環(huán)境刺激中的注意力和行為模式,輸出實時眼動注視點數(shù)據(jù);
熱點圖分析:直觀分析個體的視覺重點關注區(qū)域,并形成可視化熱圖的形式展示結(jié)果;
軌跡圖分析:直觀顯示個體的眼動注視順序、每個注視點的停留時長,分析視覺加工機制;
3D圖分析:顯示個體的重點關注區(qū)域,以3D圖等多種可視化圖形方式展示。

AOI統(tǒng)計與序列性分析

支持2D刺激材料(圖片、視頻等)及3D虛擬環(huán)境中的眼動AOI數(shù)據(jù)統(tǒng)計與分析;
支持對目標物進行自動Mapping或手動劃分興趣區(qū),統(tǒng)計輸出多維度的分析指標;
自動AOI序列分析,實現(xiàn)對不同興趣區(qū)的注視順序進行序列性編碼與行為分析統(tǒng)計;
統(tǒng)計指標包括進入時間、進入前注視次數(shù)、第一次注視的眼動點、注視時間、總訪問時間、平均訪問時間、訪問次數(shù)、總注視時間、平均注視時間、注視次數(shù)、平均注視次數(shù)、第二注視時間、最近鄰近注視點等。

原型網(wǎng)頁眼動交互分析

支持針對網(wǎng)頁、原型源代碼內(nèi)容興趣區(qū)的眼動數(shù)據(jù)記錄與分析;
支持網(wǎng)頁、原型、圖片及視頻產(chǎn)品自定義繪制興趣區(qū)的眼動數(shù)據(jù)記錄與分析;
提供錄屏、視頻及交互記錄等多種實驗數(shù)據(jù)回放方式;
支持對虛擬現(xiàn)實空間中興趣物體及興趣區(qū)域的眼動數(shù)據(jù)分析;
采用云架構(gòu)技術,支持多被試眼動數(shù)據(jù)同時采集與選擇性輸出。
同步方案

ErgoLAB人機環(huán)境同步云平臺可人-機-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動追蹤、生理測量、生物力學、腦電、腦成像、行為、人機交互、動作姿態(tài)、面部表情、主觀評 價、時空行為、模擬器、物理環(huán)境等,為科學研究及應用提供完整的數(shù)據(jù)指標。平臺可完成完整的實驗和測評流程,包括項目管理-試驗設計-同步采集-信號處理-數(shù)據(jù)分析-人工智能應用-可視化報告,支持基于云架構(gòu)技術的團體測試和大數(shù)據(jù)云管理。

產(chǎn)品咨詢

留言框

  • 產(chǎn)品:

  • 您的單位:

  • 您的姓名:

  • 聯(lián)系電話:

  • 常用郵箱:

  • 省份:

  • 詳細地址:

  • 補充說明:

  • 驗證碼:

    請輸入計算結(jié)果(填寫阿拉伯數(shù)字),如:三加四=7

人因工程與工效學

人機工程、人的失誤與系統(tǒng)安全、人機工效學、工作場所與工效學負荷等

安全人機工程

從安全的角度和著眼點,運用人機工程學的原理和方法去解決人機結(jié)合面安全問題

交通安全與駕駛行為

人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設計、提高駕駛安全性、改善道路環(huán)境等

用戶體驗與交互設計

ErgoLAB可實現(xiàn)桌面端、移動端以及VR虛擬環(huán)境中的眼動、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設計、人機交互對用戶體驗的影響

建筑與環(huán)境行為

研究如何通過城市規(guī)劃與建筑設計來滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率

消費行為與神經(jīng)營銷

通過ErgoLAB采集和分析消費者的生理、表情、行為等數(shù)據(jù),了解消費者的認知加工與決策行為,找到消費者行為動機,從而產(chǎn)生恰當?shù)臓I銷策略使消費者產(chǎn)生留言意向及留言行為

郵件聯(lián)系我們:sales@kingfar.cn

掃一掃,關注微信
©2024 北京津發(fā)科技股份有限公司 版權所有 All Rights Reserved. 備案號:京ICP備14045309號-1