簡要描述:ErgoLAB人機環(huán)境同步云平臺是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學的智能評價。
產(chǎn)品中心
相關文章
詳細介紹
品牌 | 其他品牌 |
---|
ErgoLAB人機環(huán)境同步云平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合人機工效分析;尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學的智能評價。
智能化人機環(huán)境測試云平臺支持科研項目的整個工作流程,從基于云端的項目管理、實驗設計、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,對于特殊領域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實實時同步人因工程研究解決方案、ErgoAI智能駕駛模擬實時同步人因工程研究解決方案、ErgoSIM環(huán)境模擬實時同步人因工程研究解決方案,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐與科學指導。
其中,云實驗設計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復雜的實驗刺激,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)包含常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務、MOT多目標追蹤、注意力訓練任務等)、聲光電刺激與實時API行為編碼/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻(含360度圖片和視頻),在線網(wǎng)站和手機應用程序,以及所有的原型設計材料,也支持與如下刺激實時同步采集:如場景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激編譯軟件,如E-prime,Superlab,TobiiPro Lab等。
ErgoLAB人機環(huán)境同步云平臺采用主客觀結合多維度數(shù)據(jù)驗證的方法,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號數(shù)據(jù)(生理儀含:GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力…),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空行為數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、行車軌跡、訪問狀態(tài)以及視線交互、情感反應、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。
ErgoLAB人機環(huán)境同步云平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應,行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
津發(fā)科技提供定制開發(fā)服務,與人因工程與工效學分析評價領域相關的算法模型、軟硬件產(chǎn)品與技術可深入研發(fā),詳情咨詢津發(fā)科技!
ErgoLAB人機環(huán)境同步云平臺,是集科學化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,可以與多種類人、機器、環(huán)境數(shù)據(jù)進行同步采集與綜合分析,尤其是人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng),人-物理系統(tǒng)以及系統(tǒng)整體分別進行人機交互評估以及人因與工效學的智能評價。
智能云平臺系統(tǒng)支持項目的整個工作流程,從基于云端的項目管理、試驗設計(試驗方法設置)、數(shù)據(jù)同步采集、信號處理與數(shù)據(jù)分析到綜合統(tǒng)計與輸出可視化報告,以及云端的大數(shù)據(jù)采集與AI狀態(tài)識別。具備ErgoVR虛擬現(xiàn)實解決方案實時同步模塊、ErgoAI智能駕駛模擬解決方案實時同步模塊、ErgoSIM環(huán)境模擬解決方案實時同步模塊,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供進一步的主客觀數(shù)據(jù)支撐與科學指導。
其中,云試驗設計產(chǎn)品模塊,可以進行靈活的試驗設計,支持任何類型的刺激材料,包括自定義問卷、量表與實驗范式(系統(tǒng)打包大量常用量表與實驗范式以及數(shù)據(jù)常模,如NASA-TLX認知負荷量表、PANAS情緒效價量表、Stroop任務、MOT多目標追蹤、注意力訓練任務等)、聲光電刺激與實時API/TTL事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻,在線網(wǎng)站和手機應用程序,以及所有的原型設計材料,也支持與如下刺激實時同步采集:場景攝像機、軟件,游戲,VR,AR程序等。兼容第三方軟件刺激,如Eprime,Tobii Pro Lab等。
ErgoLAB人機環(huán)境同步云平臺采用主客觀結合多維度數(shù)據(jù)驗證的方法,可用于云項目管理、云實驗設計、同步采集、綜合統(tǒng)計分析與可視化等全流程科研應用,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號(GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2),行為觀察、肢體動作與面部表情(基本情緒、情緒效價、微表情等)數(shù)據(jù)、生物力學數(shù)據(jù)(拉力、握力、捏力、壓力),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)、以及多類型時空數(shù)據(jù)采集(包括室內(nèi)、戶外、以及VR環(huán)境不同時空的行走軌跡、訪問狀態(tài)以及視線交互、情感反應、交互操作行為等數(shù)據(jù)采集)、以及環(huán)境數(shù)據(jù)(溫度、濕度、噪音、光照、大氣壓、濕度、粉塵等)等客觀量化數(shù)據(jù)。
ErgoLAB人機環(huán)境同步云平臺包含強大的數(shù)據(jù)分析模塊以及廣泛的認知和情感生物特征識別(如記憶,注意力,情緒反應,行為決策,以及警覺、壓力等)。ErgoLAB數(shù)據(jù)分析與綜合統(tǒng)計分析模塊包含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學分析、交互行為分析、時空行為分析、車輛與駕駛行為分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析(如SKT皮溫分析、EOG眼電分析以及其他環(huán)境與生物力學信號分析)。系統(tǒng)具備專門的信號處理模塊以及開放式信號處理接口,可以直接導出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
通過ErgoLAB人機環(huán)境同步云平臺可以與更多種類的數(shù)據(jù)進行同步,可用于云項目管理、云實驗設計、同步采集、綜合統(tǒng)計分析與可視化等全流程科研應用,實驗設計云平臺模塊可以進行自定義問卷設計、聲光電刺激與實時事件標記、多媒體刺激編輯如文本、聲音、圖像,視頻,實時網(wǎng)站和手機應用程序的原型設計文件,也支持與如下刺激實時同步采集:場景攝像機、軟件,游戲,VR,AR程序等;并且具備ErgoVR虛擬現(xiàn)實解決方案實時同步模塊、ErgoAI智能駕駛模擬解決方案實時同步模塊、ErgoSIM環(huán)境模擬解決方案實時同步模塊,可以在不同的實驗環(huán)境為人-機-環(huán)境研究的發(fā)展提供了進一步的主客觀數(shù)據(jù)支撐。
ErgoLAB人機環(huán)境測試云平臺將主觀問卷與客觀數(shù)據(jù)集成,可用于云項目管理、云實驗設計、同步采集、綜合統(tǒng)計分析與可視化等全流程科研應用,數(shù)據(jù)同步種類包含大腦認知數(shù)據(jù)(EEG腦機交互與腦電測量系統(tǒng)、fNIRS高密度近紅外腦功能成像系統(tǒng)),視覺數(shù)據(jù)(Eyetracking視線交互與眼動追蹤系統(tǒng)),生理信號(GSR/EDA、EMG、ECG、EOG、HRV、RESP、TEMP/SKT、PPG、SpO2,行為觀察、肢體動作與面部表情、生物力學(拉力、握力、捏力、壓力),人機交互數(shù)據(jù)(包含如網(wǎng)頁終端界面交互行為數(shù)據(jù)以及對應的鍵盤操作,鼠標點擊、懸浮、劃入劃出等;移動終端界面交互行為數(shù)據(jù)以及對應的手指行為如點擊、縮放、滑動等;VR終端界面人機交互行為數(shù)據(jù)及對應的雙手操作拾取、丟棄、控制,VR空間行走軌跡)等客觀量化數(shù)據(jù)。
ErgoLAB綜合統(tǒng)計分析功能包含人機環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析與可視化、行為觀察分析、面部表情分析、動作姿態(tài)傷害評估與工效學分析、交互行為分析、時空行為分析、車輛分析(ErgoAI駕駛版本)、HRV心率變異性分析、EDA皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析。津發(fā)科技提供定制開發(fā)服務,與人因工程與工效學分析評價領域相關的算法模型、軟硬件產(chǎn)品與技術可深入研發(fā),詳情咨詢津發(fā)科技!
SennsLab是一種人類行為研究軟件工具,可 無縫同步35種以上傳感器模式的研究設計和數(shù)據(jù)收集。它支持項目的整個工作流程,從實驗方法設置到數(shù)據(jù)收集和導出以進行完整的分析。
毫秒級同步,您將能夠從各種傳感器模式(GSR,ECG,EEG,EMG,EEG,眼睛跟蹤...)以及多種刺激(照片,視頻,自由任務, VR體驗,網(wǎng)站...)具有出色的時間表現(xiàn)。因此,您將能夠輕松,準確地分析來自Excel,SPSS,MatLab等的數(shù)據(jù)。
SennsMetrics是SennsLab軟件的擴展,可提供十分常用的研究設計模板,強大的數(shù)據(jù)分析平臺以及廣泛的認知和情感生物特征識別(例如記憶,注意力,情感價,激活和影響,參與度等) )。SennsMetrics是為那些希望在生理數(shù)據(jù)解碼和分析方面向前邁進的人而特別設計的,它提供了一種實用且可行的解決方案。
同步數(shù)據(jù)采集
干腦電圖 半干腦電圖 生物信號 室內(nèi)定位系統(tǒng) 眼動追蹤
其他
任何類型的刺激
圖像,視頻,體驗,網(wǎng)站,應用程序,VR / AR設置...
第三方軟件刺激
Eprime,Tobii Pro Lab ...
兼容LabStreamLayer
BCI200,OpenVie,NeuroPype ...
實時API
數(shù)據(jù)分析
原始數(shù)據(jù)到第三方
Matlab(EEGLAB,BCILAB等)
Python(MNE等)
Neuroguide WE
其他
SennsMetrics 可選
Bitbrain軟件分析工具
情緒和認知指標
Excel導出(單個和匯總)
多媒體資料
技術指標
人類行為指標 | |
情緒生物識別 | 價,情緒激活,情緒影響 |
認知生物識別 | 注意,記憶,參與。 |
行為指標 | 鼠標跟蹤,時間。 |
眼動追蹤指標 | 視覺注意,注視 |
內(nèi)隱動機和行為 | 隱式聯(lián)想響應測試(IAT和啟動) |
IPS指標 | 位置追蹤 |
指標表示 | |
個人 | 對于生物識別,時間和隱式關聯(lián):條形圖和統(tǒng)計差異表。對于眼睛跟蹤,鼠標定位和室內(nèi)定位:熱圖,比率圖,時間圖,軌跡圖,感興趣的區(qū)域(*固定時間,花費的時間,比率,重新訪問,平均固定時間,以前的固定時間)和匯總的固定視頻。 |
組合式 | 情感定位圖,結合指標的視頻,刺激,攝像頭和麥克風(匯總,按細分或個人匯總)。 |
輸出格式 | |
檔案 | 所有CSV格式的生物特征識別(單獨和匯總),與第三方工具(Matlab,Excell等)兼容 |
可視化軟件 | Bitbrain生物識別可視化軟件。分析間隔和感興趣的區(qū)域。 |
多媒體資料 | 包含陳述和視頻以進行報告。 |
郵件聯(lián)系我們:kingfar@kingfar.net
掃一掃,關注微信電話
微信掃一掃