簡要描述:ErgoLAB人機環(huán)境同步云平臺,是基于云架構(gòu)的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進行人機交互評估以及人因與工效學(xué)的智能評價。
產(chǎn)品中心
詳細介紹
品牌 | 其他品牌 | 產(chǎn)地 | 國產(chǎn) |
---|
ErgoLAB人機環(huán)境同步云平臺,是基于云架構(gòu)的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺,是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對人、機器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對人-機-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進行人機交互評估以及人因與工效學(xué)的智能評價。
平臺以人機環(huán)境多模態(tài)數(shù)據(jù)同步技術(shù)為基礎(chǔ),突出智能化、可穿戴的特點,采用國內(nèi)自主研發(fā)技術(shù),結(jié)合VR三維虛擬現(xiàn)實與環(huán)境模擬技術(shù)、動作捕捉技術(shù)、人體建模與仿真技術(shù)、腦認知神經(jīng)科學(xué)與電生理技術(shù)、視覺追蹤技術(shù)、行為分析技術(shù)、面部表情與狀態(tài)識別技術(shù)等,客觀定量化分析人機環(huán)境交互影響的關(guān)系,提升縱向研究的深度與橫向研究的外延性。平臺與許多認知神經(jīng)科學(xué)、人因工程、 人工智能領(lǐng)域科研實驗設(shè)備相兼容,提供了人因工程與工效學(xué)、人機交互與人工智能、心理學(xué)與認知科學(xué)以及神經(jīng)網(wǎng)絡(luò)、機器學(xué)習(xí)等研究內(nèi)容的解決方案。
平臺從基于云端的項目管理、實驗設(shè)計、數(shù)據(jù)同步采集、信號處理與分析到綜合統(tǒng)計與輸出可視化報告,涵蓋整個研究流程。對于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識別。
ErgoLAB數(shù)據(jù)與綜合統(tǒng)計分析模塊含多維度人-機-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動分析以及可視化、行為觀察、面部表情、動作姿態(tài)傷害評估與工效學(xué)分析、交互行為、時空行為、車輛與駕駛行為、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號分析,具備專門的信號處理與開放式信號處理接口,可直接導(dǎo)出可視化分析報告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
平臺通過SDK/API/TTL等廣泛的數(shù)據(jù)接口進行第三方設(shè)備或者數(shù)據(jù)同步,同時可以直接導(dǎo)入外部數(shù)據(jù),與系統(tǒng)內(nèi)數(shù)據(jù)進行同步分析,支持定制開發(fā)。
平臺配備在線資源中心,內(nèi)含大量豐富的技術(shù)與文獻資料,包括在線 說明書、功能培訓(xùn)視頻、技術(shù)、參數(shù)算法解釋、操作手冊、演示DEMO等,方便研究者能夠更快速的掌握大量實驗技能與知識。
平臺可以進行實驗室研究、移動終端研究、虛擬仿真以及真實戶外環(huán)境的研究。云實驗設(shè)計模塊具備多時間軸、隨機化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實驗設(shè)計,支持任何類型的刺激材料,包括問卷、量表與范式、聲光電刺激、實時API編碼/TTL事件標(biāo)記、多媒體刺激編輯,在線網(wǎng)站和手機應(yīng)用程序,以及所有的原型設(shè)計材料,也支持與如下刺激實時同步采集:如場景攝像機,軟件,游戲,VR,AR程序等。兼容第三方刺激編譯軟件,如E-prime,Superlab,Tobii Pro Lab等。
平臺采用主客觀結(jié)合多維度數(shù)據(jù)驗證的方法,同步大腦認知數(shù)據(jù)、視覺數(shù)據(jù)、生理信號數(shù)據(jù)、行為觀察、肢體動作與面部表情數(shù)據(jù)、生物力學(xué)數(shù)據(jù)、人機交互數(shù)據(jù)、多類型時空行為數(shù)據(jù)采集與環(huán)境數(shù)據(jù)等。
在標(biāo)準(zhǔn)的實驗室環(huán)境下,以桌面或移動終端為載體呈現(xiàn)的刺激材料,包括圖片、文本、視頻、音頻、網(wǎng)頁刺激、交互程序、錄制屏幕等,可實時預(yù)覽、自由拖拽、一鍵導(dǎo)入多刺激材料。實時同步采集眼動、腦電、近紅外腦成像以及電生理指標(biāo)等高精度多模態(tài)測量數(shù)據(jù)。
支持搭建多類型虛擬現(xiàn)實交互設(shè)備與場景,包括頭戴式虛擬現(xiàn)實系統(tǒng)、CAVE大型沉浸式虛擬現(xiàn)實交互系統(tǒng)以及多人交互系統(tǒng)等。在虛擬環(huán)境中通過模擬真實世界交互模式,可以添加視覺、聽覺、觸覺以及重力等真實感受模擬;在虛擬現(xiàn)實的環(huán)境下,實時同步采集人-機-環(huán)境數(shù)據(jù)并進行定量化分析與評價,包括人員在虛擬環(huán)境下的空間定位、交互行為、腦電、眼動、生理、生物力學(xué)、動作捕捉、面部表情等數(shù)據(jù)。
提供逼真道路交通仿真場景、真實感駕駛模擬座艙,精確的駕駛操縱傳感器輸出,滿足研究所需的交通場景編輯系統(tǒng),并且具備定制和升級能力,支持在各種道路交通和駕駛行為研究中實時同步采集駕駛?cè)?車輛-道路-環(huán)境的客觀、定量化數(shù)據(jù)。
平臺能夠結(jié)合光、聲、振動、微氣候等多種環(huán)境模擬條件下,同步采集個體在模擬環(huán)境下進行操作任務(wù)時的多模態(tài)客觀數(shù)據(jù)反應(yīng)。
平臺采用可穿戴測量技術(shù)、移動終端采集技術(shù)以及離線采集與數(shù)據(jù)儲存,于真實的現(xiàn)場環(huán)境研究。
郵件聯(lián)系我們:kingfar@kingfar.net
掃一掃,關(guān)注微信電話
微信掃一掃