ErgoLAB人機(jī)環(huán)境同步云平臺(tái),是基于云架構(gòu)的專業(yè)用于“以人為中心"的多模態(tài)數(shù)據(jù)同步采集和定量分析平臺(tái),是集科學(xué)化、集成化、智能化于一體的系統(tǒng)工程工具與解決方案產(chǎn)品,通過對(duì)人、機(jī)器、環(huán)境數(shù)據(jù)同步采集與綜合分析,在人工智能時(shí)代根據(jù)人-信息-物理系統(tǒng)(HCPS)理論,對(duì)人-機(jī)-環(huán)境系統(tǒng)從人-信息系統(tǒng)、人-物理系統(tǒng)以及系統(tǒng)等角度進(jìn)行人機(jī)交互評(píng)估以及人因與工效學(xué)的智能評(píng)價(jià)。
平臺(tái)以人機(jī)環(huán)境多模態(tài)數(shù)據(jù)同步技術(shù)為基礎(chǔ),突出智能化、可穿戴的特點(diǎn),采用國內(nèi)自主研發(fā)技術(shù),結(jié)合VR三維虛擬現(xiàn)實(shí)與環(huán)境模擬技術(shù)、動(dòng)作捕捉技術(shù)、人體建模與仿真技術(shù)、腦認(rèn)知神經(jīng)科學(xué)與電生理技術(shù)、視覺追蹤技術(shù)、行為分析技術(shù)、面部表情與狀態(tài)識(shí)別技術(shù)等,客觀定量化分析人機(jī)環(huán)境交互影響的關(guān)系,提升縱向研究的深度與橫向研究的外延性。平臺(tái)與許多認(rèn)知神經(jīng)科學(xué)、人因工程、 人工智能領(lǐng)域科研實(shí)驗(yàn)設(shè)備相兼容,提供了人因工程與工效學(xué)、人機(jī)交互與人工智能、心理學(xué)與認(rèn)知科學(xué)以及神經(jīng)網(wǎng)絡(luò)、機(jī)器學(xué)習(xí)等研究內(nèi)容的解決方案。
平臺(tái)從基于云端的項(xiàng)目管理、實(shí)驗(yàn)設(shè)計(jì)、數(shù)據(jù)同步采集、信號(hào)處理與分析到綜合統(tǒng)計(jì)與輸出可視化報(bào)告,涵蓋整個(gè)研究流程。對(duì)于特殊領(lǐng)域客戶可定制云端的人因大數(shù)據(jù)采集與AI狀態(tài)識(shí)別。
ErgoLAB數(shù)據(jù)與綜合統(tǒng)計(jì)分析模塊含多維度人-機(jī)-環(huán)境數(shù)據(jù)綜合分析、EEG腦電分析與可視化、眼動(dòng)分析以及可視化、行為觀察、面部表情、動(dòng)作姿態(tài)傷害評(píng)估與工效學(xué)分析、交互行為、時(shí)空行為、車輛與駕駛行為、HRV心率變異性分析、EDA/GSR皮電分析、RESP呼吸分析、EMG肌電分析、General通用信號(hào)分析,具備專門的信號(hào)處理與開放式信號(hào)處理接口,可直接導(dǎo)出可視化分析報(bào)告以及原始數(shù)據(jù),支持第三方處理與開發(fā)。
平臺(tái)通過SDK/API/TTL等廣泛的數(shù)據(jù)接口進(jìn)行第三方設(shè)備或者數(shù)據(jù)同步,同時(shí)可以直接導(dǎo)入外部數(shù)據(jù),與系統(tǒng)內(nèi)數(shù)據(jù)進(jìn)行同步分析,支持定制開發(fā)。
內(nèi)含大量豐富的技術(shù)與文獻(xiàn)資料,包括在線 說明書、功能培訓(xùn)視頻、技術(shù)、參數(shù)算法解釋、操作手冊、演示DEMO等,方便研究者能夠更快速的掌握大量實(shí)驗(yàn)技能與知識(shí)。
平臺(tái)可以進(jìn)行實(shí)驗(yàn)室研究、移動(dòng)終端研究、虛擬仿真以及真實(shí)戶外環(huán)境的研究。云實(shí)驗(yàn)設(shè)計(jì)模塊具備多時(shí)間軸、隨機(jī)化呈現(xiàn)等功能、可以創(chuàng)建復(fù)雜的實(shí)驗(yàn)設(shè)計(jì),支持任何類型的刺激材料,包括問卷、量表與范式、聲光電刺激、實(shí)時(shí)API編碼/TTL事件標(biāo)記、多媒體刺激編輯,在線網(wǎng)站和手機(jī)應(yīng)用程序,以及所有的原型設(shè)計(jì)材料,也支持與如下刺激實(shí)時(shí)同步采集:如場景攝像機(jī),軟件,游戲,VR,AR程序等。兼容第三方刺激編譯軟件,如E-prime,Superlab,Tobii Pro Lab等。
平臺(tái)采用主客觀結(jié)合多維度數(shù)據(jù)驗(yàn)證的方法,同步大腦認(rèn)知數(shù)據(jù)、視覺數(shù)據(jù)、生理信號(hào)數(shù)據(jù)、行為觀察、肢體動(dòng)作與面部表情數(shù)據(jù)、生物力學(xué)數(shù)據(jù)、人機(jī)交互數(shù)據(jù)、多類型時(shí)空行為數(shù)據(jù)采集與環(huán)境數(shù)據(jù)等。
在標(biāo)準(zhǔn)的實(shí)驗(yàn)室環(huán)境下,以桌面或移動(dòng)終端為載體呈現(xiàn)的刺激材料,包括圖片、文本、視頻、音頻、網(wǎng)頁刺激、交互程序、錄制屏幕等,可實(shí)時(shí)預(yù)覽、自由拖拽、一鍵導(dǎo)入多刺激材料。實(shí)時(shí)同步采集眼動(dòng)、腦電、近紅外腦成像以及電生理指標(biāo)等高精度多模態(tài)測量數(shù)據(jù)。
支持搭建多類型虛擬現(xiàn)實(shí)交互設(shè)備與場景,包括頭戴式虛擬現(xiàn)實(shí)系統(tǒng)、CAVE大型沉浸式虛擬現(xiàn)實(shí)交互系統(tǒng)以及多人交互系統(tǒng)等。在虛擬環(huán)境中通過模擬真實(shí)世界交互模式,可以添加視覺、聽覺、觸覺以及重力等真實(shí)感受模擬;在虛擬現(xiàn)實(shí)的環(huán)境下,實(shí)時(shí)同步采集人-機(jī)-環(huán)境數(shù)據(jù)并進(jìn)行定量化分析與評(píng)價(jià),包括人員在虛擬環(huán)境下的空間定位、交互行為、腦電、眼動(dòng)、生理、生物力學(xué)、動(dòng)作捕捉、面部表情等數(shù)據(jù)。
提供逼真道路交通仿真場景、真實(shí)感駕駛模擬座艙,精確的駕駛操縱傳感器輸出,滿足研究所需的交通場景編輯系統(tǒng),并且具備定制和升級(jí)能力,支持在各種道路交通和駕駛行為研究中實(shí)時(shí)同步采集駕駛?cè)?車輛-道路-環(huán)境的客觀、定量化數(shù)據(jù)。
平臺(tái)能夠結(jié)合光、聲、振動(dòng)、微氣候等多種環(huán)境模擬條件下,同步采集個(gè)體在模擬環(huán)境下進(jìn)行操作任務(wù)時(shí)的多模態(tài)客觀數(shù)據(jù)反應(yīng)。
平臺(tái)采用可穿戴測量技術(shù)、移動(dòng)終端采集技術(shù)以及離線采集與數(shù)據(jù)儲(chǔ)存,于真實(shí)的現(xiàn)場環(huán)境研究。