簡(jiǎn)要描述:ErgoVR虛擬原型同步模塊,是津發(fā)科技自主研發(fā)針對(duì)虛擬現(xiàn)實(shí)場(chǎng)景與交互設(shè)計(jì)原型的研究和測(cè)評(píng)目標(biāo)為導(dǎo)向,為用戶搭建沉浸式的虛擬現(xiàn)實(shí)交互環(huán)境、多類型的自然人機(jī)交互方式,以及三維人機(jī)交互數(shù)據(jù)與人因多模態(tài)數(shù)據(jù)的同步采集與評(píng)價(jià),涵蓋產(chǎn)品設(shè)計(jì)、制造和維修過(guò)程中的所有工藝設(shè)計(jì)仿真與驗(yàn)證,實(shí)現(xiàn)全流程的虛擬現(xiàn)實(shí)人機(jī)工效測(cè)評(píng)方案。
詳細(xì)介紹
品牌 | 津發(fā)科技 | 產(chǎn)地類別 | 國(guó)產(chǎn) |
---|---|---|---|
應(yīng)用領(lǐng)域 | 交通,汽車,綜合 |
ErgoVR虛擬原型同步模塊,是津發(fā)科技自主研發(fā)針對(duì)虛擬現(xiàn)實(shí)場(chǎng)景與交互設(shè)計(jì)原型的研究和測(cè)評(píng)目標(biāo)為導(dǎo)向,為用戶搭建沉浸式的虛擬現(xiàn)實(shí)交互環(huán)境、多類型的自然人機(jī)交互方式,以及三維人機(jī)交互數(shù)據(jù)與人因多模態(tài)數(shù)據(jù)的同步采集與評(píng)價(jià),涵蓋產(chǎn)品設(shè)計(jì)、制造和維修過(guò)程中的所有工藝設(shè)計(jì)仿真與驗(yàn)證,實(shí)現(xiàn)全流程的虛擬現(xiàn)實(shí)人機(jī)工效測(cè)評(píng)方案。
對(duì)接主流虛擬現(xiàn)實(shí)引擎,如U3D、UE4,一鍵導(dǎo)入場(chǎng)景模型,個(gè)性化綁定數(shù)據(jù)記錄目標(biāo),分模塊設(shè)置眼動(dòng)數(shù)據(jù)采集目標(biāo)物、交互數(shù)集目標(biāo)物、時(shí)空數(shù)據(jù)采集目標(biāo)物,在完整保留系統(tǒng)內(nèi)容和交互的基礎(chǔ)上,將場(chǎng)景嵌入測(cè)評(píng)系統(tǒng)。
支持自定義場(chǎng)景、設(shè)定研究目標(biāo)物體AOI、設(shè)定研究目標(biāo)區(qū)域SOI;支持自定義通道數(shù)據(jù);支持自定義分析算法等。
兼容豐富的虛擬現(xiàn)實(shí)人機(jī)交互方式,如手柄交互、雙手自然交互、眼控交互、語(yǔ)音交互、生物交互等,滿足各項(xiàng)人機(jī)交互領(lǐng)域的前沿研究。
支持任意虛擬現(xiàn)實(shí)開(kāi)發(fā)平臺(tái),可嵌入各種虛擬現(xiàn)實(shí)顯示設(shè)備。
具備人因 數(shù)據(jù)同步接口,同步采集人因多模態(tài)數(shù)據(jù),如腦電波信號(hào)、生理信號(hào)、關(guān)節(jié)動(dòng)作信號(hào)以及行為數(shù)據(jù)等。
根據(jù)研究需求自行搭建任意形式和類別的虛擬場(chǎng)景,支持對(duì)接主流虛擬現(xiàn)實(shí)開(kāi)發(fā)引擎。
允許自定義在虛擬場(chǎng)景中安裝相機(jī),多角度記錄被試操作。回放階段可輕松切換分析。
可將場(chǎng)景內(nèi)地面任意區(qū)域設(shè)定為興趣區(qū)域,分析虛擬空間內(nèi)的導(dǎo)航路徑與停留時(shí)間等信息。
可將場(chǎng)景內(nèi)任意物體為興趣物體,分析眼動(dòng)關(guān)注、情感反應(yīng)、人機(jī)交互等人因數(shù)據(jù)。
實(shí)驗(yàn)過(guò)程完整保留原始場(chǎng)景的操作完整性以及交互完整性,在不影響原始程序機(jī)制的情況下完整記錄被試在虛擬仿真場(chǎng)景中的操作;支持?jǐn)?shù)據(jù)可視化呈現(xiàn)。
廣泛的適應(yīng)性:支持面向頭戴式、CAVE式及一體機(jī)等多形態(tài)虛擬現(xiàn)實(shí)產(chǎn)品的實(shí)驗(yàn)設(shè)計(jì)。
ErgoLAB人機(jī)環(huán)境同步云平臺(tái)可人-機(jī)-環(huán)境多維度數(shù)據(jù)的同步采集與綜合分析,包括眼動(dòng)追蹤、生理測(cè)量、生物力學(xué)、腦電、腦成像、行為、人機(jī)交互、動(dòng)作姿態(tài)、面部表情、主觀評(píng) 價(jià)、時(shí)空行為、模擬器、物理環(huán)境等,為科學(xué)研究及應(yīng)用提供完整的數(shù)據(jù)指標(biāo)。平臺(tái)可完成完整的實(shí)驗(yàn)和測(cè)評(píng)流程,包括項(xiàng)目管理-試驗(yàn)設(shè)計(jì)-同步采集-信號(hào)處理-數(shù)據(jù)分析-人工智能應(yīng)用-可視化報(bào)告,支持基于云架構(gòu)技術(shù)的團(tuán)體測(cè)試和大數(shù)據(jù)云管理。
人機(jī)工程、人的失誤與系統(tǒng)安全、人機(jī)工效學(xué)、工作場(chǎng)所與工效學(xué)負(fù)荷等
從安全的角度和著眼點(diǎn),運(yùn)用人機(jī)工程學(xué)的原理和方法去解決人機(jī)結(jié)合面安全問(wèn)題
人-車-路-環(huán)境系統(tǒng)的整體研究,有助于改善駕駛系統(tǒng)設(shè)計(jì)、提高駕駛安全性、改善道路環(huán)境等
ErgoLAB可實(shí)現(xiàn)桌面端、移動(dòng)端以及VR虛擬環(huán)境中的眼動(dòng)、生理、行為等數(shù)據(jù)的采集,探索產(chǎn)品設(shè)計(jì)、人機(jī)交互對(duì)用戶體驗(yàn)的影響
研究如何通過(guò)城市規(guī)劃與建筑設(shè)計(jì)來(lái)滿足人的行為心理需求,以創(chuàng)造良好環(huán)境,提高工作效率
通過(guò)ErgoLAB采集和分析消費(fèi)者的生理、表情、行為等數(shù)據(jù),了解消費(fèi)者的認(rèn)知加工與決策行為,找到消費(fèi)者行為動(dòng)機(jī),從而產(chǎn)生恰當(dāng)?shù)臓I(yíng)銷策略使消費(fèi)者產(chǎn)生留言意向及留言行為
郵件聯(lián)系我們:sales@kingfar.cn
掃一掃,關(guān)注微信