VR技術名詞解釋
HMD
HMD 是 Head Mount Display 的縮寫,也就是俗稱的頭顯,這是 VR 最核心的設備。
VR 的分類



VR 基本原理

- 處理器
計算的核心,用來生成圖像,根據陀螺儀數據計算姿態定位 等。為了防止眩暈,VR 眼鏡要求圖像刷新率達到 90Hz。這對運算速度要求很高。所以,一個 VR 眼鏡的處理器芯片性能指標至關重要。
- 顯示器
分別向左右眼睛顯示圖像。
- 凸透鏡片
如果把顯示器直接貼在人眼前,人眼是很難聚焦這么近的物體的。凸透鏡片的目的,就是通過折射光線,將顯示器上的畫面成像拉近到視網膜位置,使人的眼睛能輕松看清幾乎貼在眼前的顯示屏。
- 陀螺儀
顯示器里的景象,需要陀螺儀來檢測它是能檢測到物體在空間中的姿態/朝向 即可。
IMU
(英文 Inertial measurement unit,簡稱 IMU),是測量物體三軸姿態角及加速度的裝置。一般 IMU 包括三軸陀螺儀及三軸加速度計,某些 9 軸 IMU 還包括三軸磁力計。
- 陀螺儀能測量出 X,Y ,Z 三軸的角速度
- 加速度計能測量出三軸的加速度,無法求出水平方向的偏航角
- 磁力計就是一個指南針,正好彌補了加速度計無法測量的水平方向的偏航角的問
歐拉角

在圖片中繞 x 軸水平旋轉的是橫滾角 Roll,第二次旋轉是俯仰角 Pitch,最后的稱為偏航角 Yaw。
但是歐拉角描述剛體旋轉會遇到一個著名的萬向節鎖問題
6DOF
dof:degree of freedom,即自由度。
其中 3dof 是指有 3 個轉動角度的自由度,而 6dof 是指,除了 3 個轉動角度外,再加上 上下、前后、左右等 3 個位置相關的自由度。

自由度(DoF)

眼動追蹤
這是一些頭顯用來跟蹤用戶注視的過程。該信息可以為觀看者所觀看的內容提供更清晰、準確的信息。
視野 (FoV)
**FOV 是顯示設備邊緣與觀察點(眼睛)連線的夾角,簡單來說就是你能清晰看見畫面+余光掃到的內容。人的 FOV 一般為 200°(雙眼視覺只覆蓋 120° 左右)。

幀率 (fps)
為了防止用戶眩暈和頭痛,VR 需要保持高幀率(至少 90 fps)。
刷新率
刷新率是顯示器可以在屏幕上重繪圖像的次數。一般刷新率應該與幀率相匹配,否則顯示器顯示的圖像將與計算機單元生成的圖像不匹配。
由內而外的跟蹤(Inside-out tracking)與由外而內的跟蹤(Outside-in tracking)
- 由內而外的跟蹤(Inside-out tracking)
使用 VR 頭顯內部的傳感器追蹤。頭顯上的攝像頭將記錄真實環境中的一些固定點,并以此作為參考點記錄你的運動坐標。無需標記點的由內向外跟蹤也可以對一些移動物體進行位置跟蹤,但它缺乏足夠高的準確性。 - 由外向內跟蹤 (Outside-in tracking)
使用外部跟蹤設備(如相機或燈塔)來模擬用戶所處的“虛擬盒子”。這種技術非常準確,但無法跟蹤傳感器視線之外的任何東西。簡而言之,保證了精確性但是量程受限。
分辨率
在 VR 設備上,圖像分辨率通常會導致細節層次較低,因為渲染內容的表面看起來比平面矩形屏幕大得多,這意味著圖像被拉伸到更寬的區域。而且,對于立體視圖,每只眼睛只能看到實際分辨率的一半。例如,4K 視頻,單眼只能看到 2K 分辨率,如果要實現真正的 4K 視頻,雙眼需要都達到 4K
TW / ATW
https://www.zhihu.com/question/58295603
什么是 Timewarp。時間扭曲是把渲染好的一幀圖像顯示之前,根據場景被渲染之后頭部又旋轉角度加以矯正,得出相對當前頭部位置更正確的一幀圖像的技術,從而減少感知到的延遲。在虛擬現實上使用也可以提高幀率。
簡單來說,在一個 vr 場景中,當你轉動眼鏡時,TW 能夠預先計算出你轉動到某一個角度時應該是什么樣的畫面。
這種是只針對旋轉的時間扭曲。時間扭曲有一個比較大的好處,它是 2D 的扭曲,所以當和畸變(Distortion)結合的時候并不會消耗太多性能。和相對渲染一幀復雜的場景相比,時間扭曲只使用非常少的計算。(此處需要一個 TW 算法:原理參考 https://www.youtube.com/watch?v=WvtEXMlQQtI)
反畸變
https://zhuanlan.zhihu.com/p/100679725
大小核
目前的手機 CPU 按照核心數和架構來說,可以分為下面三類:
- 非大小核架構
- 大小核架構
- 大中小核架構
目前的大部分 CPU 都是大小核架構,當然也有一些 CPU 是大中小核架構,比如高通驍龍 855\865,也有少部分 CPU 是非大小核架構
非大小核架構
很早的機器 CPU 只有雙核心或者四核心的時候,一般只有一種核心架構,也就是說這四個核心或者兩個核心是同構的,相同的頻率,相同的功耗,一起開啟或者關閉;有些高通的中低端處理器也會使用同構的八核心處理器,比如高通驍龍 636
現在的大部分機器已經不使用非大小核的架構了
大小核架構
現在的 CPU 一般采用 8 核心,八個核心中,CPU 0-3 一般是小核心,CPU 4-7
小核心一般來說主頻低,功耗也低,使用的一般是 arm A5X 系列,比如高通驍龍 845,小核心是由四個 A55 (最高主頻 1.8GHz ) 組成
大核心一般來說最高主頻比較高,功耗相對來說也會比較高,使用的一般是 arm A7X 系列,比如高通驍龍 845,大核心就是由四個 A75(最高主頻 2.8GHz)組成
大中小核架構
部分 CPU 比較另辟蹊徑,選擇了大中小核的架構,比如高通驍龍 855 8 核 (1 個 A76 的大核+3 個 A76 的中核 + 4 個 A55 的小核)和之前的的 MTK X30 10 核 (2 個 A73 的大核 + 4 個 A53 的中核 + 4 個 A35 的小核)以及麒麟 980 8 核 (2 個 A76 的大核 + 2 個 A76 的中核 + 4 個 A55 的小核)
相比大小核架構,大中小核架構中的大核可以理解為超大核(高通稱之為 Gold +) ,這個超大核的個數一般比較少(1-2 個),主頻一般會比較高,功耗相對也會高很多,這個是用來處理一些比較繁重的任務
綁核
綁核,顧名思義就是把某個任務綁定到某個或者某些核心上,來滿足這個任務的性能需求:
任務本身負載比較高,需要在大核心上面才能滿足時間要求
任務本身不想被頻繁切換,需要綁定在某一個核心上面
任務本身不重要,對時間要求不高,可以綁定或者限制在小核心上面運行
上面是一些綁核的例子,目前 Android 中綁核操作一般是由系統來實現的,常用的有三種方法
配置 CPUset
使用 CPUset 子系統可以限制某一類的任務跑在特定的 CPU 或者 CPU 組里面,比如下面,Android 中會劃分一些默認的 CPU 組,廠商可以針對不同的 CPU 架構進行定制,目前默認劃分
system-background 一些低優先級的任務會被劃分到這里,只能跑到小核心里面
foreground 前臺進程
top-app 目前正在前臺和用戶交互的進程
background 后臺進程
foreground/boost 前臺 boost 進程,通常是用來聯動的,現在已經沒有用到了,之前的時候是應用啟動的時候,會把所有 foreground 里面的進程都遷移到這個進程組里面
每個 CPU 架構對應的 CPUset 的配置都不一樣,每個廠商也會有不同的策略在里面,比如下面就是一個 Google 官方默認的配置,各位也可以查看對應的節點來查看自己的 CPUset 組的配置
//官方默認配置
write /dev/CPUset/top-app/CPUs 0-7
write /dev/CPUset/foreground/CPUs 0-7
write /dev/CPUset/foreground/boost/CPUs 4-7
write /dev/CPUset/background/CPUs 0-7
write /dev/CPUset/system-background/CPUs 0-3
// 自己查看
adb shell cat /dev/CPUset/top-app/CPUs
0-7
對應的,可以在每個 CPUset 組的 tasks 節點下面看有哪些進程和線程是跑在這個組里面的
adb shell cat /dev/CPUset/top-app/tasks
需要注意每個任務跑在哪個組里面,是動態的,并不是一成不變的,有權限的進程就可以改
部分進程也可以在啟動的時候就配置好跑到哪個進程里面,下面是 lmkd 的啟動配置,writepid /dev/CPUset/system-background/tasks 這一句把自己安排到了 system-background 這個組里面
service lmkd /system/bin/lmkd
class core
user lmkd
group lmkd system readproc
capabilities DAC_OVERRIDE KILL IPC_LOCK SYS_NICE SYS_RESOURCE BLOCK_SUSPEND
critical
socket lmkd seqpacket 0660 system system
writepid /dev/CPUset/system-background/tasks
大部分 App 進程是根據狀態動態去變化的,在 Process 這個類中有詳細的定義
配置 affinity
使用 affinity 也可以設置任務跑在哪個核心上,其系統調用的 taskset, taskset 用來查看和設定“CPU 親和力”,其實就是查看或者配置進程和 CPU 的綁定關系,讓某進程在指定的 CPU 核上運行,即是“綁核”。
taskset 的用法
顯示進程運行的 CPU
taskset -p pid
注意,此命令返回的是十六進制的,轉換成二進制后,每一位對應一個邏輯 CPU,低位是 0 號 CPU,依次類推。如果每個位置上是 1,表示該進程綁定了該 CPU。例如,0101 就表示進程綁定在了 0 號和 3 號邏輯 CPU 上了
綁核設定
taskset -pc 3 pid 表示將進程pid綁定到第3個核上
taskset -c 3 command 表示執行 command 命令,并將 command 啟動的進程綁定到第3個核上。
Android 中也可以使用這個系統調用,把任務綁定到某個核心上運行。部分較老的內核里面不支持 CPUset,就會用 taskset 來設置
調度算法
在 Linux 的調度算法中修改調度邏輯,也可以讓指定的 task 跑在指定的核上面,部分廠家的核調度優化就是使用的這種方法
鎖頻
CPU 頻率
CPU 的工作頻率越高,運算就越快,但能耗也更高。然而很多時候,設備并不需要那么高的計算性能,這個時候,我們就希望能降低 CPU 的工作頻率,追求較低的能耗,以此實現更長的待機時間。
基于此需求,當前電子設備 的 CPU 都會存在 多個工作頻率,并能根據實際場景進行 CPU 頻率的自動切換,以此達到平衡計算性能與能耗的目的。
SoC
SOC 稱為系統級芯片,也稱片上芯片,是一個專有目標的集成電路的產品,其中包括完整系統并有嵌入軟件的全部內容。目前 SOC 更多的集成處理器(包括 CPU,GPU,DSP),存儲器,基帶,各種接口控制模塊,各種互聯總線等,其典型代表為手機芯片。
SoC(System on Chip): 稱為系統級芯片,也稱為片上系統,意指它是一個產品,是一個有專有目標的集成電路,其中包含完整系統并嵌入軟件的全部內容。
CPU = 運算器 + 控制器,現在幾乎沒有純粹的 CPU 了,都是 SoC.
DRM
DRM 是目前主流的圖形顯示框架,Linux 內核中已經有 Framebuffer 驅動用于管理顯示設備的 Framebuffer, Framebuffer 框架也可以實現 Linux 系統的顯示功能,但是缺點如下:
不支持 VSYNC
不支持 DMA-BUF
不支持異步更新
不支持 Fence 機制
不支持和 GPU 的通信
這些功能 DRM 框架都支持, 可以統一管理 GPU 和 Display 驅動,使得軟件架構更為統一,方便管理和維護。
Pipe 機制
Pipe 是 Linux 的一種系 統調用,Linux 會在內核地址空間中開辟一段共享內存,并產生一個 Pipe 對象。每個 Pipe 對象內部都 會自動創建兩個文件描述符,一個用于讀,另一個用于寫。應用程序可以調用 pipe()函數產生一個 Pipe 對象,并獲得該對象中的讀、寫文件描述符。文件描述符是全局唯一的,從而使得兩個進程之間可以借 助這兩個描述符,一個往管道中寫數據,另一個從管道中讀數據。管道只能是單向的,因此,如果兩個 進程要進行雙向消息傳遞,必須創建兩個管道。
android freeForm
Android N 引入了 Multi-Window, Freeform 自由窗口模式是其中的一種。自由窗口模式下可以實現窗口的可以自由縮放,自由移動。
要支持 Freeform 自由窗口模式,主要有如下一些邏輯支持:
- 定義特有的 freeform stack,所有的 freeform 模式的 Activity 會在特定的 Freeform stack 啟動。
- 為 Freeform 窗口添加特殊的 layout, 用于控制窗口最大化,關閉以及拖動等功能。
- 為 Freeform 提供一個控制窗口初始化位置和大小的類
- 為 Freeform 提供可以控制窗口移動和縮放處理的類
BSP
bsp 是板級支持包,并不是特定某個文件,而是從功能上理解的一種硬件適配軟件包,它的核心就是:
- linux 驅動
- linux BSP (CPU,電源管理比驅動更深入的硬件支持包)
- Android HAL 層
HLSL
高級著色器語言
MTP
Motion To Photons
MTP 時延是指從頭動到顯示出相應畫面的時間。MTP 時延太大容易引起眩暈,目前公認的是 MTP 時延低于 20ms 就能大幅減少暈動癥的發生
分辨率
分辨率(resolution)就是屏幕圖像的精密度,是指顯示器所能顯示的像素的多少。由于屏幕上的點、線和面都是由像素組成的,顯示器可顯示的像素越多,畫面就越精細,同樣的屏幕區域內能顯示的信息也越多,所以分辨率是個非常重要的性能指標之一。可以把整個圖像想象成是一個大型的棋盤,而分辨率的表示方式就是所有經線和緯線交叉點的數目。
分類
分辨率可以從顯示分辨率和圖像分辨率兩個方向分類。
顯示分辨率就是屏幕上顯示的像素個數,分辨率 160×128 的意思是水平方向含有像素數為 160 個,垂直方向像素數 128 個。以分辨率為 1024×768 的屏幕來說,即每一條水平線上包含有 1024 個像素點,共有 768 條線,即掃描列數為 1024 列,行數為 768 行。屏幕尺寸一樣的情況下,分辨率越高,顯示效果就越精細和細膩。
圖像分辨率則是單位英寸中所包含的像素點數,其定義更趨近于分辨率本身的定義。
特點
高分辨率是保證彩色顯示器清晰度的重要前提。顯示器的點距是高分辨率的基礎之一,大屏幕彩色顯示器的點距一般為 0.28,0.26,0.25。高分辨率的另一方面是指顯示器在水平和垂直顯示方面能夠達到的最大像素點,一般有 320×240,640×480,1024×768,1280×1024 等幾種,好的大屏幕彩色顯示器通常能夠達到 1600×1280 的分辨率。較高的分辨率不僅意味著較高的清晰度,也意味著在同樣的顯示區域內能夠顯示更多的內容。比如在 640×480 分辨率下只能顯示一頁內容,在 1600×1280 分辨率下則能同時顯示兩頁。
單位
描述分辨率的單位有:(dpi 點每英寸)、lpi(線每英寸)和 ppi(像素每英寸)。但只有 lpi 是描述光學分辨率的尺度的。雖然 dpi 和 ppi 也屬于分辨率范疇內的單位,但是他們的含義與 lpi 不同。而且 lpi 與 dpi 無法換算,只能憑經驗估算
刷新率
刷新率是指電子束對屏幕上的圖像重復掃描的次數。刷新率越高,所顯示的圖象(畫面)穩定性就越好。刷新率高低將直接決定其價格,但是由于刷新率與分辨率兩者相互制約,因此只有在高分辨率下達到高刷新率這樣的顯示器才能稱其為性能優秀。注意,雖然它的計算單位與垂直掃描頻率都是 Hz,但這是兩個截然不同的概念。75Hz 的畫面刷新率是 VESA 規定的最基本標準,這里的 75Hz 應是所有顯示模式下的都能達到的標準。
影響因素
硬件
影響刷新率最主要的因素就是顯示器的帶寬,現在一般 17 寸的彩顯帶寬在 100 左右,完全能上 85Hz,屏幕越大,帶寬越大,19 寸的在 200 左右,21 寸的在 300 左右,同品牌同尺寸的彩顯,帶寬越高,價格越貴。其次影響刷新率的還有顯卡,顯卡也有可用的刷新率和分辨率,但是就刷新率來說,這點現在完全可以忽略不計,因為這主要針對老一代的顯卡,現在哪怕古董級的 TNT2 顯卡,也能支持 1024x768 分辨率下達到 85Hz 的效果,1024x768 是 17 寸 CRT 顯示器的標準分辨率。所以,影響刷新率最主要的還是顯示器的帶寬。
軟件
影響刷新率最大的是屏幕的分辨率,舉個例子,同樣是 17 寸彩顯,帶寬 108,將分辨率調至 1024x768,最高能達到 85Hz,調高至 1280x1024,最高只能達到 70Hz,調低至 800*600,卻能達到 100Hz。分辨率越高,在帶寬不變的情況下,刷新率就越低,要想保持高刷新率,只有采用高的帶寬,所以大屏幕顯示器的帶寬都很高。
行頻
行頻是指為像管中的電子槍每秒在屏幕上從左到右掃描的次數,單位是 Hz,場頻是指每秒鐘重復繪制顯示畫面的次數,單位是 Hz,行頻和場頻是一臺顯示器的基本的電器性能。
帶寬
帶寬代表的是顯示器的一個綜合指標,也是衡量一臺顯示器好壞的重要指標。帶寬是指每秒鐘所掃描的圖像個數,也就是說在單位時間內,每條掃描線上顯示的頻點數的總和,單位是 Hz,帶寬大小是有一定的計算方法的,大家在選擇一款顯示器時,就可以根據一些參數計算帶寬,或者根據帶寬來計算一些參數。當顯示器的刷新率提高一點的話,它的帶寬就會要提高很多。
刷新率和幀數的關系和區別
幀數,就是畫面改變的速度,只要顯卡夠強,幀數就能很高,只要幀數高畫面就流暢。理論上,每一幀都是不同的畫面。60fps 就是每秒鐘顯卡生成 60 張畫面圖片。幀數 FPS 是由顯卡所決定的。
刷新率,顧名思義,就是顯卡將顯示信號輸出刷新的速度。60 赫茲(hertz)就是每秒鐘顯卡向顯示器輸出 60 次信號。刷新率是由顯示器決定的。
假設幀數是刷新率的 1/2,那么意思就是顯卡每兩次向顯示器輸出的畫面是用一幅畫面。相反,如果幀數是刷新率的 2 倍,那么畫面每改變兩次,其中只有 1 次是被顯卡發送并在顯示器上顯示的。
所以高于刷新率的幀數都是無效幀數,對畫面效果沒有任何提升,反而可能導致畫面異常。所以許多游戲都有垂直同步選項,打開垂直同步就是強制游戲幀數最大不超過刷新率。
在沒有垂直同步的情況下,幀數可以無限高,但刷新率會受到顯示器的硬件限制。所以你可以在 60 赫茲的顯示器上看到 200 多幀的畫面,但是這是 200 幀的畫面流暢程度其實和 60 幀是一樣的,其余 140 幀全是無效幀數,這 140 幀的顯示信號根本沒有被顯卡輸出到顯示器。
由于傳統 CRT 的顯示原理,畫面每刷新一次,顯示器會變暗再亮,所以刷新率過低,會覺得屏幕在閃。但 LCD 的工作原理不同,畫面刷新率過低不會導致屏幕閃爍。而幀數無論何時,越低畫面越卡,有效幀數越高,畫面越流暢。
通常 60fps 以上的情況下,人眼無法識別出區別,而大多數 LCD 刷新率都在 60 赫茲以上,所以 LCD 也不像 CRT 那樣強調刷新率。但是最新的 3D 顯示效果需要 LCD 支持 120 赫茲以上的刷新率,因為是雙畫面同時輸出的,120 赫茲也只同等于普通的 60 赫茲刷新率。
所以刷新率的高低決定了有效幀數的多少。
延遲
由于數據傳輸、圖形計算等因素的影響,導致用戶接收到的圖片或文字產品拖延的現象稱之為延遲。在虛擬現實中,延遲可導致用戶產生眩暈感,影響虛擬現實設備的使用效果。
在虛擬現實系統中,用戶需要通過頭戴顯示器(虛擬現實設備)感受虛擬世界。虛擬現實設備可以將用戶與周圍的現實環境隔離開,使用戶產生強烈的沉浸感。在使用虛擬現實設備時,為了實時更新所要顯示的虛擬環境,必須使用位置跟蹤器跟著用戶的頭部運動。在理想的條件下,虛擬現實設備響應用戶頭部運動及更新顯示內容的時間應該為零。但是由于數據傳輸、圖形計算等因素的影響,會導致一定的時間延遲,導致用戶在體驗虛擬現實設備時產生眩暈感。
延遲產生的原因
(1) 位置跟蹤系統造成的。位置跟蹤器通過六自由讀書決定用戶頭部的位置和朝向。這些數據用于計算用戶在虛擬環境中的視點,從而實時更新虛擬現實設備所現實的虛擬場景。位置跟蹤器需要一定的時間來采集和處理這些數據,必然就會出現一定的延遲情況發生。
(2) 應用系統造成的。應用系統造成的延遲包括接受和處理各種外部輸入數據(如處理數據手套傳感器數據)、仿真過程執行時間(如各種碰撞檢測等)。
(3) 生成圖像造成的延遲。虛擬現實系統需要生成虛擬現實左眼和右眼的圖像。在基于虛擬現實設備的虛擬現實系統中,生成什么樣的圖像由頭部位置跟蹤數據和具體的仿真應用共同決定。由于虛擬現實應用系統圖像計算復雜,就會導致延遲。
(4) 顯示圖像造成的延遲。生成的圖像需要再虛擬現實設備中顯示,就會由此造成一定的延遲。
延遲的解決辦法
由于不同的硬件配置和應用系統,造成延遲的時間有幾毫秒到幾十毫秒不等。而延遲會造成圖像不穩定,使用戶感到惡心,頭暈等,嚴重影響了虛擬現實系統的沉浸感,所以必須要借助一定的技術手段預測延遲時間的長短,消除由延遲造成的影響,比如 ATW 來減少視覺上的延遲,修改系統的圖形系統通過 singleBuffer 減少合成延遲
目前虛擬現實頭盔普遍的延遲時間是多少
目前虛擬現實的延遲參數普遍為 40 毫秒,Oculus DK2 的延遲參數為 25 毫秒已經讓用戶的虛擬現實體驗大為提升。
暈動癥
眩暈感最基本的問題就是“視錯癥”(motion-sickness problem)本質上和暈車暈船暈機沒有什么區別,當人眼前所接受的視覺信號與前庭平衡器官所接受的運動信號不匹配就會引發眩暈和惡心的癥狀。VR 的頭戴眼鏡的視覺反應跟不上頭部速度,就會產生嚴重的眩暈。也就是說當你的大腦從視覺系統接收到運動的景象時,會默認是因為你的身體運動造成的。這樣會指揮你的手腳進行相應的運動。然后小腦放射特定的生物信號來在運動中保持平衡,如果傳遞的信號不一樣就會發生紊亂。舉個例子,當你坐在車里或船上的時候,你接受到的視覺信號其實是一直運動的,但是你的身體一直沒動。大腦并沒有支配手腳運動,沒有反射電流回饋到小腦。但小腦接收到視覺信號是動的。動了就要保持平衡啊。所以這家伙就給大腦回饋錯誤的平衡信息。大腦一聽,不干啊,我是大腦,你是小腦,比我小一級,我還能聽你的,所以,就拒絕。然后身體其他器官就紊亂了。因為管事的意見不合啊。這就是為什么人會暈船,暈車。 但是并不是所有人都這樣,只有一本分人小腦和大腦老鬧意見。 所以有人就不暈車。
產生眩暈原因
設備原因
顯示屏屏顯不夠,目前最好的屏顯就是 GearVR,因為是 2K 屏,Oculus 和 3Glasses 是 1K,所以三星的眩暈感就比 Oculus 和 3Glasses 低。
2.作為沉浸式頭盔,你接受到的信息非常的真實,但你實際上是不動的,所以你暈。
- 現在的頭盔延遲都沒達到理想的標準,也就是 turn around tracking ,據我所知目前做的最好的是 OCULUS, 大概 25ms, Sumsung gearvr, VRONE, 3 Glasses,以及一些國外其他頭盔大概在 28ms。
4.在 3D 場景中你沒有參照物,運動時足部沒有力反饋,所以你暈,如果配相關的力反饋手套,跑步機應該會降低眩暈程度。
游戲內容原因
- 大部分內容都是從 PC 上直接移植過來,所有的 UI 界面,玩法并不適合 VR 設備。操作變扭。且場景視角轉換不合理。
- 游戲光線色調,太過強烈或昏暗。因為以前是在屏幕上距離眼睛遠,所以問題不凸顯,但是現在在頭顯上問題就很明顯了。
- 視角和內容不合理,打個比方,現實中你一直低頭看樓梯,不停的爬,你也暈。所以內容設計上要避免這種情況。還有視角變換太快,或者抖動,人體不舒服。比方說,我要是在頭盔玩 EVE,RUSH,就沒有 TF2(軍團要塞,FPS)暈。
- 場景不符合 VR 設備的圖形畸變算法,看起來難受。所以你暈。
VR 眼鏡目前普遍使用的是 5 寸 1080P 屏幕作為顯示器,雖然以手機的標準來講這個屏幕的 DPI 已經夠高了,但是 VR 眼鏡會讓人眼離屏幕更近,所以需要 DPI 更高。減少紗窗效應就需要更高的 DPI,更高的 DPI 就意味著需要更高的分辨率。
解決眩暈這個問題,就需要在 VR 眼鏡的顯示刷新率和頭動跟蹤能力上費大力氣進行技術開發,以及相應的在內容上進行針對性的優化。
虛擬現實眩暈解決方法
硬件解決
- 用 2K 屏,4K 屏,或者用雙屏及 OLED 柔性屏,全面提升屏顯、刷新頻率、延遲顯示等
- 提升陀螺儀‘傳感器的精確度
- 加強數據傳遞速度
內容解決
- 重新設計 UI 界面符合 VR 操作
- 提升圖像畸變算法,符合 VR 視角
- 對玩法、操作進行修正
- 對貼圖、渲染、建模技術進行修正
幀數
幀數就是在 1 秒鐘時間里傳輸的圖片的量,也可以理解為圖形處理器每秒鐘能夠刷新幾次,通常用 fps(Frames Per Second)表示。每一幀都是靜止的圖象,快速連續地顯示幀便形成了運動的假象。高的幀率可以得到更流暢、更逼真的動畫。幀數 (fps) 越高,所顯示的動作就會越流暢。 但是文件大小會變大。
人眼視覺殘留
說法 1
是因為人眼的視覺殘留特性:是光對視網膜所產生的視覺在光停止作用后,仍保留一段時間的現象,其具體應用是電影的拍攝和放映。原因是由視神經元的反應速度造成的。其時值是二十四分之一秒。是動畫、電影等視覺媒體形成和傳播的根據。
說法 2
當物體在快速運動時, 當人眼所看到的影像消失后,人眼仍能繼續保留其影像 1/24 秒左右的圖像,這種現象被稱為視覺暫留現象。是人眼具有的一種性質。人眼觀看物體時,成像于視網膜上,并由視神經輸入人腦,感覺到物體的像。但當物體移去時,視神經對物體的印象不會立即消失,而要延續 1/24 秒左右的時間,人眼的這種性質被稱為 “眼睛的視覺暫留”。
錄制視頻
對于手機來說,因為涉及機器處理圖片能力和存儲能力的影響,大多數手機的視頻拍攝能力無論是 720P 還是 1080P 都只有 30 幀一秒。
但是隨著手機的硬件不斷刷新,現在市面上也出現很多能夠高速錄像的手機,例如:
iPhone 6s 在使用 4k 格式拍攝下,甚至可以使用 135 幀每秒的超高速拍攝功能。
Find5 也因其高強的硬件,在通過降低到 480P 之后甚至可以錄制 120 幀每秒的視頻。
當然,其實在手機上使用的高速錄像并不成熟,因為受限于硬件和儲存設備寫入速度等等,拍攝效果總是不夠理想。不過這是個好的開始,起碼廠商開始重視人們對高速錄像的需求,雖然這個需求量不是很大,但起碼有……
你們可能以為高速錄像除了讓視頻看上去更順暢之外就沒有作用了。其實現在我們看到很多的慢速播放視頻都是由高速錄像拍攝下來,然后再通過軟件調慢幀數播放,就能表現出慢動作視頻了。
上面 XDA 科技說過“肉眼在看超過 24 幀每秒的靜態圖片就會認為是連續動態視頻”,所以你能拍攝到 60 幀每秒的視頻,然后通過軟件把每秒幀數調節到 24 幀左右,那么你在一秒鐘內拍攝到的圖像就能通過慢速播放成兩秒鐘,而且是連續的、不會卡頓的。如果你能拍攝 90 幀每秒的視頻,那么你起碼能把一秒鐘拖慢到三秒的慢動作播放,以此類推。高速錄像能拍攝到很多我們容易忽略的細節和精采的瞬間,通過慢動作播放視頻,也會讓視頻更好玩有趣,這就是為什么越來越多廠商開始注重高速錄像這個功能的原因。
VR 游戲建議幀數為 90 幀,60FPS 對于 VR 設備來說是遠遠不夠的,因為這個幀數根本無法得到良好的 VR 體驗。運行 VR 最好是 120FPS,最低也得 90FPS。
焦距
焦距,是光學系統中衡量光的聚集或發散的度量方式,指平行 光入射時從透鏡光心到光聚集之焦點的距離。亦是照相機中,從鏡片中心到底片或 CCD 等成像平面的距離。具有短焦距的光學系統比長焦距的光學系統有更佳聚集 光的能力。簡單的說焦距是焦點到面鏡的中心點之間的距離。

為什么要調整焦距
調整焦距其實和調整物距是一樣的道理,只不過調整焦距還可以讓戴眼鏡的人士更加方便佩戴虛擬現實頭盔。
物距、焦距和瞳距的調整:
目前大多數虛擬現實設備都可以調整瞳距和物距、焦距,調節方法目前也分為物理調整和軟件調整。比如市面上目前能見到的 Oculus Rift DK2 內置轉輪讓你調整焦距的,而三星的 Gear VR 這款頭盔是調節物距,這倆可以使得虛擬環境在你眼前變得盡可能清晰。Oculus Rift 包含兩副分開的鏡頭:一副是面向普通用戶或輕度近視的用戶,另一副面向近視較深的用戶。
物距
在物理學中,物距就是指物體到透鏡光心的距離。用英文字母 u 表示。對于透鏡而言,通過光心且與光軸垂直的平面,即是物方主平面也是像方主平面重合。物距與像距存在共軛關系,物距越遠,像距越近;相反,物距越近, 像距越遠。在進行光學計算時,嚴格地講,物距應為被攝體平面與鏡頭前主面間的距離。
為什么要調整物距
調整物距可以讓玩家在 VR 眼鏡上看的虛擬環境在你眼前變得盡可能清晰,根據每個人的視力不同來進行調節,它是讓屏幕與透鏡直接產生距離。
物距、焦距和瞳距的調整
目前大多數虛擬現實設備都可以調整瞳距和物距、焦距,調節方法目前也分為物理調整和軟件調整。比如市面上目前能見到的 Oculus Rift DK2 內置轉輪讓你調整焦距的,而三星的 Gear VR 這款頭盔是調節物距,這倆可以使得虛擬環境在你眼前變得盡可能清晰。Oculus Rift 包含兩副分開的鏡頭:一副是面向普通用戶或輕度近視的用戶,另一副面向近視較深的用戶。
瞳距
瞳距就是瞳孔的距離,正常人的雙眼注視同一物體,物體分別在兩眼視網膜處成像,并在大腦視中樞重疊起來,成為一個完整的、具有立體感的單一物體,這個功能叫雙眼單視。但是,嬰幼兒在雙眼單視形成過程中,很容易受外界因素影響,致使一眼注視目標,另一眼偏斜而不能往同一目標上看,于是就產生了斜視。醫學上將眼球注視物體時向內側斜視,稱為內斜,也就是人們俗稱的“斗雞眼”。
配戴眼鏡時需要測量瞳距,瞳距分為:遠用瞳距,近用瞳距,常用瞳距。測定時,是按一定的距離測出這三種瞳距的。
對于近視眼或者遠視眼患者,配眼鏡時,需要考慮這個參數。即兩塊鏡片中心的距離(光學中心距離)應當與患者的瞳距相配合,否則,即使度數正確,患者戴上眼鏡后也會有不適的感覺,并且影響視力。
色差
色差(Chromatic aberration;chromatic aberration): 色差又稱色像差,是透鏡成像的一個嚴重缺陷,色差簡單來說就是顏色的差別,發生在以多色光為光源的情況下,單色光不產生色差。
CA(Chromatic Aberration)即色差,CA(Area)值用來衡量圖像的色差水平,這個值越低說明品質越好。 0-0.5:可以忽略,肉眼難以辨認出; 0.5-1.0:很低,只有受過長期專業訓練的人才能勉強發現;1.0-1.5:中等,高倍率輸出時時??吹?,中等鏡頭的表現;大于 1.5:嚴重,高倍率輸出時非常明顯,鏡頭表現糟糕。
色差分類
(一)不同波長的光將以不同的程度色散。白光被色散為紫外波段、可見波段和紅外波段范圍的各種波長的光,通過透鏡時所成的像便帶有彩色邊緣,即為色差。光學系統的實際成像與理想成像的差別,統稱為像差。色差是像差中的一種,是因透射材料的透射率隨波長不同而不同造成的,故只有對多色光才顯現出來。用不同的玻璃材料制成的凹凸鏡組合可以消除色差。
(二)定量表示的色知覺差異。從明度、色調和彩度這三種顏色屬性的差異來表示。明度差表示深淺的差異,色調差表示色相的差異(即偏紅或偏藍等),彩度差表示鮮艷度的差異。色差的評定在工業和商業中非常重要,主要應用于生產中的配色和產品的顏色質量控制。現代色差評定根據國際照明協會(CIE)推薦的標準色差公式并采用儀器和電腦測量計算,用精確的數字來表示。
(三)染同一顏色的革,其批與批之間出現顏色不一致,或者同一轉鼓、同一次染色的革出現幾種顏色差別的現象稱為色差。特別是絨面革更易出現色差??芍竿粡埰じ锊煌课坏纳珴刹顒e,也可指同一批加工皮革之間存在的顏色差異,還可指原定染同一顏色之不同批次皮革間的顏色差別。
PPI
Pixels Per Inch 所表示的是每英寸所擁有的像素(Pixel)數目。因此 PPI 數值越高,即代表顯示屏能夠以越高的密度顯示圖像。當然,顯示的密度越高,擬真度就越高。
Pixels Per Inch 是圖像分辨率的單位,圖像 PPI 值越高,畫面的細節就會越豐富,因為單位面積的像素數量更多,所以數碼相機拍出來的圖片因品牌或生產時間不同可能 有所不同,常見的有 72PPI,180PPI 和 300PPI,默認出來就是這么多(A710 拍出的是 180PPI)。 DPI(Dots Per Inch)是指輸出分辨,針對于輸出設備而言的,一般的激光打印機的輸出分辨率是 300DPI-600DPI,印刷的照排機達到 1200DPI-2400DPI,常見的沖印一般在 150DPI 到 300DPI 之間。
畸變
畸變指畸形地變化。在虛擬現實里指圖像在最大化的覆蓋人的視覺范圍時有沒有扭曲。
在虛擬現實系統中是指虛擬現實設備鏡片畸變。為了讓用戶在視覺上擁有真實的沉浸感,虛擬現實設備就要盡可能的覆蓋人眼的視覺范圍,因此就需要在虛擬現實設備裝一個特定的球面弧度鏡片,但是利用弧形鏡片將傳統的圖像投射到人的眼中時,圖像是扭曲的,人眼就沒有辦法獲得虛擬空間中的定位,即在虛擬現實中你的周邊都是哈哈鏡的空間,四周都是扭曲的圖像。要解決這個問題,就要先扭轉圖像,通過特定的算法生成畸變鏡片對應的畸變圖像,然后這些畸變圖像在經過畸變鏡片投射到人眼之后,就會變成正常的圖像,從而讓人感覺到真實的位置投射以及大視角范圍的覆蓋。

視場角
視場角, 英文 field of view,簡稱 FOV。在顯示系統中,視場角就是顯示器邊緣與觀察點(眼睛)連線的夾角。

渲染
渲染(Render)在電腦繪圖中是指:用軟件從模型生成圖像的過程。模型是用嚴格定義的語言或者數據結構對于三維物體的描述,它包括幾何、視點、紋理以及照明信息。圖像是數字圖像或者位圖圖像。渲染這個術語類似于“藝術家對于場景的渲染”。另外渲染也用于描述:計算視頻編輯文件中的效果,以生成最終視頻輸出的過程。
OLED
有機發光二極管又稱為有機電激光顯示(Organic Light-Emitting Diode,OLED),OLED 顯示技術具有自發光的特性,采用非常薄的有機材料涂層和玻璃基板,當有電流通過時,這些有機材料就會發光。
Micro LED

Micro-LED,顧名思義,就是特別小的 LED。又稱微型發光二極管,是指高密度集成的 LED 陣列,陣列中的 LED 像素點距離在 10 微米量級,每一個 LED 像素都能自發光。
余暉效應
視覺暫留現象(Visual staying phenomenon,duration of vision)又稱“余暉效應”。人眼在觀察景物時,光信號傳入大腦神經,需經過一段短暫的時間,光的作用結束后,視覺形象并不立即消失,這種殘留的視覺稱“后像”,視覺的這一現象則被稱為“視覺暫留”。
深度技術
力反饋
所謂力反饋(Force Feedback),本來是應用于軍事上的一種虛擬現實技術,它利用機械表現出的反作用力,將游戲數據通過力反饋設備表現出來,可以讓用戶身臨其境地體驗游戲中的各種效果。
Sdk
軟件開發工具包(外語首字母縮寫:SDK、外語全稱:Software Development Kit)一般都是一些軟件工程師為特定的軟件包、軟件框架、硬件平臺、操作系統等建立應用軟件時的開發工具的集合。
ATW
異步時間扭曲(Asynchronous Timewarp 簡稱 ATW)是一種生成中間幀的技術,當游戲不能保持足夠幀率的時候,ATW 能產生中間幀,從而有效減少游戲畫面的抖動。
實現 ATW 是有挑戰性的,主要有兩個原因:
1: 它需要 GPU 硬件支持合理的搶占粒度。
2: 它要求操作系統和驅動程序支持使 GPU 搶占。
讓我們從搶占粒度開始,在 90 赫茲,幀之間的間隔大約是 11ms(1/90),這意味著為了使 ATW 有機生成一幀,它必須能夠搶占渲染線程并且運行 時間少于 11ms,然而 11ms 實際上不夠好,如果 ATW 在一幀時間區間內任意隨機點開始運行,那么起潛伏期(執行和幀掃描之間的時間)也將隨機, 我們 需要確保我們不跳躍任何游戲渲染的幀。
我們真的期望 ATW 運行一直非常的短,短到在視頻卡產生新的一幀之前結束,剛好有足夠的時間來完成中間幀的生成,缺少自定義的同步 ATW 中斷例程,我們可以獲得高優先級搶占粒度和調度, 在最長 2ms 或更少的時間內。
原來,對現在的圖形卡和驅動實現來說,2ms 搶占是一個艱巨的任務,雖然許多 GPU 支持有限的形式的搶占,但執行存在顯著差異。
1: 一些顯卡實現廠商和驅動程序允許搶占任一批處理或回執調用粒度,雖然有幫助,但不是十分完美(舉一個極端的例子,一個復雜的并包含很多繪制指令著色器可以很容易在 10ms 完成)。
2: 其他顯卡實現廠商和驅動程序允許搶占計算著色器, 但需要特定擴展來支持。
如果搶占操作不是很快,則 ATW 將無法搶在畫面同步之前生成中間幀。 這樣,最后一幀將會再顯示,將導致抖動,這意味著一個正確的實現應該能夠搶占和恢復任意渲染操作,和管線狀態。 理論上講,甚至三角搶占(triangle-granularity) 不夠好,因為我們不知道一個復雜著色器執行將花多長時間。 我們正與 GPU 制造商來實現更好的搶占,但是在這之前確實要因為這個問題花費一定時間。
另外一方面是操作系統對搶占的支持,在 Windows8 之前,Windiows 顯示驅動模型(WDDM)支持使用“批處理隊列”粒度的有限搶占,對于內奸的圖形驅動程序,很不幸,圖形驅動程序趨向于大批量渲染效率, 導致支持 ATW 太粗糙。
對于 Windows8,改善了 WDDM1.2 支持更細的搶占粒度,然而,這些搶占模式不被圖形驅動程序普遍支持,渲染管線將在 Windows 10 或 DirectX12 中得到顯著提升。 這為開發人員提供了較低級別的渲染控制,這是一個好消息, 但直到 Windows10 變 為主流之前,我們還是沒有標準的方式來支持渲染搶占, 造成的結果是,ATW 需要特定顯卡驅動的擴展。
ATW 是有用的,但不是萬能的。
一旦我們普遍實現了 GPU 渲染管線管理和任務搶占, ATW 可能成為另一種工具來幫助開發人員提高性能和減少虛擬現實的抖動, 然而,由于我們這里 列出的挑戰的問題,ATW 不是萬能的, VR 的應用本身最好是維持較高的幀率,以提供最好的渲染質量。 最壞的情況,ATW 生成的中間幀也可以導致用戶有 不舒服的感受,換句話說,ATW 無法根本解決這種不舒服。
根據生成中間幀的復雜性來說, ATW 很顯然表明, 甚至是位置時間扭曲, ATW 不會成為一個完美的通用的解決方案,這意味著只有方向 ATW 和位 置 ATW 還算是可以的, 填充幀時偶爾會有跳躍。 為了產生一個舒適,令人信服的虛擬現實,開發人員仍然需要保持幀率在 90 赫茲。
試圖支持傳統顯示器和 VR 雙模式將會面臨很大性能困難,這種巨大的性能要求是對引擎的伸縮性的考驗,對于開發人員遇到的這種情況, ATW 可能看起來很有吸引力, 如果達到 90 赫茲的頻率,將使 VR 具有很好的舒適性,這是 VR 存在的真正魅力。
虛擬全景
虛擬全景又稱三維全景虛擬現實(也稱實景虛擬)是基于全景圖像的真實場景虛擬現實技術。全景(英文名稱是 Panorama)是把相機環 360 度拍攝的一組或多組照片拼接成一個全景圖像,通過計算機技術實現全方位互動式觀看的真實場景還原展示方式。
全息投影
全息投影技術一般指全息投影。全息投影技術(front-projected holographic display)也稱虛擬成像技術是利用干涉和衍射原理記錄并再現物體真實的三維圖像的技術。全息投影技術不僅可以產生立體的空中幻像,還可以使幻像與表演者產生互動,一起完成表演,產生令人震撼的演出效果。適用范圍產品展覽、汽車服裝發布會、舞臺節目、互動、酒吧娛樂、場所互動投影等。
立體顯示
立體顯示是虛擬現實的一個實現方式。立體顯示主要有以下幾種方式:雙色眼鏡、主動立體顯示、被動同步的立體投影設備、立體顯示器、真三維立體顯示、其它更高級的設備。
眼球追蹤
眼球追蹤是一項科學應用技術,用戶無需觸摸屏幕即可翻動頁面。從原理上看,眼球追蹤主要是研究眼球運動信息的獲取、建模和模擬,用途頗廣。而獲取眼球運動信息的設備除了紅外設備之外,還可以是圖像采集設備,甚至一般電腦或手機上的攝像頭,其在軟件的支持下也可以實現眼球跟蹤。
人機交互
人機交互技術(Human-Computer Interaction Techniques)是指通過計算機輸入、輸出設備,以有效的方式實現人與計算機對話的技術。
動作捕捉
動作捕捉,英文 Motion capture,簡稱 Mocap。簡單來說就是把人物動作數字化,把數字化動作應用到不同行業,比如拍電影,做動畫,做游戲”。
動作捕捉技術涉及尺寸測量、物理空間里物體的定位及方位測定等方面可以由計算機直接理領域。解處理的數據。在運動物體的關鍵部位設置跟蹤器,由 Motion capture 系統捕捉跟蹤器位置,再經過計算機處理后得到三維空間坐標的數據。當數據被計算機識別后,可以應用在動畫制作,步態分析,生物力學,人機工程等。
可視化
可視化(Visualization)是利用計算機圖形學和圖像處理技術,將數據轉換成圖形或圖像在屏幕上顯示出來,并進行交互處理的理論、方法和技術。它涉及到計算機圖形學、圖像處理、計算機視覺、計算機輔助設計等多個領域,成為研究數據表示、數據處理、決策分析等一系列問題的綜合技術。
虛擬現實引擎
游戲引擎
游戲引擎是指一些已編寫好的可編輯電腦游戲系統或者一些交互式實時圖像應用程序的核心組件。這些系統為游戲設計者提供各種編寫游戲所需的各種工具,其目的在于讓游戲設計者能容易和快速地做出游戲程式而不用由零開始。大部分都支持多種操作平臺,如 Linux、Mac OS X、微軟 Windows。
游戲引擎是一個游戲的重要核心,它既是建立游戲的基礎,也是控制游戲每一個細節的指揮官,不論是游戲場景中的一個不起眼亮點,還是氣勢宏偉的場景視覺特效。不同的游戲引擎所能實現的功能也不盡相同,而且用不同的引擎所制作出來的游戲對于運行的系統平臺性能需求也有較大的差異。
Unity
Unity 是由 Unity Technologies 開發的一個讓玩家輕松創建諸如三維視頻游戲、建筑可視化、實時三維動畫等類型互動內容的綜合型游戲開發創作工具。Unity(游戲引擎)一般指 Unity3D。
Unity 是由 Unity Technologies 開發的一個讓玩家輕松創建諸如三維視頻游戲、建筑可視化、實時三維動畫等類型互動內容的綜合型游戲開發創作工具,是一個全面整合的專業游戲引擎。Unity 類似于 Director,Blender,Virtools 或 Torque Game Builder 等利用交互的圖型化開發環境為首要方式的軟件其編輯器運行在 Windows 和 Mac OS X 下,可發布游戲至 Windows、Mac、Wii、iPhone、Windows phone 8 和 Android 平臺。也可以利用 Unity web player 插件發布網頁游戲,支持 Mac 和 Windows 的網頁瀏覽。它的網頁播放器也被 Mac widgets 所支持。Unity 分成 Free 與 Pro 版。Free 版提供試用 30 天 Pro 版的功能。
Unreal
Unreal:UNREAL ENGINE 的簡寫,是目前世界最知名授權最廣的頂尖游戲引擎,占有全球商用游戲引擎 80%的市場份額。
Source
Source 引擎是由 Valve 電子軟件公司開發的 3D 繪圖引擎,開發時是為了使用它制作半條命 2,其中與用了大量的 3D 設置,并且對其他的游戲開發者開放授權。這個引擎提供關于渲染、聲效、動畫、消鋸齒、界面、美工創意和物理模擬方面的支持。
Virtools
Virtools 是一套整合軟件,可以將現有常用的檔案格式整合在一起,如 3D 的模型、2D 圖形或是音效等。Virtools 是一套具備豐富的互動行為模塊的實時 3D 環境虛擬實境編輯軟件,可以讓沒有程序基礎的美術人員利用內置的行為模塊快速制作出許多不同用途的 3D 產品,如網際網絡、計算機游戲、多媒體、建筑設計、交互式電視、教育訓練、仿真與產品展示等 。
Unigine
該引擎包含了逼真的三維渲染,強大的物理模塊,對象具有非常豐富的圖書館導向的腳本系統,全功能的 GUI 模塊,聲音子系統,以及靈活的工具。高效率和良好架構的框架,支持多核系統,使 Unigine 具有一個高度可擴展的解決方案,對其中的多平臺類型游戲的影響頗多。
Converse3D
Converse3D 虛擬現實引擎是由北京中天灝景網絡科技有限公司自主研發的具有完全知識產權的一款三維虛擬現實平臺軟件,可廣泛的應用于視景仿真、城市規劃、室內設計、工業仿真、古跡復原、娛樂、藝術與教育等行業。該軟件適用性強、操作簡單、功能強大、Converse3D 虛擬現實引擎的問世給中國的虛擬現實技術領域注入了新的生命力。
GetReal3D For Unity
GetReal3D For UnityTM 軟件是美國 Mechdyne 公司針對 Unity 虛擬交互引擎專門定制開發的功能擴展插件,它能夠實現將 Unity 游戲引擎所創建的交互內容與虛擬現實、仿真訓練等應用的無縫對接,支持將 Unity 引擎開發的應用程序發布到沉浸式顯示系統。
Project Tango
Project Tango 是谷歌公司的一項研究項目,2014 年 2 月谷歌已經成功為該項目研發出了一款 Android 手機原型機,配備了一系列攝像頭、傳感器和芯片,能實時為用戶周圍的環境進行 3D 建模。

浙公網安備 33010602011771號