<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      【筆記】EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

      EG3D: Efficient Geometry-aware 3D Generative Adversarial Networks

      Introduction

      使用單視角2D圖片集,無監督地生成高質量且視角一致性強的3D模型,一直以來都是一個挑戰。現存的3D GANs要不計算量巨大,要不無法保證3D-consistent。前者限制了生成圖片的質量,后者無法解決視角一致性的問題。這篇工作提出的新網絡架構,能又快又好地生成3D geometry。

      這篇工作提出了兩個方法。首先,作者用顯隱混合的方法,提高了時空效率,并有較高的質量。第二,提出了dual-discrimination策略,保證了多視角一致性。同時,還引入了pose-based conditioning to the generator,可以解耦pose相關的參數,保證了輸出的視角一致性,同時忠實地重建數據集隱含的pose-correlated參數。

      同時,這個框架能解耦特征生成和神經渲染,從而可以直接使用SOTA的2D GANs,比如StyleGAN2。

      Tri-Plane Hybrid 3D Representation

      我們需要一種高效且表達力強的3D表示方法,來訓練高分辨率的GAN。

      這里以單場景過擬合(SSO)來證明三平面表示法的有效性。

      每個平面都是\(N\times N \times C\)的,其中\(C\)是通道數。

      每次查詢一個3D坐標\(\mathbf{x} \in \mathbb{R}^3\),將其投影至每個平面上,用雙線性插值得到3個特征向量\(F_{xy},F_{xz},F_{yz}\)

      將這3個特征向量累加后,通過一個輕量級的decoder,也就是一個小型MLP,輸出RGB和Density

      再用volume rendering得到最終圖像

      這樣做的好處是,decoder規模很小,賦予了顯式表示更強的表達能力,并減小了計算壓力

      在新視角合成的實驗上,三平面緊湊而富有表達力,以更低的計算成本,得到了更好的表現

      三平面的時空成本是\(O(N^2)\)的,而voxel是\(O(N^3)\)

      最重要的是,用2D GANs生成planes,就能得到3D表示

      3D GAN Framework

      CNN Generator Backbone & Rendering

      三平面的特征,是由StyleGANA生成的,同時Latent Code和相機參數會輸入Mapping Network,生成一個Intermediate Latent Code

      StyleGAN2被修改后,輸出\(256\times 256\times 96\)的特征圖,之后被reshape成32通道的平面

      接著從三平面采樣,累加后,通過輕量級decoder,生成density和32通道的特征,然后由neural volume renderer生成2D特征圖(而非RGB圖)

      Super Resolution

      三平面仍不足以直接生成高分辨率圖,因此添加了超分模塊

      使用了2個StyleGAN2的卷積層,上采樣并優化32通道特征圖,得到最終的RGB圖像

      Dual Discrimination

      對StyleGAN2的discrimination做了兩個修改

      首先,添加Dual Discrimination以保證生成圖片的視角一致性,即保證原始圖片(低分辨率生成的)和超分后的圖片的一致性,將低分辨率圖片直接雙線性上采樣后,和超分圖片concat形成6通道圖片,真實圖片也模糊后的自己拼接,也形成6通道圖片,進行判別。

      這樣做,不僅能encourage最終輸出和真實圖片的分布匹配,也讓神經渲染器盡可能匹配下采樣的真實圖片,并讓超分圖片和神經渲染保持一致。

      其次,作者對discriminator輸入了相機內外參,作為一個conditioning label,從而讓generator學到正確的3D先驗。

      Modeling Pose-Correlated Attributes

      真實世界數據集如FFHQ,相機姿態與其他參數(如表情)有關聯

      比如,相機角度與人是否微笑是有關系的,這會導致生成結果視角不一致

      因此,為了更好的生成質量,需要將這些參數與相機姿態解耦

      這篇工作使用了Generator Pose Conditioning解耦pose和其他參數

      Mapping Network不僅接受Latent Code,還接受相機參數做為輸入

      給予backbone相機姿態作為先驗,從而讓視角可以和生成產生聯系

      也就是說,generator可以建模數據集中隱式的pose dependent biases,更忠實地反映數據集特征

      為了避免在渲染時因相機移動產生視角不一致,在渲染時保持generator輸入的相機參數不變

      posted @ 2022-08-23 11:35  GhostCai  閱讀(4156)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 国产情侣激情在线对白| 免费全部高h视频无码| 丝袜美腿视频一区二区三区| 不卡高清AV手机在线观看| 色综合久久久久综合体桃花网 | 亚洲国产精品综合久久20| 亚洲av午夜福利大精品| 十八禁日本一区二区三区| 一区二区三区无码免费看| 国产成人无码免费视频麻豆| 九九热在线精品视频99| 无遮挡aaaaa大片免费看| 人人超碰人摸人爱| 女人高潮流白浆视频| 丰满巨乳淫巨大爆乳| 日韩精品人妻中文字幕| 渝北区| 午夜欧美精品久久久久久久| 久久月本道色综合久久| 99视频偷窥在线精品国自产拍| 日韩一区二区三区在线观院| 久久久久免费看成人影片| 宜君县| 国产女人在线视频| 国产欧美日韩亚洲一区二区三区| 97免费人妻在线视频| 国产农村乱人伦精品视频| 蜜臀av黑人亚洲精品| 精品国产成人a在线观看| 亚洲 卡通 欧美 制服 中文| 星子县| 亚洲午夜精品久久久久久抢| 在线观看AV永久免费| 强奷漂亮人妻系列老师| 亚洲精品电影院| 亚洲日韩性欧美中文字幕| 元江| 麻豆a级片| 久久综合综合久久综合| 狠狠做五月深爱婷婷天天综合| 99中文字幕精品国产|