<ruby id="26j7v"><table id="26j7v"><thead id="26j7v"></thead></table></ruby>
    <strong id="26j7v"></strong>
    <progress id="26j7v"></progress>
    資訊> 正文

    天天報道:NHK STRL正在研究自由視點AR流媒體技術——基于對象的高效視頻傳輸技術

    時間: 2022-09-23 08:42:31 來源: 流媒體網


    【資料圖】

    為了實現超越傳統電視框架的沉浸式媒體目標,給用戶帶來全新的沉浸式情感體驗,日本公共廣播機構NHK的科學技術研究實驗室STRL正在研究開發一種基于對象的視頻傳輸技術,用于高效傳輸3D立體視頻內容。STRL開發的是一套基于自由視點的AR流媒體傳輸系統。

    圖1 自由視點AR流傳輸系統

    1.研究目標

    該技術用于高效傳輸沉浸式媒體所需的3D內容。

    2.主題

    與2D視頻內容相比,AR等應用的3D內容數據量極其龐大,該研究的技術難點在于如何高效地將3D內容數據穩定地傳遞到觀看終端。

    與當前用于觀看2D內容的電視廣播服務類似,NHK STRL設想了一種用于觀看3D內容的流媒體服務,利用這種服務,在觀看節目內容之前不需要下載數據。該研究所提出了一種基于對象的傳輸方式,其特點是,構成3D內容的對象(如表演者和背景對象)被編碼為獨立的3D模型,并能夠以數據包的形式進行傳輸和識別。數據包頭的數據標識符與3D對象相關聯。利用這種方法,如果只提取或丟棄特定對象的數據,可以很容易地在傳輸路徑或接收終端的網絡節點的輸入環節進行處理。

    為了進一步提升傳輸效率,最近STRL開發了一種對象篩選器,該篩選器引入了兩種根據自由視點AR的觀看狀態丟棄和提取數據的機制——通過丟棄觀看終端視野外的對象數據,同時降低場景內遠離觀看者的對象分辨率,在不降低終端觀看內容質量的情況下減少數據的傳輸量。只將觀看終端視野內且分辨率最佳的3D模型數據轉發給觀看終端,也能夠減少接收終端在渲染過程的處理負載。

    圖2 觀看終端視野以外的對象被篩選器篩選出來,不必傳輸到終端

    責任編輯:李楠

    分享到:版權聲明:凡注明來源“流媒體網”的文章,版權均屬流媒體網所有,轉載需注明出處。非本站出處的文章為轉載,觀點供業內參考,不代表本站觀點。文中圖片均來源于網絡收集整理,僅供學習交流,版權歸原作者所有。如涉及侵權,請及時聯系我們刪除!

    關鍵詞: 視頻傳輸 傳輸方式 責任編輯

    責任編輯:QL0009

    為你推薦

    關于我們| 聯系我們| 投稿合作| 法律聲明| 廣告投放

    版權所有 © 2020 跑酷財經網

    所載文章、數據僅供參考,使用前務請仔細閱讀網站聲明。本站不作任何非法律允許范圍內服務!

    聯系我們:315 541 185@qq.com

    剧情Av巨作精品原创_一区二区三区sM重口视频_91综合国产精品视频_久久精品日日躁
    <ruby id="26j7v"><table id="26j7v"><thead id="26j7v"></thead></table></ruby>
    <strong id="26j7v"></strong>
    <progress id="26j7v"></progress>