張云團隊提出基于神經(jīng)網(wǎng)絡(luò)的色度預(yù)測方法
文:轉(zhuǎn)載自《集成技術(shù)》2021年第三期
中國科學(xué)院深圳先進技術(shù)研究院高性能計算技術(shù)研究中心張云團隊在智能視頻編碼優(yōu)化理論與方法方面的研究取得進展。相應(yīng)成果“Deeplearning based chroma prediction for versatile videocoding(基于神經(jīng)網(wǎng)絡(luò)的色度預(yù)測)”2020 年 11月 3 日在線發(fā)表于 IEEE Transactions on Circuitsand Systems for Video Technology。
視頻數(shù)據(jù)爆炸式增長給存儲和傳輸帶來了巨大的壓力和挑戰(zhàn),這迫切地需要快速、高效的視頻編碼方案。而下一代視頻編碼方法仍是采用憑統(tǒng)計經(jīng)驗手工設(shè)計預(yù)測函數(shù)的編碼方案,在一定程度上限制了編碼性能的提升。如何使用先進的學(xué)習(xí)工具在給定帶寬的條件下最大化視頻質(zhì)量、提高壓縮效率成為了未來智能視頻編碼優(yōu)化的關(guān)鍵問題。該文從計算機視覺和人工智能的角度出發(fā),將視頻編碼中的色度預(yù)測問題模型化為計算機視覺中的圖像上色問題,以進一步消除顏色通道之間的冗余。基于卷積神經(jīng)網(wǎng)絡(luò)的色度預(yù)測包含兩個子網(wǎng)絡(luò):亮度下采樣和色度預(yù)測。采用線性模型結(jié)果作為色度初始化以增強性能,采用量化參數(shù)來表征編碼失真消除壓縮噪聲影響。在編碼器設(shè)計過程中,為了取得更好的編碼性能,該文利用率失真優(yōu)化方法從傳統(tǒng)色度預(yù)測方法和所提出的方法中選擇代價最小的預(yù)測策略。
結(jié)果顯示,與現(xiàn)有傳統(tǒng)方法相比,該文方法在 Y、U、V 分量分別可以節(jié)省 4.28%、3.34%和 4.63% 的網(wǎng)絡(luò)帶寬。
針對現(xiàn)有視頻編碼模塊中的局限性問題,從計算機視覺和人工智能的角度出發(fā),實現(xiàn)了由信號處理領(lǐng)域問題向人工智能領(lǐng)域問題的轉(zhuǎn)變,以海量視頻/圖像數(shù)據(jù)為基礎(chǔ),研究結(jié)合神經(jīng)網(wǎng)絡(luò)模型的視頻編碼方法,最終實現(xiàn)智能視頻編碼優(yōu)化理論與方法的創(chuàng)新,預(yù)期成果能應(yīng)用于下一代視頻編碼標(biāo)準(zhǔn)及視頻壓縮的相關(guān)領(lǐng)域。
中傳動網(wǎng)版權(quán)與免責(zé)聲明:
凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責(zé)任。
本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。
如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。
關(guān)注伺服與運動控制公眾號獲取更多資訊
關(guān)注直驅(qū)與傳動公眾號獲取更多資訊
關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊
掃碼關(guān)注小程序
時刻關(guān)注行業(yè)動態(tài)
- 9熱點資訊
填寫郵件地址,訂閱更多資訊:
撥打電話咨詢:13751143319 余女士
郵箱:chuandong@chuandong.cn
- 運動控制
- 伺服系統(tǒng)
- 機器視覺
- 機械傳動
- 編碼器
- 直驅(qū)系統(tǒng)
- 工業(yè)電源
- 電力電子
- 工業(yè)互聯(lián)
- 高壓變頻器
- 中低壓變頻器
- 傳感器
- 人機界面
- PLC
- 電氣聯(lián)接
- 工業(yè)機器人
- 低壓電器
- 機柜