|
目录背景介绍:为什么要提升画质?画质评测:如何进行画质评测?画质提升:端到端如何提升画质?背景介绍抖音投稿和消费抖音,公众号:抖音2020抖音数据报告(完整版)抖音作为短视频社区,拥有海量的用户和短视频内容,日活用户规模超过6亿,日均视频搜索次数突破4亿,因此多媒体内容处理的成本与体验之间的平衡,不断为我们带来了新的挑战和新的惊喜。画质对用户影响随着基础设施的提升,5G的到来,可以看到,2019-2020一年时间5G设备数量翻了8倍多,越来越高的画质诉求,目前我们也在不算的提升分辨率;码率,帧率,位深度,以及支持HDR等视频全链路采集,编辑,播放等等;下面我将介绍哪些因素会影响高画质,主要从分辨率,位深度,帧率,色域,亮度五个方向展开介绍。1. 分辨率 = 图像细节的精细程度分辨率指图像中的像素数量。在特定屏幕尺寸下,分辨率越高,像素越多,显示的细节更精细。4K超高清分辨率是3840x2160,这意味着显示的图像数据是标准全高清的四倍。2. 位深度 = 色彩渐变的精细程度位深度指每个像素可以显示的颜色数量。位深度越大,可显示的颜色越多,从而使渐变更平滑、更自然。例如,8位显示器可以显示大约1677万种颜色,而10位显示器可以显示大约10.7亿种颜色。3. 帧速率 = 运动的平滑程度帧速率指一秒内显示的图像数量。电影的帧速率一般是24p(24张图片,或每秒帧数),而标准电视的帧速率通常是60i或30p(每秒30帧)。8K广播标准BT.2020包含帧速率(最高可达120p)的定义,该帧速率下的运动平滑程度几乎和真实世界一样。4. 色域 = 色彩的生动程度色域指可以显示的所有颜色的范围。右侧图表显示了人眼能够感知的所有RGB值的范围。三角形表示色域:三角形越大,可以显示的颜色越多。4K/8K广播标准BT.2020(Rec.2020)比现有全高清广播标准BT.709(Rec.709)涵盖了的颜色范围更广泛。5. 亮度 = 图像照明的强度亮度指可以显示的图像照明强度的范围。人类眼睛所能感知的最暗和最亮物体之间的差异范围(动态范围)通常为1012,而传统显示设备最多只能显示103的动态范围。HDR将动态范围扩展到105 — 比目前的显示设备高出100倍 — 允许以一种更接近人眼所能感知的方式呈现光与影。抖音端到端全链路抖音端到端全链路路径十分复杂,各个环节都会对画质产生很大的影响;下面我们从安卓端大概梳理一下目前的链路,可以看到我们拿到手机拍摄就要经过sensor进行光电转换,然后电信号经过ISP的处理,这个过程中厂商都会加入很多增强算法,多帧HDR,超分,降噪等等;然后通过安卓的camera1,2 API的采集,一些大的厂商也会提供SDK,我们可以通过这些SDK调用到和系统相机一样的图像处理能力;在经过抖音的生产端业务逻辑,比如特效SDK,增强算法SDK,编辑SDK,上传SDK等等,这里经过了美颜,磨皮等特效算法,以及编辑过程的软硬编解码,还有各类software ISP的画质增强算法最终传给了服务端;服务端又要经过重重的处理,包括视频的基本信息分析,然后进行增强处理,最后转码成各个档位,通过CDN分发下去,这个过程服务端核心处理就是图像增强算法前处理和转码;下发到消费端有播放器有需要做很多处理,解封装,解码,通过算法增强SDK处理,最终上屏渲染处理,比如HDR,超分等等;可以看到上面整个大致的链路已经十分复杂了,因此对各个环节的画质效果的线下评测就应运而生,我们会通过多媒体实验室进行主客观评测,提前洞悉用户对算法效果的喜好,及时调整画质调试方向,来保证算法能够在上线之前到达最优效果;目前我们已经在抖音整个链路上线了超分,降噪,插帧,HDR等画质增强算法,画质上取得了令人瞩目的收益。画质评测业界痛点目前业界的痛点在于客观指标不能很好的映射到主观质量,举个例子,比如PSNR高的视频画质一定就好吗,不一定,因为PSNR只是一个相对参考的指标,如果视频源的质量很差,PSNR再高也没什么用,另外很多时候我们看PSNR很多时候只是看整体视频所有帧数的均值,但是如果其中某些少数帧出现badcase,比如转场出现大量的马赛克,也是会非常影响用户的主观体验,而这些从PSNR的数值上都不能很好的体现出来,同时如果在服务端经过锐化,超分,降噪,插帧等等一些前处理的算法的话,那么全参考的指标基本无法使用了,综合来看,PSNR等全参考客观指标有很大的局限性;主观质量和用户行为不存在必然正向关系。即使在测试阶段对主观质量有了一定的评估,主观质量的变化首先需要被用户感知或感受之后,才会对用户的行为产生影响,这种影响对单个用户或单次行为可能是非常微小的,比如多看了一个视频或者某个视频多看了几秒,但现阶段学术界对人类视觉系统的运作规律依然知之甚少;再举个举个极端的例子,我们现在大幅提高码率和分辨率,用户的画质必然会变好,但是用户的播放流畅度,耗电量等指标必然无法接受;所以我们需要通过不断的AB实验来观察用户的QoE/QoS指标,从侧面反映及理解用户的真实行为,找到一个最佳的平衡点,就是画质带来的视觉体验的正向收益大于对于用户手机性能带来额外消耗的负向体验,使得整体的业务数据整体呈现正向。QoE指标核心:画质正向>其他负向;AB实验的核心QoE指标如下:用户量、内容浏览量、人均播放时长、人均播放量、人均完播数、人均点赞数、多日留存等等。一般在算法开发阶段我们会分三个阶段:算法仿真tuning阶段工程化测试阶段线上AB实验阶段因此线下算法仿真开发阶段,我们会重度依赖主客观质量的评估,来确保算法各方面的效果尽可能的达到最优状态,后面会展开介绍目前我们的算法迭代流程。视频质量评估什么是图像质量?图像信息技术被广泛应用的情况下,对图像质量的评估变成一个广泛而基本的问题。由于图像信息相对于其它信息有着无可比拟的优点,因此对图像信息进行合理处理成为各领域中不可或缺的手段。在图像的获取、处理、传输和记录的过程中,由于成像系统、处理方法、传输介质和记录设备等不完善,加之物体运动、噪声污染等原因,不可避免地带来某些图像失真和降质,这给人们认识客观世界、研究解决问题带来很大的困难。比如,在图像识别中,所采集到的图像质量直接影响识别结果的准确性和可靠性;又如,远程会议和视频点播等系统受传输差错、网络延迟等不利因素影响,都需要在线实时的图像质量监控;因此,图像质量的合理评估具有非常重要的应用价值。对于图像质量有两种定义。定义一:不同成像系统采集,处理,储存,压缩,传输信号的准确度。定义二:符合人眼感知的角度评价图像质量:图像所有视觉上重要属性的加权混合。定义一是从信号处理的角度,关注成像系统中信号的准确性。定义二是从人眼视觉的角度,关注观测者的感受,审美水平不同的观测者,反馈的结果也不同。那么从图像质量的定义上,就引申出了两种图像质量的评测方法,从有没有人参与的角度区分,图像质量评价方法有主观评价和客观评价两个分支。主观质量评估,主观评价以人作为观测者,对图像进行主观评价,力求能够真实地反映人的视觉感知,依赖人眼观看并打分,这种得到的分数比较精确,但是很耗时间,而且不方便大规模部署。客观质量评估,客观评价方法借助于某种数学模型,反映人眼的主观感知,给出基于数字计算的结果,评价一个算法的好坏就是衡量主观分数和客观分数的相关系数,一般来说系数越高越好。客观质量评估算法大概分三类,主要取决于是否使用无损的源视频作为参考。全参考,比如PSNR就是典型的全参考算法,通过与源视频进行各种层面比对,来衡量损伤视频的质量。无参考,有的算法不使用源视频,只使用接收端的视频,来衡量它自己本身的质量。部分参考, 比如从源视频中提取一个特征向量,特征向量随着损伤视频一块发送到用户端用来计算质量。图卡客观评价目前世界上主流的图卡测试系统有三家:imatest,DXO和Image Engineering。客观评价的指标下面给大家列出来,下面我主要介绍几种最常用到的指标。MTFMTF,Modulation Transfer Function。中文为调制传递函数。在各个摄像头镜头中经常采用MTF描述镜头的MTF曲线,表明镜头的能力。这些曲线是通过理想的测试环境下尽量减少其它系统对镜头的解析力的衰减的情况下测试得出的。当然,MTF也可以涵盖对整个成像系统的解析力评价。SNR信噪比由于噪声和信号总是混在一起,如果一张图片去除噪声的同时也消除了信号,那么也不是优质的图像。所以为了评判图像的好坏,经常用SNR信噪比来表示。我们一般用dB表示:所以SNR(dB)= 20 log 10(S / N)。SNR最显著的缺点就是容易被降噪算法作弊。一张SNR很高的图片可能涂抹严重。另外相同SNR的两张图,噪声感受可能差别很大。CIE Lab中的色差计算建立色彩空间,是为了方便的表示色彩。那么有了两个颜色的坐标,就可以开始进行色差计算。这时我们遇到了第一个问题,应该如何选择色彩空间。标准的制定者考虑了两点。1.色彩空间必须符合人眼视觉,能够比较线性的色彩。2.要在设备无关的色彩空间中进行计算,不能因为换了个显示方式,影响色差计算。于是CIE Lab就在这样的需求中诞生了。L表示亮度,ab分别表示色彩分量。当时认为CIE Lab是一个如果均匀线性空间,于是初代的色差公式就是两个颜色在色彩空间中的欧式距离:delta_Eab = sqrt(delta_L.^2 + delta_a.^2 + delta_b.^2);delta_Cab = sqrt(delta_a.^2 + delta_b.^2);其中delta E为整体色彩,deltaC 排除了亮度的影响(不计算L值)之后色差公式在应用中逐渐被认识到一些缺点仍然存在。CIE 2000年又再次更新了标准。这次的公式更加符合人眼感知。公式如下:中间变量的计算过程被我省略了,只展示了最终的公式。有兴趣的同学可以到附录下载CIE 2000色差公式matlab函数。客观实验室介绍客观实验室相信大家也很熟悉,我们主要依赖标准图卡和可控制的光源环境,来进行可控制变量的重复测试,目前实验室的详细介绍可以看我们之前的文章:公众号:抖音多媒体评测实验室画质评测实验室简介24色卡枯叶图SFRplus图卡ISO12233灯箱图卡支架无参考打分算法目前我们自研无参考打分算法也在内部有一定的使用;1. 线上视频质量监控海量视频数据的质量监控是不得不面临的棘手问题之一,视频质量服务包括视频质量检测、视频质量评价和视频质量监控。如果可以针对海量视频提供快速正确的审核或监控方案,则可以全天候不间断地检测视频质量,大幅降低人工成本,减少线上服务的风险和事故率。抖音生产端发布视频画质监控,服务端转码视频画质监控,线上大盘播放质量监控;在其他业务线复用飞书,西瓜,剪映等业务线等短视频,直播,RTC场景;2. 视频前处理检测目前,在抖音端到端的视频处理技术有:去块效应、锐化、超分辨率、视频降噪等技术等。视频处理技术的最大特点就是很难找到一个客观指标,告诉你参数调到什么程度才能让用户满意。如下图可以提供对多种来源的图像和视频,进行全面、多维度的场景和画质分析的能力,包括但不限于:场景语义、人脸检测、视频类型、运动程度、噪声、亮度、曝光、清晰度、色彩表现、artifacts等,可用于QA评价监控体系(如画质打分、美学打分、线上画质监控等)和画质修复增强算法体系(如:基于场景的算法路由、动态算法分支、算法自动开启关闭、算法条件输入等)。如下图所示为AnalysisKit可能包含的分析检测模块,及其可以服务于的业务或算法场景:对场景和画质分析检测算法进行集中规划、开发和看护,形成整套可重复利用的解决方案,可用于不同场景和任务类型,提高算法的适用性,避免各个需求来源重复开发检测算法,有助于需求的对齐澄清,避免需求冷启动。目前应用:生产端编辑页一键增强功能降噪算法前置检测;夜景检测功能,为其他算法后处理提供信息;3. 推荐提供评分标签短视频正逐渐成为互联网上的一种重要的信息传播方式,为短视频打上各种有用的标签,可以帮助优化推荐系统或搜索引擎,从而为用户提供精准的短视频推荐或搜索服务。目前应用:在抖音线上的质视频筛选,优化推荐权重;实景主观评价不同的色温不同场景不同评测纬度实验室条件1.头模-不同肤色我们通过高仿真的人像头模,来模拟不同肤色群体,进行相关的人像画质测试;2.实景模拟主观测试最大的难点就是场景的可重复性,如果一旦确认这个场景出现问题,我们很难在自然界再次重复一模一样的场景,所以就需要我们在实验室人为的造就这样的实景,方便我们重复测试;3.灯光环境光线条件也是非常重要的一环,因此我们搭建了吊光光源,方便我们模拟D65,D50,A光等各种光照条件,进行主观场景测试。画质评测工具我们也通过很多自研的工具来提升画质评测的效率和自动化方案,目前研发了24色卡,SFRplus图卡分析算法,防抖检测算法,视频基础参数分析,卡顿分析,编码分析等等,下面列一部分的UI界面。画质评测流程内部画质算法的迭代流程中期很长,下面简单介绍一下算法的迭代流程,方便大家清楚了解我们任何一个算法的上线都是经过的研发和评测巨大的努力,最终才在线上呈现给到用户的;算法从立项开始,就需要开发和评测tuning同学内部闭环,不断进行调试,在这个过程中达到可交付状态之后,然后通过内部的图卡计算和无参考的客观指标计算,在合理的阈值范围内的话,我们才会交付到专家评测组(大概40个人)进行评测,专家多维度的评测结论通过之后,我们通过线上的众测平台,发送给到线上的部分内测用户(每次大概300人),通过用户众测最终通过之后,我们才会决定工程化落地上线;上述的任何一个环节如果出现负向的话,我们都会打回重新调试。众测方式上面说到众测,我们需要重点介绍一下我们的众测系统,目前的众测是集成在抖音线上,内测用户可以通过站内信或者扫描二维码等方式参与到众测过程;目前众测方式分四种方式:同屏对比分屏对比单屏对比重叠对比什么是JND?众测有一个重要的指标就是JND,我们通过JND量化的方式来决定我们上线的标准;举个例子:一根蜡烛的房间,增加一根蜡烛,亮度的增加是明显可感知的。十根蜡烛的房间,增加一根蜡烛,感受不明显。一个铃铛在摇晃,增加一个铃铛,声音变大也是明显可知的。十个铃铛在摇晃,增加一个铃铛,感受不明显。那么物理增加量和心理感知量如何量化呢?韦伯定律是表明心理量和物理量之间关系的定律,即感觉的差别阈限随原来刺激量的变化而变化,而且表现为一定的规律性,用公式来表示,就是△I/I=K,其中I为原刺激量,△I为此时的差别阈限。而可被感知的最小△I,就被称为JND,Just noticeable difference,即最小可觉差。把最小可觉差(连续的差别阈限)作为感觉量的单位,即每增加一个差别阈限,心理量增加一个单位。感觉量与物理量的对数值成正比,也就是说,感觉量的增加落后于物理量的增加,物理量成几何增长,而心理量成算数级数增长,这个经验公式被称为费希纳定律或韦伯-费希纳定律。适用于中等强度的刺激。S = k lg I + C(S为感觉量、K为常数、I为物理量,C是积分常数)常见应用:声学,分贝的标定痛觉的分级地震的分级……下面是我们实际使用的一些case:多媒体评测实验室那么我们主要做什么呢?主要从下面四个方向把控抖音端到端的全链路画质质量;工程优化--厂商合作--编解码--算法增强细分下来,主要通过手机厂商新机合作测试,图像增强算法测试;工程迭代优化测试,比如1080P全链路测试;编解码画质测试;竞品调研分析;评测视频库;评测平台建设;自动化监控等等。画质提升目前我们将整个内部的评测链路分成3个端,生产端,服务端,消费端,下面从这三个端一次介绍一下我们做了哪些画质提升的事情;生产端Software ISP典型ISP pipeline各ISP pipeline大同小异,主要体现各家不同的处理风格。ISP复杂度取决于应用场景;典型的都是传统算法,现在也有传统+AI混合的pipeline;比较成熟的isp有:相机:佳能,索尼,尼康等;手机:高通,苹果,三星,海思,MTK;安防IOT:海思,安霸,ARM等;驾驶:mobileye等;后处理:各手机厂,Almalence ,Visidon ,morpho,imint ,虹软,商汤,旷世等;在画质处理链路上,很多位置都可以用后处理增强。不同位置的画质特点不同,了解这些特点有助于设计更好的后处理增强算法,因此我们自研的后处理算法的software ISP应运而生。Software ISP什么是棱镜系统?目前字节内部提供画质解决方案的系统,棱镜系统提供一站式画质问题解决方案,从业务场景分析,画质问题智能分析,画质增强及优化,测试及部署等一系列能力。 核心平台能力棱镜系统以SDK形式提供核心能力,包括场景策略模块、画质智能分析模块、画质增强模块。场景策略模块:业务场景配置,画质参数调试,预设画质风格调试,功能裁剪配置,工作模式配置,算法pipeline配置。画质智能分析模块:场景变化检测,画质实时监控,画质问题诊断,画质细分维度打分,美学打分。画质增强模块:拍照增强能力,视频增强能力,时间序列增强能力。目前抖音线上的一键增强功能:结合用户和图像场景,智能分析并增强其图像和视频的画质,动态调整出更为清晰、绚丽的图像,打造绝佳的视频沉浸体验,从下图可以看到增强之后的效果视觉感官体验明显好于右边;左边是增强后的效果,右边是没有增强的效果;camera采集什么是camera1,camera2?都是google 官方提供的两套Camera API,在Andriod 5.1之后取消了对Camera1的更新,主要维护Camera2,Camera1和与Camera2在实现和使用方式有较大的差异,详见下图;Camera1的使用多在存量的旧机型以及部分存在兼容性问题的机型中,Camera2主要在新机型上使用;相对Camera1,Camera2增添了许多新特性,功能也更加强大,如:支持30fps高清连拍;支持RAW格式的图片拍摄;支持Movie Snapshot;支持更多的参数设置,对画质优化,专业能力拓展提供更大的操作空间;防抖,广角等功能只在Camera2机型上实现;手机厂商合作的功能大多也是基于Camera2实现;目前抖音大部分场景已经切换到camera2,我也通过跟国内的主流手机厂商合作,比如华为,小米,oppo,vivo等等,使用厂商提供的SDK调用更多系统相机才有的能力,进一步提升我们的生产画质。编辑SDK硬编码VS软编码目前也逐步从软编切换到硬编码,从下图可知,硬编码的功耗低,性能更强大;智能预编码通过对客户端的机型进行性能打分和测速,同时对视频内容进行预编码提前感知,综合这些信息,算法抉择出一套最适合当前场景的编码参数;HDR对导入的视频支持上屏渲染,转码支持HDR显示,同时也支持HDR tone mapping到SDR,避免用户产生badcase;高清视频目前生产端已经最高支持1080P,60fps的视频了,后续我们还会继续上探,尽可能为用户提供更高清的视频;Trade off当然我们不是一味的提升画质,目前我们通过各种软硬编码和上传SDK结合策略,已经达到画质和码率的均衡,尽可能在提升画质的同事,不影响用户的投稿体验,目前内部评估中生产端的效果在各个竞品表现最优。特效SDK在生产端我们特效的SDK也做了很多优化工作,下面举几个例子,精致磨皮之前我们的磨皮效果会对全局场景进行处理,导致人物后方的背景也不够清晰,同时磨皮的处理导致人物面部的纹理细节太少,缺乏实感,后续我们针对性的上线了人脸磨皮,只对人脸检测区域进行处理,同时上线精致磨皮,能够保留人物质感;夜景滤镜在夜景的情况下,默认滤镜会放大画面噪声,通过夜景检测算法,自动的对白天和夜晚使用不同效果的滤镜,来尽可能实现滤镜效果最优化;HDR支持上面虽然说到抖音已经支持导入视频上屏渲染支持HDR,但是加入特效之后,要支持的难度非常大,需要2W多个道具进行遍历生产10bitHDR的素材,目前我们也在逐步的支持特效的HDR。服务端服务端目前处理pipeline大致分成三块,视频分析,视频前处理,视频转码;视频分析视频分析上面我们有内部自研的无参考打分算法,详见之前的文章;内容如下:Longtao,公众号:抖音多媒体评测实验室多媒体质量评价系统简介同时我们还有其他的分析处理,比如ROI,基础特征分析,复杂度分析,视频基础参数等,依赖上述分析进行最终决策处理;视频处理视频前处理上,目前已经和正在研究的算法类型非常多,我们通过端到端数据联合起来进行决策处理,目前主要使用的有超分,插帧,低质增强,去压缩失真等等;视频编码编码标准定义的是解码器的格式和流程,而编码端是可以被各家公司各自优化的,如对于运动搜索的模块,可以在范围、大小、模块的选择上再进行算法设计和优化。因此同样一个标准的编码器,是可以有不同的编码器算法的,各个公司都有自己独特的设计。同样,我们公司也有自研的编码器算法,目前已经应用到了各个业务中。我们自研的编码器在MSU比赛中也取得了不错的成绩,获得了17项第一的好成绩。内容如下:一直在路上的,公众号:字节跳动17个第一,字节跳动海外技术团队在全球视频编码器大赛多项夺冠消费端消费端目前我们也上线了超分和其他画质增强的处理,下面是超分在播放器上简单的pipeline,这个过程也是经过很长时间的实验,达到性能和画质的平衡;这个是线上实际超分效果demo,从视频可以看出,超分带来的清晰度收益十分的显著;内部的数据显示:超分实验组业务核心指标(人均时长、人均vv和人均完播率)均显著正向,全用户次日留存波动偏正,人均活跃天数持续正向未显著。 已关注 关注 重播 分享 赞 关闭观看更多更多字节跳动SE Lab已关注分享点赞在看已同步到看一看写下你的评论分享视频,时长00:100/000:00/00:10 切换到横屏模式 继续播放进度条,百分之0播放00:00/00:1000:10 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流畅 您的浏览器不支持 video 标签 继续观看 抖音App端到端画质提升和评测 观看更多转载,抖音App端到端画质提升和评测字节跳动SE Lab已关注分享点赞在看已同步到看一看写下你的评论 视频详情 目前超分在内部的业务应用十分广泛,抖音,点播,直播,西瓜,头条,皮皮虾等等;超分不仅带来了画质的收益,同时通过不同的策略,还能带来卡顿优化,带宽优化等。未来展望持续打磨无参考打分算法,能够更加细粒度的落地日常测试场景;探索更准确的主观量化方案,能够给出更准确的结论;AR VR MR 等未来场景探索画质评测手段和方案;HDR 更全面严谨的测试方案;高分辨率,帧率;例如8K,120fps等评测方案探索;美颜特效如何依赖主观和客观形成体系化标准;...加入我们抖音多媒体评测实验室是字节跳动多媒体画质和音质质量保障中台,通过专业的评测人员、实验室设备和业界领先的评测方案,服务于字节内部众多产品,包括抖音、今日头条、剪映、西瓜视频等App,在端到端的全链路画质上通过手机厂商合作、视频编解码、图像算法增强、工程优化等方向进行画质测评,全面提升用户视听质量体验。团队发展迅速,年轻富有朝气,注重技术氛围建设,积极参与国内外各顶尖行业技术会议,输出高质量技术专利和相关论文,工作Base地有北京、深圳、杭州、上海等多地可选。目前团队急招图像测试工程师等岗位,加入我们,让你的每一行代码都能服务亿万用户!欢迎加入我们!https://job.toutiao.com/s/R58Us4j
|
|