找回密码
 会员注册
查看: 12|回复: 0

压缩70%下载流量-记一次店铺优化专项

[复制链接]

2万

主题

0

回帖

7万

积分

超级版主

积分
74111
发表于 2024-9-30 18:41:58 | 显示全部楼层 |阅读模式
0x00、名词解释ISV(Independent Software Vendors),独立软件开发商。一般是独立的第三方公司,公司有专业的设计师和程序员,为付费的商家提供一对一的定制化开发。imageX(图床):公司提供的图片存储、CDN 分发和图片动态处理的云服务,返回一个图片 url,可以在 url 上增加参数实现图片的实时转码、裁切、缩放等功能。社区也有一些图片托管商提供类似的服务。TOS(Tinder Object Storage):公司提供的一个对象存储服务。社区也有一些类似的解决方案,如 OSS。DevBox:公司给员工提供的一台 linux 服务器,可以通过内网 ssh 访问。B 端:指商家操作的后台,PC 端网页,基本 Chromium-only。C 端:指消费者浏览的页面,在手机 App 内运行。0x01、背景店铺开放 ISV 链路后,随着头部商家的全页定制化的增加,性能问题受到越来越多的关注,我们针对 ISV 开发的页面,做了系统性的诊断,并沉淀出一系列优化 TODO,本文主要介绍图片优化子项目(一定要看到最后,相信一定有收获)。1. 优化前后对比可以看到,在图片的首次加载时,优化效果比较明显。2. 图片对比我们随机抽取了几张线上图片做对比:以下图片都是无损 PNG 截图效果,以便准确对比。图片类型图片/大小图片/大小原图2.3M1.2M离线压缩后(离线压缩为本次专项工作)197KB(-91.6%)95.8KB(-92.0%)imageX 转 PNG(线上实时拼后缀)2.3M(-0%)1.2M(-0%)imageX 转 JPG236KB(-89.9%)114KB(-90.4%)imageX 转 WebP158KB(-93.3%)68.2KB(-94.4%)离线压缩后再用 imageX 转 WebP147KB(-93.8%)63.2KB(-94.8%)可以看到,对原图转 JPG 有明显的收益,转 WebP 收益更大。离线压缩收益比在线转 JPG 略高,对离线压缩后的图片再进行在线转 WebP 仍能得到压缩收益。0x02、各方案对比1. 为什么会存在大体积图片?这个是产品形态的原因,我们一直反对在上传侧对用户做各种反人类的限制。粗暴地限制不得大于 xxKB ,会造成用户好不容易导出一张图片,最后告诉用户无法上传,流程被粗暴打断。商家负责运营的同学和设计师可能是不同角色。运营处理图片,可能发生不专业的事,文章后面会讲到。另外针对不同大小的图片,使用统一的体积限制也不科学。2. 为什么不直接使用 WebP ?我们可以看到,对于原图,直接拼 .png 后缀压缩率没有明显优化,由于要考虑到原图可能有透明通道,不能直接转 JPG。但拼 .webp 后缀后,优化已经很明显。但为什么我们不直接使用 WebP 图片呢,主要以下几个原因:兼容性问题,需要做成运行时。 WebP 有一定的兼容性问题,我们必须做成运行时 SDK 在端上判断,才能决定是否启用 WebP。这个 SDK 我们有提供给 ISV SDK,但并没有很高的覆盖率。历史原因,早期图床使用 TOS。 早期我们的图片存储在 tos 上,并不支持 imageX,后期才支持 imageX。由于早期并没有接入 imageX,所以早期 SDK 版本也没有实现动态转 WebP。自然地一开始也没有让 ISV 强行接入我们的图片加载 SDK。存量版本的碎片化问题。 从一开始的开放链路架构设计上,我们就设计了需要一定程度容忍 ISV 模块版本的碎片化问题。因为我们需要把风险降低到最小,没法保证所有 ISV 开发的模块都有健壮的向后兼容能力,故不能在商家不预览验证的情况下一键升级全量商家的线上模块。这使得我们线上不同商家可能使用的同一模块的不同版本。技术上,我们也无法入侵早期的模块版本,通过字符串替换的方式,把图片都包上我们的图片加载 SDK。3. 为什么不使用端拦截方案?端上需要对每一个图片请求进行拦截,这个会劣化所有的图片网络请求。另外随端发版的问题,会让这个功能变得碎片化,对于存量的老版本客户端感受不到收益,对于前端来说,会成为历史包袱,需要长期考虑向后兼容问题。4. 为什么不在 C 端后端接口下发时对图片进行 WebP 链接替换?C 端的接口在返回时的确可以知道端上是否支持 WebP,但下图是我们的数据结构,我们允许 ISV 自定义 JSON 结构,这个对于 C 端是只能作为字符串理解的,无法替换里面的图片:这个也不能使用正则进行替换,下文会讲到。5. 为什么不在 B 端创建页面的时候进行图片替换?B 端装修时是可以感知到这个结构的,理论上是可以做替换的,这个也是我们后面对增量图片进行优化会做的方案。现阶段,我们要解决存量图片的问题,这个方案需要商家重新发布,优化覆盖率上不去。0x03、结论综上,我们最终决定对于存量和增量图片分别进行处理。首页我们要解决存量的问题,提升整个大盘的水位,再解决增量问题,保持优化效果。对于存量图片, 我们的结论是进行数据库替换,遍历所有数据库里的图片,进行下载、离线压缩、上传、得到新 url 再回写回数据库。对于增量图片, 先做临时性卡口,和产品达成一致,先做粗暴的体积限制,不准商家上传大于 500Kb 的图片。如果不做这样的卡口,就会一边出水一边放水,永远动态清不了零了。在后续上线了 B 端创建页面时对图片进行压缩能力后,再把临时卡口放开。0x04、具体方案与踩坑总结离线清洗数据说起来简单,但其实是个高风险的操作。本着追求极致和务实敢为的态度,我们最终还是决定尝试一下。这个我们和后端同学进行了详细的技术评审,并设计了周全的预案以保万无一失。本文主要说下这里面遇到的问题和解法:原理并不复杂,主链路只有以下四步,不过坑倒是有不少。1. 数据结构的设计为什么要设计数据结构?因为要防止图片被二次压缩导致失真,需要把图片压缩的相关信息存储。在这里我们定义了一个简单的数据结构。这里有三个 md5 的 hash 值,便于将图片作为 url 或本地文件查询时快速找到对应的压缩数据。interfaceIImageMinyfyMappingJSON{width:number//图片宽度height:number//图片高度hash:string//图片url的hash,md5(rawUrl)rawExtname:'.jpg'|'.png'|'.gif'//压缩前图片扩展名rawImageHash:string//压缩前图片md5值rawSize:number//压缩前图片大小(字节)rawUrl:string//原图片urlnewExtname:'.jpg'|'.png'|'.gif'//压缩后图片扩展名newImageHash:string//压缩后图片体积newSize:number//压缩后图片大小(字节)newUrl:string//压缩后图片地址}数据存储在 tos 上,没有使用数据库是因为这是一个低频操作,tos 具有更好的稳定性,也不用自己考虑负载问题。2. 下载图片这是一张 imageX 返回的图片地址:https://p1-ecom-qualification.byteimg.com/tos-cn-i-tsivw11p2g/2ceb46b2d4a342b9a8d282cf8b51bbb4~tplv-tsivw11p2g-image.image我们可以看到 imageX 的图片都是不带扩展名的,都叫 .image,这使得下载时无法提前知道图片类型(其实也能通过 HTTP Header 的 MIME 信息,但这要多一次 header 请求,得不尝失)。所以这里使用的下载方式是先以随机数命名,再使用 md5(rawUrl) + rawExtname 重命名。exportconstdownloadImage=async(httpUrl:string,outputDir:string)romise=>{consttmpPath=path.join(outputDir,`.tmp_${Date.now()}${Math.random()}${Math.random()}${Math.random()}`)try{fs.ensureDirSync(outputDir)spawnSync(`wget-O${tmpPath}${httpUrl}`,{stdio:'inherit',shell:true})constimageHash=md5(fs.readFileSync(tmpPath))const{ext}=awaitfileTypeFromFile(tmpPath)asFileTypeResultconstdest=path.join(outputDir,imageHash+'.'+ext)//允许同名覆盖,有可能同一张图片多次在不同场景下上传,这时 md5 算出来是一样的。另外,确保函数多次执行是幂等的fs.moveSync(tmpPath,dest,{overwrite:true})returndest}catch(e){fs.removeSync(tmpPath)throwe//抛错很重要,不要随便把错误吃掉,后面会说}}这里踩到一个坑:一开始直接以 Math.random() 作为临时文件名,但这个在多次独立执行后是有可能碰撞到相同的随机数的,详见 JS 随机数生成算法[1](关键这篇文章也是我写的,允悲,还是太自信 V8 的伪随机生成了)。后来加了时间戳和 3 个随机数降低碰撞。更科学的方式应该使用标准的 uuid 生成库,它还会考虑机器 mac 地址等信息,进一步减少多机器独立事件的碰撞概率。图片扩展名推断使用了 file-type 库。使用 wget 下载图片是因为 wget 支持同步下载(node 里没有同步网络 io 的方法),最主要的是 wget 支持断点续传和进度展示。3. 压缩算法的选择对于不同图片,使用的压缩算法是需要不同的,这里对比了几种不同的压缩算法,最终如下:以下图片都是无损 PNG 截图效果,以便准确对比。图片类型PNG原图(PNG)737KBTinyPNG(好用,但不开源,只有 HTTP 调用,且限流,把图片传到境外服务器不可接受)180KBOxiPNG475KBimageX(toJPG)38.8KBMozJPEG(这结果绝绝子了,但问题是转成 jpg 后透明通道没啦)30.8KB离线压缩后再 imageX to WebP(离线压缩后再转 WebP 可期望达到最极致结果)18.6KB注:JPG 没必要转成 PNGGIF 本次没有做,因为本次量不大SVG 本次没有做,因为本次量不大,推荐 svgo 以及一个国内大佬的 svg-slim综上调研,我们决定压缩逻辑如下:JPG 直接用 MozJPEG 压缩PNG 如果 含有透明通道,使用 OxiPNG,否则使用 MozJPEG如果压缩后的图片比原图大,放弃,使用原图其他图片,跳过综上,核心的优化点是把无透明通道的 PNG 转成 JPG。这里不得不研究下 PNG 图片的详细定义:(摘自维基百科)便携式网络图形(英语:Portable Network Graphics,PNG)是一种支持无损压缩的位图图形格式,支持索引、灰度、RGB 三种颜色方案以及 Alpha 通道等特性。PNG 的开发目标是改善并取代 GIF 作为适合网络传输的格式而不需专利许可,所以被广泛应用于互联网及其他方面上。PNG 另一个非正式的名称来源为递归缩写:“PNG is Not GIF”。PNG 的官方念法是“平”(/p/),但是多数人是当成三个英文字母分开读。PNG 图片大多数都使用PNG作为扩展名,其互联网媒体类型为image/png。PNG 于 1997 年 3 月作为知识性 RFC 2083 发布,于 2004 年作为 ISO/IEC 标准发布。PNG 图片主要由三种类型存储:PNG 8:图片使用 8 bits 来存储,可以用 2 的 8 次方大小个种类颜色来存储一张黑白的图片。也就是说 PNG 8 能存储 256 中颜色,因为颜色少,文件体积也非常小,一张图片如果颜色简单,将它设置成 PNG 8 得图片是非常省空间合适的。PNG 24:图片使用 24bits 来存储,用三个 8bits 分别去表示 R(红)、G(绿)、B(蓝)三个通道(Channel)的数值。可以表达 256 乘以 256 乘以 256=16777216 种颜色的图片,色彩丰富度更高,但相对的所占用的空间也就更大了。PNG 32:图片使用 32bits 来存储,相当于 PNG 24 加上 8bits 的透明颜色通道,总共有 R(红)、G(绿)、B(蓝)、A(透明)四个通道。图片能表示的色彩跟 PNG 24 一样多,并且还支持 256 种透明度,能让图片色彩更加丰富。注意这里一簇叫 APNG,扩展名通常也以 .png 结尾,这类图片不能用 OxiPNG 压缩,会丢失动画。使用 imageX 也不能转换成 WebP,同样会丢失动画。注意这张图原图是 APNG , 但微信文章里不支持展示,这里实际放的是 GIF 录屏(「萌」混过关 ),查看原图可以复制以下链接到浏览器:https://p1-ecom-qualification.byteimg.com/tos-cn-i-tsivw11p2g/545cb9abb2ee4256a13235a5e6dfd3e1~tplv-tsivw11p2g-image.png好在 file-type 库会把它识别成扩展名 apng所以对 PNG 的处理逻辑是:如果是 APNG,跳过,返回原图再检测是否含有透明通道,决定能不能转 JPGconstisTransparentPng=(pngPath:string,limit=255)=>{if(path.extname(pngPath)!=='.png')returnfalseif(cache[pngPath])returncache[pngPath]constbuffer=fs.readFileSync(pngPath)//图片的宽度存在buffer的第17到20个字节constwidth=buffer.readUInt32BE(16)//图片的宽度存在buffer的第21到24个字节constheight=buffer.readUInt32BE(20)constpngCanvas=canvas.createCanvas(width,height)constcontext=pngCanvas.getContext('2d')constimg=newcanvas.Image()img.src=buffer//node端实际同步的,使不使用onload回调没有区别context.drawImage(img,0,0,width,height)//获取PNG图片的数据的像素数据constres=context.getImageData(0,0,width,height)constimgData=res.dataconstpiexCount=imgData.length/4letisOpacity=falsefor(leti=0;ivoid)=>{const_walk=(data:any)=>{jsonuri.walk(data,(val,key,parent)=>{onEach.(val,key,parent)if(isJSONString(val)){constdata=JSON.parse(val)_walk(data)parent[key]=JSON.stringify(data)}})}_walk(data)}//封装后的方法调用,更换图片exportconstchangeImages=(data:any,imagesMap:Record)=>{walkIsvJSONSync(data,(val,key,parent)=>{if(isImage(val)){constnewImage=imagesMap[val]if(isImage(newImage)){parent[key]=newImage}}})}//isImage函数constIMAGE_REG=/^(:https//.*.(:image|png|jpg|jpeg|gif)$/constisImage=(url:string)=>{if(typeofurl!=='string')returnfalsereturnIMAGE_REG.test(url)}//isJSONString函数,只把[]和{}类型的视为JSONconstisJSONString=(str:any)=>{if(typeofstr!=='string')returnfalseif(!(str.startsWith('[')||str.startsWith('{')))returnfalseif(str==='{}'||str==='[]')returnfalse//空数据也跳过try{//这里的判断比较保守returnequal(JSON.parse(str),JSON.parse(JSON.stringify(JSON.parse(str))))}catch(e){returnfalse}}JSONURI 是本人早年在搭建场景中抽象的一个工具库,核心逻辑是用类 linux 路径来描述数据结构,以便在遍历过程中轻松访问和操作祖先和叔侄节点。这里主要使用了里面的 jsonuri.walk 方法。0x05、监控和保障线上的数据清洗一旦出错,我估计也就领盒饭了,所以这里做了一系列保障。主要包括:图片替换的安全性对比,比如把 A 商家的数据换成了 B 商家,必须不能出错。图片替换质量需要能接受,不能出现不能接受的模糊和失真。线上监控和快速回滚能力。1. UI 工具,人肉比较a. 多图对比工具对压缩前后图片做了 ui 界面,左边是原图,右边是离线压缩后的。左右图片高度是自适应,这样如果发现两列高度不一致,就确定一定有图片压错了(充分条件)。b. 单图对比工具c. 图片相似度算法没法通过肉眼对比所有图片,我还有很多 bug 要写呢。作为必要补充,加上了图片相似度检测。这里使用的是 SSIM(Structural Similarity Index Measure)算法:SSIM 算法源自王舟教授的一篇引用近 4w+ 的论文 《图像质量评估:从错误可见性到结构相似性》[2],在图像识别和广电媒体中得到了广泛应用,是很多做 CV 领域同学的必读论文。SSIM 返回一个 0 到 1 的值,越接近 1 表示越相似。下图中 5 张爱因斯坦图像与原图有接近的均方误差(MSE),但 SSIM 有明显的不同,SSIM 指标更接近人眼直觉。SSIM 论文[2]不长,硬着头皮可以啃一啃。SSIM 算法的核心原理是认为自然界的图像像素与像素之间有很强的统计相关性。这里没有自己手撸实现,而是用了现成的 SSIM 的 JS 实现库 ssim.js,对于相似度大于 0.95 的放过。importpathfrom'path'importssimfrom'ssim.js'importimageSizefrom'image-size'importcanvasfrom'canvas'importurlfrom'url'importfsfrom'fs-extra'const__dirname=url.fileURLToPath(newURL('.',import.meta.url))constgetData=async(url:string)=>{const{width=0,height=0}=imageSize(url)constbuffer=fs.readFileSync(url)constcvs=canvas.createCanvas(width,height)constcontext=cvs.getContext('2d')constimg=newcanvas.Image()img.src=buffercontext.drawImage(img,0,0,width,height)const{data}=context.getImageData(0,0,width,height)return{data,width,height,}};(async()=>{const[img1,img2]=awaitPromise.all([getData(path.join(__dirname,'1.jpg')),getData(path.join(__dirname,'2.jpg'))])const{mssim,performance}=ssim(img1,img2)console.log(`SSIM{mssim}(${performance}ms)`)})()本示例里两张图的相似度超过 99.9%ssim 值0.9990.4542. 放量与回滚,最后的防线由于是直接操作数据库,线上会直接生效,所以所谓的回滚其实是用先前记录的数据再次回写数据库。这里会在操作前把所有的数据存起来,并记录时间戳。更新时向后端会校验时间戳,如果更新过程中恰好有商家在前台更新了数据,对比时间戳会校验失败,放弃回滚。整个的放量时间较长,从国庆节前一直放到节后,较长的放量时间,使我们有更多的时间观察数据和线上 oncall。截止 9 月底至今,我们没有收到用户的负向反馈,抽样回访的 16% 店铺运行正常,样本具有置信度,整个替换过程平稳。0x06、工程架构1. 使用 client-sever 架构跑批处理/api/minify-image 是一个 HTTP 接口,接收一个 url 参数,在服务端完成图片的下载-压缩-重传动作。在写脚本的时候,这里使用了 client-server 模式,图片的下载-压缩-重上传包装成了一个 HTTP 接口,图片的清洗触发包成了 client。使用 C-S 模式有以下几个好处:便于横向扩展。 HTTP 服务可以横向部署在多台机器上。实操中用了三台机器:我的 16 寸 MBP、IT 借的一台 14 寸 MBP、以及一台 DevBox linux 开发机。图片压缩是个很耗 CPU 的工作,分开跑可以解放出我的主力 MBP。便于控制并发。 只需要控制 client 的连接数,就可以很好地控制并发,尽可能榨干电脑的算力,又不至于搞死 server 端。这里推荐一个好用的控制并发的库 async ,它可以很好地确保同时跑 N 个异步任务。便于控制超时。 作为前端,都有丰富的处理接口超时的经验,也有成熟的工具来处理超时。处理超时和抛错,是大批量跑脚本必须要做的事,后文会提到。幂等 + 缓存。 Server 端实现成幂等的 HTTP GET 接口,访问一次和 N 次返回一致。这里有一个缓存优化:如果图片已经处理过,会跳过处理步骤。但没有分别对下载、上传的每一步都做缓存,因为每增加一级缓存,都会增加复杂度。只要保证每一步的操作出入参都是幂等的,就可以无限重放。可以提前预热数据。 提前写好 curl 脚本模拟 HTTP 请求,可以提前花几天时间把数据库里的所有图片预热,节约之后的实时处理时间。健壮性。 Server 端可以使用 pm2 等成熟的进程守护工具保障鲁棒性,避免由于处理某一张图片出问题而导致任务卡壳。通用性。 前面说到我们做了一个 UI 网页,在网页里也可以调用这个接口。之后也可以将这个 HTTP 服务部署到线上,很多工作都可以复用了。2. 使用 pm2 跑预热任务前面提到 HTTP 接口使用了 pm2 做进程守护,避免了服务器的宕机。同样的,对于 client 端的任务脚本,也使用 pm2 做了守护。pm2 的 start 方法可以传 shell 脚本:pm2start'pnpmvite-nodescripts/trigger-minify-images.ts'这么做的目的是避免跑了半天由于某个边界条件没有处理或内存泄露导致脚本退出,一晚上的时间就浪费了。//trigger-minify-images.ts;(async()=>{leti=fs.readJSONSync(INDEX_PATH,{throws:false})0for(;i{leti=fs.readJSONSync(INDEX_PATH,{throws:false})0constbrowser=awaitpuppeteer.launch({args:['--no-sandbox',//沙盒模式'--disable-setuid-sandbox',//uid沙盒'--disable-dev-shm-usage',//创建临时文件共享内存'--disable-accelerated-2d-canvas',//canvas渲染'--disable-gpu',//GPU硬件加速'--disable-background-timer-throttling','--disable-backgrounding-occluded-windows','--disable-renderer-backgrounding','--proxy-server=http://127.0.0.1:8899',//这里用了代理'--window-size=1440,900'],//headless:true,devtools:true})for(;iitem.shop_id.toString()===shopId.toString())...constpage=awaitbrowser.newPage()awaitpage.setViewport({width:1440,height:0})//完成登录awaitpage.setCookie({url:'https://fxg.jinritemai.com',name:'TOKEN',value:cookie.match(/TOKEN=(.*)(:;|$)/).[1]'',expiresate.now()+86400000*365})awaitpage.goto(pageUrl)constbutton1='#minify-images'constbutton2='.auxo-btn.auxo-btn-primary:nth-of-type(2)'//等待确定按钮出现awaitpage.waitForSelector(button1,{visible:true,timeout:5*60*1000})//获取dom节点,需要将方法发送到page上下文执行,这个evaluate的函数其实是做为字符串发送到page上下文的constvalue=awaitpage.evaluate(el=>el.textContent.trim(),awaitpage.$(button1))''if(value!=='压缩'){//防御代码continue}awaitpage.click(button1)awaitpage.waitForSelector(button2,{visible:true})awaitsleep(1)awaitpage.click(button2)//30s后再关闭页面,确保所有请求都发送,这里没有用await,不阻塞循环sleep(30).then(()=>{page.close()})}catch(e){console.error(e)log(e)}}})()puppeteer 在 headless 为 false 时的坑:每次执行 page.goto 时,Chromium 都会弹到电脑最前面,打断你别的工作。网上搜了些方法都没成功,官方 issue 直接把这个问题给 close 了,close 了……解决方法:找 IT 借了一台电脑(软件解不了就硬件解吧,哼)。0x07、总结及遗留问题我们已经将线上所有 ISV 商家图片进行了替换,全量商家图片总体积降低 70%。从单个商家维度来看,其中压缩率最低为 31%;压缩率最高为 97%;压缩率中位数为 73%。这部分压缩率还没有算上运行时再转成 WebP 的增益。1. 压缩率低的店铺问题诊断仔细看上图左右两边的 (这图真是又白又大,阿呸我真不是为了给你们谋福利) 压缩前后对比,会发现原图底部有一根红线,这是故意标出来的,实际是一条 1px 高度透明像素。正是由于存在这条透明通道,导致压缩时不敢安全地转化为 JPG。2. 商家乱改扩展名问题图片命名的混乱,有些使用 .jpg,有些使用 .jpeg,有些直接把 .png 改成 .jpg 萌混过关。优秀的操作系统和浏览器则都尽可能让我们忘记扩展名和格式。文章前面提到商家运营和设计师可能不是一拨人。乱改扩展名和用扣扣截图都是基操。好在 imageX 抹平了这个差异,统一使用 .image 后缀。但这又带来一个问题:运行时不能提前知道图片是什么格式,不能压缩透明通道。这里有一个可行的方案,后续计划去做:在图片入库时,在图片的 url 上带上 query。形如:https://...xxx.image#width=200&height=100&ext=png&alpha=1使用 query 的好处: a. 本身 kv 结构,方便扩展。 b. 将宽高等信息带出可以在图片加载前提前占位避免抖动。 c. 不用改动现有数据结构增加新的结构体。 d. 放在 hash 上请求不会到达服务器,不会穿透 CDN,兼容性好。有了这些信息,C 端在图片请求前就可以做一些提前优化了。3. 超大宽度图片存量数据中,商家传的最大的一张图片为 3200x3200 尺寸,这在移动端上完全没有必要。目前我们已经卡了新增入口,图片宽度不可大于 1125px(3 倍 375)。对于存量图片,修改尺寸可能带来一定风险,故本次优化专项选择了保留原尺寸。4. PNG 的滥用这个问题前面也提到了,主要是现在很多图片软件默认导出就是 PNG。对没有透明度和极端清晰度要求的图片应当尽可能转成 JPG。这块之后会在产品层面上增加引导。0x08、后续本次项目中很多工作是可以沉淀下来的。比如压缩图片的 HTTP 接口、单图对比工具、高阶 JSON 的替换还原方法,将来都可以继续服务新增图片的生产上。另外,压缩的底层库 MozJPEG 也支持制作成 wasm,可以利用 B 端端侧的算力进行边缘计算,降低服务端负载。参考抖音在上传视频前,会提前在本地进行压缩,这是一个低频高收益的操作,搭建新页面时多花一些等待时间,对于商家是可以接受的。由于是使用的 client-server 架构,这个预热还可以进一步提前,比如在商家正在编辑的空闲时间做压缩预热,这样在保存发布的时候可以做到秒速压缩了。我们也在调研 HEIC / HEIF / AVIF 等新型图片格式,预计可以在 WebP 基础上再压缩 30%(目前兼容问题还比较大,可能要和客户端配合)。具体的产品交互形态等我们进一步细化,等上线后再和大家分享。后续也会把图片离线压缩做成 SDK 提供给大家使用。大家可以通过以下链接跳转到原文,查看文中信息的真实效果:https://bytedance.feishu.cn/docx/CxHidEWE2orP6wxqjaLcfUyVnnS欢迎大家点击左下方“阅读原文”,投递简历加入我们 也可以扫描下方二维码加入我们的微信群催更参考资料[1]Haozi. JS 随机数生成算法,什么是哲学上的「真」随机: https://math.haozi.me/random.html[2]Zhou Wang(2004).《图像质量评估:从错误可见性到结构相似性》: https://ece.uwaterloo.ca/~z70wang/publications/ssim.pdf[3]JP Richardson. 一个兼容 fs 的库,提供了非常多好用的方法:https://www.npmjs.com/package/fs-extra[4]Sindre Sorhus. 文件类型推断库,同时返回 ext 和 mime:https://www.npmjs.com/package/file-type[5]Haozi. 一个用类 linux 路径描述数据结构的工具库库:https://jsonuri.js.org/[6]Caolan McMahon. 一个好用地控制并发的库:https://www.npmjs.com/package/async[7]Christoph Tavan. 专业的 UUID 发生器,遵循 RFC4122 标准:https://www.npmjs.com/package/uuid[8]Anthony Fu. ts-node 的高性能替代方案:https://www.npmjs.com/package/vite-node[9]Zhou Wang.《客观的图像质量评估》:https://youtu.be/ibiCs_NJgCQ[10]Oscar. SSIM 的 JS 实现:https://npmjs.com/ssim.js关注公众号 干货不迷路
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 会员注册

本版积分规则

QQ|手机版|心飞设计-版权所有:微度网络信息技术服务中心 ( 鲁ICP备17032091号-12 )|网站地图

GMT+8, 2025-1-14 04:21 , Processed in 0.500843 second(s), 25 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表