我们把性能优化的方向分为以下两个方面,有助于结构化的思考与系统分析。
「目录」
1. 核心性能指标与 Performance API
1.1. 计算与收集
2. 更快的传输: CDN
3. 更快的传输: http2
4. 更快的传输: 充分利用 HTTP 缓存
5. 更快的传输: 减少 HTTP 请求及负载
6. 更小的体积: gzip/brotli
7. 更小的体积: 压缩混淆工具
8. 更小的体积: 更小的 Javascript
9. 更小的体积: 更小的图片
10. 渲染优化: 关键渲染路径
10.1. preload/prefetch
11. 渲染优化: 防抖与节流
12. 渲染优化: 虚拟列表优化
13. 渲染优化: 请求及资源缓存
14. Web Worker
15. WASM
web-vitals
当收集浏览器端每个用户核心性能指标时,可通过 web-vitals
收集并通过 sendBeacon 上报到打点系统。
import { getCLS, getFID, getLCP } from 'web-vitals'
function sendToAnalytics(metric) {
const body = JSON.stringify(metric);
navigator.sendBeacon('/analytics', body))
}
getCLS(sendToAnalytics);
getFID(sendToAnalytics);
getLCP(sendToAnalytics);
将资源分发到 CDN 的边缘网络节点,使用户可就近获取所需内容,大幅减小了光纤传输距离,使全球各地用户打开网站都拥有良好的网络体验。
CDN
http2
的诸多特性决定了它更快的传输速度。
目前,网站已大多上了 http2,可在控制台面板进行查看。
h2
由于 http2 可并行请求,解决了 http1.1 线头阻塞的问题,以下几个性能优化点将会过时
https://shanyue.tech/assets??index.js,interview.js,report.js
更好的资源缓存策略,对于 CDN 来讲可减少回源次数,对于浏览器而言可减少请求发送次数。无论哪一点,对于二次网站访问都具有更好的访问体验。
缓存策略
强缓存: 打包后带有 hash 值的资源 (如 /build/a3b4c8a8.js)
协商缓存: 打包后不带有 hash 值的资源 (如 /index.html)
分包加载 (Bundle Spliting)
避免一行代码修改导致整个 bundle 的缓存失效
对一个网站的资源进行压缩优化,从而达到减少 HTTP 负载的目的。
对 JS、CSS、HTML 等文本资源均有效,但是对图片效果不大。
gzip
通过 LZ77 算法与 Huffman 编码来压缩文件,重复度越高的文件可压缩的空间就越大。brotli
通过变种的 LZ77 算法、Huffman 编码及二阶文本建模来压缩文件,更先进的压缩算法,比 gzip 有更高的性能及压缩率可在浏览器的 Content-Encoding
响应头查看该网站是否开启了压缩算法,目前知乎、掘金等已全面开启了 brotli
压缩。
# Request Header
Accept-Encoding: gzip, deflate, br
# gzip
Content-Encoding: gzip
# gzip
Content-Encoding: br
Terser 是 Javascript 资源压缩混淆的神器。
它可以根据以下策略进行压缩处理:
const a = 24 * 60 * 60 * 1000
-> const a = 86400000
可在 Terser Repl 在线查看代码压缩效果。
terser
1 . swc 是另外一个用以压缩 Javascript 的工具,它拥有与 terser
相同的 API,由于它是由 rust
所写,因此它拥有更高的性能。
2 . html-minifier-terser 用以压缩 HTML 的工具
关于更小的 Javascript,上边已总结了两条:
还有以下几点可以考虑考虑:
再补充一个问题:
如何分析并优化当前项目的 Javascript 体积?如果使用 webpack
那就简单很多。
webpack-bundle-analyze
分析打包体积import lodash
-> import lodash/get
import lodash
-> import lodash-es
在前端发展的现在,webp
普遍比 jpeg/png
更小,而 avif
又比 webp
小一个级别
为了无缝兼容,可选择 picture/source
进行回退处理
<picture>
<source srcset="img/photo.avif" type="image/avif">
<source srcset="img/photo.webp" type="image/webp">
<img src="img/photo.jpg" width="360" height="240">
</picture>
sharp
等以下五个步骤为关键渲染路径
渲染的优化很大程度上是对关键渲染路径进行优化。
preload
/prefetch
可控制 HTTP 优先级,从而达到关键请求更快响应的目的。
<link rel="prefetch" href="style.css" as="style">
<link rel="preload" href="main.js" as="script">
捎带说一下 dns-prefetch
,可对主机地址的 DNS 进行预解析。
<link rel="dns-prefetch" href="//shanyue.tech">
无论是防抖还是节流都可以大幅度减少渲染次数,在 React 中还可以使用 use-debounce
之类的 hooks 避免重新渲染。
import React, { useState } from 'react';
import { useDebounce } from 'use-debounce';
export default function Input() {
const [text, setText] = useState('Hello');
// 一秒钟渲染一次,大大降低了重新渲染的频率
const [value] = useDebounce(text, 1000);
return (
<section>
<input
defaultValue={'Hello'}
onChange={(e) => {
setText(e.target.value);
}}
/>
<p>Actual value: {text}</p>
<p>Debounce value: {value}</p>
</section>
);
}
这又是一个老生常谈的话题,一般在视口内维护一个虚拟列表(仅渲染十几条条数据左右),监听视口位置变化,从而对视口内的虚拟列表进行控制。
在 React 中可采用以下库:
1 . react-virtualized
2 . react-window
在一些前端系统中,当加载页面时会发送请求,路由切换出去再切换回来时又会重新发送请求,每次请求完成后会对页面重新渲染。
然而这些重新请求再大多数时是没有必要的,合理地对 API 进行缓存将达到优化渲染的目的。
function Example() {
// 设置缓存的 Key 为 Users:10086
const { isLoading, data } = useQuery(['users', userId], () => fetchUserById(userId))
}
试举一例:
在纯浏览器中,如何实现高性能的实时代码编译及转换?
1 . Babel Repl
如果纯碎使用传统的 Javascript 实现,将会耗时过多阻塞主线程,有可能导致页面卡顿。
如果使用 Web Worker
交由额外的线程来做这件事,将会高效很多,基本上所有在浏览器端进行代码编译的功能都由 Web Worker
实现。
试举一例:
在纯浏览器中,如何实现高性能的图片压缩?
基本上很难做到,Javascript 的性能与生态决定了实现图片压缩的艰难。
而借助于 WASM 就相当于借用了其它语言的生态。
1 . libavif: C语言写的 avif 解码编码库
2 . libwebp: C语言写的 webp 解码编码库
3 . mozjpeg: C语言写的 jpeg 解码编码库
4 . oxipng: Rust语言写的 png 优化库
而由于 WASM,完全可以把这些其它语言的生态移植到浏览器中,从而实现一个高性能的离线式的图片压缩工具。
如果想了解这种的工具,请看看 squoosh
squoosh
Copyright© 2013-2020
All Rights Reserved 京ICP备2023019179号-8