CPU & GPU
CPU & GPU 概念
在屏幕成像的过程中,CPU和GPU起着至关重要的作用
CPU(中央处理器): 对象的创建与销毁、对象属性的调整、布局计算、文本的计算和排版、图片的格式转码和解码、图像的绘制(Core Graphics)
GPU(图形处理器):
- 纹理的渲染(OpenGL)
- 纹理是一个用来保存图像颜色的元素值的缓存,渲染是指将数据生成图像的过程,纹理渲染则是将保存在内存中的颜色值等数据,生成图像的过程
现在的手机设备基本上都是双缓存+垂直同步(VSync)屏幕显示技术
如上图所示,系统内CPU、GPU和显示器是协同完成显示工作的。其中CPU负责计算显示的内容,例如视图创建、布局计算、图片解码、文本绘制等等。
随后CPU将计算好的内容提交给GPU,由GPU进行变换、合成、渲染。\
GPU会预先渲染好一帧放入一个缓冲区内,让视频控制器读取,当下一帧渲染好后,GPU会直接将视频控制器的指针指向第二个容器(双缓存原理)。这里,GPU会等待显示器的VSync(即垂直同步)信号发出后,才进行新的一帧渲染和缓冲区更新(这样能解决画面撕裂现象,也增加了画面流畅度,但需要消费更多的计算资源,也会带来部分延迟
卡顿原理
屏幕成像原理
在屏幕显示过程中是有信号发送的。一帧一帧的。
发出垂直同步信号(VSync)时,即将显示一页的数据。水平同步信号(HSync)发出时,就一行一行的显示。按照60FPS的刷帧率,每隔16ms就会有一次VSync信号。
卡顿
屏幕内容是怎么显示到屏幕上的? 1.CPU完成计算,提交给GPU渲染,这是来个VSync,则会将渲染的内容显示到屏幕上。 2.CPU计算时间正常,CPU渲染时间短,等待VSync。 3.CPU计算时间正常或慢,GPU渲染时间长,这时来了VSync,而这一帧还没有渲染完,那么就会出现掉帧现象,屏幕回去显示上一帧的画面。这样就产生了卡顿。 4.而当下一帧VSync出现时,丢掉的那一帧画面才会出现。
卡顿优化
CPU
- 尽量用轻量级的对象,比如用不到事件处理的地方,可以考虑使用CALayer取代UIView;能用基本数据类型,就别用NSNumber类型。
- 不要频繁地调用UIVIew的相关属性,比如frame、bounds、transform等属性,尽量减少不必要的修改
- 尽量提前计算好布局,在有需要时一次性调整对应的布局,不要多次修改属性。
- Autolayout会比直接设置frame消耗更多的CPU资源。
- 图片的size最好刚好跟UIImageView的size保持一致。
- 控制一下线程的最大并发数量。
- 尽量把耗时的操作放到子线程。
- 文本处理(尺寸的计算,绘制)。
- 图片处理(解码、绘制)。
GPU
- 尽量减少视图数量和层次。
- GPU能处理的最大纹理尺寸是4096x4096,一旦超过这个尺寸,就会占用CPU资源进行处理,所以纹理尽量不要超过这个尺寸。
- 尽量避免一段时间内大量图片的显示,尽可能将多张图片合成一张图片显示。
- 减少透明的视图(alpha<1),不透明的就设置opaque为YES。
- 尽量避免出现离屏渲染。
离屏渲染
在OpenGL中,GPU有2种渲染方式:
- On-SCreen Rendering:当前屏幕渲染,在当前用语显示的屏幕缓冲区进行渲染操作。
- Off-Screen Rendring: 离屏渲染,在当前屏幕缓冲区以外新开辟一个缓冲区进行渲染操作。
离屏渲染消耗性能的原因:
- 需要创建新的缓冲区;
- 离屏渲染的整个过程,需要多次切换上下文环境,先是从当前屏幕切换到离屏;等到离屏渲染结束以后,将离屏缓冲区的渲染结果显示到屏幕上,又需要将上下文环境从离屏切换到当前屏幕。
哪些操作会触发离屏渲染?
- 光栅化,layer.shouldRasterize = YES
- 遮罩,layer.mask
- 圆角,同时设置layer.maskToBounds = Yes,Layer.cornerRadis 大于0,考虑通过CoreGraphics绘制裁剪圆角,或者美工提供圆角图片
- 阴影,layer.shadowXXX,如果设置了layer.shadowPath就不会产生离屏渲染