理解iOS中图片从文件渲染屏幕的过程
一般情况下,显示是由 CPU 和 GPU 协作来完成的渲染,一次渲染的过程中,分工大致如下:
CPU:计算 frame,图片解码,通过数据总线将需要绘制的纹理图片交给GPU
GPU:纹理混合,顶点变换与计算,像素点的填充计算,渲染到帧缓冲区。
图片加载的工作流程
从磁盘拷贝数据到内核缓冲区
2)从内核缓冲区复制数据到用户空间
3)生成UIImageView,把图像数据赋值给UIImageView
4)如果图像数据为未解码的PNG/JPG,转码为位图数据
5)CATransaction捕获到UIImageView layer树的变化
6)主线程Runloop提交CATransaction,开始进行图像渲染:
A、如果数据没有字节对齐,Core Animation会再拷贝一份数据,进行字节对齐。
B、GPU处理位图数据,进行渲染。
渲染流程:
GPU 获取图片的坐标
将坐标交给顶点着色器(顶点计算)
将图片光栅化(获取图片对应屏幕上的像素点)
片元着色器计算(计算每个像素点的最终显示的颜色值)
从帧缓存区中渲染到屏幕上
由于图片压缩是一个非常耗时的 CPU 操作,并且它是默认在主线程中执行,当需要加载的图片比较多的时候,就会对应用性能造成严重影响,尤其是在快速滑动列表时,这个问题尤其明显。
为什么要解压缩图片
既然图片的解压缩十分消耗性能,为什么还要进行图片的解压缩而不是直接将图片显示在屏幕上呢?为了解释这个问题,就需要先了解什么是位图。
位图就是一个像素数组,数组中的每个像素点就代表图片中的一个点。我们经常接触到的 JPEG 和 PNG 图片就是位图,而他们事实上是一种压缩的位图图形格式,只不过 PNG 是无损压缩,并且支持 alpha 通道,而 JPEG 图片则是有损压缩,可以指定 0-100%的压缩比。因此,在将磁盘中的图片渲染到屏幕之前,必须先要得到图片的原始像素数据,才能执行后续的绘制操作,这就是为什么要对图片解压缩的原因。
解压缩原理
当未解压缩的图片将要渲染到屏幕时,系统会在主线程对图片进行解压缩,而如果图片已经解压缩了,系统就不会再对图片进行解压缩,而解压缩十分消耗性能,我们不希望让它在主线程执行,因此就有了业内常用的解决方案,在子线程提前对图片进行解压缩。
强制解压缩的原理就是对图片进行重新绘制,得到一张新的解压缩后的位图。其中用到的最核心的函数就是 CGBitmapContextCreate :
CG_EXTERN CGContextRef __nullable CGBitmapContextCreate(void * __nullable data,
size_t width, size_t height, size_t bitsPerComponent, size_t bytesPerRow,
CGColorSpaceRef cg_nullable space, uint32_t bitmapInfo)
CG_AVAILABLE_STARTING(__MAC_10_0, __IPHONE_2_0);
data : 如果不为 NULL,那么它应该指向一块大小至少为 bytesPerRow * height 字节的内存;如果为 NULL,那么系统就会为我们自动分配和释放所需的内存,所以一般指定 NULL 即可;
width 和 height :位图的宽度和高度,分别赋值为图片的像素宽度和像素高度即可;
bitsPerComponent :像素的每个颜色分量使用的比特数,在 RGB 颜色空间下指定为 8 即可;
bytesPerRow :位图的每一行使用的字节数,大小至少为 width * bytes per pixel 字节。当指定为 0/NULL 时,系统不仅会自动计算,还会进行 cache line alignment 的优化。
space :就是之前提到的颜色空间,一般使用 RGB 即可 ;
bitmapInfo :位图的布局信息。kCGImageAlphaPremultipliedFirst
总结
1.图片文件只有在确认要显示时,CPU 才会对其进行解压缩。因为解压缩是非常耗时性能的事情,解压过的图片就不会重复解压,会缓存起来。
2.图片渲染到屏幕的过程:读取文件 -> 计算 Frame -> 图片解码 -> 解码后纹理图片位图数据通过数据总线交给 GPU -> GPU获取图片 Frame -> 顶点变换计算 -> 光栅化 -> 根据纹理坐标获取每个像素点的颜色值(如果出现透明值需要将每个像素点的颜色*透明值度)-> 渲染到帧缓存区 -> 渲染到屏幕