送你一篇源码分析,一起来一次思维风暴吧!!!

1,392 阅读10分钟

前言

学如逆水行舟,不进则退!!共勉!!!

阳光不燥,微风很暖。今天想跟大家一起分析一份GCD源码。如有错误之处或者更好想法可以在留言区留言讨论。写的还写的话,点点赞点点关注就好。

0x01 Mach

Mach是XNU的核心,被BSD层包装。XNU由以下几个组件组成:

  • MACH内核
    • 进程和线程抽象
    • 虚拟内存管理
    • 任务调度
    • 进程间通信和消息传递机制
  • BSD
    • UNIX进程模型
    • POSIX线程模型
    • UNIX用户与组
    • 网络协议栈
    • 文件系统访问
    • 设备访问
  • libKern
  • I/O Kit

Mach的独特之处在于选择了通过消息传递的方式实现对象与对象之间的通信。而其他架构一个对象要访问另一个对象需要通过一个大家都知道的接口,而Mach对象不能直接调用另一个对象,而是必须传递消息。

一条消息就像网络包一样,定义为透明的blob(binary larger object,二进制大对象),通过固定的包头进行分装

typedef struct
{ 
mach_msg_header_t header; mach_msg_body_t body;
}mach_msg_base_t;

typedef struct 
{ 
mach_msg_bits_t msgh_bits; // ֖消息头标志位
mach_msg_size_t   msgh_size;   // 大小
mach_port_t       msgh_remote_port; // 目标(发消息)或源(接消息) 
mach_port_t       msgh_local_port; // 源(发消息)或目标(接消息) 
mach_port_name_t  msgh_voucher_port;
mach_msg_id_t     msgh_id; // 唯一id
} mach_msg_header_t;

Mach消息的发送和接受都是通过同一个API函数mach_msg()进行的。这个函数在用户态和内核态都有实现。为了实现消息的发送和接收,mach_msg()函数调用了Mach陷阱(trap)。Mach陷阱就是Mach中和系统调用等同的概念。在用户调用mach_msg_trap()会引发陷阱机制,切换到内核态,在内核态中,内核实现的mach_msg()会完成实际的工作。这个函数也将会在下面的源码分析中遇到。

每一个BSD进程都在底层关联一个Mach任务对象,因为Mach提供的都是非常底层的抽象,提供的API从设计上讲很基础且不完整,所以需要在这之上提供一个更高层次以实现完整的功能。我们开发遇到的进程和线程就是BSD层对Mach的任务和线程的复杂包装。

进程填充的是线程,而线程是二进制代码的实际执行单元。用户态的线程始于对pthread_create的调用。这个函数的又由bsdthread_create系统调用完成,而bsdthread_create又其实是Mach中的thread_create的复杂包装,说到底真正的线程创建还是有Mach层完成。

在UNIX中,进程不能被创建出来,都是通过fork()系统调用复制出来的。复制出来的进程都会被要加载的执行程序覆盖整个内存空间。

接着,了解下常用的宏和常用的数据结构体。

0×02源码中常见的宏

1.__builtin_expect

这个其实是个函数,针对编译器优化的一个函数,后面几个宏是对这个函数的封装,所以提前拎出来说一下。写代码中我们经常会遇到条件判断语句

if(今天是工作日){
printf("好好上班”);
}else{
printf(“好好睡觉”);
}

CPU读取指令的时候并非一条一条的来读,而是多条一条加载进来,比如已经加载了if(今天是工作日)printf(“好好上班”);的指令,这时候条件式如果为非,也就是非工作日,那么CPU继续把printf(“好好睡觉”);这条指令加载进来,这样就造成了性能浪费的现象。

__builtin_expect的第一个参数是实际值,第二个参数是预测值。使用这个目的是告诉编译器if条件式是不是有更大的可能被满足。

2.likely和unlikely

解开这个宏后其实对__builtin_expect封装,likely表示更大可能成立,unlikely表示更大可能不成立。

#define likely(x) __builtin_expect(!!(x), 1)
#define unlikely(x) __builtin_expect(!!(x), 0)

遇到这样的,if(likely(a == 0))理解成if(a==0)即可,unlikely也是同样。

3.fastpath和slowpath

跟上面也是差不多的,fastpath表示更大可能成立,slowpath表示更大可能不成立

#define fastpath(x) ((typeof(x))__builtin_expect(_safe_cast_to_long(x), ~0l))
#define slowpath(x) ((typeof(x))__builtin_expect(_safe_cast_to_long(x), 0l))

这两个理解起来跟likely和unlikely一样,只需要关注里面的条件式是否满足即可。

4.os_atomic_cmpxchg

其内部就是atomic_compare_exchange_strong_explicit函数,这个函数的作用是:是第二个参数与第一个参数值比较,如果相等,第三个参数的值替换第一个参数值。如果不相等,把第一个参数的值赋值到第二个参数上。

#define os_atomic_cmpxchg(p, e, v, m) \ 
({ _os_atomic_basetypeof(p) _r = (e); \ atomic_compare_exchange_strong_explicit(_os_atomic_c11_atomic(p), \ 
&_r, v, memory_order_##m, memory_order_relaxed); })

5. os_atomic_store2o

将第二个参数,保存到第一个参数

#define os_atomic_store2o(p, f, v, m) os_atomic_store(&(p)->f, (v), m)
#define os_atomic_store(p, v, m) \ 
atomic_store_explicit(_os_atomic_c11_atomic(p), v, memory_order_##m)

6.os_atomic_inc_orig

将1保存到第一个参数中

#define os_atomic_inc_orig(p, m) os_atomic_add_orig((p), 1, m)#
define os_atomic_add_orig(p, v, m) _os_atomic_c11_op_orig((p), (v), m, add,
+)
#define _os_atomic_c11_op_orig(p, v, m, o, op) \ atomic_fetch_##o##_explicit(_os_atomic_c11_atomic(p), v, \ 
memory_order_##m)

0*03数据结构体,接着了解一些常用数据结构体。

1.dispatch_queue_t

typedef struct dispatch_queue_s *dispatch_queue_t; 

我们看下dispatch_queue_s怎么定义的。发现其内部有个_DISPATCH_QUEUE_HEADER宏定义。

struct dispatch_queue_s {
_DISPATCH_QUEUE_HEADER(queue);
DISPATCH_QUEUE_CACHELINE_PADDING;
} DISPATCH_ATOMIC64_ALIGN;  

解开_DISPATCH_QUEUE_HEADER后发现又一个DISPATCH_OBJECT_HEADER宏定义,继续拆解

#define _DISPATCH_QUEUE_HEADER(x) \ 
struct os_mpsc_queue_s _as_oq[0]; \ 
DISPATCH_OBJECT_HEADER(x); \ 
_OS_MPSC_QUEUE_FIELDS(dq, dq_state); \ u
int32_t dq_side_suspend_cnt; \ 
dispatch_unfair_lock_s dq_sidelock; \ 
union { \ 
dispatch_queue_t dq_specific_q; \ 
struct dispatch_source_refs_s *ds_refs; \ 
struct dispatch_timer_source_refs_s *ds_timer_refs; \
struct dispatch_mach_recv_refs_s *dm_recv_refs; \
}; \ 
DISPATCH_UNION_LE(uint32_t volatile dq_atomic_flags, \

const uint16_t dq_width, \ 
const uint16_t __dq_opaque \
); \ 
DISPATCH_INTROSPECTION_QUEUE_HEADER  

还有一层宏_DISPATCH_OBJECT_HEADER

#define DISPATCH_OBJECT_HEADER(x) \ 
struct dispatch_object_s _as_do[0]; 
\ _DISPATCH_OBJECT_HEADER(x)

不熟悉##的作用的同学,这里先说明下这个作用就拼接成字符串,比如x为group的话,下面就会拼接为dispatch_group这样的。

#define _DISPATCH_OBJECT_HEADER(x) \ 
struct _os_object_s _as_os_obj[0]; \ 
OS_OBJECT_STRUCT_HEADER(dispatch_##x); \ 
struct dispatch_##x##_s *volatile do_next; \ 
struct dispatch_queue_s *do_targetq; \ 
void *do_ctxt; \ 
void *do_finalizer

来到OS_OBJECT_STRUCT_HEADER之后,我们需要注意一个成员变量,记住这个成员变量名字叫做do_vtable。再继续拆解_OS_OBJECT_HEADER发现里面就是一个isa指针和引用计数一些信息。

#define OS_OBJECT_STRUCT_HEADER(x) \ 
_OS_OBJECT_HEADER(\ 
const void *_objc_isa, \
do_ref_cnt, \ 
do_xref_cnt); \ 
//注意这个成员变量,后面将任务Push到队列就是通过这个变量 
const struct x##_vtable_s *do_vtable

#define _OS_OBJECT_HEADER(isa, ref_cnt, xref_cnt) \ 
isa; /* must be pointer-sized */ \
int volatile ref_cnt; \ 
int volatile xref_cnt

2.dispatch_continuation_t

说到这个结构体,如果没看过源码的话,肯定对这个结构体很陌生,因为对外的api里面没有跟continuation有关的。所以这里先说下这个结构体就是用来封装block对象的,保存block的上下文环境和block执行函数等。

typedef struct dispatch_continuation_s {
struct dispatch_object_s _as_do[0]; 
DISPATCH_CONTINUATION_HEADER(continuation);
} *dispatch_continuation_t;

看下里面的宏:DISPATCH_CONTINUATION_HEADER

#define DISPATCH_CONTINUATION_HEADER(x) \ 
union { \ 
const void *do_vtable; \ 
uintptr_t dc_flags; \ 
}; \
union { \ 
pthread_priority_t dc_priority; \ 
int dc_cache_cnt; \ 
uintptr_t dc_pad; \ 
}; \ 
struct dispatch_##x##_s *volatile do_next; \ 
struct voucher_s *dc_voucher; \
dispatch_function_t dc_func; \ 
void *dc_ctxt; \ 
void *dc_data; \ 
void *dc_other

3.dispatch_object_t

typedef union { 
struct _os_object_s *_os_obj;
struct dispatch_object_s *_do; 
struct dispatch_continuation_s *_dc; 
struct dispatch_queue_s *_dq;
struct dispatch_queue_attr_s *_dqa; 
struct dispatch_group_s *_dg; 
struct dispatch_source_s *_ds; 
struct dispatch_mach_s *_dm; 
struct dispatch_mach_msg_s *_dmsg; 
struct dispatch_source_attr_s *_dsa;
struct dispatch_semaphore_s *_dsema; 
struct dispatch_data_s *_ddata; 
struct dispatch_io_s *_dchannel; 
struct dispatch_operation_s *_doperation;
struct dispatch_disk_s *_ddisk;} 
dispatch_object_t DISPATCH_TRANSPARENT_UNION;

dispatch_function_t

dispatch_function_t 只是一个函数指针

typedef void (*dispatch_function_t)(void *_Nullable);

至此,一些常用的宏和数据结构体介绍完毕,接下来,我们真正的要一起阅读GCD相关的源码了。

0×03创建队列

首先我们先从创建队列讲起。我们已经很熟悉,创建队列的方法是调用dispatch_queue_create函数。

其内部又调用了_dispatch_queue_create_with_target函数, 
DISPATCH_TARGET_QUEUE_DEFAULT这个宏其实就是null

dispatch_queue_t dispatch_queue_create(const char *label, dispatch_queue_attr_t attr) 
{ // attr一般我们都是传DISPATCH_QUEUE_SERIAL̵DISPATCH_QUEUE_CONCURRENT或者nil 
// 而DISPATCH_QUEUE_SERIALٌ其实就是null 
return _dispatch_queue_create_with_target(label, attr, 
DISPATCH_TARGET_QUEUE_DEFAULT, true); 
}

_dispatch_queue_create_with_target函数,这里会创建一个root队列,并将自己新建的队列绑定到所对应的root队列上。

static dispatch_queue_t _dispatch_queue_create_with_target(const char *label, dispatch_queue_attr_t dqa, 
dispatch_queue_t tq, bool legacy)
{    //根据上文代码注释里提到的,作者认为调用者传入DISPATCH_QUEUE_SERIA和޾nil几率要大于传DISPATCH_QUEUE_CONCURRENT̶所以这里设置个默认值。
// 这里怎么理解呢?只要看做if(!dqa)即可
if (!slowpath(dqa)) { 
//_dispatch_get_default_queue_attr里面会将dqa的dqa_autorelease_frequency指定为DISPATCH_AUTORELEASE_FREQUENCY_INHERIT的,inactive也指定为false̶。这里就不展开了,只需要知道赋了那些值。因为后面会用到。
dqa = _dispatch_get_default_queue_attr();

} else if (dqa->do_vtable != DISPATCH_VTABLE(queue_attr)) { 
DISPATCH_CLIENT_CRASH(dqa->do_vtable, "Invalid queue attribute"); 
}
 

//取出优先级
 dispatch_qos_t qos = _dispatch_priority_qos(dqa->dqa_qos_and_relpri); 
 
 // overcommit单纯从英文理解表示过量使用的意思,那这里这个overcommit就是一个标识符,表示是不是就算负荷很高了,但还是得给我新开一个线程出来给我执行任务。
 _dispatch_queue_attr_overcommit_t overcommit = dqa->dqa_overcommit; 
 if (overcommit != _dispatch_queue_attr_overcommit_unspecified && tq) { 
 if (tq->do_targetq) { 
 DISPATCH_CLIENT_CRASH(tq, "Cannot specify both overcommit and " 
 "a non-global target queue"); 
                } 
           } 
           
           // 如果overcommit没有被指定
           if (overcommit == _dispatch_queue_attr_overcommit_unspecified) { 
              // 所以对于overcommit҅,如果是串行的话默认是开启的,而并行是关闭的
              overcommit = dqa->dqa_concurrent ?
              _dispatch_queue_attr_overcommit
              _disabled : _dispatch_queue_attr_overcommit_enabled; 
           } 
           
           // 之前说过初始化队列默认传了DISPATCH_TARGET_QUEUE_DEFAULT҅,也就是null҅,所以进入if语句。  if (!tq) {̶
          // 获取一个管理自己队列的root队列。
          tq = _dispatch_get_root_queue( 
                qos == DISPATCH_QOS_UNSPECIFIED ? DISPATCH_QOS_DEFAULT : qos,
                overcommit == _dispatch_queue_attr_overcommit_enabled); 
           if (slowpath(!tq)) { 
           DISPATCH_CLIENT_CRASH(qos, "Invalid queue attribute"); 
           } 
      } 
      
      // legacy默认是true的 
      if (legacy) { 
           //之前说过,默认是会给dqa_autorelease_frequency指定为DISPATCH_AUTORELEASE_FREQUENCY_INHERIT҅,所以这个判断式是成立的
           if (dqa->dqa_inactive || dqa->dqa_autorelease_frequency) { 
           legacy = false; 
        } 
   }
  
  // vtable变量很重要,之后会被赋值到之前说的dispatch_queue_t结构体里的do_vtable变量上
       const void *vtable; 
       dispatch_queue_flags_t dqf = 0;  
       
       // legacy变false了
       if (legacy) { 
               vtable = DISPATCH_VTABLE(queue); 
              } else if (dqa->dqa_concurrent) { 
              // 如果创建队列的时候传了DISPATCH_QUEUE_CONCURRENT҅,就是走这里
              vtable = DISPATCH_VTABLE(queue_concurrent);
           } else { 
              // 如果创建线程没有指定为并行队列,无论你传DISPATCH_QUEUE_SERIAL还是nil҅,都会创建一个穿行队列。
              vtable = DISPATCH_VTABLE(queue_serial); 
              } 
              
              if (label) {
              // 判断传进来的字符串是否可变的,如果可变的copy成一份不可变的
              const char *tmp = _dispatch_strdup_if_mutable(label);
              if (tmp != label) { 
                  dqf |= DQF_LABEL_NEEDS_FREE; 
                  label = tmp; 
              } 
          }
          
          // _dispatch_object_alloc里面就将vtable赋值给do_vtable变量上了。
          dispatch_queue_t dq = _dispatch_object_alloc(vtable, 
                sizeof(struct dispatch_queue_s) - DISPATCH_QUEUE_CACHELINE_PAD); 
          // 第三个参数是否并行队列,如果不是则最多开一个线程,如果是则最多开0*1000-2个线程,这个数量很惊人了已经,换成十进制就是(4096-2)个。
          // dqa_inactive之前串行是false的 
          // DISPATCH_QUEUE_ROLE_INNER也是0,所以这里串行队列的话dqa->dqa_state是0 _dispatch_queue_init(dq, dqf, dqa->dqa_concurrent ? 
          DISPATCH_QUEUE_WIDTH_MAX : 1, DISPATCH_QUEUE_ROLE_INNER | 
          (dqa->dqa_inactive ? DISPATCH_QUEUE_INACTIVE : 0)); 
          
          dq->dq_label = label;
          #if HAVE_PTHREAD_WORKQUEUE_QOS 
          dq->dq_priority = dqa->dqa_qos_and_relpri; 
          if (overcommit == _dispatch_queue_attr_overcommit_enabled) { 
          dq->dq_priority |= DISPATCH_PRIORITY_FLAG_OVERCOMMIT; 
      }
      #endif 
      _dispatch_retain(tq);
      if (qos == QOS_CLASS_UNSPECIFIED) {
     _dispatch_queue_priority_inherit_from_target(dq, tq); 
 }
 if (!dqa->dqa_inactive) { 
      _dispatch_queue_inherit_wlh_from_target(dq, tq); 
   }
    // 自定义的queue的目标队列是root队列  
    dq->do_targetq = tq; 
    _dispatch_object_debug(dq, "%s", __func__);
    return _dispatch_introspection_queue_create(dq);
    }

这个函数里面还是有几个重要的地方拆出来看下,首先是创建一个root队列_dispatch_get_root_queue函数。取root队列,一般是从一个装有12个root队列数组里面取。

static inline dispatch_queue_t
_dispatch_get_root_queue(dispatch_qos_t qos, bool overcommit)
{ 
      if (unlikely(qos == DISPATCH_QOS_UNSPECIFIED || qos > DISPATCH_QOS_MAX)) 
{ 
      DISPATCH_CLIENT_CRASH(qos, "Corrupted priority");
    }
     return &_dispatch_root_queues[2 * (qos - 1) + overcommit];
 }

看下这个_dispatch_root_queues数组。我们可以看到,每一个优先级都有对应的root队列,每一个优先级又分为是不是可以过载的队列。

struct dispatch_queue_s _dispatch_root_queues[] = {
#define _DISPATCH_ROOT_QUEUE_IDX(n, flags) \ 
((flags & DISPATCH_PRIORITY_FLAG_OVERCOMMIT) ? \
DISPATCH_ROOT_QUEUE_IDX_##n##_QOS_OVERCOMMIT : \ 
DISPATCH_ROOT_QUEUE_IDX_##n##_QOS)
#define _DISPATCH_ROOT_QUEUE_ENTRY(n, flags, ...) \ 
[_DISPATCH_ROOT_QUEUE_IDX(n, flags)] = { \ 
DISPATCH_GLOBAL_OBJECT_HEADER(queue_root), \ 
.dq_state = DISPATCH_ROOT_QUEUE_STATE_INIT_VALUE, \ 
.do_ctxt = &_dispatch_root_queue_contexts[ \
     _DISPATCH_ROOT_QUEUE_IDX(n, flags)], \ 
     .dq_atomic_flags = DQF_WIDTH(DISPATCH_QUEUE_WIDTH_POOL), \ 
     .dq_priority = _dispatch_priority_make(DISPATCH_QOS_##n, 0) | flags | 
 \ 
                    DISPATCH_PRIORITY_FLAG_ROOTQUEUE | \ 
                    ((flags & DISPATCH_PRIORITY_FLAG_DEFAULTQUEUE) ? 0 : \。
                    DISPATCH_QOS_##n << DISPATCH_PRIORITY_OVERRIDE_SHIFT), \

image.png

image.png

其中DISPATCH_GLOBAL_OBJECT_HEADER(queue_root),解析到最后是OSdispatch##name##_class这样的这样的,对应的实例对象是如下代码,指定了root队列各个操作对应的函数。

image.png

其次看下DISPATCH_VTABLE这个宏,这个宏很重要。最后解封也是&OSdispatch##name##_class这样的。其实就是取dispatch_object_t对象。

如下代码,这里再举个VTABLE的串行对象,里面有各个状态该执行的函数:销毁函、挂起、恢复、push等函数都是在这里指定的。所以这里的do_push我们需要特别留意,后面push block任务到队列,就是通过调用do_push。

image.png

image.png

image.png

0x04 dispatch_sync

dispatch_sync直接调用的是dispatch_sync_f

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

至此,任务怎么被调度执行的已经看明白了。start_wqthread是汇编写的,直接和内核交互。虽然我们明确了使用了异步的任务执行的调用顺序,但是想必还是有这样的疑问_dispatch_worker_thread3是怎么跟内核扯上关系的。为什么调用的是_dispatch_worker_thread3,而不是_dispatch_worker_thread或者_dispatch_worker_thread4呢?

在此之前需要说的是,在GCD中一共有2个线程池管理着任务,一个是主线程池,另一个就是除了主线程任务的线程池。主线程池由序号1的队列管理,其他有序号2的队列进行管理。加上runloop运行runloop队列,一共就有16个队列。

image.png

有那么多root队列,所以application启动的时候就会初始化这些root队列的_dispatch_root_queues_init函数

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

image.png

最后

欢迎评论区留言讨论吖!!!有什么疑问想法,都可以在评论区留言讨论,抱紧iOS的小圈子。

iOS资料领取:下载地址