阅读 82

JVM_3 JMM

单例模式 双重检查

Object o = new Object();

汇编指令如下:

0 new #2 <java/lang/Object>
3 dup
4 invokespecial #1 <java/lang/Object.<init>>
7 astore_1
8 return
复制代码

jvm优化可能导致 4 和 7指令交换位置。

  • 优化前:
    • 0 分配内存,赋默认值
    • 4 对象赋初始值
    • 7 引用指向对象
  • 优化后:
    • 0 分配内存,赋默认值
    • 7 引用指向对象(假如第二个线程此时进行第二次检查,此时对象已经有默认值,不为空,第二个线程获取到的就是线程一的默认值)
    • 4 对象赋初始值

     使用volatile可以防止指令重排序,所以声明引用时一定要使用volatile修饰

JMM

硬件层的并发优化基础知识

1628644545.jpg

数据传输中的时间差距图

1628644850.jpg

缓存行 cache line 的概念、缓存行对齐、伪共享

1628645038.jpg

在这种模型下,CPU1和CPU2会出现数据不一致的问题

  • 解决方案一:总线锁

1628645642.jpg

总线锁会锁住总线,使得其他CPU甚至不能访问内存中其他的地址,因而效率较低。

  • 解决方案二:各种一致性协议【MSI MESI MOSI Synapse Firefly Dragon】

Intel的CPU使用的是MESI Cache一致性协议

1628645977.jpg

  • 解决方案三:现代CPU的数据一致性实现 = 缓存锁(MESI ...) + 总线锁
缓存行

读取缓存以cache line为基本单位,目前64bytes

位于同一缓存行的两个不同数据,被两个不同CPU锁定,产生互相影响的伪共享问题

伪共享问题:JUC/c_028_FalseSharing【参考并发专题】

伪共享的解决方案:缓存行对齐填充能够提高效率,但是会浪费一部分内存,落地实现disruptor

1628647709.jpg

乱序问题

CPU为了提高指令执行效率,会在一条指令执行过程中(比如去内存读数据(慢100倍)),去同时执行另一条指令,前提是,两条指令没有依赖关系

CPU的读等待同时指令执行,是CPU乱序执行的根源,参考文章

写操作也可以进行合并【JUC/029_WriteCombining】

乱序执行的证明:【JVM/jmm/Disorder.java】

原始参考:preshing.com/20120515/me…

如何保证特定情况下不乱序

有序性保障
CPU
  1. CPU内存屏障【Intel x86 CPU】

    • sfence:在sfence指令前的写操作当必须在sfence指令后的写操作前完成
    • Ifence:在Ifence指令前的读操作当必须在Ifence指令后的读操作前完成
    • mfence:在mfence指令前的读写操作当必须在mfence指令后的读写操作前完成
  2. 原子指令lock 

    如x86上的”lock …” 指令是一个Full Barrier,执行时会锁住内存子系统来确保执行顺序,甚至跨多个CPU。Software Locks通常使用了内存屏障或原子指令来实现变量可见性和保持程序顺序

JVM
  1. 内存屏障

LoadLoad屏障:

       对于这样的语句Load1; LoadLoad; Load2, 

      在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。

StoreStore屏障:

      对于这样的语句Store1; StoreStore; Store2,

      在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。

LoadStore屏障:

      对于这样的语句Load1; LoadStore; Store2,

      在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。

StoreLoad屏障:

     对于这样的语句Store1; StoreLoad; Load2,

    在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。

  1. lock指令

synchronized的实现细节是使用hsdis观察汇编码,lock指令comxch

volatile 实现细节
  1. 字节码层面

   ACC_VOLATILE

  1. JVM层面

   volatile内存区的读写 都加屏障

StoreStoreBarrier

volatile 写操作

StoreLoadBarrier

LoadLoadBarrier

volatile 读操作

LoadStoreBarrier

  1. OS和硬件层面

   blog.csdn.net/qq_26222859…

   hsdis - HotSpot Dis Assembler

   使用hsdis观察汇编码

   windows lock 指令实现 | MESI实现

   lock指令xxx执行xxx指令的时候保证对内存区域加锁

synchronized实现细节
  1. 字节码层面
    • 方法:ACC_SYNCHRONIZED
    • 同步块:monitorenter monitorexit monitorexit【使用两个exit是因为异常退出】
  2. JVM层面

   C C++ 调用了操作系统提供的同步机制【windows和Linux内核的实现不同】

  1. OS和硬件层面

   X86 : 使用 lock cmpxchg / xxx 实现

   参考文章:Java使用字节码和汇编语言同步分析volatile,synchronized的底层实现

java并发内存模型

1628663240.jpg

hanppens-before原则(JVM规定重排序必须遵守的原则) JLS17.4.5

• 程序次序规则:同一个线程内,按照代码出现的顺序,前面的代码先行于后面的代码,准确的说是控制流顺序,因为要考虑到分支和循环结构。

• 管程锁定规则:一个unlock操作先行发生于后面(时间上)对同一个锁的lock操作。

volatile变量规则:对一个volatile变量的写操作先行发生于后面(时间上)对这个变量的读操作。

• 线程启动规则:Thread的start( )方法先行发生于这个线程的每一个操作。

• 线程终止规则:线程的所有操作都先行于此线程的终止检测。可以通过Thread.join( )方法结束、Thread.isAlive( )的返回值等手段检测线程的终止。

• 线程中断规则:对线程interrupt( )方法的调用先行发生于被中断线程的代码检测到中断事件的发生,可以通过Thread.interrupt( )方法检测线程是否中断

• 对象终结规则:一个对象的初始化完成先行于发生它的finalize()方法的开始。

• 传递性:如果操作A先行于操作B,操作B先行于操作C,那么操作A先行于操作C

as if serial

不管如何重排序,单线程执行结果不会改变。

文章分类
后端
文章标签