此文仅作为读书笔记
volatile的应用
volatile的定义与实现原理
volatile的定义
java编程语言允许线程访问共享变量,为了确保共享变量能被准确和一致地更新,线程应该确保通过排它锁单独获得这个变量。如果一个字段被声明成volatile,java线程内存模型确保所有线程看到这个变量的值是一致的。
在了解volatile的实现原理之前,最好先熟悉与其实现原理相关的CPU术语与说明
术语 | 英文单词 | 术语描述 |
---|---|---|
内存屏障 | memory barriers | 是一组处理器指令,用于实现对内存操作的顺序限制 |
缓冲行 | cache line | CPU高速缓存中可以分配的最小存储单位。处理器填写缓存行时会加载整个缓存行,现代CPU一秒钟需要执行几百次CPU指令 |
原子操作 | atomic operations | 不可中断的一个或一系列操作 |
缓存行填充 | cache line fill | 当处理器识别到从内存中读取操作数是可缓存的,处理器读取整个高速缓存行到适当的缓存(L1,L2,L3的或所有) |
缓存命中 | cache hit | 如果进行高速缓存行填充操作的内存位置仍然是下次处理器访问的地址时,处理器从缓存中读取操作数,而不是从内存中读取 |
写命中 | write hit | 当处理器将操作数写回到一个内存缓存的区域时,它首先会检查这个缓存的内存地址是否在缓存行中,如果存在一个有效的缓存行,则处理器将这个操作数写回到缓存,而不是写回到内存,这个操作被称为写命中 |
写缺失 | write misses the cache | 一个有效的缓存行被写入到不存在的内存区域 |
volatile是如何保证可见性的呢?通过工具获取JIT编译器生成的汇编指令来查看对volatile进行写操作时,发现指令前会加上lock前缀。lock前缀的指令在多喝处理器下会引发一下两件事:
- 将当前处理器缓存行的数据写回到系统内存
- 这个写回内存的操作会使在其他CPU里缓存了该内存地址的数据无效
为了提高处理速度,处理器不直接和内存进行通信,而是先将系统内存的数据读到内部缓存后再进行操作,但操作完不知道何时会写到内存。如果对声明了volatile的变量进行写操作,JVM就会向处理器发送一条Lock前缀的指令,将这个变量所在缓存行的数据写回到系统内存。但是,就算写回到内存,如果其他处理器缓存的值还是旧的,再执行计算操作就会有问题。所以,在多处理器下,为了保证各个处理器的缓存是一致的,就会实现缓存一致性协议,每个处理器通过嗅探在总线上传播的数据来检查自己缓存的值是不是过期了,当处理器发现自己缓存行对应的内存地址被修改,就会将当前处理器的缓存行设置成无效状态,当处理器对这个数据进行修改操作的时候,会重新从系统内存中把数据读到处理器缓存里。
volatile的两条实现原则:
- lock前缀指令会引起处理器缓存回写到内存
- 一个处理器的缓存回写到内存会导致其他处理器的缓存无效
volatile的使用优化
著名大师Doug Lea(记住这个大佬,后面还会多次出现)在JDK7的并发包里新增一个队列集合类LinkedTransferQueue,它在使用volatile变量时,用一种追加字节的方式来优化队列出队和入队的性能。追加字节能优化性能?此处主要将队列头节点和尾节点的大小追加到64个字节,为什么是64字节呢?因为因特尔酷睿i7、酷睿、Atom和NetBurst等处理器的高速缓存行都是64个字节宽,不支持部分填充缓存行,这意味着,在多处理器下每个处理器都会缓存同样的头、尾节点,当一个处理器试图修改头节点时,会将整个缓存行锁定,那么由于volatile缓存一致性的原因,会导致其他处理器不能访问自己高速缓存中的尾节点,而队列的入队和出队操作则需要不停地修改头节点和尾节点,所以在多处理器的情况下将会严重影响到队列的入队和出队效率。将节点类型长度增加到64字节,能保证队列头节点和尾节点不会加载到同一个缓存行,使头、尾节点在修改时不会互相锁定。这种方式在环形队列Disruptor中也有使用到。
注意,不是在所有volatile情况下都应该追加到64字节,以下两种情况不应该使用这种方式:
- 缓存行非64字节宽的处理器
- 共享变量不会被频繁地写
而且,此种优化方式可能不会生效,java7已经更加指挥,它会淘汰或重新排列无用字段,需要使用其他追加字节的方式
synchronized的实现原理与应用
java中的每一个对象都可以作为锁。具体表现为以下3种形式:
- 对于普通同步方法,锁是当前实例对象
- 对于静态同步方法,锁时当前类的Class对象
- 对于同步方法块,锁时Synchonized括号里配置的对象
java对象头
synchronized用的锁是存在java对象头里的,如果对象是数组类型,则虚拟机用3个字(word)宽存储对象头,如果对象是非数组类型,则用2个字宽存储对象头。
java对象头的内容
长度 | 内容 | 说明 |
---|---|---|
32/64bit | Mark Word | 存储对象的hashCode或锁信息等 |
32/64bit | Class Metadata Address | 存储到对象类型数据的指针 |
32/64bit | Array length | 数组的长度(如果是数组类型) |
32位虚拟机Mark Word中的存储结构
锁状态 | 25bit | 4bit | 1bit是否是偏向锁 | 2bit锁标志位 |
---|---|---|---|---|
无锁状态 | 对象的hashCode | 对象分代年龄 | 0 | 01 |
64位虚拟机Mark Word中的存储结构
锁状态 | 25bit | 31bit | 1bit | 4bi | 1bit | 2bit |
---|---|---|---|---|---|---|
cms_free | 分代年龄 | 偏向锁 | 锁标志位 | |||
无锁 | unused | unused | 0 | 01 | ||
偏向锁 | ThreadID(54bit) Epoch(2bit) | 1 | 01 |
锁的升级与对比
偏向锁
经过研究发现,大多数情况下,锁不仅不存在多线程竞争,而且总是由同一线程多次获得,为了让线程获得锁的代价更低而引入了偏向锁。当一个线程访问同步块并获取锁时,会在对象头和栈帧中的锁记录里存储锁偏向的线程ID,以后该线程在进入和退出同步块时不需要进行CAS操作来加锁和解锁,只需简单地测试一下对象头的Mark Word里会否存储着指向当前线程的偏向锁。如果测试成功,线程获得锁。测试失败,则需要再测试一下Mark Word中偏向锁的标识是否设置成1(表示当前锁是偏向锁):如果不是偏向锁,则使用CAS竞争锁;如果设置了,则尝试使用CAS将对象头的偏向锁指向当前线程。
打个比方就是:cpu每次光顾一个线程(即某个线程获取锁,进入同步代码块中),都需要花费一些代价让线程获取到最新的数据,如果有很多线程都会被cpu光顾到,这是必需的,但是实际情况经常是cpu只偏爱某个线程,这种情况下那个特殊的线程的数据肯定是最新的数据,就没必要再花费那些代价去获取最新数据了,所以就把那个特殊线程的信息存到锁中了,此时这个锁就是偏向锁
轻量级锁
线程在执行同步代码块之前,jvm会先在当前线程的栈帧中创建用于存储锁记录的空间,并将对象头中的Mark Word复制到锁记录中,官方称为Displaced Mark Word。然后线程尝试使用CAS将对象头中的Mark Word替换为指向所记录的指针。如果成功,则当前线程获得锁,如果失败,标识其他线程竞争锁,当前线程便尝试使用自旋来获取锁。
解读:轻量级锁可以理解为一种乐观锁,即乐观的认为同时抢占锁的线程的数量不会太多且获取锁的线程的占用时间不会很长,因此不会让线程阻塞,而是通过自旋去获取锁
锁的优缺点对比
锁 | 优点 | 缺点 | 适用场景 |
---|---|---|---|
偏向锁 | 加锁和解锁不需要额外的消耗,和执行非同步方法相比仅存在纳秒级的差距 | 如果线程间存在锁竞争,会带来额外的锁撤销的消耗 | 适用于只有一个线程访问同步块的场景 |
轻量级锁 | 竞争的线程不会阻塞,提高了程序的响应速度 | 如果始终得不到锁竞争的线程,适用自旋会消耗CPU | 追求响应时间,同步块执行速度非常快 |
重量级锁 | 线程竞争不使用自旋,不会消耗CPU | 线程阻塞,响应时间缓慢 | 追求吞吐量,同步块执行速度较长 |
原子操作的实现原理
处理器如何实现原子操作
通过总线锁保证原子性
例如volatile变量,会使用lock指令前缀,当一个处理器使用lock前缀指令写变量时,其他处理器写此变量的请求会被阻塞
通过缓存锁定来保证原子性
java如何实现原子操作
java中通过锁和循环CAS的方式来实现原子操作
CAS实现原子操作的三大问题:
- ABA问题
- 循环时间长开销大
- 只能保证一个共享变量的原子操作