-
Java多线程学习笔记
作者:Grey
原文地址:Java多线程学习笔记 https://www.cnblogs.com/greyzeng/p/14176141.html
说明#
本文涉及到的所有代码和图例
图例
https://www.processon.com/view/5ec513425653bb6f2a1f7da8
代码
https://github.com/GreyZeng/juc
顺序、并行与并发#
顺序(sequential)用于表示多个操作“依次处理”。比如把十个操作交给一个人处理时,这个人要一个一个地按顺序来处理。
并行(parallel)用于表示多个操作“同时处理”。比如十个操作分给两个人处理时,这两个人会并行来处理。
并发(concurrent)相对于顺序和并行来说比较抽象,用于表示“将一个操作分割成多个部分并且允许无序处理”。比如将十个操作分成相对独立的两类,这样便可以开始并发处理了。如果一个人来处理,这个人就是顺序处理分开的并发操作,而如果是两个人。这两个人就可以并行处理同一操作。
如果CPU只有一个,那么并发处理就是顺序执行的,而如果有多个CPU,那么并发处理就可能会并行运行。
什么是程序,进程和线程?#
-
程序是计算机的可执行文件
-
进程是计算机资源分配的基本单位
-
线程是资源调度执行的基本单位
-
一个程序里面不同的执行路径
-
多个线程共享进程中的资源
-
什么是协程?#
协程是一种用户态的轻量级线程,协程的调度完全由用户控制。协程拥有自己的寄存器上下文和栈。协程调度切换时,将寄存器上下文和栈保存到其他地方,在切回来的时候,恢复先前保存的寄存器上下文和栈,直接操作栈则基本没有内核切换的开销,可以不加锁的访问全局变量,所以上下文的切换非常快。协程在子程序内部可中断的,然后转而执行别的子程序,在适当的时候再返回来接着执行。
协程的特点在于是一个线程执行,那和多线程比,协程有如下优势:
-
极高的执行效率:因为子程序切换不是线程切换,而是由程序自身控制,因此,没有线程切换的开销,和多线程比,线程数量越多,协程的性能优势就越明显;
-
不需要多线程的锁机制:因为只有一个线程,也不存在同时写变量冲突,在协程中控制共享资源不加锁,只需要判断状态就好了,所以执行效率比多线程高很多。
注意,协程避免了无意义的调度,由此可以提高性能,但也因此,程序员必须自己承担调度的责任,同时,协程也失去了标准线程使用多CPU的能力。
一个简单的协程示例, 代码见:FiberSample.java,需要引入quasar-core依赖包。
线程和进程的关系#
线程就是轻量级进程,是程序执行的最小单位。
多进程的方式也可以实现并发,为什么我们要使用多线程?
-
共享资源在线程间的通信比较容易。
-
线程开销更小。
进程和线程的区别?#
-
进程是一个独立的运行环境,而线程是在进程中执行的一个任务。他们两个本质的区别是是否单独占有内存地址空间及其它系统资源(比如I/O)。
-
进程单独占有一定的内存地址空间,所以进程间存在内存隔离,数据是分开的,数据共享复杂但是同步简单,各个进程之间互不干扰;而线程共享所属进程占有的内存地址空间和资源,数据共享简单,但是同步复杂。
-
进程单独占有一定的内存地址空间,一个进程出现问题不会影响其他进程,不影响主程序的稳定性,可靠性高;一个线程崩溃可能影响整个程序的稳定性,可靠性较低。
-
进程单独占有一定的内存地址空间,进程的创建和销毁不仅需要保存寄存器和栈信息,还需要资源的分配回收以及页调度,开销较大;线程只需要保存寄存器和栈信息,开销较小。
-
进程是操作系统进行资源分配的基本单位,而线程是操作系统进行调度的基本单位,即CPU分配时间的单位。
多线程访问成员变量与局部变量#
类变量(类里面static修饰的变量)保存在“方法区”
实例变量(类里面的普通变量)保存在“堆”
局部变量(方法里声明的变量)“虚拟机栈”
“方法区”和“堆”都属于线程共享数据区,“虚拟机栈”属于线程私有数据区。
因此,局部变量是不能多个线程共享的,而类变量和实例变量是可以多个线程共享的。事实上,在java中,多线程间进行通信的唯一途径就是通过类变量和实例变量。也就是说,如果一段多线程程序中如果没有类变量和实例变量,那么这段多线程程序就一定是线程安全的。
开发过程中,为了解决线程安全问题,有如下角度可以考虑:
第一种方案:尽量使用局部变量,代替实例变量和静态变量。
第二种方案:如果必须是实例变量,那么可以考虑创建多个对象,这样实例变量的内存就不共享了(一个线程对应一个对象,100个对象对应100个对象,对象不共享,就没有数据安全问题了)
第三种方案:如果不使用局部变量。对象也不能创建多个。这个时候,就只能选择syncharonized
了。
线程的共享资源和独有资源#
共享资源#
- 进程代码段
- 进程的公有数据
- 进程打开的文件描述符、信号的处理器、进程的当前目录和进程用户ID与进程组ID。
独有资源#
线程ID
每个线程都有自己的线程ID,这个ID在本进程中是唯一的。进程用此来标识线程。
寄存器组的值
由于线程间是并发运行的,每个线程有自己不同的运行线索,当从一个线程切换到另一个线程上时,必须将原有的线程的寄存器集合的状态保存,以便将来该线程在被重新切换到时能得以恢复。
线程的堆栈
堆栈是保证线程独立运行所必须的。线程函数可以调用函数,而被调用函数中又是可以层层嵌套的,所以线程必须拥有自己的函数堆栈, 使得函数调用可以正常执行,不受其他线程的影响。
错误返回码
由于同一个进程中有很多个线程在同时运行,可能某个线程进行系统调用后设置了err no值,而在该线程还没有处理这个错误,另外一个线程就在此时被调度器投入运行,这样错误值就有可能被修改。所以,不同的线程应该拥有自己的错误返回码变量。
线程的信号屏蔽码
由于每个线程所感兴趣的信号不同,所以线程的信号屏蔽码应该由线程自己管理。但所有的线程都 共享同样的信号处理器。
线程的优先级
由于线程需要像进程那样能够被调度,那么就必须要有可供调度使用的参数,这个参数就是线程的优先级。
什么是线程切换?#
从底层角度上看,CPU主要由如下三部分组成,分别是:
- ALU: 计算单元
- Registers: 寄存器组
- PC:存储到底执行到哪条指令
T1线程在执行的时候,将T1线程的指令放在PC,数据放在Registers,假设此时要切换成T2线程,T1线程的指令和数据放cache,然后把T2线程的指令放PC,数据放Registers,执行T2线程即可。
以上的整个过程是通过操作系统来调度的,且线程的调度是要消耗资源的,所以,线程不是设置越多越好。
示例:
单线程和多线程来累加1亿个数。 示例代码:CountSum.java
运行结果
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 49998957.92 耗时 : 105ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 49998957.92 耗时 : 59ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 49998957.92 耗时 : 61ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 50000711.89 耗时 : 101ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 50000711.89 耗时 : 54ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 50000711.89 耗时 : 64ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 49998124.71 耗时 : 114ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 49998124.71 耗时 : 53ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 49998124.71 耗时 : 54ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 50000309.80 耗时 : 102ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 50000309.80 耗时 : 53ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 50000309.80 耗时 : 35ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 50001943.57 耗时 : 108ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 50001943.57 耗时 : 58ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 50001943.57 耗时 : 41ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 49997176.44 耗时 : 102ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 49997176.44 耗时 : 53ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 49997176.44 耗时 : 29ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 49999627.84 耗时 : 101ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 49999627.84 耗时 : 53ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 49999627.84 耗时 : 29ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 50001260.16 耗时 : 102ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 50001260.16 耗时 : 55ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 50001260.16 耗时 : 28ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 49997786.83 耗时 : 101ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 49997786.83 耗时 : 54ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 49997786.83 耗时 : 28ms
计算1亿个随机Double类型数据之和[单线程], 结果是:result = 49998955.27 耗时 : 102ms
计算1亿个随机Double类型数据之和[2个线程], 结果是:result = 49998955.27 耗时 : 54ms
计算1亿个随机Double类型数据之和[10个线程], 结果是:result = 49998955.27 耗时 : 28ms
可以看到结果中,创建10个线程 不一定会比创建2个线程要执行更快。
单核CPU设定多线程是否有意义?#
有意义,因为线程的操作中可能有不消耗CPU的操作,比如:等待网络的传输,或者线程sleep,此时就可以让出CPU去执行其他线程。可以充分利用CPU资源。
工作线程数(线程池中线程数量)设多少合适?#
-
和CPU的核数有关
-
最好是通过压测来评估。通过profiler性能分析工具JProfiler,或者Arthas
-
公式
N = Ncpu * Ucpu * (1 + W/C)
其中:
-
Ncpu是处理器的核的数目,可以通过
Runtime.getRuntime().availableProcessors()
得到 -
Ucpu是期望的CPU利用率(该值应该介于0和1之间)
-
W/C是等待时间和计算时间的比率。
更深入的分析,可以参考这篇文章
一个Hello World程序运行的时候启动了几个线程?#
使用如下代码:
public class HowManyThreadHelloWorld {
public static void main(String[] args) {
Thread t = Thread.currentThread();
System.out.println("\n线程:" + t.getName() + "\n");
System.out.println("hello world!");
for (Map.Entry<Thread, StackTraceElement[]> entry : Thread.getAllStackTraces().entrySet()) {
Thread thread = entry.getKey();
StackTraceElement[] stackTraceElements = entry.getValue();
if (thread.equals(Thread.currentThread())) {
continue;
}
System.out.println("\n线程: " + thread.getName() + "\n");
for (StackTraceElement element : stackTraceElements) {
System.out.println("\t" + element + "\n");
}
}
}
}
在jdk11下执行,可以看到,有如下线程信息
线程:main
线程: Reference Handler
线程: Signal Dispatcher
线程: Finalizer
线程: Common-Cleaner
线程: Attach Listener
在jdk8下执行,有如下线程信息
线程:main
线程: Finalizer
线程: Attach Listener
线程: Signal Dispatcher
线程: Reference Handler
Java中创建线程的方式#
-
继承
Thread
类,重写run
方法 -
实现
Runnable
接口,实现run
方法,这比方式1更好,因为一个类实现了Runnable
以后,还可以继承其他类 - 通过线程池创建
-
通过
Callable
、Future
与FutureTask
来创建(需要返回值的时候)
具体示例可见:HelloThread.java
线程状态和切换#
NEW#
线程刚刚创建,还没有启动,New Thread的时候,还没有调用start
方法时候,就是这个状态
RUNNABLE#
可运行状态,由线程调度器可以安排执行,包括以下两种情况:
- READY
- RUNNING
READY和RUNNING通过yield
方法来切换
WAITING#
等待被唤醒
TIMED_WAITING#
隔一段时间后自动唤醒
BLOCKED#
被阻塞,正在等待锁,只有在synchronized的时候在会进入BLOCKED状态
TERMINATED#
线程执行完毕后,是这个状态
各个线程状态切换如下
线程基本操作#
sleep#
当前线程睡一段时间
yield#
这是一个静态方法,一旦执行,它会使当前线程让出一下CPU。但要注意,让出CPU并不表示当前线程不执行了。当前线程在让出CPU后,还会进行CPU资源的争夺,但是是否能够再次被分配到就不一定了。
join#
等待另外一个线程的结束,当前线程才会运行,示例代码如下:
public class ThreadBasicOperation {
static volatile int sum = 0;
public static void main(String[] args) throws Exception {
Thread t = new Thread(() -> {
for (int i = 1; i <= 100; i++) {
sum += i;
}
});
t.start();
// join 方法表示主线程愿意等待子线程执行完毕后才继续执行
// 如果不使用join方法,那么sum输出的可能是一个很小的值,因为还没等子线程
// 执行完毕后,主线程就已经执行了打印sum的操作
t.join();
System.out.println(sum);
}
}
interrupt#
// 打断某个线程(设置标志位)
interrupt()
// 查询某线程是否被打断过(查询标志位)
isInterrupted()
// 查询当前线程是否被打断过,并重置打断标志位
Thread.interrupted()
示例代码:ThreadInterrupt.java
关于线程的start方法#
问题1:反复调用同一个线程的start()
方法是否可行?
问题2:假如一个线程执行完毕(此时处于TERMINATED状态),再次调用这个线程的start()
方法是否可行?
两个问题的答案都是不可行,在调用一次start()
之后,threadStatus
的值会改变(threadStatus !=0
),此时再次调用start()
方法会抛出IllegalThreadStateException
异常。比如,threadStatus
为2代表当前线程状态为TERMINATED。
如何结束一个线程#
不推荐的方式#
-
stop
方法 -
suspend
+resume
方法
以上两种方式都不建议使用, 因为会释放所有的锁, 所以容易产生数据不一致的问题。
优雅的方式#
如果不依赖循环的具体次数或者中间状态, 可以通过设置标志位的方式来控制
public class ThreadFinished {
private static volatile boolean flag = true;
public static void main(String[] args) throws InterruptedException {
// 推荐方式:设置标志位
Thread t3 = new Thread(() -> {
long i = 0L;
while (flag) {
i++;
}
System.out.println("count sum i = " + i);
});
t3.start();
TimeUnit.SECONDS.sleep(1);
flag = false;
}
}
如果要依赖循环的具体次数或者中间状态, 则可以用interrupt方式
public class ThreadFinished {
public static void main(String[] args) throws InterruptedException {
// 推荐方式:使用interrupt
Thread t4 = new Thread(() -> {
while (!Thread.currentThread().isInterrupted()) {
}
System.out.println("t4 end");
});
t4.start();
TimeUnit.SECONDS.sleep(1);
t4.interrupt();
}
}
示例代码: ThreadFinished.java
并发编程的三大特性#
可见性#
所谓线程数据的可见性,指的就是内存中的某个数据,假如第一个CPU的一个核读取到了,和其他的核读取到这个数据之间的可见性。
每个线程会保存一份拷贝到线程本地缓存,使用volatile
,可以保持线程之间数据可见性。
如下示例
public class ThreadVisible {
static volatile boolean flag = true;
public static void main(String[] args) throws InterruptedException {
Thread t = new Thread(() -> {
while (flag) {
// 如果这里调用了System.out.println()
// 会无论flag有没有加volatile,数据都会同步
// 因为System.out.println()背后调用的synchronized
// System.out.println();
}
System.out.println("t end");
});
t.start();
TimeUnit.SECONDS.sleep(3);
flag = false;
// volatile修饰引用变量
new Thread(a::m, "t2").start();
TimeUnit.SECONDS.sleep(2);
a.flag = false;
// 阻塞主线程,防止主线程直接执行完毕,看不到效果
new Scanner(System.in).next();
}
private static volatile A a = new A();
static class A {
boolean flag = true;
void m() {
System.out.println("m start");
while (flag) {
}
System.out.println("m end");
}
}
}
代码见ThreadVisible.java
代码说明:
-
如在上述代码的死循环中增加了
System.out.println()
, 则会强制同步flag
的值,无论flag
本身有没有加volatile
。 -
如果
volatile
修饰一个引用对象,如果对象的属性(成员变量)发生了改变,volatile
不能保证其他线程可以观察到该变化。
关于三级缓存
如上图,内存读出的数据会在L3,L2,L1上都存一份。
在从内存中读取数据的时候,根据的是程序局部性的原理,按块来读取,这样可以提高效率,充分发挥总线CPU针脚等一次性读取更多数据的能力。
所以这里引入了一个缓存行的概念,目前一个缓存行多用64个字节来表示。
如何来验证CPU读取缓存行这件事,我们可以通过一个示例来说明:
/**
* 缓存行对齐
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @since 1.8
*/
public class CacheLinePadding {
public static T[] arr = new T[2];
static {
arr[0] = new T();
arr[1] = new T();
}
public static void main(String[] args) throws Exception {
Thread t1 = new Thread(() -> {
for (long i = 0; i < 1000_0000L; i++) {
arr[0].x = i;
}
});
Thread t2 = new Thread(() -> {
for (long i = 0; i < 1000_0000L; i++) {
arr[1].x = i;
}
});
final long start = System.nanoTime();
t1.start();
t2.start();
t1.join();
t2.join();
System.out.println((System.nanoTime() - start) / 100_0000);
}
private static class Padding {
public volatile long p1, p2, p3, p4, p5, p6, p7;
}
// T这个类extends Padding与否,会影响整个流程的执行时间,如果继承了,会减少执行时间,
// 因为继承Padding后,arr[0]和arr[1]一定不在同一个缓存行里面,所以不需要同步数据,速度就更快一些了。
private static class T extends Padding {
public volatile long x = 0L;
}
}
代码见:CacheLinePadding
说明:以上代码,T
这个类继承Padding
类与否,会影响整个流程的执行时间,如果继承了,会减少执行时间,因为继承Padding
后,arr[0]
和arr[1]
一定不在同一个缓存行里面,所以不需要同步数据,速度就更快一些了。
jdk1.8增加了一个注解:@Contended,标注了以后,不会在同一缓存行, 仅适用于jdk1.8 还需要增加jvm参数
-XX:-RestrictContended
CPU为每个缓存行标记四种状态(使用两位)
M: 被修改(Modified)
该缓存行只被缓存在该CPU
的缓存中,并且是被修改过的(dirty
),即与主存中的数据不一致,该缓存行中的内存需要在未来的某个时间点(允许其它CPU
读取请主存中相应内存之前)写回(write back
)主存。
当被写回主存之后,该缓存行的状态会变成独享(exclusive
)状态。
E: 独享的(Exclusive)
该缓存行只被缓存在该CPU
的缓存中,它是未被修改过的(clean
),与主存中数据一致。该状态可以在任何时刻当有其它CPU
读取该内存时变成共享状态(shared
)。
同样地,当CPU
修改该缓存行中内容时,该状态可以变成Modified
状态。
S: 共享的(Shared)
该状态意味着该缓存行可能被多个CPU
缓存,并且各个缓存中的数据与主存数据一致(clean
),当有一个CPU
修改该缓存行中,其它CPU
中该缓存行可以被作废(变成无效状态(Invalid
))。
I: 无效的(Invalid)
该缓存是无效的(可能有其它CPU
修改了该缓存行)。
参考:【并发编程】MESI--CPU缓存一致性协议
有序性#
计算机在执行程序时,为了提高性能,编译器和处理器常常会对指令做重排。
为什么指令重排序可以提高性能?
简单地说,每一个指令都会包含多个步骤,每个步骤可能使用不同的硬件。因此,流水线技术产生了,它的原理是指令1还没有执行完,就可以开始执行指令2,而不用等到指令1执行结束之后再执行指令2,这样就大大提高了效率。
但是,流水线技术最害怕中断,恢复中断的代价是比较大的,所以我们要想尽办法不让流水线中断。指令重排就是减少中断的一种技术。
我们分析一下下面这个代码的执行情况:
a = b + c;
d = e - f ;
先加载b、c(注意,即有可能先加载b,也有可能先加载c),但是在执行add(b,c)的时候,需要等待b、c装载结束才能继续执行,也就是增加了停顿,那么后面的指令也会依次有停顿,这降低了计算机的执行效率。
为了减少这个停顿,我们可以先加载e和f,然后再去加载add(b,c),这样做对程序(串行)是没有影响的,但却减少了停顿。既然add(b,c)需要停顿,那还不如去做一些有意义的事情。
综上所述,指令重排对于提高CPU处理性能十分必要。虽然由此带来了乱序的问题,但是这点牺牲是值得的。
指令重排一般分为以下三种:
-
编译器优化重排
编译器在不改变单线程程序语义的前提下,可以重新安排语句的执行顺序。
-
指令并行重排
现代处理器采用了指令级并行技术来将多条指令重叠执行。如果不存在数据依赖性(即后一个执行的语句无需依赖前面执行的语句的结果),处理器可以改变语句对应的机器指令的执行顺序。
-
内存系统重排
由于处理器使用缓存和读写缓存冲区,这使得加载(load)和存储(store)操作看上去可能是在乱序执行,因为三级缓存的存在,导致内存与缓存的数据同步存在时间差。
指令重排可以保证串行语义一致,但是没有义务保证多线程间的语义也一致。所以在多线程下,指令重排序可能会导致一些问题。
乱序存在的条件是:不影响单线程的最终一致性(as - if - serial)
验证乱序执行的程序示例
public class DisOrder {
private static int x = 0, y = 0;
private static int a = 0, b = 0;
// 以下程序可能会执行比较长的时间
public static void main(String[] args) throws InterruptedException {
int i = 0;
for (;;) {
i++;
x = 0;
y = 0;
a = 0;
b = 0;
Thread one = new Thread(() -> {
// 由于线程one先启动,下面这句话让它等一等线程two. 读着可根据自己电脑的实际性能适当调整等待时间.
shortWait(100000);
a = 1;
x = b;
});
Thread other = new Thread(() -> {
b = 1;
y = a;
});
one.start();
other.start();
one.join();
other.join();
String result = "第" + i + "次 (" + x + "," + y + ")";
if (x == 0 && y == 0) {
// 出现这个分支,说明指令出现了重排
// 否则不可能 x和y同时都为0
System.err.println(result);
break;
} else {
// System.out.println(result);
}
}
}
public static void shortWait(long interval) {
long start = System.nanoTime();
long end;
do {
end = System.nanoTime();
} while (start + interval >= end);
}
}
代码参考:DisOrder.java
如上示例,如果指令不出现乱序,那么x和y不可能同时为0,通过执行这个程序可以验证出来,在我本机测试的结果是:
执行到第1425295次 出现了x和y同时为0的情况。
原子性#
程序的原子性是指整个程序中的所有操作,要么全部完成,要么全部失败,不可能滞留在中间某个环节;在多个线程一起执行的时候,一个操作一旦开始,就不会被其他线程所打断。
一个示例:
class T {
m =9;
}
对象T在创建过程中,背后其实是包含了多条执行语句的,由于有CPU乱序执行的情况,所以极有可能会在初始化过程中生成以一个半初始化对象t,这个t的m等于0(还没有来得及做赋值操作)
所以,不要在某个类的构造方法中启动一个线程,这样会导致this对象逸出,因为这个类的对象可能还来不及执行初始化操作,就启动了一个线程,导致了异常情况。
volatile
一方面可以保证线程数据之间的可见性,另外一方面,也可以防止类似这样的指令重排,所以,单例模式中,DCL
方式的单例一定要加volatile
修饰:
public class Singleton6 {
private volatile static Singleton6 INSTANCE;
private Singleton6() {
}
public static Singleton6 getInstance() {
if (INSTANCE == null) {
synchronized (Singleton6.class) {
if (INSTANCE == null) {
try {
Thread.sleep(1);
} catch (InterruptedException e) {
e.printStackTrace();
}
INSTANCE = new Singleton6();
}
}
}
return INSTANCE;
}
}
具体可以参考设计模式学习笔记 中单例模式的说明。
实际上,只有很低版本的 Java 才会有这个问题。我们现在用的高版本的 Java 已经在 JDK 内部实现中解决了这个问题(解决的方法很简单,只要把对象 new 操作和初始化操作设计为原子操作,就自然能禁止重排序)。
CAS#
比较与交换的意思
举个例子,内存有个值是3,如果用Java通过多线程去访问这个数,每个线程都要把这个值+1。
之前是需要加锁,即synchronized关键字来控制。但是JUC的包出现后,有了CAS操作,可以不需要加锁来处理,流程是:
第一个线程:把3拿过来,线程本地区域做计算加1,然后把4写回去。
第二个线程:也把3这个数拿过来,线程本地区域做计算加1后,在回写回去的时候,会做一次比较,如果原来的值还是3,那么说明这个值之前没有被打扰过,就可以把4写回去,如果这个值变了,假设变为了4,那么说明这个值已经被其他线程修改过了,那么第二个线程需要重新执行一次,即把最新的4拿过来继续计算,回写回去的时候,继续做比较,如果内存中的值依然是4,说明没有其他线程处理过,第二个线程就可以把5回写回去了。
流程图如下
ABA问题#
CAS会出现一个ABA的问题,即在一个线程回写值的时候,其他线程其实动过那个原始值,只不过其他线程操作后这个值依然是原始值。
如何来解决ABA问题呢?
我们可以通过版本号或者时间戳来控制,比如数据原始的版本是1.0,处理后,我们把这个数据的版本改成变成2.0版本, 时间戳来控制也一样,
以Java为例,AtomicStampedReference
这个类,它内部不仅维护了对象值,还维护了一个时间戳。当AtomicStampedReference
对应的数值被修改时,除了更新数据本身外,还必须要更新时间戳。当AtomicStampedReference
设置对象值时,对象值以及时间戳都必须满足期望值,写入才会成功。因此,即使对象值被反复读写,写回原值,只要时间戳发生变化,就能防止不恰当的写入。
CAS的底层实现#
Unsafe.cpp-->Atom::cmpxchg-->Atomic_linux_x86_inline.hpp-->调用了汇编的LOCK_IF_MP方法
Multiple_processor
lock cmpxchg
虽然cmpxchg
指令不是原子的,但是加了lock
指令后,则cmpxhg
被上锁,不允许被打断。 在单核CPU中,无须加lock
,在多核CPU中,必须加lock
,可以参考stackoverflow上的这个回答:
is-x86-cmpxchg-atomic-if-so-why-does-it-need-lock
使用CAS好处
jdk早期是重量级别锁 ,通过0x80
中断 进行用户态和内核态转换,所以效率比较低,有了CAS操作,大大提升了效率。
对象的内存布局(Hotspot实现)#
使用jol查看一个对象的内存布局#
我们可以通过jol来查看一下某个对象的内存布局
引入依赖
<dependency>
<groupId>org.openjdk.jol</groupId>
<artifactId>jol-core</artifactId>
<version>0.15</version>
</dependency>
示例代码如下
import org.openjdk.jol.info.ClassLayout;
/**
* 对象的内存布局
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @since
*/
// 配置VM参数 -XX:+UseCompressedClassPointers
public class ObjectModel {
public static void main(String[] args) {
System.out.println("======T1=======");
T1 o = new T1();
String s = ClassLayout.parseInstance(o).toPrintable();
System.out.println(s);
System.out.println("======T1=======");
System.out.println("======T2=======");
T2 o1 = new T2();
String s1 = ClassLayout.parseInstance(o1).toPrintable();
System.out.println(s1);
System.out.println("======T2=======");
}
static class T1{
public int a = 3;
}
static class T2{
public int a = 3;
public long b = 3L;
}
}
参考代码:ObjectModel.java
配置JVM参数,开启指针压缩
-XX:+UseCompressedClassPointers
可以看到结果是
======T1=======
git.snippets.juc.ObjectModel$T1 object internals:
OFF SZ TYPE DESCRIPTION VALUE
0 8 (object header: mark) 0x0000000000000001 (non-biasable; age: 0)
8 4 (object header: class) 0xf800c143
12 4 int T1.a 3
Instance size: 16 bytes
Space losses: 0 bytes internal + 0 bytes external = 0 bytes total
======T1=======
======T2=======
git.snippets.juc.ObjectModel$T2 object internals:
OFF SZ TYPE DESCRIPTION VALUE
0 8 (object header: mark) 0x0000000000000001 (non-biasable; age: 0)
8 4 (object header: class) 0xf800c489
12 4 int T2.a 3
16 8 long T2.b 3
Instance size: 24 bytes
Space losses: 0 bytes internal + 0 bytes external = 0 bytes total
======T2=======
对于T1来说,其中8个字节的markword
,4个字节的类型指针,如果没有开启指针压缩,类型指针就是8个字节,可以找到T.class
,这里一共是12个字节, 由于字节数务必是8的整数倍,所以补上4个字节,共16个字节
对于T2来说,其中多了8位表示long
这个成员变量, 相加等于24,正好是8的整数倍,不需要补齐。
内存布局详细说明#
使用synchronized
就是修改了对象的markword
信息,markword
中还记录了GC信息,Hash Code
信息
锁升级过程#
偏向锁#
synchronized代码段多数时间是一个线程在运行,谁先来,这个就偏向谁,用当前线程标记一下。
轻量级锁(自旋锁,无锁)#
偏向锁撤销,然后竞争,每个线程在自己线程栈中存一个LR(lock record)锁记录
偏向锁和轻量级锁都是用户空间完成的,重量级锁需要向操作系统申请。
两个线程争抢的方式将lock record的指针,指针指向哪个线程的LR,哪个线程就拿到锁,另外的线程用CAS的方式继续竞争
重量级锁#
JVM的ObjectMonitor去操作系统申请。
interpreteRuntime.cpp ---- monitorenter
如果发生异常,synchronized
会自动释放锁,代码参考:ExceptionCauseUnLock.java
锁重入#
synchronized
是可重入锁, 可重入次数必须记录,因为解锁需要对应可重入次数的记录
偏向锁:记录在线程栈中,每重入一次,LR+1,备份原来的markword
轻量级锁:类似偏向锁
重量级锁:记录在ObjectMonitor
的一个字段中
自旋锁什么时候升级为重量级锁?
- 有线程超过十次自旋
- -XX:PreBlockSpin(jdk1.6之前)
- 自旋的线程超过CPU核数一半
- jdk1.6 以后,JVM自己控制
为什么有偏向锁启动和偏向锁未启动?#
未启动:普通对象001 已启动:匿名偏向101
为什么有自旋锁还需要重量级锁?#
因为自旋会占用CPU时间,消耗CPU资源,如果自旋的线程多,CPU资源会被消耗,所以会升级成重量级锁(队列)例如:ObjectMonitor
里面的WaitSet
,重量级锁会把线程都丢到WaitSet
中冻结, 不需要消耗CPU资源
偏向锁是否一定比自旋锁效率高?#
明确知道多线程的情况下,不一定。 因为偏向锁在多线程情况下,会涉及到锁撤销,这个时候直接使用自旋锁,JVM启动过程,会有很多线程竞争,比如启动的时候,肯定是多线程的,所以默认情况,启动时候不打开偏向锁,过一段时间再打开。
有一个参数可以配置:BiasedLockingStartupDelay
默认是4s
偏向锁状态下,调用了wait方法,直接升级成重量级锁#
一个线程拿20个对象进行加锁,批量锁的重偏向(20个对象),批量锁撤销(变成轻量级锁)(40个对象), 通过Epoch中的值和对应的类对象里面记录的值比较。
synchronized#
锁定对象#
package git.snippets.juc;
/**
* synchronized锁定对象
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @date 2021/4/15
* @since
*/
public class SynchronizedObject implements Runnable {
static SynchronizedObject instance = new SynchronizedObject();
final Object object = new Object();
static volatile int i = 0;
@Override
public void run() {
for (int j = 0; j < 1000000; j++) {
// 任何线程要执行下面的代码,必须先拿到object的锁
synchronized (object) {
i++;
}
}
}
public static void main(String[] args) throws InterruptedException {
Thread t1 = new Thread(instance);
Thread t2 = new Thread(instance);
t1.start();
t2.start();
t1.join();
t2.join();
System.out.println(i);
}
}
锁定方法#
- 锁定静态方法相当于锁定当前类
package git.snippets.juc;
/**
* synchronized锁定静态方法,相当于锁定当前类
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @date 2021/4/15
* @since
*/
public class SynchronizedStatic implements Runnable {
static SynchronizedStatic instance = new SynchronizedStatic();
static volatile int i = 0;
@Override
public void run() {
increase();
}
// 相当于synchronized(SynchronizedStatic.class)
synchronized static void increase() {
for (int j = 0; j < 1000000; j++) {
i++;
}
}
public static void main(String[] args) throws InterruptedException {
Thread t1 = new Thread(instance);
Thread t2 = new Thread(instance);
t1.start();
t2.start();
t1.join();
t2.join();
System.out.println(i);
}
}
- 锁定非静态方法相当于锁定该对象的实例或synchronized(this)
package git.snippets.juc;
/**
* synchronized锁定方法
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @date 2021/4/15
* @since
*/
public class SynchronizedMethod implements Runnable {
static SynchronizedMethod instance = new SynchronizedMethod();
static volatile int i = 0;
@Override
public void run() {
increase();
}
void increase() {
for (int j = 0; j < 1000000; j++) {
synchronized (this) {
i++;
}
}
}
public static void main(String[] args) throws InterruptedException {
Thread t1 = new Thread(instance);
Thread t2 = new Thread(instance);
t1.start();
t2.start();
t1.join();
t2.join();
System.out.println(i);
}
}
脏读#
package git.snippets.juc;
import java.util.concurrent.TimeUnit;
/**
* 模拟脏读
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @date 2021/4/15
* @since
*/
public class DirtyRead {
String name;
double balance;
public static void main(String[] args) {
DirtyRead a = new DirtyRead();
Thread thread = new Thread(() -> a.set("zhangsan", 100.0));
thread.start();
try {
TimeUnit.SECONDS.sleep(1);
} catch (InterruptedException e) {
e.printStackTrace();
}
System.out.println(a.getBalance("zhangsan"));
try {
TimeUnit.SECONDS.sleep(2);
} catch (InterruptedException e) {
e.printStackTrace();
}
System.out.println(a.getBalance("zhangsan"));
}
public synchronized void set(String name, double balance) {
this.name = name;
try {
Thread.sleep(2000);
} catch (InterruptedException e) {
e.printStackTrace();
}
this.balance = balance;
}
// 如果get方法不加synchronized关键字,就会出现脏读情况
public /*synchronized*/ double getBalance(String name) {
return this.balance;
}
}
其中的getBalance
方法,如果不加synchronized
,就会产生脏读的问题。
可重入锁#
一个同步方法可以调用另外一个同步方法,
一个线程已经拥有某个对象的锁,再次申请的时候仍然会得到该对象的锁(可重入锁)
子类synchronized,如果调用父类的synchronize方法:super.method(),如果不可重入,直接就会死锁。
package git.snippets.juc;
import java.io.IOException;
/**
* 一个同步方法可以调用另外一个同步方法,一个线程已经拥有某个对象的锁,再次申请的时候仍然会得到该对象的锁.
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @since
*/
public class SynchronizedReentry implements Runnable {
public static void main(String[] args) throws IOException {
SynchronizedReentry myRun = new SynchronizedReentry();
Thread thread = new Thread(myRun, "t1");
Thread thread2 = new Thread(myRun, "t2");
thread.start();
thread2.start();
System.in.read();
}
synchronized void m1(String content) {
System.out.println(this);
System.out.println("m1 get content is " + content);
m2(content);
}
synchronized void m2(String content) {
System.out.println(this);
System.out.println("m2 get content is " + content);
}
@Override
public void run() {
m1(Thread.currentThread().getName());
}
}
程序在执行过程中,如果出现异常,默认情况锁会被释放 ,所以,在并发处理的过程中,有异常要多加小心,不然可能会发生不一致的情况。比如,在一个webapp处理过程中,多个Servlet
线程共同访问同一个资源,这时如果异常处理不合适,在第一个线程中抛出异常,其他线程就会进入同步代码区,有可能会访问到异常产生时的数据。因此要非常小心的处理同步业务逻辑中的异常。
示例见:SynchronizedException.java
synchronized的底层实现#
在早期的JDK使用的是OS的重量级锁
后来的改进锁升级的概念:
synchronized (Object)
- markword 记录这个线程ID (使用偏向锁)
- 如果线程争用:升级为 自旋锁
- 10次自旋以后,升级为重量级锁 - OS
所以:
- 执行时间短(加锁代码),线程数少,用自旋
- 执行时间长,线程数多,用系统锁
synchronized
不能锁定String常量,Integer,Long等基础类型
见示例:SynchronizedBasicType.java
锁定某对象o,如果o的属性发生改变,不影响锁的使用; 但是如果o变成另外一个对象,则锁定的对象发生改变, 应该避免将锁定对象的引用变成另外的对象
package git.snippets.juc;
import java.util.concurrent.TimeUnit;
/**
* 锁定某对象o,如果o的属性发生改变,不影响锁的使用
* 但是如果o变成另外一个对象,则锁定的对象发生改变
* 应该避免将锁定对象的引用变成另外的对象
*/
public class SyncSameObject {
Object object = new Object();
public static void main(String[] args) {
SyncSameObject t = new SyncSameObject();
new Thread(t::m).start();
Thread t2 = new Thread(t::m, "t2");
//锁对象发生改变,所以t2线程得以执行,如果注释掉这句话,线程2将永远得不到执行机会
t.object = new Object();
t2.start();
}
void m() {
synchronized (object) {
while (true) {
try {
TimeUnit.SECONDS.sleep(2);
System.out.println("current thread is " + Thread.currentThread().getName());
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}
}
}
如果不执行t.object=new Object()
这句,m2线程将永远得不到执行。
死锁#
两个或两个以上的线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去,这就是死锁现象
死锁产生的原因主要有如下几点
-
系统的资源竞争
-
程序在执行过程中申请和释放资源的顺序不当
死锁产生的必要条件
-
互斥条件:进程要求对所分配的资源(如打印机)进行排他性控制,即在一段时间内某资源仅为一个进程所占有。此时若有其他进程请求该资源,则请求进程只能等待。
-
不剥夺条件:进程所获得的资源在未使用完毕之前,不能被其他进程强行夺走,即只能由获得该资源的进程自己来释放(只能是主动释放)。
-
请求和保持条件:进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源已被其他进程占有,此时请求进程被阻塞,但对自己已获得的资源保持不放。
-
循环等待条件:存在一种进程资源的循环等待链,链中每一个进程已获得的资源同时被链中下一个进程所请求。
模拟死锁代码
/**
* 模拟死锁
*/
public class DeadLock implements Runnable {
int flag = 1;
static Object o1 = new Object();
static Object o2 = new Object();
public static void main(String[] args) {
DeadLock lock = new DeadLock();
DeadLock lock2 = new DeadLock();
lock.flag = 1;
lock2.flag = 0;
Thread t1 = new Thread(lock);
Thread t2 = new Thread(lock2);
t1.start();
t2.start();
}
@Override
public void run() {
System.out.println("flag = " + flag);
if (flag == 1) {
synchronized (o2) {
try {
Thread.sleep(500);
} catch (InterruptedException e) {
e.printStackTrace();
}
synchronized (o1) {
System.out.println("1");
}
}
}
if (flag == 0) {
synchronized (o1) {
try {
Thread.sleep(500);
} catch (InterruptedException e) {
e.printStackTrace();
}
synchronized (o2) {
System.out.println("0");
}
}
}
}
}
如何避免死锁?
1、让程序每次至多只能获得一个锁。当然,在多线程环境下,这种情况通常并不现实。
2、设计时考虑清楚锁的顺序,尽量减少嵌在的加锁交互数量。
3、增加时限,比如使用Lock
类中的tryLock
方法去尝试获取锁,这个方法可以指定一个超时时限,在等待超过该时限之后便会返回一个失败信息。
volatile#
- 保持线程之间的可见性(不保证操作的原子性),依赖MESI协议
- 防止指令重排序,CPU的load fence和store fence原语支持
CPU原来执行指令一步一步执行,现在是流水线执行,编译以后可能会产生指令的重排序,这样可以提高性能
关于volatile
不保证原子性的代码示例
package git.snippets.juc;
/**
* Volatile保持线程之间的可见性(不保证操作的原子性)
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @date 2021/4/19
* @since
*/
public class VolatileNOTAtomic {
volatile static Data data;
public static void main(String[] args) {
Thread writer = new Thread(() -> {
for (int i = 0; i < 10000; i++) {
data = new Data(i, i);
}
});
Thread reader = new Thread(() -> {
while (data == null) {
}
int a = data.a;
int b = data.b;
if (a != b) {
// 会出现这种情况是因为new Data(i,i)非原子操作,会产生中间状态的对象,导致a和b的值会不一致
System.out.printf("a = %s, b=%s%n", a, b);
}
});
writer.start();
reader.start();
try {
writer.join();
reader.join();
} catch (InterruptedException e) {
e.printStackTrace();
}
System.out.println("end");
}
public static class Data {
int a;
int b;
Data(int a, int b) {
this.a = a;
this.b = b;
}
}
}
volatile
并不能保证多个线程共同修改running
变量时所带来的不一致问题,也就是说volatile
不能替代synchronized
, 示例程序
package git.snippets.juc;
import java.util.ArrayList;
import java.util.List;
/**
* volatile并不能保证多个线程共同修改变量时所带来的不一致问题,也就是说volatile不能替代synchronized
*
* @author <a href="mailto:410486047@qq.com">Grey</a>
* @date 2021/4/19
* @since
*/
public class VolatileCanNotReplaceSynchronized {
volatile int count = 0;
int count2 = 0;
public static void main(String[] args) {
VolatileCanNotReplaceSynchronized t = new VolatileCanNotReplaceSynchronized();
List<Thread> threads = new ArrayList<>();
List<Thread> threads2 = new ArrayList<>();
for (int i = 0; i < 20; i++) {
threads.add(new Thread(t::m));
threads2.add(new Thread(t::m2));
}
threads.forEach(item -> item.start());
threads2.forEach(item -> item.start());
threads.forEach(item -> {
try {
item.join();
} catch (InterruptedException e) {
e.printStackTrace();
}
});
threads2.forEach(item -> {
try {
item.join();
} catch (InterruptedException e) {
e.printStackTrace();
}
});
System.out.println(t.count);
System.out.println(t.count2);
}
void m() {
for (int i = 0; i < 1000; i++) {
count++;
}
}
synchronized void m2() {
for (int i = 0; i < 1000; i++) {
count2++;
}
}
}
DCL为什么一定要加volatile?#
什么是DCL,请参考设计模式学习笔记中的单例模式说明。
在New对象的时候,编译完实际上是分了三步
-
对象申请内存,成员变量会被赋初始值
-
成员变量设为真实值
-
成员变量赋给对象
指令重排序可能会导致2和3进行指令重排,导致下一个线程拿到一个半初始化的对象,导致单例被破坏。所以DCL必须加volitile
volatile修饰引用对象
被volatile关键字修饰的对象作为类变量或实例变量时,其对象中携带的类变量和实例变量也相当于被volatile关键字修饰了
示例见:VolatileRef.java
AtomicLong VS LongAddr VS Synchronized#
需要实际测试一下。
示例见:
- AddByAtomicLong.java(无锁操作)
- AddByLongAdder.java (LongAdder采用了分段锁,分段锁又是CAS实现的。多段并行运行,在线程数比较多的情况下,效率比较高。线程数少的情况下没什么优势。)
- AddBySynchronized.java
分别运行上述三个类,得到的执行结果是:
by AtomicLong , result is 1000000000 time is 19149
by LongAdder , result is 1000000000 time is 1498
by synchronized , result is 1000000000 time is 22913
在大数据量的情况下,LongAdder的效率最高。关于LongAdder的一些说明,参考如下两篇博客:
-
从LONGADDER看更高效的无锁实现
-
Java 8 Performance Improvements: LongAdder vs AtomicLong
ReentrantLock#
其中“ReentrantReadWriteLock”,“读锁的插队策略”,"锁的升降级" 部分参考了如下文档中的内容
Java中的共享锁和排他锁(以读写锁ReentrantReadWriteLock为例)
ReentrantLock vs sychronized#
可重入锁,可以替代sychronized
,ReentrantLock
和sychronized
的区别在于
-
可以
tryLock
,尝试若干时间片内获取锁。 见ReentrantLockTryLock.java
-
可以用
lockInterruptibly
,在lock的时候可以被打断,一旦被打断,可以作出响应,而sychronized
一旦wait
后,必须得让别人notify
,才能醒来。见ReentrantLockInterrupt.java
-
可以设置公平与否,公平的概念是,每个线程来了以后会检查等待队列里面会不会有等待的线程,如果有,则进入队列等待。见:
ReentrantLockFair.java
-
synchronized
锁的是对象,锁信息保存在对象头中,ReentrantLock
通过代码中int
类型的state
标识来标识锁的状态
注:在使用ReentrantLock的时候一定要记得unlock,因为如果使用synchronized遇到异常,jvm会自动释放锁,但是用ReentrantLock必须手动释放锁,因此经常在finally中进行锁的释放
详见:
-
ReentrantLockAndSynchronized.java
-
SynchronizedException.java
不管是公平锁还是非公平锁,一旦没有竞争到锁,都会进行排队,当锁释放时,都是唤醒排在最前面的线程,所以非公平锁只是体现在了线程加锁阶段,而没有体现在线程被唤醒阶段。
ReentrantReadWriteLock#
在ReentrantReadWriteLock中包含读锁和写锁,其中读锁是可以多线程共享的,即共享锁, 而写锁是排他锁,在更改时候不允许其他线程操作。
读写锁其实是一把锁,所以会有同一时刻不允许读写锁共存的规定。之所以要细分读锁和写锁也是为了提高效率,将读和写分离,
示例:
package git.snippets.juc;
import java.util.concurrent.locks.ReentrantReadWriteLock;
/**
* ReentrantReadWriteLock读写锁示例
**/
public class ReentrantLockReadAndWrite {
private static ReentrantReadWriteLock reentrantLock = new ReentrantReadWriteLock();
private static ReentrantReadWriteLock.ReadLock readLock = reentrantLock.readLock();
private static ReentrantReadWriteLock.WriteLock writeLock = reentrantLock.writeLock();
public static void read() {
readLock.lock();
try {
System.out.println(Thread.currentThread().getName() + "获取读锁,开始执行");
Thread.sleep(1000);
} catch (Exception e) {
e.printStackTrace();
} finally {
readLock.unlock();
System.out.println(Thread.currentThread().getName() + "释放读锁");
}
}
public static void write() {
writeLock.lock();
try {
System.out.println(Thread.currentThread().getName() + "获取写锁,开始执行");
Thread.sleep(1000);
} catch (Exception e) {
e.printStackTrace();
} finally {
writeLock.unlock();
System.out.println(Thread.currentThread().getName() + "释放写锁");
}
}
public static void main(String[] args) {
new Thread(() -> read(), "Thread1").start();
new Thread(() -> read(), "Thread2").start();
new Thread(() -> write(), "Thread3").start();
new Thread(() -> write(), "Thread4").start();
}
}
读锁的插队策略#
设想如下场景:
在非公平的ReentrantReadWriteLock
锁中,线程2和线程4正在同时读取,线程3想要写入,拿不到锁(同一时刻是不允许读写锁共存的),于是进入等待队列, 线程5不在队列里,现在过来想要读取,
策略1
如果允许读插队,就是说线程5读先于线程3写操作执行,因为读锁是共享锁,不影响后面的线程3的写操作,
这种策略可以提高一定的效率,却可能导致像线程3这样的线程一直在等待中,因为可能线程5读操作之后又来了n个线程也进行读操作,造成线程饥饿;
策略2
不允许插队,即线程5的读操作必须排在线程3的写操作之后,放入队列中,排在线程3之后,这样能避免线程饥饿。
事实上ReentrantReadWriteLock在非公平情况下,读锁采用的就是策略2:不允许读锁插队,避免线程饥饿。更加确切的说是:在非公平锁情况下,允许写锁插队,也允许读锁插队,
但是读锁插队的前提是队列中的头节点不能是想获取写锁的线程。
以上是在非公平ReentrantReadWriteLock
锁中,
在公平锁中,读写锁都是是不允许插队的,严格按照线程请求获取锁顺序执行。
示例见:ReentrantLockCut.java
锁的升降级#
在ReentrantReadWriteLock
读写锁中,只支持写锁降级为读锁,而不支持读锁升级为写锁,
之所以ReentrantReadWriteLock
不支持锁的升级(其它锁可以支持),主要是避免死锁,
例如两个线程A和B都在读, A升级要求B释放读锁,B升级要求A释放读锁,互相等待形成死循环。
如果能严格保证每次都只有一个线程升级那也是可以的。
示例见:ReentrantReadWriteLockUpAndDown.java
CAS,Synchronized,Lock的使用情景#
1、对于资源竞争较少(线程冲突较轻)的情况,使用synchronized
同步锁进行线程阻塞和唤醒切换以及用户态内核态间的切换操作额外浪费消耗cpu资源;而CAS基于硬件实现,不需要进入内核,不需要切换线程,操作自旋几率较少,因此可以获得更高的性能。
2、对于资源竞争严重(线程冲突严重)的情况,CAS自旋的概率会比较大,从而浪费更多的CPU资源,效率低于synchronized
。
注: synchronized在jdk1.6之后,已经改进优化。synchronized的底层实现主要依靠Lock-Free的队列,基本思路是自旋后阻塞,竞争切换后继续竞争锁,稍微牺牲了公平性,但获得了高吞吐量。在线程冲突较少的情况下,可以获得和CAS类似的性能;而线程冲突严重的情况下,性能远高于CAS。
synchronized
作为悲观锁,比较适合写入操作比较频繁的场景,如果出现大量的读取操作,每次读取的时候都会进行加锁,这样会增加大量的锁的开销,降低了系统的吞吐量。
在资源竞争不是很激烈的情况下,偶尔会有同步的情形下,synchronized是很合适的。原因在于,编译程序通常会尽可能的进行优化synchronized
,另外可读性非常好,不管用没用过5.0多线程包的程序员都能理解。默认是非公平锁:后等待的线程可以先获得锁。
ReentrantLock
比较适合读取操作比较频繁的场景,如果出现大量的写入操作,数据发生冲突的可能性就会增大,为了保证数据的一致性,应用层需要不断的重新获取数据,这样会增加大量的查询操作,降低了系统的吞吐量。
Atomic
和上面的类似,不激烈情况下,性能比synchronized
略逊,而激烈的时候,也能维持常态。激烈的时候,Atomic
的性能会优于ReentrantLock
一倍左右。但是其有一个缺点,就是只能同步一个值,一段代码中只能出现一个Atomic的变量,多于一个同步无效。因为他不能在多个Atomic
之间同步。
StampedLock#
StampedLock
其实是对读写锁的一种改进,它支持在读同时进行一个写操作,也就是说,它的性能将会比读写锁更快。
更通俗的讲就是在读锁没有释放的时候是可以获取到一个写锁,获取到写锁之后,读锁阻塞,这一点和读写锁一致,唯一的区别在于读写锁不支持在没有释放读锁的时候获取写锁。
StampedLock三种模式#
- 悲观读:与读写锁的读写类似,允许多个线程获取悲观读锁
- 写锁:与读写锁的写锁类似,写锁和悲观读是互斥的。
- 乐观读:无锁机制,类似于数据库中的乐观锁,它支持在不释放乐观读的时候是可以获取到一个写锁的,这点和读写锁不同
参考: 【并发编程】面试官:有没有比读写锁更快的锁?
示例代码:
悲观读 + 写锁: StampedLockPessimistic.java
乐观读:StampedLockOptimistic.java
使用StampedLock的注意事项#
-
看名字就能看出来
StampedLock
不支持重入锁。 -
它适用于读多写少的情况,如果不是这种情况,请慎用,性能可能还不如
synchronized
。 -
StampedLock
的悲观读锁、写锁不支持条件变量。 -
千万不能中断阻塞的悲观读锁或写锁,如果调用阻塞线程的
interrupt()
,会导致cpu飙升,如果希望StampedLock
支持中断操作,请使用readLockInterruptibly
(悲观读锁)与writeLockInterruptibly
(写锁)。
CountDownLatch#
类似门闩的概念,可以替代join
,但是比join
灵活,因为一个线程里面可以多次countDown
,但是join
一定要等线程完成才能执行。
其底层原理是:调用await()
方法的线程会利用AQS
排队,一旦数字减为0,则会将AQS
中排队的线程依次唤醒。
代码参考:CountDownLatchAndJoin.java
CyclicBarrier#
类似栅栏,类比:满了20个乘客就发车 这样的场景。
比如:一个程序可能收集如下来源的数据:
- 数据库
- 网络
- 文件
程序可以并发执行,用线程操作1,2,3,然后操作完毕后再合并, 然后执行后续的逻辑操作,就可以使用CyclicBarrier
代码示例见:CyclicBarrierTest.java
Semaphore#
表示信号量,有如下两个操作:
s.acquire()
信号量-1
s.release()
信号量+1
到0以后,就不能执行了
这个可以用于限流。
底层原理是:如果没有线程许可可用,则线程阻塞,并通过AQS来排队,可以通过release()
方法来释放许可,当某个线程释放了某个许可后,会从AQS中正在排队的第一个线程依次开始唤醒,直到没有空闲许可。
Semaphore使用示例:
有N个线程来访问,我需要限制同时运行的只有信号量大小的线程数,示例代码:
package git.snippets.juc;
import java.util.concurrent.Semaphore;
import java.util.concurrent.TimeUnit;
/**
* Semaphore用于限流
*/
public class SemaphoreUsage {
public static void main(String[] args) {
Semaphore semaphore = new Semaphore(1);
new Thread(() -> {
try {
semaphore.acquire();
TimeUnit.SECONDS.sleep(2);
System.out.println("Thread 1 executed");
} catch (Exception e) {
e.printStackTrace();
} finally {
semaphore.release();
}
}).start();
new Thread(() -> {
try {
semaphore.acquire();
TimeUnit.SECONDS.sleep(2);
System.out.println("Thread 2 executed");
} catch (Exception e) {
e.printStackTrace();
} finally {
semaphore.release();
}
}).start();
}
}
Semaphore
可以有公平和非公平的方式进行配置。
Semaphore
和CountDownLatch
的区别#
Semaphore是信号量,可以做限流,限制n个线程并发,释放一个线程后就又能进来一个新的线程。
CountDownLatch是闭锁,带有阻塞的功能,必须等到n个线程都执行完后,被阻塞的线程才能继续往下执行。
也就是说:信号量是释放一个线程后,其他线程就能继续抢锁工作了。而闭锁是释放一个线程后,其他线程也不能进来抢占,必须等设置闭锁线程数量的线程都执行完后才能重新抢锁,且闭锁带阻塞功能,线程都执行完后会让阻塞的线程得到执行。
Guava RateLimiter#
采用令牌桶算法,用于限流
代码示例见:RateLimiterUsage.java
Phaser(Since jdk1.7)#
遗传算法,可以用这个结婚的场景模拟: 假设婚礼的宾客有5个人,加上新郎和新娘,一共7个人。 我们可以把这7个人看成7个线程,有如下步骤要执行。
- 到达婚礼现场
- 吃饭
- 离开
- 拥抱(只有新郎和新娘线程可以执行)
每个阶段执行完毕后才能执行下一个阶段,其中hug阶段只有新郎新娘这两个线程才能执行。
以上需求,我们可以通过Phaser来实现,具体代码和注释如下:
package git.snippets.juc;
import java.util.Random;
import java.util.concurrent.Phaser;
import java.util.concurrent.TimeUnit;
public class PhaserUsage {
static final Random R = new Random();
static WeddingPhaser phaser = new WeddingPhaser();
static void millSleep() {
try {
TimeUnit.MILLISECONDS.sleep(R.nextInt(1000));
} catch (InterruptedException e) {
e.printStackTrace();
}
}
public static void main(String[] args) {
// 宾客的人数
final int guestNum = 5;
// 新郎和新娘
final int mainNum = 2;
phaser.bulkRegister(mainNum + guestNum);
for (int i = 0; i < guestNum; i++) {
new Thread(new Person("宾客" + i)).start();
}
new Thread(new Person("新娘")).start();
new Thread(new Person("新郎")).start();
}
static class WeddingPhaser extends Phaser {
@Override
protected boolean onAdvance(int phase, int registeredParties) {
switch (phase) {
case 0:
System.out.println("所有人到齐");
return false;
case 1:
System.out.println("所有人吃饭");
return false;
case 2:
System.out.println("所有人离开");
return false;
case 3:
System.out.println("新郎新娘拥抱");
return true;
default:
return true;
}
}
}
static class Person implements Runnable {
String name;
Person(String name) {
this.name = name;
}
@Override
public void run() {
// 先到达婚礼现场
arrive();
// 吃饭
eat();
// 离开
leave();
// 拥抱,只保留新郎和新娘两个线程可以执行
hug();
}
private void arrive() {
millSleep();
System.out.println("name:" + name + " 到来");
phaser.arriveAndAwaitAdvance();
}
private void eat() {
millSleep();
System.out.println("name:" + name + " 吃饭");
phaser.arriveAndAwaitAdvance();
}
private void leave() {
millSleep();
System.out.println("name:" + name + " 离开");
phaser.arriveAndAwaitAdvance();
}
private void hug() {
if ("新娘".equals(name) || "新郎".equals(name)) {
millSleep();
System.out.println("新娘新郎拥抱");
phaser.arriveAndAwaitAdvance();
} else {
phaser.arriveAndDeregister();
}
}
}
}
Exchanger#
用于线程之间交换数据,exchange()方法是阻塞的,所以要两个exchange同时执行到才会触发交换。
package git.snippets.juc;
import java.util.concurrent.Exchanger;
import java.util.concurrent.TimeUnit;
/**
* Exchanger用于两个线程之间交换变量
*/
public class ExchangerUsage {
static Exchanger<String> semaphore = new Exchanger<>();
public static void main(String[] args) {
new Thread(() -> {
String s = "T1";
try {
s = semaphore.exchange(s);
TimeUnit.SECONDS.sleep(2);
System.out.println("Thread 1(T1) executed, Result is " + s);
} catch (Exception e) {
e.printStackTrace();
}
}).start();
new Thread(() -> {
String s = "T2";
try {
s = semaphore.exchange(s);
TimeUnit.SECONDS.sleep(2);
System.out.println("Thread 2(T2) executed, Result is " + s);
} catch (Exception e) {
e.printStackTrace();
}
}).start();
}
}
LockSupport#
其他锁的底层用的是AQS
原先让线程等待需要wait/await
,现在仅需要LockSupport.park
原先叫醒线程需要notify/notifyAll
,现在仅需要LockSupport.unpark
, 还可以叫醒指定线程,
示例代码:
package git.snippets.juc;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.locks.LockSupport;
/**
* 阻塞指定线程,唤醒指定线程
*/
public class LockSupportUsage {
public static void main(String[] args) {
Thread t = new Thread(() -> {
for (int i = 0; i < 10; i++) {
try {
if (i == 5) {
LockSupport.park();
}
if (i == 8) {
LockSupport.park();
}
TimeUnit.SECONDS.sleep(1);
System.out.println(i);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
});
t.start();
// unpark可以先于park调用
//LockSupport.unpark(t);
try {
TimeUnit.SECONDS.sleep(8);
} catch (InterruptedException e) {
e.printStackTrace();
}
LockSupport.unpark(t);
System.out.println("after 8 seconds");
}
}
练习题: 实现一个监控元素的容器#
实现一个容器,提供两个方法,add,size写两个线程,线程1添加10个元素到容器中,线程2实现监控元素的个数,当个数到5个时,线程2给出提示并结束
实现方式:
方法1. 使用wait + notify
实现
方法2. 使用CountDownLatch
实现
方法3. 使用LockSupport
实现
代码见:MonitorContainer.java
练习题:生产者消费者问题#
写一个固定容量的同步容器,拥有put和get方法,以及getCount方法,能够支持2个生产者线程以及10个消费者线程的阻塞调用。
实现方式:
方法1. 使用wait/notifyAll
方法2. ReentrantLock
的Condition
,本质就是等待队列
代码见:ProducerAndConsumer.java
容器#
Vector/HashTable#
都加了锁,一般不用
ConcurrentHashMap#
ConcurrentHashMap写效率未必比HashMap,HashTable高,但是读效率比这两者要高
示例代码:HashTableVSCHM.java
输出:
...use hashtable....
size : 1000000
write cost 349ms
read cost 28322ms...
use HashMap....
size : 1000000
write cost 203ms
read cost 27590ms...
use ConcurrentHashMap....
size : 1000000
write cost 739ms
read cost 785ms
关于ConcurrentHash
和HashMap
的一些分析,可以参考这篇文章
ConcurrentLinkedQueue#
ConcurrentLinkedQueue
底层用的是CAS
操作。比Vector
效率高。
示例见:ConcurrentLinkedQueueVSVector.java
CopyOnWriteList#
1.CopyOnWriteList
内部也是席过数组来实现的,在向CopyOnWriteList
添加元素时会复制一个新的数组,写数据时在新数组上进行,读操作在原数组上进行。
2.写操作会加锁,防止出现并发写入丢失数据的问题
3.写操作结束之后会把原数组指向新数组
4.CopyOnWriteList
允许在写操作时来读取数据,大大提高了读的性能,因此适合读多写少的应用场景,CopyOnWriteList
会比较占内存,同时可能读到的数据不是实时最新的数据,所以不适合实时性要求很高的场景
示例见:CopyOnWriteListVSVector.java
ConcurrentSkipListMap/TreeMap#
-
ConcurrentSkipListMap:高并发且排序,底层是跳表实现
-
TreeMap:底层是红黑树,排序
Queue VS List#
-
Queue中offer和add方法区别在于:offer方法成功与否用返回值判断,add方法如果加不进会抛异常
-
Queue中,poll是取并remove这个元素 put方法:如果满,阻塞。take:如果空,阻塞。底层用的是park/unpark
-
Queue提供了对线程友好的API: offer peek poll
-
BlockingQueue中的put和take方法是阻塞的。 示例:BlockingQueueUsage.java
DelayQueue#
- 用于:按时间进行任务调度。示例:DelayQueueUsage.java
SynchronousQueue#
- 容量为0,示例:SynchronousQueueUsage.java
PriorityQueue#
- 默认是小根堆
- 需要实现比较器
TransferQueue#
- transfer方法是执行然后等待取走
示例见:TransferQueueUsage.java
练习题,多线程打印A1B2C3#
-
使用
wait,notify
-
使用
LockSupport
-
使用
volatile
-
使用
BlockingQueue
-
使用
ReentrantLock
的Condition
-
使用
TransferQueue
代码见:A1B2C3.java
线程池#
工作原理#
线程池内部是通过队列+线程程实现的,当我们利用程池执行任务时:
-
如果此时线程池中的线程数量小于
corePoolSize
,即使线程池中的线程都处于空闲状态,也要创建新的线程来处理被添加的任务。 -
如果此时线程池中的线程数量等于
corePoolSize
,但是缓冲队列workQueue
未满,那么任务被放入缓冲队列。 -
如果此时线程池中的线程数量大于等于
corePoolSize
,缓冲队列workQueue
已满,并且线程池中的线程数量小于maximumPoolSize
,建新的线程来处理被添加的任务。 -
如果此时线裎池中的线数量大于
corePoolSize
,缓存冲队列workQueue
已满, 并且线程池中的数量等于maximumPoolSize
,那么过handler所指定的策略来处理此任务。 -
当线程池中的线程数量大于
corePoolSize
时,如果某线程空闲时间超过keepAliveTime
, 线将被终止。这样,线程池可以动态的调整池中的线程数。
相关配置#
corePoolSize
:核心线程数
maximumPoolSize
:最大线程数 【包括核心线程数】
keepAliveTime
:生存时间【线程长时间不干活了,归还给操作系统,核心线程不用归还,可以指定是否参与归还过程】
生存时间单位
任务队列:等待队列,如果不指定,最大值是Integer.MAX_VALUE
【各种各样的BlockingQueue
】
线程工厂【默认设置优先级是普通优先级,非守护线程】,最好自定义线程名称,方便回溯
拒绝策略,包括以下四种:
ThreadPoolExecutor.AbortPolicy
:丢弃任务并抛出RejectedExecutionException
异常。
ThreadPoolExecutor.DiscardPolicy
:丢弃任务,但是不抛出异常。
ThreadPoolExecutor.DiscardOldestPolicy
:丢弃队列最前面的任务,然后重新提交被拒绝的任务
ThreadPoolExecutor.CallerRunsPolicy
:由调用线程(提交任务的线程)处理该任务
执行流程:先占满核心线程-> 再占满任务队列-> 再占满(最大线程数-核心线程数)-> 最后执行拒绝策略
一般自定义拒绝策略:将相关信息保存到redis,kafka,日志,MySQL记录 实现RejectedExecutionHandler并重写rejectedExecution方法
自定义拒绝策略代码示例:
package git.snippets.juc;
import java.util.concurrent.*;
/**
* 自定义拒绝策略
*/
public class MyRejectedHandler {
public static void main(String[] args) {
ExecutorService service = new ThreadPoolExecutor(4, 4,
0, TimeUnit.SECONDS, new ArrayBlockingQueue<>(6),
Executors.defaultThreadFactory(),
new MyHandler());
}
static class MyHandler implements RejectedExecutionHandler {
@Override
public void rejectedExecution(Runnable r, ThreadPoolExecutor executor) {
//log("r rejected")
//save r kafka mysql redis
//try 3 times
if (executor.getQueue().size() < 10000) {
//try put again();
}
}
}
}
SingleThreadPool#
- 保证线程按顺序执行
- 为什么要有单线程的线程池?这个主要是用来做任务队列和线程生命周期管理
- 使用LinkedBlockingQueue作为任务队列,上界为:Integer.MAX_VALUE(2147483647) 约等于无界。
示例代码见:SingleThreadPoolUsage.java
CachedThreadPool#
- corePoolSize:0
- maxiumPoolSize:Integer.MAX_VALUE(2147483647)
- keepAliveTime 60秒
- 使用SynchronousQueue作为任务队列 必须马上执行
使用示例:CachedThreadPoolUsage.java
FixedThreadPool#
- 最大线程数=核心线程数
- 使用LinkedBlockingQueue作为任务队列,上界为:Integer.MAX_VALUE(2147483647)
使用示例见:FixedThreadPoolUsage.java
ScheduledThreadPool#
-
使用DelayWorkQueue
-
scheduleAtFixedRate
当前任务执行时间小于间隔时间,每次到点即执行;
当前任务执行时间大于等于间隔时间,任务执行后立即执行下一次任务。相当于连续执行了。
- scheduleWithFixedDelay
每当上次任务执行完毕后,间隔一段时间执行。不管当前任务执行时间大于、等于还是小于间隔时间,执行效果都是一样的。
使用示例:ScheduleThreadPoolUsage.java
ForkJoinPool#
-
since jdk1.7
-
RecursiveAction
它是一种没有任何返回值的任务。只是做一些工作,比如写数据到磁盘,然后就退出了。 一个RecursiveAction可以把自己的工作分割成更小的几块, 这样它们可以由独立的线程或者CPU执行。
我们可以通过继承来实现一个RecursiveAction。
- RecursiveTask
它是一种会返回结果的任务。可以将自己的工作分割为若干更小任务,并将这些子任务的执行合并到一个集体结果。 可以有几个水平的分割和合并。
ForkJoinPool 使用示例:ForkJoinPoolUsage.java
流式API底层也是ForkJoinPool实现的。
MapReduce模型
- 定义任务的时候,实现ForkJoinTask(原始)
- 或者使用 RecursiveAction(不带返回值) ,RecursiveTask(带返回值)
参考:
-
ForkJoinPool 的使用以及原理
-
聊聊并发(八)——Fork/Join 框架介绍
WorkStealingPool#
每个线程都有单独的队列,每个线程队列执行完毕后,就会去其他的线程队列里面拿过来执行, 底层是:ForkJoinPool
- since jdk 1.8
- 会自动启动cpu核数个线程去执行任务
使用示例:WorkStealingPoolUsage.java
CompletableFuture#
- since jdk 1.8
- anyOf()可以实现“任意个CompletableFuture只要一个成功”,allOf()可以实现“所有CompletableFuture都必须成功”,这些组合操作可以实现非常复杂的异步流程控制。
使用示例:CompletableFutureUsage.java
思考题#
-
证明原子操作类比synchronized更高效
-
AtomXXX类可以保证可见性吗?请写一个程序来证明
-
写一个程序证明AtomXXX类的多个方法并不构成原子性
示例代码:AtomVSSync.java