第3章 第4节 Java基础 - 三大集合(上)
大家好,很高兴我们可以继续学习交流Java高频面试题。本小节是Java基础篇章的第四小节,主要介绍Java中的常用集合知识点,涉及到的内容包括Java中的三大集合的引出,以及HashMap,Hashtable和ConcurrentHashMap。
本小节内容几乎是Java面试中必考的点,或者说是你必须要熟练掌握的知识点。在实际的开发的工作中,我们经常借助集合完成数据的排序,查找等操作。熟练掌握Java中的常用集合,对于实际开发工作效率的提升也很有帮助。
我们先来介绍下Java中集合知识的整体情况吧。
三大集合接口的引出:
Java中的集合,从上层接口上看分为了两类,Map和Collection。也就是说,我们平时接触到的常用的集合,包括HashMap,ArrayList和HashSet等都直接或者间接的实现了这两个接口之一。而Collection接口的子接口又包括了Set和List接口。这样我们常见的Map,Set和List三大集合接口就出来了。接口类图如下所示:
这个时候,比较“机灵”的面试官就会发问了。
面试官:Map,List和Set都是Collection的子接口吗?
答:Map是和Collection并列的集合上层接口,没有继承关系;List和Set是Collection的子接口。
在本小节的附图中,我们给出了本节所涉及到的集合的类图结构,列出来是为了大家学习的时候方便查阅,接下来我们结合面试题来进行各个知识点的解析吧。
(1)说说Java中常见的集合吧。
答:Java中的常见集合可以概括如下。
- Map接口和Collection接口是所有集合框架的父接口
- Collection接口的子接口包括:Set接口和List接口
- Map接口的实现类主要有:HashMap、TreeMap、Hashtable、LinkedHashMap、ConcurrentHashMap以及Properties等
- Set接口的实现类主要有:HashSet、TreeSet、LinkedHashSet等
- List接口的实现类主要有:ArrayList、LinkedList、Stack以及Vector等
(2)HashMap和Hashtable的区别有哪些?
答: HashMap和Hashtable之间的区别可以总结如下。
- HashMap没有考虑同步,是线程不安全的;Hashtable使用了synchronized关键字,是线程安全的;
- HashMap允许null作为Key;Hashtable不允许null作为Key,Hashtable的value也不可以为null
解析:
这个算是面试官针对HashMap的一个开胃小菜,重点是根据候选人的回答进行下一步的考察。既然候选人说出了线程安全和不安全的区别,面试官会接着考察线程安全的具体含义,如下所示:
HashMap是线程不安全的是吧?你可以举一个例子吗?
答:(注意,以下是候选人常见的错误理解!!!,因为上边的答案是大家背出来的)
有一个快速失败fast-fail机制,当对HashMap遍历的时候,调用了remove方法使其迭代器发生改变的时候会抛出一个异常ConcurrentModificationException。Hashtable因为在方法上做了synchronized处理,所以不会抛出异常。(自信的语气^_^感觉面试官很low)。
我们这里先给出正确答案:
- HashMap线程不安全主要是考虑到了多线程环境下进行扩容可能会出现HashMap死循环
- Hashtable线程安全是由于其内部实现在put和remove等方法上使用synchronized进行了同步,所以对单个方法的使用是线程安全的。但是对多个方法进行复合操作时,线程安全性无法保证。 比如一个线程在进行get然后put更新的操作,这就是两个复合操作,在两个操作之间,可能别的线程已经对这个key做了改动,所以,你接下来的put操作可能会不符合预期。
既然说到了这里,那么我们来看看大家一直想说的Java集合快速失败(fast-fail)机制是怎么回事儿吧~
Java集合中的快速失败(fast-fail)机制:
答:快速失败是Java集合的一种错误检测机制,当多个线程对集合进行结构上的改变的操作时,有可能会产生fail-fast。
例如:
假设存在两个线程(线程1、线程2),线程1通过Iterator在遍历集合A中的元素,在某个时候线程2修改了集合A的结构(是结构上面的修改,而不是简单的修改集合元素的内容),那么这个时候程序就可能会抛出 ConcurrentModificationException异常,从而产生fast-fail快速失败。
那么快速失败机制底层是怎么实现的呢?
迭代器在遍历时直接访问集合中的内容,并且在遍历过程中使用一个 modCount 变量。集合在被遍历期间如果内容发生变化,就会改变modCount的值。当迭代器使用hashNext()/next()遍历下一个元素之前,都会检测modCount变量是否为expectedModCount值,是的话就返回遍历;否则抛出异常,终止遍历。JDK源码中的判断大概是这样的:
我们再来接着看异常ConcurrentModificationException,JDK中是这么介绍该异常的:
我来解释下JDK中的英文,大概意思就是说当检测到一个并发的修改,就可能会抛出该异常,一些迭代器的实现会抛出该异常,以便可以快速失败。但是你不可以为了便捷而依赖该异常,而应该仅仅作为一个程序的侦测。
前面常见的错误答案,错误的认为快速机制就是HashMap线程不安全的表现。并且坚定的认为Hashtable和Vector等线程安全的集合不会存在并发修改时候的快速失败,这是大错特错。概念和原理理解的不清晰导致掉入了面试官的陷阱里了,大家可以打开JDK源码,会发现Hashtable也会在迭代的时候抛出该异常,可能发生快速失败。
(3)HashMap底层实现结构有了解吗?
答:HashMap底层实现数据结构为数组+链表的形式,JDK8及其以后的版本中使用了数组+链表+红黑树实现,解决了链表太长导致的查询速度变慢的问题。大概结构如下图所示:
面试官追问:HashMap的初始容量,加载因子,扩容增量是多少?
答:HashMap的初始容量16,加载因子为0.75,扩容增量是原容量的1倍。如果HashMap的容量为16,一次扩容后容量为32。HashMap扩容是指元素个数(包括数组和链表+红黑树中)超过了16*0.75=12之后开始扩容。
解析:
这个题目,好多同学表现的不够出色,出现许多记忆不准确的情况。这说明,大家对为什么初始容量是16,扩容后为什么是32的原理不太清晰。那么我们接着看下一个知识点吧,也许会对你有启发(联想记忆)
HashMap的长度为什么是2的幂次方?
答:
- 我们将一个键值对插入HashMap中,通过将Key的hash值与length-1进行&运算,实现了当前Key的定位,2的幂次方可以减少冲突(碰撞)的次数,提高HashMap查询效率
- 如果length为2的幂次方,则length-1 转化为二进制必定是11111……的形式,在与h的二进制与操作效率会非常的快,而且空间不浪费
- 如果length不是2的幂次方,比如length为15,则length-1为14,对应的二进制为1110,在与h与操作,最后一位都为0,而0001,0011,0101,1001,1011,0111,1101这几个位置永远都不能存放元素了,空间浪费相当大,更糟的是这种情况中,数组可以使用的位置比数组长度小了很多,这意味着进一步增加了碰撞的几率,减慢了查询的效率!这样就会造成空间的浪费。
接下来,我们来做一个简单的总结:
总结:
也就是说2的N次幂有助于减少碰撞的几率,空间利用率比较大。这样你就明白为什么第一次扩容会从16 ->32了吧?总不会再说32+1=33或者其余答案了吧?至于加载因子,如果设置太小不利于空间利用,设置太大则会导致碰撞增多,降低了查询效率,所以设置了0.75。
上边介绍了HashMap在存储空间不足的时候会进行扩容操作。那么,我们接着来看HashMap中的存储和扩容等相关知识点吧。
HasMap的存储和获取原理:
当调用put()方法传递键和值来存储时,先对键调用hashCode()方法,返回的hashCode用于找到bucket位置来储存Entry对象,也就是找到了该元素应该被存储的桶中(数组)。当两个键的hashCode值相同时,bucket位置发生了冲突,也就是发生了Hash冲突,这个时候,会在每一个bucket后边接上一个链表(JDK8及以后的版本中还会加上红黑树)来解决,将新存储的键值对放在表头(也就是bucket中)。
当调用get方法获取存储的值时,首先根据键的hashCode找到对应的bucket,然后根据equals方法来在链表和红黑树中找到对应的值。
HasMap的扩容步骤:
HashMap里面默认的负载因子大小为0.75,也就是说,当Map中的元素个数(包括数组,链表和红黑树中)超过了16*0.75=12之后开始扩容。将会创建原来HashMap大小的两倍的bucket数组,来重新调整map的大小,并将原来的对象放入新的bucket数组中。这个过程叫作rehashing,因为它调用hash方法找到新的bucket位置。
当然了,上述的扩容机制是比较低效的。所以,我们伟大的JDK开发人员在1.8版本中做了一个扩容效率方面的优化。因为是2的N次幂扩容,所以一个元素要么在原位置不动,要么移动到当前位置+2的N次幂(也就是oldIndex+OldCap的位置)。
怎么实现呢?
- 说白了,就是通过新增的bit位置上是0还是1来判断。
- 0则是原位置,1则是oldIndex+OldCap位置。
这个设计确实非常的巧妙,既省去了重新计算hash值的时间,而且同时,由于新增的1bit是0还是1可以认为是随机的,因此resize的过程,均匀的把之前的冲突的节点分散到新的bucket了。这一块是JDK1.8新增的优化点,感兴趣的同学可以去看下源码。
但是,需要注意的是在多线程环境下,HashMap扩容可能会导致死循环。
前面我们介绍了在HashMap存储的时候,会发生Hash冲突,那么我们一起来看Hash冲突的解决办法吧。
解决Hash冲突的方法有哪些?
- 拉链法 (HashMap使用的方法)
- 线性探测再散列法
- 二次探测再散列法
- 伪随机探测再散列法
哪些类适合作为HashMap的键?
String和Interger这样的包装类很适合做为HashMap的键,因为他们是final类型的类,而且重写了equals和hashCode方法,避免了键值对改写,有效提高HashMap性能。
为了计算hashCode(),就要防止键值改变,如果键值在放入时和获取时返回不同的hashCode的话,那么就不能从HashMap中找到你想要的对象。
扩展知识点:
在高级的算法中,还有一个一致性Hash算法,有能力和精力的同学可以去研究下“一致性Hash算法”,有所了解一致性Hash算法对于面试是一个很好的加分点。
(4)ConcurrentHashMap和Hashtable的区别?
答: ConcurrentHashMap结合了HashMap和Hashtable二者的优势。HashMap没有考虑同步,Hashtable考虑了同步的问题。但是Hashtable在每次同步执行时都要锁住整个结构。
ConcurrentHashMap锁的方式是稍微细粒度的,ConcurrentHashMap将hash表分为16个桶(默认值),诸如get,put,remove等常用操作只锁上当前需要用到的桶。
ConcurrentHashMap的具体实现方式(分段锁):
- 该类包含两个静态内部类MapEntry和Segment,前者用来封装映射表的键值对,后者用来充当锁的角色。
- Segment是一种可重入的锁ReentrantLock,每个Segment守护一个HashEntry数组里得元素,当对HashEntry数组的数据进行修改时,必须首先获得对应的Segment锁。
解析:
ConcurrentHashMap与Hashtable以及HashMap的比较是一个绝对高频的考察点,我们必须熟练掌握ConcurrentHashMap分段锁的实现方式。在实际的开发中,我们在单线程环境下可以使用HashMap,多线程环境下可以使用ConcurrentHashMap,至于Hashtable已经不被推荐使用了(也就是说Hashtable只存在于面试题目中了)。
上节问题解析:
在上一节中,我们留下了一个题目,以下代码的输出结果是什么?
1 2 3 4 5 6 7 8 9 10 11 12 13 |
|
首先,我们给出输出答案:
聪明的大家都答对了吗?内存分析图如下所示:
总结:
本小节中,我们交流学习了Java基础中的三大集合,重点阐述了HashMap相关的知识点。这里郑重提示,本小节所涉及到的内容几乎是面试中的必现考察点。有能力的同学,最好是打开JDK的源码,好好研究HashMap以及ConcurentHashMap的实现方式。当然如果你遇到问题,可以在评论区留言,我们可以一起探讨学习,一起进步。