java hashmap原理 面试,在Java中,HashMap中是用哪些方法来解决哈希冲突的?
00-1010 1.HashMap的数据结构?2.HashMap是如何工作的?3.当两个对象的hashCode相同时会发生什么?4.你知道hash的实现吗?为什么要实现这个?5.为什么要用XOR运算符?6.如何确定HashMap的表的容量?7.HashMap中put方法的过程?8.数组扩展的过程?9.为什么不总是用红黑树?10.说说你对红黑树的看法?1.jdk8中HashMap有哪些变化?12.HashMap,LinkedHashMap和TreeMap有什么区别?13.HashMap TreeMap LinkedHashMap使用场景?14.HashMap和HashTable有什么区别?15.Java中另一个与HashMap非常相似的线程安全类是什么?16.HashMap ConcurrentHashMap有什么区别?17.为什么ConcurrentHashMap比HashTable效率高?18.ConcurrentHashMap锁机制具体分析(JDK 1.7 VS JDK 1.8)?20.ConcurrentHashMap简介?重要常数:数据结构:存储对象时(put()方法):扩展容量获取对象时(get()方法):21。ConcurrentHashMap的并发性是什么?22.哈希冲突的几种解决方法22.1,开地址法22.1.1,线性检测法22.1.2,重平方检测22.1.3,伪随机检测22.2,拉链法22.3,重哈希法22.4,建立公共溢出区结束。
00-1010哈希表结构(链表Hash:数组链表)实现,结合了数组和链表的优点。当链表的长度超过8时,链表被转换成红黑树。
瞬态NodeK,V[]表;
00-1010 HashMap底层通过哈希数组和单向链表实现。数组中的每个元素都是一个链表,由Node的内部类(实现Map)实现。录入界面)。HashMap通过put get方法存储和获取。
存储对象时,将K/V键值传递给put()方法:
调用hash(K)方法计算K的哈希值,然后结合数组长度计算数组下标;
调整数组大小(当容器中的元素个数大于capacity * loadfactor时,容器会扩展,大小调整为2n);
如果k的哈希值在HashMap中不存在,则插入它;如果有,就会碰撞;如果k的哈希值存在于HashMap中,并且两者都等于返回true,则更新键值对;如果HashMap中存在k的hash值,并且两者都等于返回false,则插入链表的尾部(尾部插入法)或者插入红黑树(树加法)。(JDK 1.7之前用的是头插入法,JDK 1.8用的是尾插入法)(注意:当碰撞导致链表大于TREEIFY_THRESHOLD=8时,链表会转换成红黑树)。获取对象时,将k传递给get()方法:
调用hash(K)方法(计算K的哈希值)获取键值所在链表的数组下标;遍历顺序链表,equals()方法在同一个节点链表中找到K值对应的V值。HashCode被定位和存储;等于是定性的。比较它们是否相等。
00-1010因为hashCode相同,不一定相等(equals方法比较),所以两个对象所在的数组下标相同,发生‘碰撞’。因为HashMap使用链表来存储对象,所以这个节点将被存储在链表中。
00-1010JDK1.8,通过hashCode()的高16位异或和低16位异或来实现:(h=k.hashcode ()) (h 16),主要考虑速度、效率和质量,减少系统开销,不会造成高位不参与下标计算而导致的碰撞。
00-1010保证只要对象的hashCode的32位值中有一位发生变化,整个hash()返回值就会发生变化。尽可能减少碰撞。
00-1010什么是负载系数?容量如何变化?这种改变会带来哪些问题?
数组大小由参数capacity决定,默认值为
16,也可以构造时传入,最大限制是1<<30;
loadFactor 是装载因子,主要目的是用来确认table 数组是否需要动态扩展,默认值是0.75,比如table 数组大小为 16,装载因子为 0.75 时,threshold 就是12,当 table 的实际大小超过 12 时,table就需要动态扩容;
扩容时,调用 resize() 方法,将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold);
如果数据很大的情况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失很可能很致命。
7、HashMap中put方法的过程?
答:调用哈希函数获取Key对应的hash值,再计算其数组下标;
如果没有出现哈希冲突,则直接放入数组;如果出现哈希冲突,则以链表的方式放在链表后面;
如果链表长度超过阀值( TREEIFY THRESHOLD==8),就把链表转成红黑树,链表长度低于6,就把红黑树转回链表;
如果结点的key已经存在,则替换其value即可;
如果集合中的键值对大于12,调用resize方法进行数组扩容。
8、数组扩容的过程?
创建一个新的数组,其容量为旧数组的两倍,并重新计算旧数组中结点的存储位置。结点在新数组中的位置只有两种,原下标位置或原下标+旧数组的大小。
9、为什么不一直使用红黑树?
拉链法导致的链表过深问题为什么不用二叉查找树代替,而选择红黑树?
之所以选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊情况下会变成一条线性结构(这就跟原来使用链表结构一样了,造成很深的问题),遍历查找会非常慢。
而红黑树在插入新数据后可能需要通过左旋,右旋、变色这些操作来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,我们知道红黑树属于平衡二叉树,但是为了保持平衡是需要付出代价的,但是该代价所损耗的资源要比遍历线性链表要少,所以当长度大于8的时候,会使用红黑树,如果链表长度很短的话,根本不需要引入红黑树,引入反而会慢。
10、说说你对红黑树的见解?
每个节点非红即黑根节点总是黑色的如果节点是红色的,则它的子节点必须是黑色的(反之不一定)每个叶子节点都是黑色的空节点(NIL节点)从根节点到叶节点或空子节点的每条路径,必须包含相同数目的黑色节点(即相同的黑色高度)
11、jdk8中对HashMap做了哪些改变?
在java 1.8中,如果链表的长度超过了8,那么链表将转换为红黑树。(桶的数量必须大于64,小于64的时候只会扩容)
发生hash碰撞时,java 1.7 会在链表的头部插入,而java 1.8会在链表的尾部插入
在java 1.8中,Entry被Node替代(换了一个马甲)。
12、HashMap,LinkedHashMap,TreeMap 有什么区别?
LinkedHashMap 保存了记录的插入顺序,在用 Iterator 遍历时,先取到的记录肯定是先插入的;遍历比 HashMap 慢;
TreeMap 实现 SortMap 接口,能够把它保存的记录根据键排序(默认按键值升序排序,也可以指定排序的比较器)
13、HashMap & TreeMap & LinkedHashMap 使用场景?
一般情况下,使用最多的是 HashMap。
HashMap
:在 Map 中插入、删除和定位元素时;
TreeMap
:在需要按自然顺序或自定义顺序遍历键的情况下;
LinkedHashMap
:在需要输出的顺序和输入的顺序相同的情况下。
14、HashMap 和 HashTable 有什么区别?
HashMap 是线程不安全的,HashTable 是线程安全的;
由于线程安全,所以 HashTable 的效率比不上 HashMap;
HashMap最多只允许一条记录的键为null,允许多条记录的值为null,而 HashTable不允许;
HashMap 默认初始化数组的大小为16,HashTable 为 11,前者扩容时,扩大两倍,后者扩大两倍+1;
HashMap 需要重新计算 hash 值,而 HashTable 直接使用对象的 hashCode
15、Java 中的另一个线程安全的与 HashMap 极其类似的类是什么?
同样是线程安全,它与 HashTable 在线程同步上有什么不同?
ConcurrentHashMap 类(是 Java并发包 java.util.concurrent 中提供的一个线程安全且高效的 HashMap 实现)。
HashTable 是使用 synchronize 关键字加锁的原理(就是对对象加锁);
而针对 ConcurrentHashMap,在 JDK 1.7 中采用 分段锁的方式;JDK 1.8 中直接采用了CAS(无锁算法)+ synchronized。
16、HashMap & ConcurrentHashMap 的区别?
除了加锁,原理上无太大区别。
HashMap的键值对允许有null,但是ConCurrentHashMap 都不允许。
17、为什么 ConcurrentHashMap 比 HashTable 效率要高?
HashTable 使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;
ConcurrentHashMap
JDK 1.7 中使用分段锁(ReentrantLock + Segment + HashEntry),相当于把一个 HashMap 分成多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
JDK 1.8 中使用 CAS + synchronized + Node + 红黑树。锁粒度:Node(首结点)(实现 Map.Entry)。锁粒度降低了。
18、针对 ConcurrentHashMap 锁机制具体分析(JDK 1.7 VS JDK 1.8)?
JDK 1.7 中,采用分段锁的机制,实现并发的更新操作,底层采用数组+链表的存储结构,包括两个核心静态内部类 Segment 和 HashEntry。
Segment 继承 ReentrantLock(重入锁) 用来充当锁的角色,每个 Segment 对象守护每个散列映射表的若干个桶;HashEntry 用来封装映射表的键-值对;每个桶是由若干个 HashEntry 对象链接起来的链表
JDK 1.8 中,采用Node + CAS + Synchronized来保证并发安全。取消类 Segment,直接用 table 数组存储键值对;当 HashEntry 对象组成的链表长度超过 TREEIFY_THRESHOLD 时,链表转换为红黑树,提升性能。底层变更为数组 + 链表 + 红黑树。
19、ConcurrentHashMap 在 JDK 1.8 中,为什么要使用内置锁 synchronized 来代替重入锁 ReentrantLock?
粒度降低了;JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。
粒度降低了;JVM 开发团队没有放弃 synchronized,而且基于 JVM 的 synchronized 优化空间更大,更加自然。在大量的数据操作下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存
20、ConcurrentHashMap 简单介绍?
重要的常量:
private transient volatile int sizeCtl;
当为负数时,-1 表示正在初始化,-N 表示 N - 1 个线程正在进行扩容;
当为 0 时,表示 table 还没有初始化;
当为其他正数时,表示初始化或者下一次进行扩容的大小。
数据结构:
Node
是存储结构的基本单元,继承 HashMap 中的 Entry,用于存储数据;
TreeNode
继承 Node,但是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据;
TreeBin
是封装 TreeNode 的容器,提供转换红黑树的一些条件和锁的控制。
存储对象时(put() 方法):
如果没有初始化,就调用 initTable() 方法来进行初始化;
如果没有 hash 冲突就直接 CAS 无锁插入;
如果需要扩容,就先进行扩容;
如果存在 hash 冲突,就加锁来保证线程安全,两种情况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入;
如果该链表的数量大于阀值 8,就要先转换成红黑树的结构,break 再一次进入循环
如果添加成功就调用 addCount() 方法统计 size,并且检查是否需要扩容。
扩容方法
transfer()
:默认容量为 16,扩容时,容量变为原来的两倍。
helpTransfer()
:调用多个工作线程一起帮助进行扩容,这样的效率就会更高。
获取对象时(get()方法):
计算 hash 值,定位到该 table 索引位置,如果是首结点符合就返回;如果遇到扩容时,会调用标记正在扩容结点 ForwardingNode.find()方法,查找该结点,匹配就返回;以上都不符合的话,就往下遍历结点,匹配就返回,否则最后就返回 null。
21、ConcurrentHashMap 的并发度是什么?
程序运行时能够同时更新 ConccurentHashMap 且不产生锁竞争的最大线程数。默认为 16,且可以在构造函数中设置。
当用户设置并发度时,ConcurrentHashMap 会使用大于等于该值的最小2幂指数作为实际并发度(假如用户设置并发度为17,实际并发度则为32)
22、Hash冲突的几种解决方法
22.1、开放地址法
使用开放地址法进行建立散列表时,建表前须将表中所有单元中存储的数据置空
22.1.1、线性探测法
如果当前hash值发生冲突,就在此hash值的基础上加一个单位,直到不发生hash冲突。基本思想:假设散列表 T[0,m-1],从初始地址D开始探查,则最长的探查序列为:D,D+1,D+2,…,m-1,0,1,2,…,D-1
探查结束的三种情况:
当前探查的单元为空,则代表查找失败,如果是插入的话则将key值写入当前探查的单元有key值,则代表插入失败,但是查找成功。若探查到T[D-1]时,未发现空单元,也未找到key值,则表示查找失败并且插入失败(此时表满)缺点:
需要另外的程序来处理溢出的情况,一般存储在一个顺序表中。删除数据时,不能直接置为空,而是需要添加一个被删除的标记。否则会对以后的查找产生印象(情况1)容易产生堆聚现象
22.1.2、再平方探测
如果当前hash值发生冲突,就在此hash值的基础上加一个单位的平方,如果还是冲突,就在原来的hash值减去一个单位的平方。如果还是冲突就操作两个单位的平方,三个单位的平方等。
22.1.3、伪随机探测
如果当前hash值发生冲突。就用随机函数生成一个随机值,加在原来的hash值上,直到不发生hash冲突。
22.2、拉链法
通过计算出来的hash值,如果发生冲突,则用链表或者红黑树进行存储
在进行插入操作的时候,会先查找所插入的元素是否已经存在,查找次数小于等于装载因子的大小(装填因子a = m/n. m表示要装填的关键字个数 n为:装载链表的数组的大小,一般情况下m>n),所以时间复杂度为O(1)在进行查询操作的时候,和上边的类似,时间复杂度为O(1)在进行删除操作的时候,由于链表的结构,所以时间复杂度也是O(1)在取出元素的时候,如果hash值相同,会在该链表中通过equals()方法进行比对与开放地址法相比的优点:
处理较为简单,且无堆积现象,查找时间较短链表的长度是动态的,适合数据规模不清楚的情况开放地址法为例减少hash冲突,会使得装载因子变小,及增大散列表的规模。这种方式在数据规模较大的时候会浪费很多空间。而使用拉链法则可以使装载因子>1,节省了空间开销。删除节点的效率较高缺点:
指针需要额外的空间,所以当数据规模较小的时候,可以选择开放地址法。将节省的指针控件可以用来增加散列表的规模,是的hash冲突减少
22.3、再哈希法
对于冲突的哈希值再次进行通过哈希函数进行运算,直到没有哈希冲突
22.4、建立公共溢出区
建立公共溢出区存储所有哈希冲突的数据
结束
以上就是java哈希算法HashMap经典面试题目汇总解析的详细内容,更多关于java哈希算法HashMap面试题的资料请关注盛行IT其它相关文章!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。