java LinkedHashMap源码解析

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
简介: 本源码解析是基于JDK1.7,本篇与HashMap源码解析较强的关联性LinkedHashMap概要LinkedHashMap是基于HashTable与LinkedList原理实现的HashMap是基于数组的...

本源码解析是基于JDK1.7,本篇与HashMap源码解析较强的关联性

LinkedHashMap概要

  • LinkedHashMap是基于HashTable与LinkedList原理实现的
  • HashMap是基于数组的,而LinkedHashMap是基于循环双向链表的,即每个节点都有指向前后节点的指针,
  • header节点是不含真实元素的标兵节点,由于每次插入都是在header的前面,header.before指向最新插入的节点(Newest),header.after指向最先插入的节点(Eldest)
  • 迭代次序是确定的,为插入顺序,注意插入相等的key(跟新value)并不会改变迭代的次序
public class Demo {
    public static void main(String[] args) {
        Map<Integer, Integer> map = new LinkedHashMap<Integer, Integer>();
        map.put(1, 2);
        map.put(2, 3);
        map.put(1, 2);
        for (int i : map.keySet()) {
            System.out.println(map.get(i));
        }
    }
} //结果: 2 3 
  • 它可以用来备份map,以保持备份时刻的迭代顺序,同时又不像TreeMap那样引入额外的开销
    void foo(Map m) {
        Map copy = new LinkedHashMap(m);
        ...
    }  
  • 允许null键和值
  • 构造器LinkedHashMap(int,float,boolean)可以使得迭代次序为从最近访问的到最后访问的,这种次序通常用来实现LRU(least-recently-used)cache,注意通过集合视图访问不计算在访问次数之内
  • LinkedHashMap可以用来实现遍历时总是首先访问最近访问的节点,但是没有实现LRU cache机制,即删除最老节点的操作(Eldest),下面判断函数总是返回false
    protected boolean removeEldestEntry(Map.Entry<K,V> eldest) {
        return false;
    }  
  • 它的map基本操作时间复杂度与HashMap一样是常数级别的(元素散列合理的情况下),由于需要维护维持迭代次序的LinkedList,通常他会比HashMap效率低,但是遍历整个Map例外,LinkedHashMap遍历时间正比于size,而HashMap正比于capacity,通常capacity>size
  • 与HashMap一样,capacity与loadFactor会影响其基本操作效率,但是由于其遍历时间与capacity无关,所以初始capacity可以设置较大值
  • 非线程安全,可以通过Map m = Collections.synchronizedMap(new LinkedHashMap(...));来实现同步
  • 其迭代器有fail-fast机制,迭代过程中通过迭代器以外的方法改变map结构会抛出异常结束,注意在依据访问次序来决定迭代器顺序的实现中,单纯的get方法也会引起map结构性的改变(需要调整被访问元素的位置)
  • fail-fast机制不能确保并发改变一定抛出异常,只是一种尽可能的校验机制

LinkedHashMap类头部

我们看到他是基于HashMap的实现,实现了Map接口(PS:HashMap实现了Map接口,他不用说也实现了Map接口吧,为啥还要声明。。。)

public class LinkedHashMap<K,V>
    extends HashMap<K,V>
    implements Map<K,V>  
public interface Map<K, V> {
    // Query Operations
    int size();
    boolean isEmpty();
    boolean containsKey(Object key);
    boolean containsValue(Object value);
    V get(Object key);
    // Modification Operations
    V put(K key, V value);
    V remove(Object key);
    // Bulk Operations
    void putAll(Map<? extends K, ? extends V> m);
    void clear();
    // Views
    Set<K> keySet();
    Collection<V> values();
    Set<Map.Entry<K, V>> entrySet();
    interface Entry<K, V> {
        K getKey();
        V getValue();
        V setValue(V value);
        boolean equals(Object o);
        int hashCode();
    }
    // Comparison and hashing
    boolean equals(Object o);
    int hashCode();
}  

基本节点 Entry

对比于HashMap其添加了前后指针来支持循环双向链表操作,并用链表来保证访问次序。并为实现LRU机制添加了记录访问的方法,移动到Map的head头部

  • 继承了HashMap的Entry并添加了头尾指针两个域
  • 添加了将当前节点添加到某个节点之前的操作(如果是单链表无法做到)
  • recordAccess通过将当前节点移动到队头来实现最近访问迭代次序最前
    private static class Entry<K,V> extends HashMap.Entry<K,V> {
        Entry<K,V> before, after;
        Entry(int hash, K key, V value, HashMap.Entry<K,V> next) {
            super(hash, key, value, next);
        }
        private void remove() {
            before.after = after;
            after.before = before;
        }
        private void addBefore(Entry<K,V> existingEntry) {
            after  = existingEntry;
            before = existingEntry.before;
            before.after = this;
            after.before = this;
        }
        void recordAccess(HashMap<K,V> m) {
            LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m;
            if (lm.accessOrder) {
                lm.modCount++;
                remove();
                addBefore(lm.header);
            }
        }
        void recordRemoval(HashMap<K,V> m) {
            remove();
        }
    }  

关键成员变量

LinkedHashMap既是基于数组的也是基于循环双向链表的,用数组来定位元素,用链表来记录相对顺序,header是不含真实元素的标兵节点,由于每次都是在header的前面插入,所以其after指向最先添加元素,before指向最新添加元素

  • 由于其继承了HashMap且与HashMap处于同一package中,所以继承了HashMap的所有非Private成员,其元素查找机制与HashMap一样也是基于Hash的
  • 增加了header成员,于是遍历时不用扫描整个数组,时间复杂度由与capacity成正比变为与size成正比
  • accessOrder用来标志是否是基于LRU机制的访问顺序
    private transient Entry<K,V> header;
    private final boolean accessOrder;  
        // 继承自HashMap的成员
        static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
    static final float DEFAULT_LOAD_FACTOR = 0.75f; 
    static final int MAXIMUM_CAPACITY = 1 << 30; 
    transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;  
    static final Entry<?,?>[] EMPTY_TABLE = {};
    transient int size; 
    int threshold;
    final float loadFactor;
    transient int modCount; 

构造函数

  • 其所有初始化机制都是与HashMap相同的,只是同时初始化了accessOrder标志
  • 在HashMap中定义了一个空的函数init(),并由构造器来负责调用,就是为了给后续的HashMap的扩展留出初始化的位置,在LinkedHashMap中,初始化了header节点,注意header是不含真实元素的标兵节点,由于始终采用的是头插法(每次在header的前面插入),因此header.before实际指向的是链表的最新插入节点,即Newest,而header.after指向的是最先插入的节点,即Eldest
    public LinkedHashMap(int initialCapacity, float loadFactor) {
        super(initialCapacity, loadFactor);
        accessOrder = false;
    }
    public LinkedHashMap(int initialCapacity) {
        super(initialCapacity);
        accessOrder = false;
    }
    public LinkedHashMap() {
        super();
        accessOrder = false;
    }
    public LinkedHashMap(Map<? extends K, ? extends V> m) {
        super(m);
        accessOrder = false;
    }
    public LinkedHashMap(int initialCapacity,
                         float loadFactor,
                         boolean accessOrder) {
        super(initialCapacity, loadFactor);
        this.accessOrder = accessOrder;
    }  
    @Override
    void init() {
        header = new Entry<>(-1, null, null, null);
        header.before = header.after = header;
    }  

相对于HashMap优化的方法

由于添加了循环双向链表机制,所有需要遍历的操作都可以不用再扫描原数组(扫描数组的时间复杂度与capacity和size成正比),而是可以直接扫描所有元素(扫描元素的时间复杂度与size成正比),由于HashMap是基于Hash的,用空间换取时间,所有通常capacity要比size大

transfer函数

  • transfer函数用来在进行扩容时将原数组中的Entry转移到新的Table数组中
  • 改进后的transfer不再遍历数组查找所有元素,而是直接用链表进行遍历
    @Override
    void transfer(HashMap.Entry[] newTable, boolean rehash) {
        int newCapacity = newTable.length;
        for (Entry<K,V> e = header.after; e != header; e = e.after) {
            if (rehash)
                e.hash = (e.key == null) ? 0 : hash(e.key);
            int index = indexFor(e.hash, newCapacity);
            e.next = newTable[index];
            newTable[index] = e;
        }
    }  

containValue函数

  • containValue()用来查询value是否在值集合中,需要遍历map
  • 改进后的遍历机制直接使用循环双向链表,避免了扫描原数组中不含元素的点,提高了效率
  • 由于每次插入都是在header的before,header不含真实元素的标兵节点,循环双向链表中header.after指向最先插入的节点即Eldest,header.before指向最新插入节点
    public boolean containsValue(Object value) {
        // Overridden to take advantage of faster iterator
        if (value==null) {
            for (Entry e = header.after; e != header; e = e.after)
                if (e.value==null)
                    return true;
        } else {
            for (Entry e = header.after; e != header; e = e.after)
                if (value.equals(e.value))
                    return true;
        }
        return false;
    }  

添加元素

  • addEntry在调用put等后添加元素的方法时调用,需要考虑扩容的问题
  • createEntry用在以已有map创建新map时用,由于此时HashMap的大小已经根据原Map大小确定,所以不用担心扩让的问题,其扩容后也是调用createEntry方法创建新节点
  • 扩容机制与HashMap一致,addEntry只是检测是否适用LRU缓存机制来删除最老的元素,addEntry添加了删除最老节点的机制,但是由于removeEldestEntry(node)总是返回false,所以不会有任何操作
  • createEntry方法与原方法的区别在于调用addBefore()方法来连接新加入节点前后的指针
    void addEntry(int hash, K key, V value, int bucketIndex) {
        super.addEntry(hash, key, value, bucketIndex);
        // Remove eldest entry if instructed
        Entry<K,V> eldest = header.after;
        if (removeEldestEntry(eldest)) {
            removeEntryForKey(eldest.key);
        }
    }
    void createEntry(int hash, K key, V value, int bucketIndex) {
        HashMap.Entry<K,V> old = table[bucketIndex];
        Entry<K,V> e = new Entry<>(hash, key, value, old);
        table[bucketIndex] = e;
        e.addBefore(header);
        size++;
    }  

get方法

  • get(key)方法使用与HashMap相同的hash定位机制
  • 由于get方法访问了元素,如果LinkedHashMap初始化为基于最近访问的迭代次序(accessOrder==true),重写的get(key)方法还需要将被访问的元素移动到header之前的位置
    public V get(Object key) {
        Entry<K,V> e = (Entry<K,V>)getEntry(key);
        if (e == null)
            return null;
        e.recordAccess(this);
        return e.value;
    }
        void recordAccess(HashMap<K,V> m) {
            LinkedHashMap<K,V> lm = (LinkedHashMap<K,V>)m;
            if (lm.accessOrder) {
                lm.modCount++;
                remove();
                addBefore(lm.header);
            }
        }  

清空方法

重写的方法除了清空数组外还需要清空链表,只剩下不含真实元素的标兵节点 header

    public void clear() {
        super.clear();
        header.before = header.after = header;
    }  

迭代器机制

  • 其他迭代器都是基于LinkedHashIterator的
  • 遍历的起点是header.after即最先插入的节点
  • 遍历结束标志当前节点的after指向了标兵节点header
  • next()类的方法就是简单的返回链表下一个元素
    private abstract class LinkedHashIterator<T> implements Iterator<T> {
        Entry<K,V> nextEntry    = header.after;
        Entry<K,V> lastReturned = null;
        int expectedModCount = modCount;
        public boolean hasNext() {
            return nextEntry != header;
        }
        public void remove() {
            if (lastReturned == null)
                throw new IllegalStateException();
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            LinkedHashMap.this.remove(lastReturned.key);
            lastReturned = null;
            expectedModCount = modCount;
        }
        Entry<K,V> nextEntry() {
            if (modCount != expectedModCount)
                throw new ConcurrentModificationException();
            if (nextEntry == header)
                throw new NoSuchElementException();
            Entry<K,V> e = lastReturned = nextEntry;
            nextEntry = e.after;
            return e;
        }
    }
    private class KeyIterator extends LinkedHashIterator<K> {
        public K next() { return nextEntry().getKey(); }
    }
    private class ValueIterator extends LinkedHashIterator<V> {
        public V next() { return nextEntry().value; }
    }
    private class EntryIterator extends LinkedHashIterator<Map.Entry<K,V>> {
        public Map.Entry<K,V> next() { return nextEntry(); }
    }
    Iterator<K> newKeyIterator()   { return new KeyIterator();   }
    Iterator<V> newValueIterator() { return new ValueIterator(); }
    Iterator<Map.Entry<K,V>> newEntryIterator() { return new EntryIterator(); }  

注意点

  • LinkedHashMap并没有重写remove(key)方法,那么在删除元素后是怎么连接删除元素前后的节点的?
    在HashMap中每次调用remove()方法时都会调用删除节点的e.recordRemoval(this)方法,HashMap的Entry中该方法留空,而在LinkedHashMap中实现了该方法,完成了连接,虽然HashMap并不需要删除后处理连接但是还是预留了这种框架
    final Entry<K,V> removeEntryForKey(Object key) {
        if (size == 0) {
            return null;
        }
        int hash = (key == null) ? 0 : hash(key);
        int i = indexFor(hash, table.length);
        Entry<K,V> prev = table[i];
        Entry<K,V> e = prev;
        while (e != null) {
            Entry<K,V> next = e.next;
            Object k;
            if (e.hash == hash &&
                ((k = e.key) == key || (key != null && key.equals(k)))) {
                modCount++;
                size--;
                if (prev == e)
                    table[i] = next;
                else
                    prev.next = next;
                e.recordRemoval(this);
                return e;
            }
            prev = e;
            e = next;
        }
        return e;
    }  
        void recordRemoval(HashMap<K,V> m) {
            remove();
        } 
        private void remove() {
            before.after = after;
            after.before = before;
        } 
  • 在LinkedHashMap继承了HashMap,其Entry继承了HashMap.Entry,如何保证LinkedHashMap继承的HashMap的方法中的Entry是LinkedHashMap的Entry?
    猜测编译器在编译期将继承自HashMap中的方法编译到LinkedHashMap类中,LinkedHashMap的Entry就成为该类的为一内部类,所以就不存在歧义。
  • 虽然LinkedHashMap禁止了删除Eldest元素的机制,但是通过继承重写protected boolean removeEldestEntry(Entry<String, BucketWriter> eldest)方法就能很方便的实现LRU cache机制
class LRUCacheLinkedHashMap<K, V> extends LinkedHashMap<K, V> {
    private final int maxElements;
    public LRUCacheLinkedHashMap(int maxElements) {
        super(16, 0.75f, true);
        this.maxElements = maxElements;
    }
    @Override
    protected boolean removeEldestEntry(Entry<K, V> eldest) {
        if (size() >= maxElements) {
            return true;
        } else {
            return false;
        }
    }
}  
  • HashMap中留空了很多方法,如 init(),recordRemoval()等,虽然在HashMap中无用,但是LinkedHashMap实现时却可以直接使用原架构,而只是填充这些小的空方法就可以方便实现
目录
相关文章
|
12天前
|
存储 Java 计算机视觉
Java二维数组的使用技巧与实例解析
本文详细介绍了Java中二维数组的使用方法
30 15
|
8天前
|
JavaScript Java 测试技术
基于Java+SpringBoot+Vue实现的车辆充电桩系统设计与实现(系统源码+文档+部署讲解等)
面向大学生毕业选题、开题、任务书、程序设计开发、论文辅导提供一站式服务。主要服务:程序设计开发、代码修改、成品部署、支持定制、论文辅导,助力毕设!
27 6
|
13天前
|
算法 搜索推荐 Java
【潜意识Java】深度解析黑马项目《苍穹外卖》与蓝桥杯算法的结合问题
本文探讨了如何将算法学习与实际项目相结合,以提升编程竞赛中的解题能力。通过《苍穹外卖》项目,介绍了订单配送路径规划(基于动态规划解决旅行商问题)和商品推荐系统(基于贪心算法)。这些实例不仅展示了算法在实际业务中的应用,还帮助读者更好地准备蓝桥杯等编程竞赛。结合具体代码实现和解析,文章详细说明了如何运用算法优化项目功能,提高解决问题的能力。
48 6
|
13天前
|
存储 算法 搜索推荐
【潜意识Java】期末考试可能考的高质量大题及答案解析
Java 期末考试大题整理:设计一个学生信息管理系统,涵盖面向对象编程、集合类、文件操作、异常处理和多线程等知识点。系统功能包括添加、查询、删除、显示所有学生信息、按成绩排序及文件存储。通过本题,考生可以巩固 Java 基础知识并掌握综合应用技能。代码解析详细,适合复习备考。
16 4
|
18天前
|
SQL Java 数据库连接
如何在 Java 代码中使用 JSqlParser 解析复杂的 SQL 语句?
大家好,我是 V 哥。JSqlParser 是一个用于解析 SQL 语句的 Java 库,可将 SQL 解析为 Java 对象树,支持多种 SQL 类型(如 `SELECT`、`INSERT` 等)。它适用于 SQL 分析、修改、生成和验证等场景。通过 Maven 或 Gradle 安装后,可以方便地在 Java 代码中使用。
138 11
|
13天前
|
存储 Java
【潜意识Java】期末考试可能考的选择题(附带答案解析)
本文整理了 Java 期末考试中常见的选择题,涵盖数据类型、控制结构、面向对象编程、集合框架、异常处理、方法、流程控制和字符串等知识点。每道题目附有详细解析,帮助考生巩固基础,加深理解。通过这些练习,考生可以更好地准备考试,掌握 Java 的核心概念和语法。
19 1
|
17天前
|
存储 分布式计算 Hadoop
基于Java的Hadoop文件处理系统:高效分布式数据解析与存储
本文介绍了如何借鉴Hadoop的设计思想,使用Java实现其核心功能MapReduce,解决海量数据处理问题。通过类比图书馆管理系统,详细解释了Hadoop的两大组件:HDFS(分布式文件系统)和MapReduce(分布式计算模型)。具体实现了单词统计任务,并扩展支持CSV和JSON格式的数据解析。为了提升性能,引入了Combiner减少中间数据传输,以及自定义Partitioner解决数据倾斜问题。最后总结了Hadoop在大数据处理中的重要性,鼓励Java开发者学习Hadoop以拓展技术边界。
38 7
|
24天前
|
监控 JavaScript 数据可视化
建筑施工一体化信息管理平台源码,支持微服务架构,采用Java、Spring Cloud、Vue等技术开发。
智慧工地云平台是专为建筑施工领域打造的一体化信息管理平台,利用大数据、云计算、物联网等技术,实现施工区域各系统数据汇总与可视化管理。平台涵盖人员、设备、物料、环境等关键因素的实时监控与数据分析,提供远程指挥、决策支持等功能,提升工作效率,促进产业信息化发展。系统由PC端、APP移动端及项目、监管、数据屏三大平台组成,支持微服务架构,采用Java、Spring Cloud、Vue等技术开发。
|
13天前
|
Java 编译器 程序员
【潜意识Java】期末考试可能考的简答题及答案解析
为了帮助同学们更好地准备 Java 期末考试,本文列举了一些常见的简答题,并附上详细的答案解析。内容包括类与对象的区别、多态的实现、异常处理、接口与抽象类的区别以及垃圾回收机制。通过这些题目,同学们可以深入理解 Java 的核心概念,从而在考试中更加得心应手。每道题都配有代码示例和详细解释,帮助大家巩固知识点。希望这些内容能助力大家顺利通过考试!
15 0
|
14天前
|
自然语言处理 数据处理 索引
mindspeed-llm源码解析(一)preprocess_data
mindspeed-llm是昇腾模型套件代码仓,原来叫"modelLink"。这篇文章带大家阅读一下数据处理脚本preprocess_data.py(基于1.0.0分支),数据处理是模型训练的第一步,经常会用到。
33 0

推荐镜像

更多