`

Map接口(HashMap HashTable TreeMap LinkedHashMap ConcurrentHashMap)

 
阅读更多

1.HashMap 是一个最常用的Map,它根据键的HashCode值存储数据,根据键可以直接获取它的值,具有很快的访问速度,遍历时,取得数据的顺序是完全随机的。 HashMap最多只允许一条记录的键为Null;允许多条记录的值为 Null;HashMap不支持线程的同步,即任一时刻可以有多个线程同时写HashMap;可能会导致数据的不一致。如果需要同步,可以用 Collections的synchronizedMap方法使HashMap具有同步的能力,或者使用ConcurrentHashMap。(除了非同步和允许使用 null 之外,HashMap 类与 Hashtable 大致相同。),HashMap的key比较与set接口是一样的!

   

 

 

   

 

   

1. HashMap的数据结构
数据结构中有数组和链表来实现对数据的存储,但这两者基本上是两个极端。

      数组
数组存储区间是连续的,占用内存严重,故空间复杂的很大。但数组的二分查找时间复杂度小,为O(1);数组的特点是:寻址容易,插入和删除困难;

链表
链表存储区间离散,占用内存比较宽松,故空间复杂度很小,但时间复杂度很大,达O(N)。链表的特点是:寻址困难,插入和删除容易。

哈希表
那么我们能不能综合两者的特性,做出一种寻址容易,插入删除也容易的数据结构?答案是肯定的,这就是我们要提起的哈希表。哈希表((Hash table)既满足了数据的查找方便,同时不占用太多的内容空间,使用也十分方便。

  哈希表有多种不同的实现方法,我接下来解释的是最常用的一种方法—— 拉链法,我们可以理解为“链表的数组” ,如上图:
  从上图我们可以发现哈希表是由数组+链表组成的,一个长度为16的数组中,每个元素存储的是一个链表的头结点。那么这些元素是按照什么样的规则存储到数组中呢。一般情况是通过hash(key)%len获得,也就是元素的key的哈希值对数组长度取模得到。比如上述哈希表中,12%16=12,28%16=12,108%16=12,140%16=12。所以12、28、108以及140都存储在数组下标为12的位置。

  HashMap其实也是一个线性的数组实现的,所以可以理解为其存储数据的容器就是一个线性数组。这可能让我们很不解,一个线性的数组怎么实现按键值对来存取数据呢?这里HashMap有做一些处理。

  首先HashMap里面实现一个静态内部类Entry,其重要的属性有 key , value, next,从属性key,value我们就能很明显的看出来Entry就是HashMap键值对实现的一个基础bean,我们上面说到HashMap的基础就是一个线性数组,这个数组就是Entry[],Map里面的内容都保存在Entry[]里面。

    /**
     * The table, resized as necessary. Length MUST Always be a power of two.
     */
    transient Entry[] table;

2. HashMap的存取实现
     既然是线性数组,为什么能随机存取?这里HashMap用了一个小算法,大致是这样实现:

// 存储时:
int hash = key.hashCode(); // 这个hashCode方法这里不详述,只要理解每个key的hash是一个固定的int值
int index = hash % Entry[].length;
Entry[index] = value;

// 取值时:
int hash = key.hashCode();
int index = hash % Entry[].length;
return Entry[index];
 
1)put
 
疑问:如果两个key通过hash%Entry[].length得到的index相同,会不会有覆盖的危险?
  这里HashMap里面用到链式数据结构的一个概念。上面我们提到过Entry类里面有一个next属性,作用是指向下一个Entry。打个比方, 第一个键值对A进来,通过计算其key的hash得到的index=0,记做:Entry[0] = A。一会后又进来一个键值对B,通过计算其index也等于0,现在怎么办?HashMap会这样做:B.next = A,Entry[0] = B,如果又进来C,index也等于0,那么C.next = B,Entry[0] = C;这样我们发现index=0的地方其实存取了A,B,C三个键值对,他们通过next这个属性链接在一起。所以疑问不用担心。也就是说数组中存储的是最后插入的元素。到这里为止,HashMap的大致实现,我们应该已经清楚了。

 public V put(K key, V value) {
        if (key == null)
            return putForNullKey(value); //null总是放在数组的第一个链表中
        int hash = hash(key.hashCode());
        int i = indexFor(hash, table.length);
        //遍历链表
        for (Entry<K,V> e = table[i]; e != null; e = e.next) {
            Object k;
            //如果key在链表中已存在,则替换为新value
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }
        modCount++;
        addEntry(hash, key, value, i);
        return null;
    }

 

void addEntry(int hash, K key, V value, int bucketIndex) {
    Entry<K,V> e = table[bucketIndex];
    table[bucketIndex] = new Entry<K,V>(hash, key, value, e); //参数e, 是Entry.next
    //如果size超过threshold,则扩充table大小。再散列
    if (size++ >= threshold)
            resize(2 * table.length);
}
  当然HashMap里面也包含一些优化方面的实现,这里也说一下。比如:Entry[]的长度一定后,随着map里面数据的越来越长,这样同一个index的链就会很长,会不会影响性能?HashMap里面设置一个因子,随着map的size越来越大,Entry[]会以一定的规则加长长度。

2)get
 public V get(Object key) {
        if (key == null)
            return getForNullKey();
        int hash = hash(key.hashCode());
        //先定位到数组元素,再遍历该元素处的链表
        for (Entry<K,V> e = table[indexFor(hash, table.length)];
             e != null;
             e = e.next) {
            Object k;
            if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
                return e.value;
        }
        return null;
}
 

3)null key的存取
null key总是存放在Entry[]数组的第一个元素。

   private V putForNullKey(V value) {
        for (Entry<K,V> e = table[0]; e != null; e = e.next) {
            if (e.key == null) {
                V oldValue = e.value;
                e.value = value;
                e.recordAccess(this);
                return oldValue;
            }
        }
        modCount++;
        addEntry(0, null, value, 0);
        return null;
    }
 
    private V getForNullKey() {
        for (Entry<K,V> e = table[0]; e != null; e = e.next) {
            if (e.key == null)
                return e.value;
        }
        return null;
    }
 
 
 
 
4)确定数组index:hashcode % table.length取模
HashMap存取时,都需要计算当前key应该对应Entry[]数组哪个元素,即计算数组下标;算法如下:

   /**
     * Returns index for hash code h.
     */
    static int indexFor(int h, int length) {
        return h & (length-1);
    }
 
按位取并,作用上相当于取模mod或者取余%。
这意味着数组下标相同,并不表示hashCode相同。
 
5)table初始大小
 
  public HashMap(int initialCapacity, float loadFactor) {
        .....
        // Find a power of 2 >= initialCapacity
        int capacity = 1;
        while (capacity < initialCapacity)
            capacity <<= 1;
        this.loadFactor = loadFactor;
        threshold = (int)(capacity * loadFactor);
        table = new Entry[capacity];
        init();
    }
 
注意table初始大小并不是构造函数中的initialCapacity!!

而是 >= initialCapacity的2的n次幂!!!!

 

 

 

2.Hashtable与 HashMap类似,它继承自Dictionary类,不同的是:它不允许记录的键或者值为空;它支持线程的同步,即任一时刻只有一个线程能写Hashtable,因此也导致了 Hashtable在写入时会比较慢。

 

demo1:多线程访问HashMap情况下:

 

package map;

import java.util.HashMap;
import java.util.Iterator;
import java.util.Map;
import java.util.Map.Entry;
import java.util.concurrent.CountDownLatch;

public class ThreadAccessHashMapAndHashTable extends Thread{

	private Map map;
	
	private CountDownLatch countDownLatch;
	
	private String threadName;
	
	public ThreadAccessHashMapAndHashTable(Map map , CountDownLatch countDownLatch , String threadName){
		 this.map = map;
		 this.countDownLatch = countDownLatch;
		 this.threadName = threadName;
	}
	
	public void run(){
		for (int i = 0; i < 300; i++) {
			map.put("key" + threadName + i, i);//保证key唯一
		}
		countDownLatch.countDown();
	}
	
	/**
	 * @param args
	 */
	public static void main(String[] args) {
		CountDownLatch countDownLatch = new CountDownLatch(20);
		Map map1 = new HashMap();
		for (int i = 0; i < 30; i++) {
			new Thread(new ThreadAccessHashMapAndHashTable(map1 , countDownLatch , "线程" + i + ":")).start();
		}
		try {
			countDownLatch.await();//,任何调用这个对象上的await()方法都会阻塞,直到这个计数器的计数值被其他的线程减为0为止。
		} catch (InterruptedException e) {
			e.printStackTrace();
		}
		Iterator<Map.Entry<Object, Object>> entry = map1.entrySet().iterator();
		System.out.println(map1.size());
		while(entry.hasNext()){
			Entry e = entry.next();
			System.out.println(e.getKey());
			System.out.println(e.getValue());
		}
	}

}
  出现情况:程序陷入死循环,根本停不下来。当我把CountDownLatch改为1,线程数也改为1的时候(danxiangcheng ),正常输出,且size是300.(证明HashMap在多线程情况之下的确有问题。)
  解决方案:1.Map map = new ConcurrentHashMap();//使用ConcurrentHashMap解决
                   2.Collections.synchronizedMap(map)//使用同步包装map

 

 

demo2:将demo1的HashMap改为Hashtable,即多线程访问Hashtable。

 

package map;

import java.util.Hashtable;
import java.util.Iterator;
import java.util.Map;
import java.util.Map.Entry;
import java.util.concurrent.CountDownLatch;

public class ThreadAccessHashtable extends Thread{

	private Map map;
	
	private CountDownLatch countDownLatch;
	
	private String threadName;
	
	public ThreadAccessHashtable(Map map , CountDownLatch countDownLatch , String threadName){
		 this.map = map;
		 this.countDownLatch = countDownLatch;
		 this.threadName = threadName;
	}
	
	public void run(){
		for (int i = 0; i < 100; i++) {
			map.put("key" + threadName + i, i);
		}
		countDownLatch.countDown();
	}
	
	/**
	 * @param args
	 */
	public static void main(String[] args) {
		CountDownLatch countDownLatch = new CountDownLatch(10);
		Hashtable table1 = new Hashtable();
		for (int i = 0; i < 10; i++) {
			new Thread(new ThreadAccessHashtable(table1 , countDownLatch , "线程" + i + ":")).start();
		}
		try {
			countDownLatch.await();//,任何调用这个对象上的await()方法都会阻塞,直到这个计数器的计数值被其他的线程减为0为止。
		} catch (InterruptedException e) {
			e.printStackTrace();
		}
		System.out.println(table1.size());
		for (Object obj : table1.keySet()) {
			System.out.println(obj);
			System.out.println(table1.get(obj));
		}
	}

}

  以上例子使用Hashtable,得到的table1的size是1000,证明多线程访问Hashtable是没问题的!

  

 

  HashMap参考链接:http://286.iteye.com/blog/2187873

              

  http://www.cnblogs.com/skywang12345/p/3310835.html

  

  http://blog.csdn.net/vking_wang/article/details/14166593

                         

                          http://286.iteye.com/blog/2187873

 

  

 

 

 

3.LinkedHashMap 是HashMap的一个子类,保存了记录的插入顺序,在用Iterator遍历LinkedHashMap时,先得到的记录肯定是先插入的.也可以在构造时用带参数,按照应用次数排序。在遍历的时候会比HashMap慢,不过有种情况例外,当HashMap容量很大,实际数据较少时,遍历起来可能会比 LinkedHashMap慢,因为LinkedHashMap的遍历速度只和实际数据有关,和容量无关,而HashMap的遍历速度和他的容量有关。

    

   LinkedHashMap参考链接:http://uule.iteye.com/blog/1522291

 

4.TreeMap实现SortMap接口,能够把它保存的记录根据键排序,默认是按键值的升序排序,也可以指定排序的比较器,当用Iterator 遍历TreeMap时,得到的记录是排过序的。(treeMap的key比较规则和set接口是一致的!)

   TreeMap和TreeSet对比理解。 

 

总结:一般情况下,我们用的最多的是HashMap,在Map 中插入、删除和定位元素,HashMap 是最好的选择。但如果您要按自然顺序或自定义顺序遍历键,那么TreeMap会更好。如果需要输出的顺序和输入的相同,那么用LinkedHashMap 可以实现,它还可以按读取顺序来排列.

 

 

 

 

 

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics