HashSet
参考API文档,HashSet继承了AbstractSet类,实现了Set接口,由Hash表支持(实际上就是一个HashMap的实例)。HashSet不保证该类中set的遍历顺序,也并不保证set中数据顺序的永久不变。
- HashSet允许存储空值,如果有空值,有且仅有一个。
- 注意,Hashset没有实现同步,即不是线程安全的,如果多个线程同时访问一个哈希集合,并且至少有一个线程修改的话,
- 必须要在外部进行同步;这通常是通过对自然封装该set的对象执行同步操作来完成的。如果不存在这样的对象,则应该使用 Collections.synchronizedSet 方法来封装set。最好在创建时完成这一操作,以防止对该set进行意外的不同步访问:
- Set s = Collections.synchronizedSet(new HashSet(…));
- 注意Hash Set的remove操作,如果在遍历的时候进行删除操作,可能会发生ConcurrentModificationException异常;
- 所以进行remove的时候,尽量使用Hashset自己的迭代器进行删除,即Iterator;在并发修改的情况下,迭代器将会很快失败;
继承关系
public class HashSet<E>
extends AbstractSet<E>
implements Set<E>, Cloneable, java.io.Serializable
属性
// HashSet的底层是通过HashMap来实现的,并且该HashMap字段是transient类型的, 无法序列化
private transient HashMap<E,Object> map;
// 定义该HashMap的value为一个静态无法被修改的虚拟值,因为HashSet中只需要用到key,
// 而HashMap是key-value键值对.所以,向map中添加键值对时,键值对的值固定是PRESENT
private static final Object PRESENT = new Object();
/**
* 默认构造函数,底层初始化一个HashMap,hashMap的初始容量是16,负载因子是0.75
*/
public HashSet() {
map = new HashMap<>();
}
/**
*集合转换为HashSet的构造函数, 分为两步操作:
*
* 1. 返回(c.size()/.75f) + 1 和 16两者比较大的数字,为什么呢?
* 因为HashMap的默认初始容量是16,而负载因子是0.75,HashMap什么时候会扩容呢,是当HashMap
* 的阈值即(初始容量*负载因子) 大于HashMap实际大小的时候,HashMap就会扩容,所以(c.size()/.75f) +1即是实际的大小;
*
* 2. 将集合c的元素全部添加到HashSet中;
*
* 如果参数c为null,将会抛出空指针异常;
*/
public HashSet(Collection<? extends E> c) {
map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
addAll(c);
}
/**
* 构造一个指定容量和负载因子的hashMap,
* 如果初始容量或者负载因子小于0,则抛出IllegalArgumentException异常
*/
public HashSet(int initialCapacity, float loadFactor) {
map = new HashMap<>(initialCapacity, loadFactor);
}
/**
* 构造一个指定容量的HashMap,默认负载因子是0.75
* 如果初始容量小于0,则抛出IllegalArgumentException异常
*/
public HashSet(int initialCapacity) {
map = new HashMap<>(initialCapacity);
}
/**
* 构造一个指定容量和负载因子的HashSet,使用LinkedHashMap实现,这个方法不对外,只是应用于 LinkedHashSet 。
* 其中参数dummy无实际意义,只是一个标志而已,请忽略。
*/
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
方法
HashSet中方法的实现基本都是通过HashMap来实现的,所以只要了解了HashMap,自然就明白了HashSet的方法。
不过,JDK1.8新增了一个spliterator方法:这个方法返回一个迭代器,这种迭代器被成为可分割迭代器,是Java为了并行遍历数据元素而设计的。而原先的迭代器Iterator是一种顺序迭代器,这两种迭代器可以放在一起理解。而有关并行迭代器,后续会专门有一篇文章来讲述。
public Spliterator<E> spliterator() {
return new HashMap.KeySpliterator<E,Object>(map, 0, -1, 0, 0);
}
LinkedHashSet
public class LinkedHashSet<E>
extends HashSet<E>
implements Set<E>, Cloneable, java.io.Serializable {
LinkedHashSet继承自HashSet,所有的构造方法都会调用父类HashSet的一个构造方法,使用底层的LinkedHashMap去实现功能。
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
TreeSet
public class TreeSet<E> extends AbstractSet<E>
implements NavigableSet<E>, Cloneable, java.io.Serializable
/**
* 不是public的构造方法,不对外开放,供其他公有构造方法调用
*/
TreeSet(NavigableMap<E,Object> m) {
this.m = m;
}
public TreeSet() {
this(new TreeMap<E,Object>());
}
TreeSet默认构造方法就是new一个TreeMap,TreeSet中使用了一个NavigableMap变量来保存数据,而TreeMap又是实现了NavigableMap,这样可以多态的方式使用TreeMap来处理TreeSet。
总结
- HashSet是完全基于HashMap实现的;
- HashSet无序,无法保存重复数据,HashSet非线程安全,如果要使HashSet线程安全,可以使用Collections.synchronizedSet方法来实现;
- 对于HashSet中保存的对象,请注意正确重写其equals和hashCode方法,以保证放入的对象的唯一性。
- 对LinkedHashSet来讲,和HashSet与HashMap的关系类似,LinkedHashSet底层是通过LinkedHashMap来实现的,只要搞懂了LinkedHashMap,自然就懂了LinkedHashSet。
- TreeSet也是同样的,TreeSet底层也是通过相应的TreeMap来实现的。