JDK1.8源码解读之 HashSet

201 阅读4分钟

前言

  • 此类实现Set接口,并由哈希表(实际上是 HashMap 实例)支持。
  • 它不保证集合的迭代顺序。特别是,它不能保证顺序会随着时间的推移保持恒定。此类允许 null 元素。
  • 此类为基本操作(添加,删除,是否包含和 求大小)提供了恒定的时间性能。
  • 假设哈希函数将元素正确分散在存储桶中。
  • 对此集合进行迭代需要的时间与 HashSet 实例的大小(元素数)之和加上后援 HashMap 实例的“容量”(存储桶数)成比例)。
  • 因此,如果迭代性能很重要,则不要将初始容量设置得过高(或负载因子过低),这一点非常重要。
  • 请注意,此实现未同步。
  • 如果多个线程同时访问哈希集,并且至少有一个线程修改了哈希集,则它必须在外部进行同步。
  • 通常,通过在自然封装了该集合的某个对象上进行同步来实现。
  • 如果不存在这样的对象,则应使用 Collections.synchronizedSet 方法来“包装”该集合。
  • 最好在创建时完成此操作,以防止意外地异步访问集合:
  • Set s = Collections.synchronizedSet(new HashSet(...));
  • 此类的 iterator 方法返回的迭代器是 fail-fast :
  • 如果在创建迭代器后的任何时间修改了集合,则除了通过迭代器自己的 remove 方法,
  • 迭代器将引发 ConcurrentModificationException。
  • 因此,面对并发修改,迭代器会快速干净地失败,而不会在未来的不确定时间内冒任意,不确定的行为的风险
  • 请注意,不能保证迭代器的快速失败行为,因为通常来说,在存在不同步的并发修改的情况下,不可能做出任何严格的保证。
  • 快速失败的迭代器会尽最大努力抛出 ConcurrentModificationException。
  • 因此,编写依赖于此异常的程序以确保其正确性是错误的:迭代器的快速失败行为应仅用于检测错误。

源码

public class HashSet extends AbstractSet implements Set, Cloneable, java.io.Serializable { static final long serialVersionUID = -5024744406713321676L;

private transient HashMap<E,Object> map;

private static final Object PRESENT = new Object();

/**
 * 创建一个空的set。创建HashSet所使用的 HashMap具有默认的容量(16)和负载因子(0.75)。
 */
public HashSet() {
    map = new HashMap<>();
}

/**
 * 创建了一个新的set,包含了指定collection里的所有元素。
 * HashMap使用了默认的负载因子和初始容量。
 */
public HashSet(Collection<? extends E> c) {
    map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
    addAll(c);
}

/**
 * 使用指定的容量和负载因子构建HashSet
 */
public HashSet(int initialCapacity, float loadFactor) {
    map = new HashMap<>(initialCapacity, loadFactor);
}

/**
 * 使用指定的容量和默认的负载因子构建HashSet
 */
public HashSet(int initialCapacity) {
    map = new HashMap<>(initialCapacity);
}

HashSet(int initialCapacity, float loadFactor, boolean dummy) {
    map = new LinkedHashMap<>(initialCapacity, loadFactor);
}

/**
 * 返回一个迭代器,元素不会按照特定的顺序返回
 */
public Iterator<E> iterator() {
    return map.keySet().iterator();
}

/**
 * 返回元素个数
 */
public int size() {
    return map.size();
}

/**
 * 空检查
 */
public boolean isEmpty() {
    return map.isEmpty();
}

/**
 * 判断是否包含指定元素
 */
public boolean contains(Object o) {
    return map.containsKey(o);
}

/*
 * 添加指定元素
 */
public boolean add(E e) {
    return map.put(e, PRESENT)==null;
}

/**
 * 删除元素
 */
public boolean remove(Object o) {
    return map.remove(o)==PRESENT;
}

/**
 * 删除所有元素
 */
public void clear() {
    map.clear();
}

/**
 * 返回一个复制
 */
@SuppressWarnings("unchecked")
public Object clone() {
    try {
        HashSet<E> newSet = (HashSet<E>) super.clone();
        newSet.map = (HashMap<E, Object>) map.clone();
        return newSet;
    } catch (CloneNotSupportedException e) {
        throw new InternalError(e);
    }
}

/**
 * 写入一个输出流
 */
private void writeObject(java.io.ObjectOutputStream s)
    throws java.io.IOException {
    // Write out any hidden serialization magic
    s.defaultWriteObject();

    // Write out HashMap capacity and load factor
    s.writeInt(map.capacity());
    s.writeFloat(map.loadFactor());

    // Write out size
    s.writeInt(map.size());

    // Write out all elements in the proper order.
    for (E e : map.keySet())
        s.writeObject(e);
}

/**
 * 从一个输入流中读取
 */
private void readObject(java.io.ObjectInputStream s)
    throws java.io.IOException, ClassNotFoundException {
    // Read in any hidden serialization magic
    s.defaultReadObject();

    // Read capacity and verify non-negative.
    int capacity = s.readInt();
    if (capacity < 0) {
        throw new InvalidObjectException("Illegal capacity: " +
                                         capacity);
    }

    // Read load factor and verify positive and non NaN.
    float loadFactor = s.readFloat();
    if (loadFactor <= 0 || Float.isNaN(loadFactor)) {
        throw new InvalidObjectException("Illegal load factor: " +
                                         loadFactor);
    }

    // Read size and verify non-negative.
    int size = s.readInt();
    if (size < 0) {
        throw new InvalidObjectException("Illegal size: " +
                                         size);
    }
    // Set the capacity according to the size and load factor ensuring that
    // the HashMap is at least 25% full but clamping to maximum capacity.
    capacity = (int) Math.min(size * Math.min(1 / loadFactor, 4.0f),
            HashMap.MAXIMUM_CAPACITY);

    // Constructing the backing map will lazily create an array when the first element is
    // added, so check it before construction. Call HashMap.tableSizeFor to compute the
    // actual allocation size. Check Map.Entry[].class since it's the nearest public type to
    // what is actually created.

    SharedSecrets.getJavaOISAccess()
                 .checkArray(s, Map.Entry[].class, HashMap.tableSizeFor(capacity));

    // Create backing HashMap
    map = (((HashSet<?>)this) instanceof LinkedHashSet ?
           new LinkedHashMap<E,Object>(capacity, loadFactor) :
           new HashMap<E,Object>(capacity, loadFactor));

    // Read in all elements in the proper order.
    for (int i=0; i<size; i++) {
        @SuppressWarnings("unchecked")
            E e = (E) s.readObject();
        map.put(e, PRESENT);
    }
}

/**
 * 创建一个spliterator,可分割迭代器。
 */
public Spliterator<E> spliterator() {
    return new HashMap.KeySpliterator<E,Object>(map, 0, -1, 0, 0);
}

}


#### 问题记录
* 什么是 spliterator?
* HashSet 集合是去重的,那么去重原理是什么?
答:HashSet是根据HashMap实现的。而HashMap中的元素是K-V结构的,原因就在于HashMap中虽然值V可以相同,但是K是不可以相同的,HashMap实际上是把HashMap的K当成了数据存储的。