前言
- 此类实现Set接口,并由哈希表(实际上是 HashMap 实例)支持。
- 它不保证集合的迭代顺序。特别是,它不能保证顺序会随着时间的推移保持恒定。此类允许 null 元素。
- 此类为基本操作(添加,删除,是否包含和 求大小)提供了恒定的时间性能。
- 假设哈希函数将元素正确分散在存储桶中。
- 对此集合进行迭代需要的时间与 HashSet 实例的大小(元素数)之和加上后援 HashMap 实例的“容量”(存储桶数)成比例)。
- 因此,如果迭代性能很重要,则不要将初始容量设置得过高(或负载因子过低),这一点非常重要。
- 请注意,此实现未同步。
- 如果多个线程同时访问哈希集,并且至少有一个线程修改了哈希集,则它必须在外部进行同步。
- 通常,通过在自然封装了该集合的某个对象上进行同步来实现。
- 如果不存在这样的对象,则应使用 Collections.synchronizedSet 方法来“包装”该集合。
- 最好在创建时完成此操作,以防止意外地异步访问集合:
- Set s = Collections.synchronizedSet(new HashSet(...));
- 此类的 iterator 方法返回的迭代器是 fail-fast :
- 如果在创建迭代器后的任何时间修改了集合,则除了通过迭代器自己的 remove 方法,
- 迭代器将引发 ConcurrentModificationException。
- 因此,面对并发修改,迭代器会快速干净地失败,而不会在未来的不确定时间内冒任意,不确定的行为的风险
- 请注意,不能保证迭代器的快速失败行为,因为通常来说,在存在不同步的并发修改的情况下,不可能做出任何严格的保证。
- 快速失败的迭代器会尽最大努力抛出 ConcurrentModificationException。
- 因此,编写依赖于此异常的程序以确保其正确性是错误的:迭代器的快速失败行为应仅用于检测错误。
源码
public class HashSet extends AbstractSet implements Set, Cloneable, java.io.Serializable { static final long serialVersionUID = -5024744406713321676L;
private transient HashMap<E,Object> map;
private static final Object PRESENT = new Object();
/**
* 创建一个空的set。创建HashSet所使用的 HashMap具有默认的容量(16)和负载因子(0.75)。
*/
public HashSet() {
map = new HashMap<>();
}
/**
* 创建了一个新的set,包含了指定collection里的所有元素。
* HashMap使用了默认的负载因子和初始容量。
*/
public HashSet(Collection<? extends E> c) {
map = new HashMap<>(Math.max((int) (c.size()/.75f) + 1, 16));
addAll(c);
}
/**
* 使用指定的容量和负载因子构建HashSet
*/
public HashSet(int initialCapacity, float loadFactor) {
map = new HashMap<>(initialCapacity, loadFactor);
}
/**
* 使用指定的容量和默认的负载因子构建HashSet
*/
public HashSet(int initialCapacity) {
map = new HashMap<>(initialCapacity);
}
HashSet(int initialCapacity, float loadFactor, boolean dummy) {
map = new LinkedHashMap<>(initialCapacity, loadFactor);
}
/**
* 返回一个迭代器,元素不会按照特定的顺序返回
*/
public Iterator<E> iterator() {
return map.keySet().iterator();
}
/**
* 返回元素个数
*/
public int size() {
return map.size();
}
/**
* 空检查
*/
public boolean isEmpty() {
return map.isEmpty();
}
/**
* 判断是否包含指定元素
*/
public boolean contains(Object o) {
return map.containsKey(o);
}
/*
* 添加指定元素
*/
public boolean add(E e) {
return map.put(e, PRESENT)==null;
}
/**
* 删除元素
*/
public boolean remove(Object o) {
return map.remove(o)==PRESENT;
}
/**
* 删除所有元素
*/
public void clear() {
map.clear();
}
/**
* 返回一个复制
*/
@SuppressWarnings("unchecked")
public Object clone() {
try {
HashSet<E> newSet = (HashSet<E>) super.clone();
newSet.map = (HashMap<E, Object>) map.clone();
return newSet;
} catch (CloneNotSupportedException e) {
throw new InternalError(e);
}
}
/**
* 写入一个输出流
*/
private void writeObject(java.io.ObjectOutputStream s)
throws java.io.IOException {
// Write out any hidden serialization magic
s.defaultWriteObject();
// Write out HashMap capacity and load factor
s.writeInt(map.capacity());
s.writeFloat(map.loadFactor());
// Write out size
s.writeInt(map.size());
// Write out all elements in the proper order.
for (E e : map.keySet())
s.writeObject(e);
}
/**
* 从一个输入流中读取
*/
private void readObject(java.io.ObjectInputStream s)
throws java.io.IOException, ClassNotFoundException {
// Read in any hidden serialization magic
s.defaultReadObject();
// Read capacity and verify non-negative.
int capacity = s.readInt();
if (capacity < 0) {
throw new InvalidObjectException("Illegal capacity: " +
capacity);
}
// Read load factor and verify positive and non NaN.
float loadFactor = s.readFloat();
if (loadFactor <= 0 || Float.isNaN(loadFactor)) {
throw new InvalidObjectException("Illegal load factor: " +
loadFactor);
}
// Read size and verify non-negative.
int size = s.readInt();
if (size < 0) {
throw new InvalidObjectException("Illegal size: " +
size);
}
// Set the capacity according to the size and load factor ensuring that
// the HashMap is at least 25% full but clamping to maximum capacity.
capacity = (int) Math.min(size * Math.min(1 / loadFactor, 4.0f),
HashMap.MAXIMUM_CAPACITY);
// Constructing the backing map will lazily create an array when the first element is
// added, so check it before construction. Call HashMap.tableSizeFor to compute the
// actual allocation size. Check Map.Entry[].class since it's the nearest public type to
// what is actually created.
SharedSecrets.getJavaOISAccess()
.checkArray(s, Map.Entry[].class, HashMap.tableSizeFor(capacity));
// Create backing HashMap
map = (((HashSet<?>)this) instanceof LinkedHashSet ?
new LinkedHashMap<E,Object>(capacity, loadFactor) :
new HashMap<E,Object>(capacity, loadFactor));
// Read in all elements in the proper order.
for (int i=0; i<size; i++) {
@SuppressWarnings("unchecked")
E e = (E) s.readObject();
map.put(e, PRESENT);
}
}
/**
* 创建一个spliterator,可分割迭代器。
*/
public Spliterator<E> spliterator() {
return new HashMap.KeySpliterator<E,Object>(map, 0, -1, 0, 0);
}
}
#### 问题记录
* 什么是 spliterator?
* HashSet 集合是去重的,那么去重原理是什么?
答:HashSet是根据HashMap实现的。而HashMap中的元素是K-V结构的,原因就在于HashMap中虽然值V可以相同,但是K是不可以相同的,HashMap实际上是把HashMap的K当成了数据存储的。