
哈希表HashTable
更新: 2025/2/24 字数: 0 字 时长: 0 分钟
哈希表(Hash Table),又称散列表,是一种能够通过键 key
直接访问到数据存储地址上的数据结构。它通过建立键 key
与值 value
之间的映射,实现高效的元素查询。
哈希表介绍
哈希原理
首先,我们来了解一下哈希原理。打个比方,有如下 5 个需要存储的元素(value):
元素1 | 元素2 | 元素3 | 元素4 | 元素5 | |
---|---|---|---|---|---|
存放元素(value) | "小哈" | "小啰" | "小算" | "小法" | "小鸭" |
目前,我们不必关注这 5 个元素里面的内容是什么,也不必关注元素之间的内容是否相同,我们只要确保每个元素都是唯一的即可。如何确保元素的唯一性?很简单,就是为每个元素设置一个唯一的属性。就好比身份证号,即使不同的人有相同的名字,但通过身份证号也能区分出每个人的唯一性。于是我们给每个元素设置了一个自定义且唯一的整数值(key),具体如下表:
元素1 | 元素2 | 元素3 | 元素4 | 元素5 | |
---|---|---|---|---|---|
存放元素(value) | "小哈" | "小啰" | "小算" | "小法" | "小鸭" |
唯一整数(key) | 12836 | 15937 | 16750 | 13276 | 10583 |
接下来,我们要考虑如何存储这 5 个元素?前面讲过哈希表可以在 时间内返回查询的结果,回顾我们前面学习的数据结构,只有数组能做到这一点。于是我们需要创建一个数组,并且数组的长度肯定是要大于元素的个数,另外后面说不定还要添加元素,因此我们设定一个长度为 100 且内容全为 None
的数组:
# 长度为100且内容全为None的数组
[None, None, None, None, None, None, None, None...]
建议
这里我们给出的是列表,而列表底层是动态数组实现的,所以它可以看作数组。
问题来了,如何安排这 5 个元素在数组中的位置?如果从数组的起始位置开始给这 5 个元素依次安排索引位置,那么和普通的数组没有什么区别,即使查询一个知道唯一整数(key)的元素,仍然要遍历整个数组,这显然无法在 时间内实现对元素的查询,因此我们需要找到一个通过元素的唯一整数(key)来映射元素位置的方法。回看我们前面所创建的数组,它的索引范围在 0 ~ 100 的前闭后开区间,我们否能将唯一整数(key)通过某种方法映射到数组的索引范围区间内?当然可以,而且方法多种多样,最简单的方法就是将每个元素的唯一整数的最后两位作为元素在数组中的索引位置。这种将一个较大的输入空间映射到一个较小的输出空间的函数,我们称之为“哈希函数(Hash)”。经过哈希函数的映射,最终我们得到的如下表格:
# 哈希函数
def hash(key):
# 获取元素的唯一整数的最后两位
index = key % 100
元素1 | 元素2 | 元素3 | 元素4 | 元素5 | |
---|---|---|---|---|---|
存放元素(value) | "小哈" | "小啰" | "小算" | "小法" | "小鸭" |
唯一整数(key) | 12836 | 15937 | 16750 | 13276 | 10583 |
数组索引(index) | 36 | 37 | 50 | 76 | 83 |
现在,我们就可以利用元素的唯一整数(key)实现在 时间内对元素的查询,整个的查询过程如下:
- 输入唯一整数(key),经过哈希函数得到数组索引(index),时间复杂度为 的操作。
- 通过数组索引(index)查询数组中的元素,时间复杂度为 的操作。
建议
从本质上讲,哈希表就是一个存储键值对 key-value
的数组,我们可以在 时间内通过键 key
获取其在哈希表中对应的值 value
。
生活场景
在我们的生活中,其实有很多这样的例子,比如查词典,查通讯录等等,首先都是通过目录或首字母的对应关系来确定具体位置,如果都是从头到尾挨个遍历,这简直不敢想象。还比如,有 个学生,每个学生都有“姓名”和“学号”两项数据。假如我们希望实现“输入一个学号,返回对应的姓名”的查询功能,则可以采用下图所示的哈希表来实现。
效率对比
数组、链表、哈希表都可以实现增删增查功能,它们的效率对比如下表所示:
- 添加元素:仅需将元素添加至数组(链表)的尾部即可,使用 时间。
- 查询元素:由于数组(链表)是乱序的,因此需要遍历其中的所有元素,使用 时间。
- 删除元素:需要先查询到元素,再从数组(链表)中删除,使用 时间。
建议
在哈希表中进行增删查改的时间复杂度都是 ,因此哈希表也常用来提升算法效率,但是哈希表所需空间太大,所以在使用时需要在二者之间权衡。另外,哈希表是根据哈希函数返回的哈希值(Hash value)直接访问到存储地址的,虽然访问速度很快,但是对于有序访问却没有办法应对。
哈希表实现
我们先考虑最简单的情况,仅用一个数组来实现哈希表。在哈希表中,我们将数组中的每个空位称为桶(bucket),每个桶可存储一个键值对。因此,查询操作就是找到 key
对应的桶,并在桶中获取 value
。那么,如何基于 key
定位对应的桶呢?这是通过哈希函数(hash function)实现的,通过输入一个 key
,我们可以通过哈希函数得到该 key
对应的键值对在数组中的存储位置。以下代码实现了一个简单哈希表:
class Pair:
"""键值对"""
# 将key和value封装成一个类Pair,以表示键值对
def __init__(self, key: int, val: str):
self.key = key
self.val = val
class ArrayHashMap:
"""基于数组实现的哈希表"""
def __init__(self):
"""构造方法"""
# 初始化数组,包含100个桶
self.buckets: list[Pair | None] = [None] * 100
def hash_func(self, key: int) -> int:
"""哈希函数"""
index = key % 100
return index
def get(self, key: int) -> str:
"""查询操作"""
index: int = self.hash_func(key)
pair: Pair = self.buckets[index]
if pair is None:
return None
return pair.val
def put(self, key: int, val: str):
"""添加操作"""
pair = Pair(key, val)
index: int = self.hash_func(key)
self.buckets[index] = pair
def remove(self, key: int):
"""删除操作"""
index: int = self.hash_func(key)
# 置为None ,代表删除
self.buckets[index] = None
def entry_set(self) -> list[Pair]:
"""获取所有键值对"""
result: list[Pair] = []
for pair in self.buckets:
if pair is not None:
result.append(pair)
return result
def key_set(self) -> list[int]:
"""获取所有键"""
result = []
for pair in self.buckets:
if pair is not None:
result.append(pair.key)
return result
def value_set(self) -> list[str]:
"""获取所有值"""
result = []
for pair in self.buckets:
if pair is not None:
result.append(pair.val)
return result
def print(self):
"""打印哈希表"""
for pair in self.buckets:
if pair is not None:
print(pair.key, "->", pair.val)
哈希表处理
哈希冲突
在上面我们讲哈希原理的时候,介绍到了哈希函数,哈希函数的作用是将所有 key
构成的输入空间映射到数组所有索引构成的输出空间,而输入空间往往远大于输出空间。因此,理论上一定存在“多个输入对应相同输出”的情况。我们就拿哈希原理中的例子举例,当查询唯一整数(key)为 12836 和 20336 的元素时,我们得到:
12836 % 100 = 36
20336 % 100 = 36
两个唯一整数(key)指向了同一个存放元素(value),这显然是不对的。我们将这种多个输入对应同一输出的情况称为哈希冲突(hash collision)。
提醒
有人会问为什么不使用哈希函数 呢?这样就不会有冲突了。在 哈希函数下,每个元素对应唯一的桶索引,这与数组等价。然而,输入空间通常远大于输出空间(数组长度),因此哈希函数的最后一步往往是对数组长度取模。换句话说,哈希表的目标是将一个较大的状态空间映射到一个较小的空间,并提供 的查询效率。
哈希扩容
到这里我们可以很容易想到,哈希表容量 越大,多个 key
被分配到同一个桶中的概率就越低,冲突就越少。因此,我们可以通过扩容哈希表来减少哈希冲突。如下图所示,扩容前键值对 (136, A)
和 (236, D)
发生冲突,扩容后冲突消失。
建议
哈希表扩容需将所有键值对从原哈希表迁移至新哈希表,非常耗时,这点类似于数组扩容。并且由于哈希表容量改变,我们需要通过哈希函数来重新计算所有键值对的存储位置,这进一步增加了扩容过程的计算开销。为此,编程语言通常会预留足够大的哈希表容量,防止频繁扩容。
建议
负载因子(load factor)是哈希表的一个重要概念,其定义为哈希表的元素数量除以桶数量,用于衡量哈希冲突的严重程度,也常作为哈希表扩容的触发条件。例如在 Java 中,当负载因子超过 0.75 时,系统会将哈希表扩容至原先的 2 倍。
哈希表改良
哈希冲突会导致查询结果错误,严重影响哈希表的可用性。为了解决该问题,每当遇到哈希冲突时,我们就进行哈希表扩容,直至冲突消失为止。此方法简单粗暴且有效,但效率太低,因为哈希表扩容需要进行大量的数据搬运与哈希值计算。为了提升效率,我们可以改良哈希表数据结构,改良方法主要包括“链式地址”和“开放寻址”。
链式地址
在原始哈希表中,每个桶仅能存储一个键值对。链式地址(separate chaining)将单个元素转换为链表,将键值对作为链表节点,将所有发生冲突的键值对都存储在同一链表中。下图展示了一个链式地址哈希表的例子:
基于链式地址实现的哈希表的操作方法发生了以下变化:
- 查询元素:输入
key
,经过哈希函数得到桶索引,即可访问链表头节点,然后遍历链表并对比key
以查找目标键值对。 - 添加元素:首先通过哈希函数访问链表头节点,然后将节点(键值对)添加到链表中。
- 删除元素:根据哈希函数的结果访问链表头部,接着遍历链表以查找目标节点并将其删除。
链式地址存在以下局限性:
- 占用空间增大:链表包含节点指针,它相比数组更加耗费内存空间。
- 查询效率降低:因为需要线性遍历链表来查找对应元素。
以下代码给出了链式地址哈希表的简单实现,需要注意两点。
- 使用列表(动态数组)代替链表,从而简化代码。在这种设定下,哈希表(数组)包含多个桶,每个桶都是一个列表。
- 以下实现包含哈希表扩容方法。当负载因子超过 2/3 时,我们将哈希表扩容至原先的 2 倍。
class HashMapChaining:
"""链式地址哈希表"""
def __init__(self):
"""构造方法"""
self.size = 0 # 键值对数量
self.capacity = 4 # 哈希表容量
self.load_thres = 2.0 / 3.0 # 触发扩容的负载因子阈值
self.extend_ratio = 2 # 扩容倍数
self.buckets = [[] for _ in range(self.capacity)] # 桶数组
def hash_func(self, key: int) -> int:
"""哈希函数"""
return key % self.capacity
def load_factor(self) -> float:
"""负载因子"""
return self.size / self.capacity
def get(self, key: int) -> str | None:
"""查询操作"""
index = self.hash_func(key)
bucket = self.buckets[index]
# 遍历桶,若找到 key ,则返回对应 val
for pair in bucket:
if pair.key == key:
return pair.val
# 若未找到 key ,则返回 None
return None
def put(self, key: int, val: str):
"""添加操作"""
# 当负载因子超过阈值时,执行扩容
if self.load_factor() > self.load_thres:
self.extend()
index = self.hash_func(key)
bucket = self.buckets[index]
# 遍历桶,若遇到指定 key ,则更新对应 val 并返回
for pair in bucket:
if pair.key == key:
pair.val = val
return
# 若无该 key ,则将键值对添加至尾部
pair = Pair(key, val)
bucket.append(pair)
self.size += 1
def remove(self, key: int):
"""删除操作"""
index = self.hash_func(key)
bucket = self.buckets[index]
# 遍历桶,从中删除键值对
for pair in bucket:
if pair.key == key:
bucket.remove(pair)
self.size -= 1
break
def extend(self):
"""扩容哈希表"""
# 暂存原哈希表
buckets = self.buckets
# 初始化扩容后的新哈希表
self.capacity *= self.extend_ratio
self.buckets = [[] for _ in range(self.capacity)]
self.size = 0
# 将键值对从原哈希表搬运至新哈希表
for bucket in buckets:
for pair in bucket:
self.put(pair.key, pair.val)
def print(self):
"""打印哈希表"""
for bucket in self.buckets:
res = []
for pair in bucket:
res.append(str(pair.key) + " -> " + pair.val)
print(res)
建议
值得注意的是,当链表很长时,查询效率 很差。此时可以将链表转换为“AVL 树”或“红黑树”,从而将查询操作的时间复杂度优化至 O(log^n) 。
开放寻址
开放寻址(open addressing)不引入额外的数据结构,而是通过“多次探测”来处理哈希冲突,探测方式主要包括线性探测、平方探测和多次哈希等。
线性探测
线性探测采用固定步长的线性搜索来进行探测,其操作方法与普通哈希表有所不同。
- 插入元素:通过哈希函数计算桶索引,若发现桶内已有元素,则从冲突位置向后线性遍历(步长通常为 1 ),直至找到空桶,将元素插入其中。
- 查找元素:若发现哈希冲突,则使用相同步长向后进行线性遍历,直到找到对应元素,返回
value
即可;如果遇到空桶,说明目标元素不在哈希表中,返回None
。
下图展示了开放寻址(线性探测)哈希表的键值对分布。根据此哈希函数,最后两位相同的 key
都会被映射到相同的桶。而通过线性探测,它们被依次存储在该桶以及之下的桶中。
然而,线性探测容易产生“聚集现象”。具体来说,数组中连续被占用的位置越长,这些连续位置发生哈希冲突的可能性越大,从而进一步促使该位置的聚堆生长,形成恶性循环,最终导致增删查改操作效率劣化。还值得注意的是,我们不能在开放寻址哈希表中直接删除元素。这是因为删除元素会在数组内产生一个空桶 None
,而当查询元素时,线性探测到该空桶就会返回,因此在该空桶之下的元素都无法再被访问到,程序可能误判这些元素不存在,如下图所示:
为了解决该问题,我们可以采用懒删除(lazy deletion)机制:它不直接从哈希表中移除元素,而是利用一个常量 TOMBSTONE
来标记这个桶。在该机制下,None
和 TOMBSTONE
都代表空桶,都可以放置键值对。但不同的是,线性探测到 TOMBSTONE
时应该继续遍历,因为其之下可能还存在键值对。然而,懒删除可能会加速哈希表的性能退化。这是因为每次删除操作都会产生一个删除标记,随着 TOMBSTONE
的增加,搜索时间也会增加,因为线性探测可能需要跳过多个 TOMBSTONE
才能找到目标元素。为此,考虑在线性探测中记录遇到的首个 TOMBSTONE
的索引,并将搜索到的目标元素与该 TOMBSTONE
交换位置。这样做的好处是当每次查询或添加元素时,元素会被移动至距离理想位置(探测起始点)更近的桶,从而优化查询效率。以下代码实现了一个包含懒删除的开放寻址(线性探测)哈希表。为了更加充分地使用哈希表的空间,我们将哈希表看作一个“环形数组”,当越过数组尾部时,回到头部继续遍历。
class HashMapOpenAddressing:
"""开放寻址哈希表"""
def __init__(self):
"""构造方法"""
self.size = 0 # 键值对数量
self.capacity = 4 # 哈希表容量
self.load_thres = 2.0 / 3.0 # 触发扩容的负载因子阈值
self.extend_ratio = 2 # 扩容倍数
self.buckets: list[Pair | None] = [None] * self.capacity # 桶数组
self.TOMBSTONE = Pair(-1, "-1") # 删除标记
def hash_func(self, key: int) -> int:
"""哈希函数"""
return key % self.capacity
def load_factor(self) -> float:
"""负载因子"""
return self.size / self.capacity
def find_bucket(self, key: int) -> int:
"""搜索 key 对应的桶索引"""
index = self.hash_func(key)
first_tombstone = -1
# 线性探测,当遇到空桶时跳出
while self.buckets[index] is not None:
# 若遇到 key ,返回对应的桶索引
if self.buckets[index].key == key:
# 若之前遇到了删除标记,则将键值对移动至该索引处
if first_tombstone != -1:
self.buckets[first_tombstone] = self.buckets[index]
self.buckets[index] = self.TOMBSTONE
return first_tombstone # 返回移动后的桶索引
return index # 返回桶索引
# 记录遇到的首个删除标记
if first_tombstone == -1 and self.buckets[index] is self.TOMBSTONE:
first_tombstone = index
# 计算桶索引,越过尾部则返回头部
index = (index + 1) % self.capacity
# 若 key 不存在,则返回添加点的索引
return index if first_tombstone == -1 else first_tombstone
def get(self, key: int) -> str:
"""查询操作"""
# 搜索 key 对应的桶索引
index = self.find_bucket(key)
# 若找到键值对,则返回对应 val
if self.buckets[index] not in [None, self.TOMBSTONE]:
return self.buckets[index].val
# 若键值对不存在,则返回 None
return None
def put(self, key: int, val: str):
"""添加操作"""
# 当负载因子超过阈值时,执行扩容
if self.load_factor() > self.load_thres:
self.extend()
# 搜索 key 对应的桶索引
index = self.find_bucket(key)
# 若找到键值对,则覆盖 val 并返回
if self.buckets[index] not in [None, self.TOMBSTONE]:
self.buckets[index].val = val
return
# 若键值对不存在,则添加该键值对
self.buckets[index] = Pair(key, val)
self.size += 1
def remove(self, key: int):
"""删除操作"""
# 搜索 key 对应的桶索引
index = self.find_bucket(key)
# 若找到键值对,则用删除标记覆盖它
if self.buckets[index] not in [None, self.TOMBSTONE]:
self.buckets[index] = self.TOMBSTONE
self.size -= 1
def extend(self):
"""扩容哈希表"""
# 暂存原哈希表
buckets_tmp = self.buckets
# 初始化扩容后的新哈希表
self.capacity *= self.extend_ratio
self.buckets = [None] * self.capacity
self.size = 0
# 将键值对从原哈希表搬运至新哈希表
for pair in buckets_tmp:
if pair not in [None, self.TOMBSTONE]:
self.put(pair.key, pair.val)
def print(self):
"""打印哈希表"""
for pair in self.buckets:
if pair is None:
print("None")
elif pair is self.TOMBSTONE:
print("TOMBSTONE")
else:
print(pair.key, "->", pair.val)
平方探测
平方探测与线性探测类似,都是开放寻址的常见策略之一。当发生冲突时,平方探测不是简单地跳过一个固定的步数,而是跳过“探测次数的平方”的步数,即 1,4,9,… 步。
平方探测主要具有以下优势:
- 平方探测通过跳过探测次数平方的距离,试图缓解线性探测的聚集效应。
- 平方探测会跳过更大的距离来寻找空位置,有助于数据分布得更加均匀。
然而,平方探测并不是完美的:
- 仍然存在聚集现象,即某些位置比其他位置更容易被占用。
- 由于平方的增长,平方探测可能不会探测整个哈希表,这意味着即使哈希表中有空桶,平方探测也可能无法访问到它。
多次哈希
顾名思义,多次哈希方法使用多个哈希函数 f_1(x)、f_2(x)、f_3(x)、… 进行探测。
- 插入元素:若哈希函数 出现冲突,则尝试 ,以此类推,直到找到空位后插入元素。
- 查找元素:在相同的哈希函数顺序下进行查找,直到找到目标元素时返回;若遇到空位或已尝试所有哈希函数,说明哈希表中不存在该元素,则返回
None
。
与线性探测相比,多次哈希方法不易产生聚集,但多个哈希函数会带来额外的计算量。
重要
请注意,开放寻址(线性探测、平方探测和多次哈希)哈希表都存在“不能直接删除元素”的问题,这是因为“接删除元素”后留下的空桶可能会中断元素查询,进而出现元素在哈希表中但查询不到的情况。
哈希表操作
在我们学习 Python 的数据类型时,其中有一个字典(dict)类型,它的底层结构就是哈希表,并且采用了开放寻址,使用伪随机数进行探测。
常见操作
哈希表的常见操作包括:初始化、查询操作、添加键值对和删除键值对等,示例代码如下:
# 初始化哈希表
hmap: dict = {}
# 添加操作
# 在哈希表中添加键值对 (key, value)
hmap[12836] = "小哈"
hmap[15937] = "小啰"
hmap[16750] = "小算"
hmap[13276] = "小法"
hmap[10583] = "小鸭"
# 查询操作
# 向哈希表中输入键 key ,得到值 value
name: str = hmap[15937]
# 删除操作
# 在哈希表中删除键值对 (key, value)
hmap.pop(10583)
常用遍历
哈希表有三种常用的遍历方式:遍历键值对、遍历键和遍历值。示例代码如下:
# 遍历键值对 key->value
for key, value in hmap.items():
print(key, "->", value)
# 单独遍历键 key
for key in hmap.keys():
print(key)
# 单独遍历值 value
for value in hmap.values():
print(value)
哈希表应用
**字典(dict
)、集合(set
)底层采用了哈希表结构,也就是说字典当中的每一个键和元组当中的每个元素都通过了哈希函数生成一个了哈希值,通过哈希值来决定了元素在表中的存储位置,但这个哈希值不是连贯的,所以他们的元素是无序的,也无法使用下标。**特点如下:
- 优点:查找元素时,会对要查找的元素进行哈希操作,通过哈希值去到对应的存储地址检查是否有数据存放,这样就能快速确定的查找元素是否存在,而且不受到数据规模大小的影响,是一种常量级时间复杂度的存储方案,因此哈希对高效的算法和数据结构很重要,这也是字典、集合在元素查找的效率上要远远高于列表元素查找效率的原因。
- 缺点:字典当中的每个键和集合当中的每个元素必须是可哈希对象。
print({['123']: 123}) # 报错:['123']是可变对象,不可哈希类型,不能作为字典的键。
print({['123']}) # 报错:['123']是可变对象,不可哈希类型,不能作为集合的元素。
提醒
关于对象是否可哈希,我们放到后面的《哈希算法》中进行讲解。