likes
comments
collection
share

go 源码分析 - map个人主页:二郎腿 (erlangtui.top) 一、简述 map 是一种内置的数据结构,以哈

作者站长头像
站长
· 阅读数 21

个人主页:二郎腿 (erlangtui.top)

一、简述

  • map 是一种内置的数据结构,以哈希表的方式存储键值对数据,能够在 O(1) 复杂度内查找、删除、更新数据;
  • map 是非线程安全的,使用时需要注意并发读写问题;

二、基本原理

1,存储逻辑

  • map 是一种无序的键值对集合,也被称为哈希表或字典,基本原理是使用哈希函数将键映射到存储桶中,在存储桶中保存键值对;
  • 哈希函数在哈希种子的基础上将键的内容映射到一个固定范围的整数值,即哈希值,对存储桶数组长度求余后找到对应的桶;
  • 哈希值的低位用于获取 key 对应的桶,哈希值的高位用于快速判断 key 是否在该桶中
  • 存储桶数组指针指向的是一块连续的内存,这块内存被划分为多个桶,每个桶都存储顶部哈希值、键值对和该桶的溢出桶指针,桶中每个 key 的哈希值低位是相等的
  • 前 2^B 个桶长度的内存为存储桶内存,2^B 个桶长度之后的内存为溢出桶内存
  • 哈希冲突时,map 采用的是链接地址法的方式解决哈希冲突的,哈希值相同的键值对放入同一个存储桶中,存储桶满了之后会在其后链接新的溢出桶存放其他相同哈希值的键值对;

2,扩容条件

  • map 在溢出桶数量过多(近似大于存储桶的数量)或是负载因子过大时会执行扩容逻辑,扩容后存储桶数组指针指向一块更大(翻倍扩容)或是同样大小(等量扩容)的内存;
  • 负载因子(loadFactor)即平均每个存储桶存储的键值对数量,默认一个存储桶最多存储 8 个键值对;
  • 如果负载因子太大,则产生很多溢流桶;负载因子太小,会浪费存储空间;
loadFactor%overflowbytes/entryhitprobemissprobe
4.002.1320.773.004.00
4.504.0517.303.254.50
5.006.8514.773.505.00
5.5010.5512.943.755.50
6.0015.2711.674.006.00
6.5020.9010.794.256.50
7.0027.1410.154.507.00
7.5034.039.734.757.50
8.0041.109.405.008.00
  • 以上是不同负载的一些统计数据:
    • %overflow:具有溢出桶的存储桶百分比;
    • bytes/entry:每个键值对使用的开销字节数;
    • hitprobe:查找当前 key 需要检查的条目数;
    • missprobe:查找缺失 key 需要检查的条目数;
    • 此数据适用于最大负载的表,即在表扩容之前,典型的表的负载会稍少一些;

3,数据迁移

  • map 扩容过程中,数据不是一次性迁移完成的,而是逐步迁移到新结构中的
  • 当对 key 进行插入、更新或是删除时,如果该 key 对应的旧存储桶还没有迁移,会将该桶及其溢出桶的数据迁移到新存储桶中,可能会额外迁移一个后续的存储桶及其溢出桶;
  • 如果是等量扩容,同一个旧桶及其溢出桶的数据会全部迁移到同一个新存储桶及其溢出桶;
  • 如果是翻倍扩容,同一个旧桶及其溢出桶的数据,可能会分别迁移两个不同的新存储桶,取决于哈希值的倒数第 B 位;

4,数据查找

  • 如果 map 不是处于扩容中,根据 key 的哈希值找到其对应的桶,在该存储桶及其溢出桶中查找;
  • 如果 map 正处于扩容中,根据 key 的哈希值找到其对应的旧存储桶,如果该桶还没有迁移,则在该桶及其溢出桶中查找;如果该桶已经迁移了,则在新通及其溢出桶中查找;

5,数据插入

  • 如果 map 不是处于扩容中,根据 key 的哈希值找到其对应的桶,进行数据插入,可能会创建溢出桶;
  • 如果 map 正处于扩容中,根据 key 的哈希值找到其对应的旧存储桶,如果该桶还没有迁移,则将该桶及其溢出桶的数据迁移到新存储桶中,在新存储桶中进行数据插入,可能会创建溢出桶;
  • 插入一个 key 后如果触发了扩容逻辑,则需要将 map 标记为扩容中,不实际迁移数据

6,数据更新

  • 与数据插入操作基本一致,当要更新的数据不存在时就变成了数据插入操作了;

7,数据删除

  • 如果 map 不是处于扩容中,根据 key 的哈希值找到其对应的桶,在该存储桶及其溢出桶中删除;
  • 如果 map 正处于扩容中,根据 key 的哈希值找到其对应的旧存储桶,如果该桶还没有迁移,则将该桶及其溢出桶的数据迁移到新存储桶中,在新存储桶中进行数据删除;
  • 删除数据后,需要更新顶部哈希值的状态,即标记该 key 对应的单元格及其之后是否还有数据;没有数据时,同样还需要更其前面的单元格的顶部哈希值

三、基本用法

1,应用场景

  • map 是一种非常有用的数据结构,它可以用于存储键值对,并允许快速查找和访问这些值;
  • 常见的使用 map 的应用场景:
    • 缓存:map 可以用于实现缓存,例如缓存计算结果,以避免重复计算;
    • 数据索引:map 可以用于创建数据索引,以便快速查找特定项,例如索引某个数据集合,使得可以通过关键字来快速找到相应的数据项;
    • 路由表:map 可以用于实现路由表,例如存储路由规则和对应的处理器函数,以便在接收到请求时快速找到相应的处理器函数;
    • 统计数据:map 可以用于统计数据,例如记录某个文本中不同单词出现的次数;

2,注意事项

  • map 是并发读写不安全的数据结构,在多个 goroutine 同时读写 map,时需要对整个 map 单独加互斥锁或读写锁;对整个 map 添加互斥锁时,如果 map 中的数据量非常大,那么锁的粒度也很多,可能会导致性能瓶颈,如果要使用并发安全的 map,可以使用 sync.Map](erlangtui.top/pages/6855f…
  • 在使用 map 之前,应先进行初始化,否则可能会 panic,可以使用 make 函数或字面量方式进行初始化;
  • map 的键类型必须支持相等运算符(==),这意味着内置的基本类型和某些结构类型可以作为键类型;但是,切片、映射和函数类型不支持相等运算符,因此不能用作键类型;
  • 遍历 map 的时候,迭代的顺序是不确定的,每次遍历 map,得到的键值对的顺序可能不同;
  • map 在底层使用哈希表实现,会占用一定的内存,当需要处理大量数据时,需要注意 map 的内存占用情况,以免导致内存不足;在某些高并发服务中,一波峰值流量导致 map 扩容后有很多存储桶,峰值过后从 map 中删除元素,这些存储桶并不会回收掉,map 可能依旧很大,表现为内存没有被释放

四、源码解读

1,默认值

::: details

const (
	// 每个桶能够存储的最多键值对数
	bucketCntBits = 3
	bucketCnt     = 1 << bucketCntBits

	// 平均每个桶的最大负载因子,loadFactorNum/loadFactorDen
	loadFactorNum = 13
	loadFactorDen = 2

	maxKeySize  = 128 // 保证键值内联的最大尺寸
	maxElemSize = 128

	// bmap 经过编译后会扩充 keys、values 等字段,keys 是紧跟在 tophash 字段之后的
	// 通过这种方式能够计算出 keys 相对于 bmap 起始地址的偏移,也是 tophash 的大小
	dataOffset = unsafe.Offsetof(struct {
		b bmap
		v int64
	}{}.v)

	// 可能的 tophash 值
	emptyRest      = 0 // 此单元格为空,并且在较高的索引或溢出处不再有非空单元格
	emptyOne       = 1 // 此单元格为空,其他单元格未知
	evacuatedX     = 2 // 键值是有效的,已迁移到新桶的前半部分
	evacuatedY     = 3 // 键值是有效的,入口已迁移到新桶的后半部分
	evacuatedEmpty = 4 // 单元格为空,数据已经迁移走了
	minTopHash     = 5 // 正常填充单元格的最小顶部哈希

	// 标志位
	iterator     = 1 // 可能存在使用存储桶的迭代器
	oldIterator  = 2 // 可能存在使用旧的存储桶的迭代器
	hashWriting  = 4 // 有其他 goroutine 正在写该map
	sameSizeGrow = 8 // 当前 map 正在进行等量扩容

	// 用于迭代器检查的哨兵存储桶 ID
	noCheck = 1<<(8*sys.PtrSize) - 1
)

:::

  • 每个桶最多存储 8 个键值对,当前桶存满了时依次放入后续的溢出桶;
  • 平均每个桶的最大负载因子为 6.5,超过此值后 map 开始翻倍扩容
  • 内联存储:即 key 和 value 直接存储在哈希表的结构中,而不是存储在堆上;保证键值内联的最大尺寸为 128 字节,当键或值的大小小于等于此限制时,直接保存在 map 结构体中;如果键或值的大小超过了这个限制,会为每个元素单独分配内存,键和值将被存储在堆上;这种设计是为了在性能和内存利用之间取得平衡,将较小的键和值直接保存在 map 结构体中可以提高访问速度,因为无需通过指针间接访问;对于较大的键和值,为其分配单独的内存可以节省内存空间,并避免 map 结构体变得过大,如下示例;
func main() {
	const Size = 128
	m := make(map[int][Size]byte, 1000000)

	var mem runtime.MemStats
	runtime.ReadMemStats(&mem)
	fmt.Printf("%d MB\n", mem.Alloc/1024/1024)
	runtime.KeepAlive(m)
}
// output: 
// Size 128: 293 MB
// Size 129: 38 MB
  • 哈希值标志用于在每个桶的顶部哈希值数组中标志当前哈希值对应的单元格状态,为空或是已经迁移;
  • 标志位用于标志当前 map 的状态,被迭代、写数据或扩容等;

2,hmap

type hmap struct {
	count      int            // map 元素个数,必须在第一位,由内置函数 len() 调用
	flags      uint8          // map 的标志,是否处于迭代器、写、扩容等状态
	B          uint8          // 存储桶的数量的对数值,桶数等于 2^B,如果在搬迁过程中则指的是新存储桶数量的对数
	noverflow  uint16         // 溢出桶的大概数量,为了保持hmap较小,noverflow 是一个uint16。
	hash0      uint32         // 哈希种子
	buckets    unsafe.Pointer // 指向存储桶数组的指针,多个桶在内存上是连续的,当 count 为 0 时,为 nil
	oldbuckets unsafe.Pointer // 在扩容时指向旧桶数组的指针,仅在扩容时不为空,扩容结束后置为空,以此判断是否处于扩容状态
	nevacuate  uintptr        // 迁移进度计数器(小于此值的索引对应的桶已清空)

	extra *mapextra // 额外字段,主要存储溢出桶等信息
}
// mapextra 保存并非所有 map 都存在的字段
type mapextra struct {
	overflow     *[]*bmap // 存储所有存储桶 hmap.buckets 的溢出桶指针
	oldoverflow  *[]*bmap // 存储所有旧存储桶 hmap.oldbuckets 的溢出桶指针,扩容时才有
	nextOverflow *bmap    // 指向首个可用溢出桶的指针,在创建存储桶数组时,会额外创建多个溢出桶,这些溢出桶在内存上也是连续的
}
  • hmap 存储了 map 对象的基本信息,包括元素个数、存储桶数量、溢出桶数量、存储桶数组指针、溢出桶信息等;
  • 其中,等量扩容时 buckets 数组与 oldbuckets 数组长度相等;翻倍扩容时,buckets 数组是 oldbuckets 数组长度的两倍
  • mapextra 存储了 map 的溢出桶相关信息,如果 key 和 elem 都不包含指针并且是内联的,那么将存储桶类型标记为不包含指针,可以避免 gc 扫描此类 map;
  • 非扩容时的基本结构如下图,buckets 指向了存储桶数组的首位,overflow 指向了溢出桶数组的首位,nextOverflow 指向下一个可以使用的溢出桶地址:

go 源码分析 - map个人主页:二郎腿 (erlangtui.top) 一、简述 map 是一种内置的数据结构,以哈

  • 扩容时的基本结构如下(桶结构依然在,未画出),buckets 指向扩容时新创建的存储桶数组,oldbuckets 指向扩容前旧存储桶数组,overflow 指向扩容时新创建的溢出桶数组,nextOverflow 指向扩容前旧溢出桶数组,nextOverflow 指向下一个可以使用的溢出桶地址即新存储桶数组后的溢出桶;

go 源码分析 - map个人主页:二郎腿 (erlangtui.top) 一、简述 map 是一种内置的数据结构,以哈 ::: details

// 为桶 b 创建溢出桶对象,并返回该溢出桶指针
func (h *hmap) newoverflow(t *maptype, b *bmap) *bmap {
	var ovf *bmap
	if h.extra != nil && h.extra.nextOverflow != nil {
		// 已经在 makeBucketArray 函数中预分配了下一个溢出桶对象,直接使用
		ovf = h.extra.nextOverflow
		if ovf.overflow(t) == nil {
			// 详见 makeBucketArray 函数 last.setoverflow(t, (*bmap)(buckets)) 位置处
			// 还未到达最后一个预分配的溢出桶,让下一个溢出桶指针 nextOverflow 往后移
			h.extra.nextOverflow = (*bmap)(add(unsafe.Pointer(ovf), uintptr(t.bucketsize)))
		} else {
			// 已经是最后一个预分配的溢出存储桶,重置此溢出桶上的溢出指针为 nil,并将下一个溢出桶指针 nextOverflow 也置为 nil
			ovf.setoverflow(t, nil)
			h.extra.nextOverflow = nil
		}
	} else {
		// 没有可用的预先分配的溢出桶, 直接创建一个新桶
		ovf = (*bmap)(newobject(t.bucket))
	}
	h.incrnoverflow() // 增加溢出桶计数
	if t.bucket.ptrdata == 0 {
		h.createOverflow()
		*h.extra.overflow = append(*h.extra.overflow, ovf) // 将该溢出桶指针添加到溢出桶数组
	}
	b.setoverflow(t, ovf) // 将当前溢出桶地址存储到 b 的溢出桶指针上,即形成溢出桶链表
	return ovf
}

// incrnoverflow 递增溢出存储桶的计数
func (h *hmap) incrnoverflow() {
	// 如果溢出存储桶与存储桶一样多,将触发相同大小的 map 扩容
	if h.B < 16 {
		h.noverflow++
		return
	}
	// 当存储桶的数量达到 1<<15-1 时,溢出桶的数量大概等于存储桶,以 1/(1<<(h.B-15)) 的概率增加溢出桶
	mask := uint32(1)<<(h.B-15) - 1
	// 举例: if h.B == 18, then mask == 7, and fastrand & 7 == 0 概率为 1/8.
	if fastrand()&mask == 0 {
		h.noverflow++
	}
}

// 没有溢出桶数组时,则创建溢出桶数组
func (h *hmap) createOverflow() {
	if h.extra == nil {
		h.extra = new(mapextra)
	}
	if h.extra.overflow == nil {
		h.extra.overflow = new([]*bmap)
	}
}

// 是否正在扩容,等量扩容或翻倍扩容,即旧溢出桶数组指针 oldbuckets 不为空
func (h *hmap) growing() bool {
	// 在 hashGrow 函数值中进行置为非空,即开始扩容了
	// 在 advanceEvacuationMark 和 mapclear 函数中置为空,即扩容完成或是清空了
	return h.oldbuckets != nil
}

// 当前扩容是否是等量扩容
func (h *hmap) sameSizeGrow() bool {
	return h.flags&sameSizeGrow != 0 // 即 flags 的第 4 位不为 0
}

// 当前 map 扩容之前的存储桶数
func (h *hmap) noldbuckets() uintptr {
	// B 为当前存储桶数量对数值,如果是等量扩容则与旧的相等,如果是翻倍扩容则比旧的大 1
	oldB := h.B
	if !h.sameSizeGrow() {
		oldB-- // 对数值减一,桶数量减半
	}
	return bucketShift(oldB)
}

// 返回旧存储桶数量生成的掩码值
func (h *hmap) oldbucketmask() uintptr {
	return h.noldbuckets() - 1
}

:::

  • newoverflow方法为某个桶创建溢出桶,如果在创建存储桶的时候同时创建了一些溢出桶,在 makeBucketArray 函数中预分配了下一个溢出桶对象,且这些溢出桶还没有使用完则直接使用,如上图中 v0、v1等溢出桶;否则,直接创建一个新的溢出桶,并将该桶添的指针添加到溢出桶指针数组中;
  • incrnoverflow方法递增溢出存储桶的计数,当存储桶很少时,递增操作直接执行,noverflow 是一个精确的计数;当存储桶很多时,递增操作以一定的概率执行,noverflow 是一个近似计数;
  • growing方法判断 map 是否正在扩容,等量扩容或翻倍扩容,即旧存储桶数组指针 oldbuckets 不为空
  • sameSizeGrow方法通过判断 flags 的第 4 位是否为 0,表示当前扩容是否为等量扩容;
  • noldbuckets方法计算 map 旧存储桶的数量,如果 map 是翻倍扩容,那么旧存储桶数量是现在的一半,如果是等量扩容,那么与现在的相等;
  • oldbucketmask方法计算 map 旧存储桶数量生成的掩码值,方便进行位与运算,以求出 key 的哈希值对旧存储桶数量的余数,来确定桶的索引;eg:当 B 为 5 时,旧 B 为 4,旧存储桶数量为 16,生成的掩码值为 0b1111,如果哈希值为 0b1101001010,直接位与运算得到 0b1010,即等于 6,桶的索引号为 6;

::: details

// bucketShift 返回 2^b,针对代码生成进行了优化
func bucketShift(b uint8) uintptr {
	return uintptr(1) << (b & (sys.PtrSize*8 - 1))
}
// bucketMask 返回 2^b-1,即对应的掩码值,针对代码生成进行了优化
func bucketMask(b uint8) uintptr {
	return bucketShift(b) - 1
}
// tophash 计算 hash 的顶部 8 位哈希值
func tophash(hash uintptr) uint8 {
	top := uint8(hash >> (sys.PtrSize*8 - 8))
	if top < minTopHash {
		top += minTopHash
	}
	return top
}
// isEmpty 报告给定的 tophash 数组元素是否为空
func isEmpty(x uint8) bool {
	return x <= emptyOne
}

:::

3,bmap

// map 的桶
type bmap struct {
    // tophash 存储此存储桶中每个键的哈希值顶部 8 字节
    // 如果 tophash[0] < minTopHash,则 tophash[0] 是存储桶迁移状态
	tophash [bucketCnt]uint8
}
  • bmap表示桶的结构,实际编译时会将 bmap 编译成以下结构:
type bmap struct {
	tophash  [bucketCnt]uint8     // 顶部哈希值数组
	keys     [bucketCnt]keytype   // key 数组
	values   [bucketCnt]valuetype // values 数组
	pad      uintptr              // 填充字段
	overflow uintptr              // 溢出桶指针
}
// 获取当前桶的溢出桶指针
func (b *bmap) overflow(t *maptype) *bmap {
	// 指针运算,桶指针往后移动一个桶大小的距离,再往前移动一个指针的距离,就是其溢出桶指针的地址
	return *(**bmap)(add(unsafe.Pointer(b), uintptr(t.bucketsize)-sys.PtrSize))
}
// 将溢出桶的地址存储到当前桶的溢出桶指针上
func (b *bmap) setoverflow(t *maptype, ovf *bmap) {
	*(**bmap)(add(unsafe.Pointer(b), uintptr(t.bucketsize)-sys.PtrSize)) = ovf
}
// 获取当前桶的 keys 地址
func (b *bmap) keys() unsafe.Pointer {
	// 桶地址往后偏移 dataOffset
	return add(unsafe.Pointer(b), dataOffset)
}
// 通过顶部哈希值判断某个桶是否已经迁移完成
func evacuated(b *bmap) bool {
	h := b.tophash[0]
	return h > emptyOne && h < minTopHash
}
  • tophash表示顶部哈希值数组,存储了该桶中每个 key 的顶部哈希值,通过顶部哈希值可以知道对应 key 的状态(已迁移、为空等);
  • keys表示 key 数组,存储了该桶中所有的 key;values表示 value 数组,存储了该桶中所有的 value;
  • 实际存储过程中,将所有的键连续存储在一起,将所有的值连续存储在一起,能够一定程度上避免 键值/键值 存储方式的所需要的内存对齐,如下图结构;比如map[int64]byte,如果以 键值/键值 方式存储,每个键值对需要填充7字节以对齐内存;
  • overflow是溢出桶指针,指向该桶的溢出桶:

go 源码分析 - map个人主页:二郎腿 (erlangtui.top) 一、简述 map 是一种内置的数据结构,以哈

4,makemap

func makemap_small() *hmap {
	h := new(hmap)
	h.hash0 = fastrand()
	return h
}
  • makemap_smallmake(map[k]v)make(map[k]v, hint) 创建 map,前提是在编译时已知 hint 最多为 bucketCnt,并且需要在堆上分配 hmap,即通过 new 创建 *hmap 指针;
  • 其桶的创建是在 mapassign 函数中完成的,即在插入数据时惰性创建;

::: details

func makemap(t *maptype, hint int, h *hmap) *hmap {
	// 计算需要申请的内存大小,并进行校验
	mem, overflow := math.MulUintptr(uintptr(hint), t.bucket.size)
	if overflow || mem > maxAlloc {
		hint = 0
	}

	// 初始化 hmap
	if h == nil {
		h = new(hmap)
	}
	h.hash0 = fastrand()

	// 确定 B 的值,以保证 2^B 个桶能够装下 hint 个元素,且负载因子在约定范围内
	B := uint8(0)
	for overLoadFactor(hint, B) {
		B++ // 桶的数量翻倍
	}
	h.B = B

	// 分配哈希表,如果 B == 0,则稍后会延迟分配 buckets 字段(在 mapassign 中) 如果 hint 很大,则将此内存归零可能需要一段时间
	if h.B != 0 {
		var nextOverflow *bmap
		// 获取存储存储桶数组指针和下一个溢出桶指针
		h.buckets, nextOverflow = makeBucketArray(t, h.B, nil)
		if nextOverflow != nil {
			h.extra = new(mapextra)
			h.extra.nextOverflow = nextOverflow
		}
	}

	return h
}

:::

  • makemap 用于创建能够存储 hint 个键值对的 map;
  • 根据 hint 确定 B 的值,以保证 2^B 个桶能够装下 hint 个元素,且负载因子在约定范围内;
  • 如果只需要一个桶,则延迟在 mapassign 函数中进行创建;否则,直接通过makeBucketArray创建多个桶及一些溢出桶(如果 B 够大);

::: details

func makeBucketArray(t *maptype, b uint8, dirtyalloc unsafe.Pointer) (buckets unsafe.Pointer, nextOverflow *bmap) {
	base := bucketShift(b)
	nbuckets := base
	// 实际分配桶的数量是 nbuckets,是不小于 base,前 base 个桶依旧为存储桶,base 之后的用作溢出桶
	// 这些桶在内存上是连续的,每个桶的溢出桶指针是 nil,最后一个桶的溢出桶指针记为非 nil,以标记该桶是最后一个溢出桶了
	if b >= 4 { // 对于小 b,溢出桶的可能性不大,默认不创建溢出桶,添加该条件能够避免计算的开销
		nbuckets += bucketShift(b - 4) // 额外申请 1/16 存储桶数量的桶,2^b+2^b/16
		sz := t.bucket.size * nbuckets // nbuckets 个桶所需的内存大小
		up := roundupsize(sz)          // 将其对齐到最近的较大的2的幂次方数值
		if up != sz {                  // 如果对齐后的值与原始值不相等,则用对齐后的内存大小计算实际的桶数 nbuckets
			nbuckets = up / t.bucket.size
		}
	}

	if dirtyalloc == nil {
		// 直接分配一个新的底层数组
		buckets = newarray(t.bucket, int(nbuckets))
	} else {
		// 复用 dirtyalloc 指向的原数组,并将该数组内存清空,t 和 b 与申请 dirtyalloc 时相同,所以原数组大小是满足条件的
		buckets = dirtyalloc
		size := t.bucket.size * nbuckets
		if t.bucket.ptrdata != 0 {
			// 桶中的元素类型带有指针时,数组内存的清空方式
			memclrHasPointers(buckets, size)
		} else {
			// 桶中的元素类型没有指针时,数组内存的清空方式
			memclrNoHeapPointers(buckets, size)
		}
	}

	if base != nbuckets {
		// 预先分配了一些溢出桶,为了将跟踪这些溢出桶的开销降至最低,我们使用这样的约定:
		// 如果预分配的溢出桶的溢出指针为 nil,则通过向后移动指针可以获得更多可用的溢出桶;
		// 对于最后一个桶的溢出桶的溢出指针,需要一个安全的非空指针,直接用 buckets,以区分该桶为最后一个溢出桶;

		// 前 0 ~ base-1 个桶为存储桶,base ~ nbuckets-1 个桶为溢出桶,这些桶在内存上连续
		// 通过调用add函数计算下一个溢出桶 nextOverflow 的地址,并将其转换为*bmap类型的指针
		nextOverflow = (*bmap)(add(buckets, base*uintptr(t.bucketsize)))
		// 通过调用add函数计算出最后一个桶的地址,并将其转换为*bmap类型的指针
		last := (*bmap)(add(buckets, (nbuckets-1)*uintptr(t.bucketsize)))
		// 将 buckets 强制转换为*bmap类型的指针,并赋值给最后一个桶的溢出指针
		// 即第 nbuckets-1 个桶的溢出桶指针记为非 nil,以标记该桶是最后一个桶了,会在 newoverflow 函数中用到
		last.setoverflow(t, (*bmap)(buckets))
	}
	return buckets, nextOverflow
}

:::

  • makeBucketArray 用于创建一个存储桶数组,如果键值对较多的话,会额外创建一些桶作为溢出桶,并返回该数组的地址和第一个溢出桶地址(存储在mapextra结构体的nextOverflow字段);如上图 hmap 结构,这些桶在内存上是连续的,取前部分为存储桶,后部分为溢出桶,最后一个溢出桶的溢出指针不为空,以表示该桶是最后一个桶,方便在以指针运算的方式遍历溢出桶时能够获取结束标志;
  • 2^b 是需要分配存储桶的最小数量,当 b<4 时,溢出的可能性不大,不会创建溢出桶;当 b>=4 时,会总共申请 2^b+2^b/16 个桶,由于内存申请策略会向上对齐,实际申请的内存可能足以放下更多的桶;此时,取前 2^b 个桶作为存储桶,后面的为溢出桶,buckets 指向存储桶数组首位地址,nextOverflow 指向可用的首位溢出桶;
  • dirtyalloc 应该是 nil 或指向之前由 makeBucketArray 以相同 t 和 b 参数分配的存储桶数组;如果 dirtyalloc 是 nil 则会重新申请内存分配一个新的存储桶数组,否则 dirtyalloc 指向的数组将会被清理掉并被重新被复用为存储桶数组

5,mapaccess1

::: details

func mapaccess1(t *maptype, h *hmap, key unsafe.Pointer) unsafe.Pointer {
	if h == nil || h.count == 0 {
		if t.hashMightPanic() { // hash 函数是否可能引发 panic
			t.hasher(key, 0) // see issue 23734
		}
		return unsafe.Pointer(&zeroVal[0])
	}
	if h.flags&hashWriting != 0 {
		// 并发读写,抛出错误
		throw("concurrent map read and map write")
	}
	hash := t.hasher(key, uintptr(h.hash0)) // 计算 key 的哈希值
	m := bucketMask(h.B)                    // 返回桶的数量减一
	// hash&m 计算哈希值对桶数量的余数,即哈希值的后 B 位对应的值
	b := (*bmap)(add(h.buckets, (hash&m)*uintptr(t.bucketsize))) // 计算该 key 经过哈希后应该落入的桶的地址
	if c := h.oldbuckets; c != nil {
		//  正在扩容中
		if !h.sameSizeGrow() {
			// 如果是翻倍扩容,旧容量的大小应该是现在的一半,即需要计算哈希值的后 B-1 位
			m >>= 1
		}
		oldb := (*bmap)(add(c, (hash&m)*uintptr(t.bucketsize)))
		if !evacuated(oldb) {
			// 当前旧桶没有迁移走,则直接选择旧桶
			b = oldb
		}
	}
	top := tophash(hash) // 计算顶部 8 位哈希值
bucketloop:
	for ; b != nil; b = b.overflow(t) {
		// 从桶开始沿着溢出桶依次遍历
		for i := uintptr(0); i < bucketCnt; i++ {
			// 对每个桶依次遍历
			if b.tophash[i] != top {
				// 在桶中依次比较顶部哈希值,如果顶部哈希值不相等,则跳过当前值
				if b.tophash[i] == emptyRest {
					// 如果顶部哈希值为 emptyRest,则说明整个桶都为空,直接跳出当前桶
					break bucketloop
				}
				continue
			}
			// 顶部哈希值相等,根据顶部哈希值索引 i 计算该哈希值对应的 key 的地址
			k := add(unsafe.Pointer(b), dataOffset+i*uintptr(t.keysize))
			if t.indirectkey() {
				// 如果是存储 key 的指针而不是 key 本身,则解引用
				k = *((*unsafe.Pointer)(k))
			}
			if t.key.equal(key, k) {
				// 如果桶中存储的 key 与待查找的 key 相等,则计算该 key 对应的值的地址
				e := add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+i*uintptr(t.elemsize))
				if t.indirectelem() {
					// 如果存储 elem 的指针而不是 elem 本身,则解引用
					e = *((*unsafe.Pointer)(e))
				}
				// 找到 key 对应的 elem,直接返回
				return e
			}
			// 如果桶中存储的 key 与待查找的 key 相等,继续查找下一个元素
		}
		// 继续查找下一个桶,直至溢出桶结束
	}
	// 在 key 哈希值对应的桶及其溢出桶都没有找到,则直接返回零值指针
	return unsafe.Pointer(&zeroVal[0])
}

:::

  • mapaccess1 返回指向 h[key] 的指针,从不返回 nil,相反,如果键不在 map 中,它将返回对 elem 类型的零值对象的引用,返回的指针可能会使整个 map 保持活动状态,因此不要长时间保留它;
  • 如果 map 为空或是没有元素,直接返回指向零值的指针,如果有其他 goroutine 正在写,则直接抛出并发读写错误,不可恢复;
  • 具体查找逻辑:
    • 计算 key 对应的哈希值,根据桶数组的对数值 B 计算出该 key 对应的存储桶;
    • 如果 map 正在扩容中,并且是翻倍扩容,那么该 key 对应的旧存储桶序号可能与新存储桶不一致,需要根据旧桶数组的对数值 B' 重新计算 key 对应的旧存储桶(见后文迁移逻辑);
    • 如果该旧存储桶已经迁移完成了,则直接在新存储桶里面查找,否则直接在旧存储桶中查找;
    • 通过 key 的哈希值确定存储桶后,依次遍历存储桶及其溢出桶,遍历每个桶时,依次与每个顶部哈希值比较,顶部哈希值相等时,再去与 key 进行比较,key 相等时,直接获取其对应的 elem 的指针,存储桶及其溢出桶都遍历完还没有找到时,则直接返回指向零值的指针;

::: details

func mapaccess2(t *maptype, h *hmap, key unsafe.Pointer) (unsafe.Pointer, bool) {
	if h == nil || h.count == 0 {
		if t.hashMightPanic() {
			t.hasher(key, 0) // see issue 23734
		}
		return unsafe.Pointer(&zeroVal[0]), false
	}
	if h.flags&hashWriting != 0 {
		throw("concurrent map read and map write")
	}
	hash := t.hasher(key, uintptr(h.hash0))
	m := bucketMask(h.B)
	b := (*bmap)(add(h.buckets, (hash&m)*uintptr(t.bucketsize)))
	if c := h.oldbuckets; c != nil {
		if !h.sameSizeGrow() {
			// There used to be half as many buckets; mask down one more power of two.
			m >>= 1
		}
		oldb := (*bmap)(add(c, (hash&m)*uintptr(t.bucketsize)))
		if !evacuated(oldb) {
			b = oldb
		}
	}
	top := tophash(hash)
bucketloop:
	for ; b != nil; b = b.overflow(t) {
		for i := uintptr(0); i < bucketCnt; i++ {
			if b.tophash[i] != top {
				if b.tophash[i] == emptyRest {
					break bucketloop
				}
				continue
			}
			k := add(unsafe.Pointer(b), dataOffset+i*uintptr(t.keysize))
			if t.indirectkey() {
				k = *((*unsafe.Pointer)(k))
			}
			if t.key.equal(key, k) {
				e := add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+i*uintptr(t.elemsize))
				if t.indirectelem() {
					e = *((*unsafe.Pointer)(e))
				}
				return e, true
			}
		}
	}
	return unsafe.Pointer(&zeroVal[0]), false
}

func mapaccessK(t *maptype, h *hmap, key unsafe.Pointer) (unsafe.Pointer, unsafe.Pointer) {
	if h == nil || h.count == 0 {
		return nil, nil
	}
	hash := t.hasher(key, uintptr(h.hash0))
	m := bucketMask(h.B)
	b := (*bmap)(add(h.buckets, (hash&m)*uintptr(t.bucketsize)))
	if c := h.oldbuckets; c != nil {
		if !h.sameSizeGrow() {
			m >>= 1
		}
		oldb := (*bmap)(add(c, (hash&m)*uintptr(t.bucketsize)))
		if !evacuated(oldb) {
			b = oldb
		}
	}
	top := tophash(hash)
bucketloop:
	for ; b != nil; b = b.overflow(t) {
		for i := uintptr(0); i < bucketCnt; i++ {
			if b.tophash[i] != top {
				if b.tophash[i] == emptyRest {
					break bucketloop
				}
				continue
			}
			k := add(unsafe.Pointer(b), dataOffset+i*uintptr(t.keysize))
			if t.indirectkey() {
				k = *((*unsafe.Pointer)(k))
			}
			if t.key.equal(key, k) {
				e := add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+i*uintptr(t.elemsize))
				if t.indirectelem() {
					e = *((*unsafe.Pointer)(e))
				}
				return k, e
			}
		}
	}
	return nil, nil
}

:::

  • mapaccess2 与 mapaccess1 相比,多返回的一个 bool 值,true 表示取到了真实的值而不是零值,false 表示取到了零值;
  • mapaccessK 与 mapaccess1 相比,同时返回了 key 和 elem 的指针,用于 map 迭代器;

6,mapassign

::: details

func mapassign(t *maptype, h *hmap, key unsafe.Pointer) unsafe.Pointer {
	if h == nil {
		// map 为 nil,直接 panic,无法向一个 nil 中写数据
		panic(plainError("assignment to entry in nil map"))
	}
	if h.flags&hashWriting != 0 {
		// 并发写抛出错误
		throw("concurrent map writes")
	}
	hash := t.hasher(key, uintptr(h.hash0))

	// 调用 t.hasher 再后设置 hashWriting,因为 t.hasher 可能会 panic,在这种情况下,实际上还没有进行写入
	h.flags ^= hashWriting

	if h.buckets == nil {
		// 如果桶为空,则创建一个新的桶,初始状态为一个桶
		h.buckets = newobject(t.bucket) // newarray(t.bucket, 1)
	}

again:
	bucket := hash & bucketMask(h.B) // 计算该 key 对应的桶的索引号
	if h.growing() {
		// 如果 map 处于扩容过程中,则迁移该桶及其后续未迁移的桶(如果还有的话)
		growWork(t, h, bucket)
	}
	// 直接从存储桶数组 h.buckets 中获取 bucket 索引对应的桶(如果在搬迁,该存储桶数组是新的,h.B 也是新存储桶数组的长度对数)
	b := (*bmap)(add(h.buckets, bucket*uintptr(t.bucketsize)))
	top := tophash(hash)

	var inserti *uint8         // 顶部哈希值数组中空单元格的地址
	var insertk unsafe.Pointer // key 数组中空单元格的地址
	var elem unsafe.Pointer    // elem 数组中空单元格的地址或是 k 对应的 elem 的地址

bucketloop: // 从桶中找到当前 k,或是找到一个空的单元格
	for {
		// 依次遍历存储桶及其溢出桶,在桶中依次遍历每个顶部哈希值、key、elem
		for i := uintptr(0); i < bucketCnt; i++ {
			if b.tophash[i] != top {
				// 顶部哈希值不相等,即不是要找的 k
				if isEmpty(b.tophash[i]) && inserti == nil {
					// 如果当前 b.tophash[i] 为空,且 inserti 为空,则记录当前 i 对应的 key、elem 对应的地址
					// 即 inserti 用于存储第一个为空的顶部哈希值数组单元格的地址
					inserti = &b.tophash[i]
					insertk = add(unsafe.Pointer(b), dataOffset+i*uintptr(t.keysize))
					elem = add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+i*uintptr(t.elemsize))
				}
				if b.tophash[i] == emptyRest {
					// 如果此单元格为空,并且在较高的索引或溢出处不再有非空单元格,则跳出大循环 bucketloop
					break bucketloop
				}
				// 如果此空单元格之后还有其他的非空单元格,继续往后遍历其他单元格
				continue
			}
			// 顶部哈希值相等,可能是要找到的 k,取 i 对应的位置的 key
			k := add(unsafe.Pointer(b), dataOffset+i*uintptr(t.keysize))
			if t.indirectkey() {
				// 存储的是指针,解引用
				k = *((*unsafe.Pointer)(k))
			}
			// 判断存储的 key 是否与查找的 k 相等
			if !t.key.equal(key, k) {
				// 不相等,继续往后遍历其他单元格
				continue
			}
			// key 相等,找到了该 key
			if t.needkeyupdate() {
				// 如果需要更新该 key 则直接更新
				typedmemmove(t.key, k, key)
			}
			// 获取该 key 对应的 elem 的地址,跳转到 done
			elem = add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+i*uintptr(t.elemsize))
			goto done
		}
		// 如果在该桶中既没有找到当前 k,也没有找到空的单元格或找到的空单元格后较高的索引或溢出处有非空单元格
		// 则继续往后遍历其他溢出桶
		ovf := b.overflow(t)
		if ovf == nil {
			break
		}
		b = ovf
	}

	// 执行到此处,说明没有找到相等的 key
	// 如果命中了负载因子阈值或是有太多的溢出桶,并且又没有正在扩容,则开始扩容
	if !h.growing() && (overLoadFactor(h.count+1, h.B) || tooManyOverflowBuckets(h.noverflow, h.B)) {
		// 开始扩容,创建存储桶数组和溢出桶数组,并分布切换旧桶数组指针和旧溢出桶数组指针的指向,不做实际搬迁
		hashGrow(t, h)
		// 开始扩容时,存储桶数组地址发生改变,数组长度可能也会发生改变,需要跳转到 again 重新开始查找
		// 并更新存储桶 b 的地址,并迁移数据,如果仍然没有找到,则将 key 写入 map 时能够写入正确的桶
		goto again
	}

	if inserti == nil {
		// 没有找到相等的 key,且 inserti 又为 nil,则说明当前桶及其溢出桶已经满了,直接创建一个新的溢出桶
		newb := h.newoverflow(t, b)
		inserti = &newb.tophash[0]
		insertk = add(unsafe.Pointer(newb), dataOffset)
		elem = add(insertk, bucketCnt*uintptr(t.keysize))
	}

	if t.indirectkey() {
		// 存储的是 key 指针,则从堆上申请内存,并赋值地址
		kmem := newobject(t.key)
		*(*unsafe.Pointer)(insertk) = kmem
		insertk = kmem
	}
	if t.indirectelem() {
		// 存储的是 elem 指针,则从堆上申请内存,并赋值地址
		vmem := newobject(t.elem)
		*(*unsafe.Pointer)(elem) = vmem
	}
	// 执行到此处说明是 map 中新增了元素,记录 key、top,并且 map 中的元素数量加一
	typedmemmove(t.key, insertk, key)
	*inserti = top
	h.count++

done: // 直接跳转到此处说明是找到了已经存储的 key
	if h.flags&hashWriting == 0 {
		// 有其他 goroutine 正在写,抛出错误
		throw("concurrent map writes")
	}
	h.flags &^= hashWriting // 清除写标志
	if t.indirectelem() {
		elem = *((*unsafe.Pointer)(elem))
	}
	// 返回 value 的地址,直接更新或赋值
	// TODO 此处了已经解除了写标志,是否存在在更新过程中有其他 goroutine 正在读写的问题?
	return elem
}

:::

  • mapassign 用于向 map 中,与 mapaccess 类似,但是如果 map 中没有该 key 时,会为其分配一个槽;
  • map 为 nil,直接 panic,无法向一个 nil 中写数据;
  • 如果有其他 goroutine 正在写,抛出并发写错误;否则,添加一个写标志,此处对 flags 字段的读写都是非原子非加锁的,所以 map 并不保证并发安全;
  • 如果该 map 没有桶,则创建一个新的桶,初始状态为一个桶,与前面 makemap 呼应,makemap 时可以不实际创建桶,只要在需要写入的时候才创建;
  • 根据哈希值计算该 key 对应的存储桶数组的索引,假设为 ni,如果该 map 正在扩容,且旧桶数组中应该要迁移到新桶 ni 的旧桶 oi 还没有迁移,则将该旧桶 oi 及其溢出桶进行迁移,再进行遍历
  • 根据 ni 获取桶指针,依次遍历该存储桶及其溢出桶,遍历每个桶时,依次与每个顶部哈希值比较,顶部哈希值相等时,再去与 key 进行比较,key 相等时,获取其对应的 elem 地址并返回,会直接根据该地址对 elem 进行更新或赋值;
  • 如果存储桶及其溢出桶都遍历完还没有找到时,则需要向该 map 插入该 key,如果 map 没有在扩容,则需要判断插入 key 后是否会导致 map 触发扩容;
  • 如果触发了扩容,则开始扩容,此扩容只创建存储桶数组和溢出桶数组,并分别切换旧存储桶数组指针和旧溢出桶数组指针的指向,不做实际搬迁
  • 开始扩容时,存储桶数组地址发生改变,数组长度可能也会发生改变,需要重新计算桶的索引和地址,以及进行数据迁移,并重新查找,如果仍然找不到,需要将 key 插入 map,能够保证 key 会写入正确的桶;
  • 如果 key 找到了,返回其对应的 elem 地址返回;否则,插入 key,并获取其对应的 elem 地址返回;

7,hashGrow

::: details

// 开始扩容,只创建存储桶数组和溢出桶数组,并分别切换旧桶数组指针和旧溢出桶数组指针的指向,不做实际搬迁
func hashGrow(t *maptype, h *hmap) {
	// 如果命中了负载的因子,则翻倍扩容,否则就是有太多的溢出桶,做等量扩容
	bigger := uint8(1)
	if !overLoadFactor(h.count+1, h.B) {
		// 没有超过负载因子,等量扩容
		bigger = 0
		h.flags |= sameSizeGrow
	}
	oldbuckets := h.buckets
	// 创建新存储桶数组和下一个溢出桶
	newbuckets, nextOverflow := makeBucketArray(t, h.B+bigger, nil)

	// 清除桶的迭代器的状态
	flags := h.flags &^ (iterator | oldIterator)
	if h.flags&iterator != 0 {
		flags |= oldIterator
	}
	h.B += bigger             // 更新桶数量
	h.flags = flags           // 更新标志,如果是 iterator 则更新为 oldIterator
	h.oldbuckets = oldbuckets // 旧桶数组指针指向的是当前存储桶数组
	h.buckets = newbuckets    // 当前存储桶数组指针指向的是新创建的存储数组
	h.nevacuate = 0           // 迁移进度数置为 0
	h.noverflow = 0           // 溢出桶数量置为 0

	if h.extra != nil && h.extra.overflow != nil {
		// 旧溢出桶数组指针不为空,说明上一次扩容可能还没有完成,抛出错误
		if h.extra.oldoverflow != nil {
			throw("oldoverflow is not nil")
		}
		// 将旧溢出桶数组指针指向当前溢出桶数组,并将当前溢出桶数组指针置为 nil
		h.extra.oldoverflow = h.extra.overflow
		h.extra.overflow = nil
	}
	if nextOverflow != nil {
		if h.extra == nil {
			h.extra = new(mapextra)
		}
		// 为下一个溢出桶指针赋值
		h.extra.nextOverflow = nextOverflow
	}

	// 哈希表数据的实际搬迁在 growWork() 和 evacuate() 中
}

:::

  • 标记该 map 在扩容过程中,即旧存储桶数组指针 h.oldbuckets 不为空;
  • 创建存储桶数组和溢出桶,并将旧存储桶数组指针 h.oldbuckets 指向现在的存储桶数组 h.buckets,现在的存储桶数组指针 h.oldbuckets 指向新创建的存储桶数组 newbuckets,让下一个溢出桶指针 h.extra.nextOverflow 指向新创建的溢出桶 nextOverflow,见上图扩容时的 hmap 结构;
  • 以及更新扩容类型、桶数量、溢出桶数量、迁移进度等,不做实际搬迁,数据的实际搬迁在 growWork() 和 evacuate() 中;
// 判断 count 元素放置在 2^B 个存储桶中是否超过负载因子
func overLoadFactor(count int, B uint8) bool {
	return count > bucketCnt && uintptr(count) > loadFactorNum*(bucketShift(B)/loadFactorDen)
}
// 是否有太多的溢出桶,即溢出桶的数量近似大于存储桶数量 2^B
func tooManyOverflowBuckets(noverflow uint16, B uint8) bool {
	// 请注意,这些溢出桶中的大多数必须处于稀疏使用状态;如果使用密集,那么可能已经触发了翻倍扩容
	// 如果阈值太小,需要做无关的工作;如果阈值太大,map 的扩容和收缩保留了大量未使用的内存
	// "too many" 意味着与存储桶近似一样多的数量,可以参考 incrnoverflow 函数
	if B > 15 {
		B = 15
	}
	return noverflow >= uint16(1)<<(B&15)
}
  • 扩容条件判断,即元素数量过多超过负载因子,或是溢出桶数量过多近似超过存储桶数量

8,growWork

func growWork(t *maptype, h *hmap, bucket uintptr) {
	// bucket&h.oldbucketmask() 计算新存储桶数组 bucket 序号处的桶应该是从旧存储桶数组中哪个序号对应的桶迁移过来的,并迁移该旧桶及其溢出桶
	evacuate(t, h, bucket&h.oldbucketmask())

	// 经过 evacuate 迁移后,h.nevacuate 在函数 advanceEvacuationMark 更新
	if h.growing() {
		// 如果正在扩容,多迁移一个 h.nevacuate 索引处的桶;如果扩容完成,则 h.oldbuckets 为 nil,该语句进不来
		// 即每次最多只迁移 2 个旧存储桶及其溢出桶
		evacuate(t, h, h.nevacuate)
	}
}
  • 迁移将要迁移到新存储桶数组第 bucket 个桶的旧桶及其溢出桶,可能会多迁移一个旧桶及其溢出桶;
  • 先计算新存储桶数组 bucket 序号处的桶应该是从旧存储桶数组中哪个序号对应的桶迁移过来的,并迁移该旧桶及其溢出桶

::: details

// evacDst 迁移目的地
type evacDst struct {
	b *bmap          // 当前要迁移到的新存储桶
	i int            // key/elem 将要迁往新存储桶 b 中的索引 i 处
	k unsafe.Pointer // 新存储桶 b 中第 i 个 key 的地址
	e unsafe.Pointer // 新存储桶 b 中第 i 个 elem 的地址
}
func evacuate(t *maptype, h *hmap, oldbucket uintptr) {
	// h.oldbuckets 桶数组中存放的是待迁移的数据
	// h.buckets  桶数组中存放的是需要从旧桶中迁移来的数据,在 hashGrow 函数中创建的
	b := (*bmap)(add(h.oldbuckets, oldbucket*uintptr(t.bucketsize))) // 获取旧桶数组中第 oldbucket 个桶
	newbit := h.noldbuckets()                                        // 旧桶个数,2^B',B' 是旧存储桶数组的 B
	if !evacuated(b) {                                               // 旧桶没有被迁移走
		// xy 包含 x 和 y (low 和 high) 迁移目的地,分别用于存储当前桶的前半部分数据和后半部分数据
		// 如果是等量扩容,x y 分别表示同一个新桶数组的前后半部分;
		// 如果是翻倍扩容,x y 分别表示新桶数组中前半部分和后半部分中的某个桶,桶的索引为 oldbucket、newbit+oldbucket
		var xy [2]evacDst
		x := &xy[0]
		// 等量扩容,新存储桶数组的长度是与旧桶长度相等,key 的哈希值对新存储桶数组的长度的余值是不变的,即桶的索引值不变
		// 所以直接从新桶数组的相同索引处的桶作为旧桶 oldbucket 的迁移目的地
		x.b = (*bmap)(add(h.buckets, oldbucket*uintptr(t.bucketsize)))
		// k、e 分别指向新桶的首位 key、elem 地址
		x.k = add(unsafe.Pointer(x.b), dataOffset)
		x.e = add(x.k, bucketCnt*uintptr(t.keysize))

		if !h.sameSizeGrow() {
			// 只有翻倍扩容时才计算 y 指针,否则 GC 可能会看到错误的指针
			y := &xy[1]
			// 翻倍扩容,新桶数组的长度是 2*newbit,即两倍于旧桶长度
			// key 的哈希值对新存储桶数组的长度的余值可能是不变的,也可能是旧的余值加上 2^B'(旧存储桶数组的 B 值),取决于 hash 值第 B 位是 0 还是 1,从右到左第 0 位开始
			// y 表示从新桶数组的 oldbucket+newbit 索引处的桶作为旧桶 oldbucket 的迁移目的地,以区别与 x
			y.b = (*bmap)(add(h.buckets, (oldbucket+newbit)*uintptr(t.bucketsize)))
			y.k = add(unsafe.Pointer(y.b), dataOffset)
			y.e = add(y.k, bucketCnt*uintptr(t.keysize))
		}
		// x、y 分别对应的目的桶地址、key、elem 地址都已经计算完毕
		// 对于等量扩容,只能使用 x
		// 对于翻倍扩容,使用 x 还是 y,取决于 key 的哈希值第 B 位是 0 还是 1,从右到左第 0 位开始

		// 依次遍历旧桶及其溢出桶
		for ; b != nil; b = b.overflow(t) {
			k := add(unsafe.Pointer(b), dataOffset)
			e := add(k, bucketCnt*uintptr(t.keysize))
			// 依次遍历当前旧桶或溢出桶的 key、elem
			for i := 0; i < bucketCnt; i, k, e = i+1, add(k, uintptr(t.keysize)), add(e, uintptr(t.elemsize)) {
				top := b.tophash[i] // 获取当前 key 的顶部哈希值
				if isEmpty(top) {
					// 元素为空,更新顶部哈希值为已经搬走了,继续下一个
					b.tophash[i] = evacuatedEmpty
					continue
				}
				// 顶部哈希值异常,抛出错误
				if top < minTopHash {
					throw("bad map state")
				}
				k2 := k
				if t.indirectkey() {
					// 存储的是 key 的指针,解引用得到真正的key
					k2 = *((*unsafe.Pointer)(k2))
				}
				var useY uint8 // 0 或 1,默认是 0 ,即等量扩容
				if !h.sameSizeGrow() {
					// 翻倍扩容,计算哈希值,以做出迁移决策(是否需要将 key/elem 发送到 桶 x 或 桶 y)
					hash := t.hasher(k2, uintptr(h.hash0))
					if h.flags&iterator != 0 && !t.reflexivekey() && !t.key.equal(k2, k2) {
						// 有一种 key,每次对它计算 hash,得到的结果都不一样,这个 key 就是 math.NaN(),not a number,类型是 float64
						// 当它作为 map 的 key,在迁移的时候,会遇到一个问题:再次计算它的哈希值和它当初插入 map 时的计算出来的哈希值不一样
						// 此外,它是不可重复的。在迭代器存在的情况下,需要可重复性,因为迁移决策必须与迭代器做出的任何决策相匹配。
						// 幸运的是,无论哪种方式,都可以自由地发送这些 key。此外,tophash 对于这些类型的 key 毫无意义。
						// 让低位的 tophash 来决定迁移目的桶。为下一级别重新计算一个新的随机 tophash,以便这些 key 在多次扩容后均匀分布在所有存储桶中。
						useY = top & 1
						top = tophash(hash)
					} else {
						// 对于翻倍扩容,key 的哈希值对新存储桶数组的长度的余值可能是不变的,也可能是旧的余值加上 2^B(旧存储桶数组的 B 值)
						// 使用 x 还是 y,取决于 key 的哈希值第 B 位是 0 还是 1,从右到左第 0 位开始
						// eg: B=4, 2^B=16, 即二进制 10000, 如果 hash 的第 4 位不为 0 则 新余值=旧余值+16,使用后半部分的桶
						if hash&newbit != 0 {
							useY = 1
						}
					}
				}

				// 默认值校验
				if evacuatedX+1 != evacuatedY || evacuatedX^1 != evacuatedY {
					throw("bad evacuatedN")
				}

				// 根据 useY 更新旧桶的顶部哈希值,以及确定使用 x 还是 y 作为目的桶
				b.tophash[i] = evacuatedX + useY // evacuatedX + 1 == evacuatedY
				dst := &xy[useY]                 // evacuation destination

				if dst.i == bucketCnt {
					// 当前桶已经放满了,创建溢出桶,索引归零,并更新桶、key、elem 地址
					dst.b = h.newoverflow(t, dst.b)
					dst.i = 0
					dst.k = add(unsafe.Pointer(dst.b), dataOffset)
					dst.e = add(dst.k, bucketCnt*uintptr(t.keysize))
				}
				dst.b.tophash[dst.i&(bucketCnt-1)] = top // 屏蔽 dst.i 作为一种优化,以避免边界检查
				// 搬移 key 到新桶第 i 个 key 处
				if t.indirectkey() {
					*(*unsafe.Pointer)(dst.k) = k2 // copy pointer
				} else {
					typedmemmove(t.key, dst.k, k) // copy elem
				}
				// 搬移 elem 到新桶第 i 个 elem 处
				if t.indirectelem() {
					*(*unsafe.Pointer)(dst.e) = *(*unsafe.Pointer)(e)
				} else {
					typedmemmove(t.elem, dst.e, e)
				}
				// 更新目的桶中的索引、key、elem,即在目的桶中向后移
				// 这些更新可能会将这些指针越过 key 或 elem 数组的末尾,但是没关系,因为在存储桶的末端有溢出桶指针,可以防止指向存储桶的末端
				dst.i++
				dst.k = add(dst.k, uintptr(t.keysize))
				dst.e = add(dst.e, uintptr(t.elemsize))
			}
		}
		// 如果没有协程在使用旧的存储桶数组,就把该旧桶 oldbucket 清除掉,帮助gc
		if h.flags&oldIterator == 0 && t.bucket.ptrdata != 0 {
			b := add(h.oldbuckets, oldbucket*uintptr(t.bucketsize))
			// 保留 b.tophash,因为那里保持了迁移状态
			ptr := add(b, dataOffset)
			n := uintptr(t.bucketsize) - dataOffset
			memclrHasPointers(ptr, n)
		}
	}

	// 更新迁移进度
	if oldbucket == h.nevacuate {
		// 只有迁移进度等于当前桶的索引时,才会去判断是否所有桶都已经迁移完毕
		advanceEvacuationMark(h, t, newbit)
	}
}

:::

  • 完成一个存储桶及其溢出桶的所有数据迁移工作,只有在 mapassign 和 mapdelete 函数中调用,即当 map 在迁移时,只有在插入或删除某个 key,且该 key 对应的旧桶还未迁移时,才对这个旧桶及其溢出桶的数据进行迁移
  • 如果是翻倍扩容,它会将旧桶及其溢出桶中的数据分流到对应的两个新桶 x 和 y,x + 2^(B-1) = y, 使用 x 还是 y,取决于该桶中 key 的哈希值倒数第 B 位是 0 还是 1
    • 如下图(来源网络),扩容前 B=5,哈希值后5位为 00110,值为 6,该 key 位于旧存储桶数组的 6 号桶;翻倍扩容后,B=6,哈希值后6位为 100110,值为 38,位于新存储桶数组的 38 号桶;如果哈希值后6位为 000110,值为 6,那么会位于新存储桶的 6 号桶;所以,B=5时,在翻倍扩容后,B=6,旧存储桶数组6号桶的数据可能会迁移新新存储桶数组中的6号桶(x桶)或38号桶(y桶),取决于哈希值的倒数第6位是0还是1;
    • mapaccess1函数中,查找该哈希值对应的 elem 时,如果该哈希值位于新存储桶6号或38号桶,则先看其对应的旧存储桶数组6号桶是否已经迁移了,如果迁移完成了,则在新存储桶中找,否则直接在旧存储桶6号桶中找;

go 源码分析 - map个人主页:二郎腿 (erlangtui.top) 一、简述 map 是一种内置的数据结构,以哈

  • 如果是等量扩容,说明桶是桶中的数据是稀疏存储的,它会将旧桶 x' 及其溢出桶的数据迁移到新存储桶数组中序号相等的一个新桶 x;
  • 如果没有协程在使用旧的存储桶数组,就把该旧桶 oldbucket 清除掉,帮助gc;
  • 迁移进度等于当前桶的索引时,更新迁移进度计数器到下一个未迁移的桶,并在所有桶迁移结束后将旧存储桶数组 oldbuckets 和旧存储桶的溢出桶 extra.oldoverflow 置空,清除同步扩容的标志;
func advanceEvacuationMark(h *hmap, t *maptype, newbit uintptr) {
	// 如果此次搬迁的 oldbucket 等于当前进度,进度加一
	h.nevacuate++
	// 实验表明,1024 至少矫枉过正一个数量级。无论如何,把它放在那里作为保护措施,以确保 O(1) 行为
	stop := h.nevacuate + 1024
	if stop > newbit {
		stop = newbit // 旧桶数组的长度
	}
	// 从 h.nevacuate 索引处开始,在旧桶数组中寻找下一个还没有迁移的桶
	for h.nevacuate != stop && bucketEvacuated(t, h, h.nevacuate) {
		h.nevacuate++
	}
	if h.nevacuate == newbit {
		// 所有的桶都已经迁移完成,将旧桶数组指针和旧溢出桶指针置空,清除同步扩容的标志
		h.oldbuckets = nil
		if h.extra != nil {
			h.extra.oldoverflow = nil
		}
		h.flags &^= sameSizeGrow
	}
}
// 判断第 bucket 个桶是否已经迁移走,true 迁移完成
func bucketEvacuated(t *maptype, h *hmap, bucket uintptr) bool {
	b := (*bmap)(add(h.oldbuckets, bucket*uintptr(t.bucketsize)))
	return evacuated(b)
}
  • 更新迁移进度计数器到下一个未迁移的桶,并在所有桶迁移结束后将旧存储桶数组 oldbuckets 和旧存储桶的溢出桶 extra.oldoverflow 置空,清除同步扩容的标志;

9,mapdelete

::: details

func mapdelete(t *maptype, h *hmap, key unsafe.Pointer) {
	// map 为 nil 或是没有 key 直接返回
	if h == nil || h.count == 0 {
		if t.hashMightPanic() {
			t.hasher(key, 0) // see issue 23734
		}
		return
	}
	// 已经有其他 goroutine 正在写,直接抛出错误
	if h.flags&hashWriting != 0 {
		throw("concurrent map writes")
	}

	// 计算哈希值
	hash := t.hasher(key, uintptr(h.hash0))

	// 调用 t.hasher 再后设置 hashWriting,因为 t.hasher 可能会 panic,在这种情况下,实际上还没有进行写入
	h.flags ^= hashWriting

	bucket := hash & bucketMask(h.B) // 计算该 key 对应的桶的索引号
	if h.growing() {
		// 如果 map 处于扩容过程中,则迁移该桶及其后续未迁移的桶(如果还有的话)
		growWork(t, h, bucket)
	}
	b := (*bmap)(add(h.buckets, bucket*uintptr(t.bucketsize)))
	bOrig := b
	top := tophash(hash)
search: // 依次遍历当前桶及其溢出桶
	for ; b != nil; b = b.overflow(t) {
		// 依次遍历桶中的每个单元格
		for i := uintptr(0); i < bucketCnt; i++ {
			if b.tophash[i] != top {
				// 顶部哈希值不相等
				if b.tophash[i] == emptyRest {
					// 此单元格为空,并且在较高的索引或溢出处不再有非空单元格,说明没有该 key 直接 跳出
					break search
				}
				// 还有其他的顶部哈希值,继续往后查找其他单元格
				continue
			}
			// 顶部哈希值相等,可能能够找到
			// 获取 key 单元格的地址
			k := add(unsafe.Pointer(b), dataOffset+i*uintptr(t.keysize))
			k2 := k
			if t.indirectkey() {
				k2 = *((*unsafe.Pointer)(k2))
			}
			if !t.key.equal(key, k2) {
				// 存储的 key 与实际待查找的 key 不相等,继续往后查找其他单元格
				continue
			}
			// 存储的 key 相等,找到了,清除存储的 key
			if t.indirectkey() {
				*(*unsafe.Pointer)(k) = nil
			} else if t.key.ptrdata != 0 {
				memclrHasPointers(k, t.key.size)
			}
			// 获取 elem 的单元格地址,并清除 elem
			e := add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+i*uintptr(t.elemsize))
			if t.indirectelem() {
				*(*unsafe.Pointer)(e) = nil
			} else if t.elem.ptrdata != 0 {
				memclrHasPointers(e, t.elem.size)
			} else {
				memclrNoHeapPointers(e, t.elem.size)
			}
			b.tophash[i] = emptyOne // 将顶部哈希值置为 emptyOne
			if i == bucketCnt-1 {
				// 如果位于当前桶的顶部哈希值的最后一个单元格
				if b.overflow(t) != nil && b.overflow(t).tophash[0] != emptyRest {
					// 如果溢出桶不为空且溢出桶的顶部哈希值第一个单元格不为 emptyRest,跳转到 notLast
					goto notLast
				}
			} else {
				// 如果不是位于当前桶的顶部哈希值的最后一个单元格
				if b.tophash[i+1] != emptyRest {
					// 且下一个单元格中顶部哈希值不为 emptyRest,则跳转
					goto notLast
				}
			}
			// 运行到此处说明:
			// 如果位于当前桶的顶部哈希值的最后一个单元格,要么没有溢出桶,要么溢出桶的顶部哈希值第一个单元格为 emptyRest,即下一个溢出桶单元格都为空
			// 如果不是位于当前桶的顶部哈希值的最后一个单元格,那么下一个单元格的顶部哈希值为 emptyRest,则下一个及其之后都为空
			for {
				// 当前索引 i 对应的 key、elem 都已经清除了,i 之后的也为空,所以顶部哈希值数组 i 处单元格可以置为 emptyRest
				b.tophash[i] = emptyRest
				// 继续向前查找其他单元格
				if i == 0 {
					// 如果已经的第一个单元格,则找前一个桶
					if b == bOrig {
						// 如果当前桶已经是第一个桶(存储桶),直接退出将其他单元格的顶部哈希值置为 emptyRest 的操作
						break
					}
					c := b
					for b = bOrig; b.overflow(t) != c; b = b.overflow(t) {
						// 	从第一个桶 bOrig 找到当前桶的前一个桶
					}
					// b 现在为前一个桶,将 i 置为顶部哈希值数组的最后一个单元格索引
					i = bucketCnt - 1
				} else {
					// 如果不是第一个单元格,直接往前移一个单元格
					i--
				}
				if b.tophash[i] != emptyOne {
					// 如果这个单元格不为空,直接退出将其他单元格的顶部哈希值置为 emptyRest 的操作
					break
				}
				// 	这个单元格为空,后面的也都为空,下次循环时将其顶部哈希值置为 emptyRest
			}
		notLast:
			h.count-- // 数量减一
			if h.count == 0 {
				// 数量为 0 时,重置哈希种子以防止攻击 See issue 25237.
				h.hash0 = fastrand()
			}
			break search // 找到了,跳出查找
		}
	}

	if h.flags&hashWriting == 0 {
		// 并发写,抛出错误
		throw("concurrent map writes")
	}
	h.flags &^= hashWriting // 清除写标志
}

:::

  • 从 map 中删除某个 key,整体逻辑与 mapassign 类似;
  • map 为 nil 或是没有 key 直接返回;已经有其他 goroutine 正在写,直接抛出并发写错误;否则,添加写标志;
  • 根据哈希值计算该 key 对应的存储桶数组的索引,假设为 ni,如果该 map 正在扩容,且旧桶数组中应该要迁移到新桶 ni 的旧桶 oi 还没有迁移,则将该旧桶 oi 及其溢出桶进行迁移,再进行遍历
  • 根据 ni 获取桶指针,依次遍历该存储桶及其溢出桶,遍历每个桶时,依次与每个顶部哈希值比较,顶部哈希值相等时,再去与 key 进行比较,key 相等时,获取其对应的 elem 地址,分别清除 key 和 elem,并将顶部哈希值置为 emptyOne;
  • 如果该单元格之后,再也没有其他 key 了,那么该单元格的 tophash 就要改为 emptyRest,此时分为两种情况:
  • 1),该单元格是该桶最后一个单元格,且下一个溢出桶的第一个单元格的 tophash 为 emptyRest
  • 2),该单元格不是该桶的最后一个单元格,且下一个单元格的 tophash 为 emptyRest
  • 当该单元格的 tophash 置为 emptyRest,需要依次向前遍历每个单元格,将每一个 tophash 为 emptyOne 的单元格改为 emptyRest,表示该单元格及之后都为空,直到某个单元格的 tophash 不为 emptyOne,或是所有单元格都已经遍历完即达到存储桶的第一个单元格;
  • 删除某个键值对后需要将其计数减一,最后返回时需要清除写标志;

10,mapclear

::: details

func mapclear(t *maptype, h *hmap) {
	// 如果 map 为 nil 或是没有元素,直接返回
	if h == nil || h.count == 0 {
		return
	}

	// 有其他 goroutine 正在写,抛出错误
	if h.flags&hashWriting != 0 {
		throw("concurrent map writes")
	}

	h.flags ^= hashWriting   // 按位与添加写标志
	h.flags &^= sameSizeGrow // 按位清除等量扩容标记,只有清空和扩容完毕时才会清除该标志
	h.oldbuckets = nil       // 旧桶数组指针清空,只有清空和扩容完毕时才会置为空
	h.nevacuate = 0          // 迁移进度归零,只有清空和开始扩容时才归零
	h.noverflow = 0          // 溢出桶数量归零,只有清空和开始扩容时才归零
	h.count = 0              // 桶中元素数量归零

	// 重置哈希种子,使攻击者更难重复触发哈希冲突 See issue 25237.
	h.hash0 = fastrand()

	// 保留 mapextra 分配,但清除所有额外信息
	if h.extra != nil {
		*h.extra = mapextra{}
	}

	// makeBucketArray 能够清除 h.buckets 指向的内存,就像 h.buckets 是新分配的一样
	_, nextOverflow := makeBucketArray(t, h.B, h.buckets)
	if nextOverflow != nil {
		// 如果创建了溢出存储桶,则在初始存储桶创建期间将分配 h.extra
		h.extra.nextOverflow = nextOverflow
	}

	if h.flags&hashWriting == 0 {
		// hashWriting 位被其他 goroutine 置为 0 了,抛出错误
		throw("concurrent map writes")
	}
	// 清除 hashWriting 位标志
	h.flags &^= hashWriting
}

:::

  • mapclear 从 map 中删除所有的 key,如果 map 为 nil 或是没有元素,直接返回,有其他 goroutine 正在写,抛出错误;
  • 将等量扩容标志清除、旧桶数组指针置空,这两个只有在清空和扩容完毕时才有此操作,表示当前 map 没有在扩容中;
  • 将迁移进度归零、溢出桶数量归零、键值对数量归零,以及将存储桶数组的内存清除

11,mapiterinit

::: details

func mapiterinit(t *maptype, h *hmap, it *hiter) {
	// map 为空或是没有元素,直接返回
	if h == nil || h.count == 0 {
		return
	}

	// hiter 结构体内存对齐后应该是 12 个sys.PtrSize 字节大小
	if unsafe.Sizeof(hiter{})/sys.PtrSize != 12 {
		throw("hash_iter size incorrect") // see cmd/compile/internal/reflectdata/reflect.go
	}
	it.t = t
	it.h = h

	// 抓取存储桶状态的快照
	it.B = h.B
	it.buckets = h.buckets
	if t.bucket.ptrdata == 0 {
		// 桶中不含指针时,创建溢出桶数组,并赋值给迭代器
		h.createOverflow()
		it.overflow = h.extra.overflow
		it.oldoverflow = h.extra.oldoverflow
	}

	// 决定从何处开始迭代
	r := uintptr(fastrand()) // 创建随机数
	if h.B > 31-bucketCntBits {
		r += uintptr(fastrand()) << 31
	}
	it.startBucket = r & bucketMask(h.B)          // 确定开始迭代的桶的索引
	it.offset = uint8(r >> h.B & (bucketCnt - 1)) // 确定桶中开始迭代的索引

	// 迭代器当前遍历的桶
	it.bucket = it.startBucket

	// 可以与其他迭代器 mapiterinit() 同时运行
	if old := h.flags; old&(iterator|oldIterator) != iterator|oldIterator {
		atomic.Or8(&h.flags, iterator|oldIterator)
	}

	mapiternext(it)
}

:::

  • mapiterinit 初始化用于在 map 上迭代的迭代器 hiter 结构;
  • 通过随机数的方式,随机从某个桶的某个元素开始迭代,迭代器记录了起始桶和起始索引

12,mapiternext

::: details

func mapiternext(it *hiter) {
	h := it.h
	// 有其他 goroutine 正在写,抛出错误
	if h.flags&hashWriting != 0 {
		throw("concurrent map iteration and map write")
	}
	t := it.t
	bucket := it.bucket // 当前遍历的溢出桶序号,第一次执行 mapiternext 是迭代器开始遍历的桶序号
	b := it.bptr        // 当前桶地址,未赋值默认为空
	i := it.i
	checkBucket := it.checkBucket

next:
	if b == nil {
		// b 为 nil,表示第一个要遍历的桶
		if bucket == it.startBucket && it.wrapped {
			// bucket 等于遍历的起始桶序号,并且已经绕了一圈了,说明其他桶都已经遍历过了,直接退出
			it.key = nil
			it.elem = nil
			return
		}
		if h.growing() && it.B == h.B {
			// 迭代器是在扩容过程中启动的,扩容尚未完成
			// bucket 是新存储桶数组中的索引,oldbucket 是 bucket 对应在旧存储桶数组中的索引,bucket 与旧存储桶数量的掩码值与运算能够得到 oldbucket
			// 扩容过程中他们是对应的,eg:bucket 为 6,B 为 3,2^B=8;如果是等量扩容,old B 也为 3,oldbucket 也为 6,即等量扩容时旧 6 号桶迁移到新 6 号桶;
			// 如果是翻倍扩容,old B 为 2,2^B=4, oldbucket = 6%4 = 2,2+4=6,即旧 2 号桶迁移到新 2 或 6 号桶,新 6 号桶中的数据只能来自旧 2 号桶;
			oldbucket := bucket & it.h.oldbucketmask()
			// 获取 oldbucket 对应的旧存储桶
			b = (*bmap)(add(h.oldbuckets, oldbucket*uintptr(t.bucketsize)))
			if !evacuated(b) {
				// 旧桶 b 未迁移走,要遍历的对象 b 为旧桶,记录该旧桶如果迁移时对应的新存储桶索引
				checkBucket = bucket
			} else {
				// 旧桶 b 已经迁移到新桶了,要遍历的对象 b 为新桶,获取 bucket 对应的新存储桶
				// 如果查看的存储桶尚未填充(即旧存储桶尚未撤离),那么我们需要遍历旧存储桶,并且仅返回将迁移到此存储桶的存储桶。
				b = (*bmap)(add(it.buckets, bucket*uintptr(t.bucketsize)))
				checkBucket = noCheck
			}
		} else {
			// 获取对应 bucket 的新存储桶
			b = (*bmap)(add(it.buckets, bucket*uintptr(t.bucketsize)))
			checkBucket = noCheck
		}
		bucket++ // 桶索引号自增
		if bucket == bucketShift(it.B) {
			bucket = 0        // 已经到了最后一个桶了,重置为 0 从头开始
			it.wrapped = true // 置 wrapped 为 true,表示已经饶了一圈
		}
		i = 0
	}
	// 以上确定了要遍历的桶 b
	// i 遍历的元素个数,从 0 到 bucketCnt-1
	for ; i < bucketCnt; i++ {
		// 依次遍历桶内每个单元格
		offi := (i + it.offset) & (bucketCnt - 1) // 桶内单元格的偏移量
		if isEmpty(b.tophash[offi]) || b.tophash[offi] == evacuatedEmpty {
			// 如果单元格为空或是数据已经迁移走了,跳过
			// TODO: emptyRest 在这里很难使用,因为是在存储桶中间开始迭代。是可行的,只是很棘手。
			continue
		}
		// 获取 key 的地址
		k := add(unsafe.Pointer(b), dataOffset+uintptr(offi)*uintptr(t.keysize))
		if t.indirectkey() {
			k = *((*unsafe.Pointer)(k))
		}
		// 获取 elem 的地址
		e := add(unsafe.Pointer(b), dataOffset+bucketCnt*uintptr(t.keysize)+uintptr(offi)*uintptr(t.elemsize))
		if checkBucket != noCheck && !h.sameSizeGrow() {
			// checkBucket 是当前要遍历的新桶索引号,其所有数据来自旧桶 b,如果该旧桶 b 还未进行迁移
			// 并且 map 正在进行翻倍扩容,那么实际应该遍历的数据是旧桶 b 中将要迁移到索引号 checkBucket 对应的新桶的那部分键值对
			// 因为在翻倍扩容过程中,旧桶 b 中的数据会同时迁往两个不同的新桶,所以在对某个新桶进行遍历时,
			// 如果该新桶中的数据还没有迁移过来,那么只需要遍历该新桶对应的旧桶中将要迁移到这个新桶的那部分数据
			if t.reflexivekey() || t.key.equal(k, k) {
				// 如果 key 是相等的,计算 key 哈希值,并判断其是否会迁移到 checkBucket 对应的新桶,否则过滤
				hash := t.hasher(k, uintptr(h.hash0))
				if hash&bucketMask(it.B) != checkBucket {
					continue
				}
			} else {
				// key 是 math.NaN(),每次计算出来的哈希值不一样,与 evacuate 中的迁移逻辑一样,让低位的 tophash 来决定迁移目的桶
				// 对于翻倍扩容,使用 x 还是 y,取决于 key 的哈希值第 B 位是 0 还是 1,从右到左第 0 位开始
				// useY = uintptr(b.tophash[offi]&1) 表示是否搬到 y 桶
				// checkBucket>>(it.B-1) 表示该桶是否是 y 桶,对于具体的桶,该值是一样的,useY 是随 key 变化的
				if checkBucket>>(it.B-1) != uintptr(b.tophash[offi]&1) {
					continue
				}
			}
		}
		if (b.tophash[offi] != evacuatedX && b.tophash[offi] != evacuatedY) ||
			!(t.reflexivekey() || t.key.equal(k, k)) {
			// 如果数据还没有被迁移,或是因此 key!=key 该条目无法被删除或更新,可以将其返回?
			it.key = k
			if t.indirectelem() {
				e = *((*unsafe.Pointer)(e))
			}
			it.elem = e
		} else {
			// 如果该 key 已经迁移到 x 或是 y 桶,并且 key 是相等的
			// key 可能已经被删除、更新或删除并重新插入
			rk, re := mapaccessK(t, h, k)
			if rk == nil {
				continue // key has been deleted
			}
			it.key = rk
			it.elem = re
		}
		it.bucket = bucket // 记录当前遍历的桶的序号,以便下次遍历
		if it.bptr != b {  // 避免不必要的写屏障,see issue 14921
			it.bptr = b
		}
		it.i = i + 1
		it.checkBucket = checkBucket
		return // 获取到 key、value,返回,等待下一次 mapiternext 再继续遍历
	}
	b = b.overflow(t) // 当前桶已经遍历完,遍历其溢出桶
	i = 0
	goto next
}

:::

  • 如果在迭代过程中,有其他的 goroutine 正在对map进行写,就会直接抛出错误;
  • 通过迭代器的方式遍历map,因为是随机从某个桶开始的,所以要记录起始桶的位置以及是否遍历完了最后一个桶并饶了一圈,即由于数据存储桶是一个数组,当从数组中间开始遍历时需要记录数组位置以及是否遍历到了最后一个元素并回到了数组开头;
  • 当再次遍历到起始桶的位置,并且已经饶了一圈时,说明所有的桶都已经遍历完毕,直接返回
  • 当map是在扩容过程中,并且扩容还没有完成,需要判断当前桶是否已经迁移完成了,以决定是遍历新桶还是旧桶;
  • 迭代器遍历每个桶的每个元素,获取到元素时,记录当前遍历的桶地址以及下一次需要遍历该桶的所以,以便下一次继续遍历,然后返回;
转载自:https://juejin.cn/post/7370244444284043290
评论
请登录