关于c++:C内存管理14SBH行为分析分配释放之连续动作图解

第一次,调配

知识点补充

LPVOID VirtualAlloc{
    LPVOID lpAddress,       // 要调配的内存区域的地址 (当实参为0时,由操作系统指定地址)
    DWORD dwSize,           // 调配的大小
    DWORD flAllocationType, // 调配的类型
    DWORD flProtect         // 该内存的初始爱护属性
};

1. virtualAlloc 是一个 Window API 函数,该函数的性能是在调用过程的虚拟地址空间预约或者提交一部分页
2. flAllocationType :
    MEM_RESERVE 保留调配地址,不调配物理内存。这样能够阻止其它调配函数 malloc 和 LocalAlloc 等再应用已保留的内存范畴,直到它被开释
    MEM_COMMIT 为指定地址空间提交物理内存。这个函数初始化外在为零
typedef struct tagGroup {
    int cntEntries;
    struct tagListHead listHead[64];
}GROUP, *PGROUP;

1. int cntEntries, 累计量,内存调配时+1,内存开释时-1。当 cntEntries 为 0 ,示意 8 page 全副发出,就能够将此内存块归还给操作系统
typedef unsigned int BITVEC;

typedef struct tagRegion {
    int indGroupUes;
    ......
    BITVEC bitvGroupHi[32];
    BITVEC bitvGroupLo[32];
    struct tagGroup grtHeadList[32];
}

1. indGroupUes, 定位以后正在应用的 Group 索引
2. 32 组 GROUP 对应 32 * 64 bit,当 bitvGroup[i][j] (第 i 个 GROUP 中的第 j 条双向链表)的 bit 位为 1 示意链表有可用内存块, 为 0 示意链![image.png](/img/bVcSzQZ)
typedef struct tagEntry
{
    int sizeFront;
    struct tagEntry *pEntryNext;
    struct tagEntry *pEntryPrev;
}ENTRY, *PENTRY;

1. pEntryNext、pEntryPrev 为嵌入式指针,在内存块调配前后调配后有不同的解释

流程形容

1. 由 ioinit.c, line#18 申请 100h,区块大小 130h (debugheader、cookie、16字节对齐调整)
2. 应用 Group[indGroupUes] => Group[0] ; 
        bitvGroup[indGroupUes] [130h = 304 * 16 - 1] => bitvGroup[0] [18] bit 为 0,表明对应 Group[0][18] (listHead[18])链表中无可用区块,于是持续向右查找,Group[0][63] 最初一条链表有可用区块
3. 进行内存切割(参见上节文章流程)

第二次,调配

__crtGetEnvironmentStringsA() 发动

第三次,调配

第十五次,开释

环境变量解决实现后的内存偿还(main之气) 240H

流程形容

1. 以后操作仍为 Group[0]
2. 批改 cntEnteries 由 14 为 13
3. 240h / 16 - 1 = 576 / 16 - 1 = 35 => listHead[35], 偿还的内存块挂接(嵌入式指针实现)到 35 号链表
4. 批改  bitvGroup[0] [35] 为 1
5. 批改 cookie 最初一位为 0

第十六次,调配

流程形容 【申请 b0h】

1. 批改 cntEnteries 由 13 为 14
2. b0h / 16 - 1 = 10 => bitvGroup[0][0] 为 0, 示意无可用区块
3. 查找邻近可用区块, bitvGroup[0][35] 为 1, 在 listHead[35] 链表治理的内存块中进行切割
4. 240h - b0h = 190h, 190h / 16 - 1 = 24 切割后的内存块从新调整挂在到 listHead[24]
5. 批改 bitvGroup[0][35] 为 0,bitvGroup[0][24] 为 1

第 n 次, 调配

流程形容【申请 230h】

1. 通过一直的内存调配,Group[0] 治理的 page[1-8] (32KB) 已无奈满足 230h
2. Group[indGroupUes] => indGroupUes[1] 开始新的故事

区块合并

free-list 内的合并

为了尽量减少内存空间的碎片化以满足前期较大内存块的申请需要,将相邻闲暇的区块进行合并时 SBH 进行碎片整顿的思路。(分为向下合并、向上合并)

[最左侧图]
1. 应用程序偿还上图蓝色箭头所指向内存地址[0x00000304](批改高低 cookie 最初 1 bit 为 0)
2. 0x00000304 向上加 4bytes, 定位到上 cookie 地址 0x00000300,获取到以后内存块长度 0x300
3. 上 cookie 地址加 0x300 定位到下 cookie
 
[最两头图]
4. 下 cookie 加 4 bytes, 定位到下块内存块的上 cookie,查看最初bit为0,表明此块内存闲暇,两内存块进行合并【下内存块须要调整对应的 listHead 和 bitvGroup】
 
[最右侧图]
5. 上 cookie 减 4 bytes, 定位到上内存块的下 cookie, 查看最初bit为0, 表明此内存块空间,接上步骤内存块进行合并【上内存块须要调整对应的 listHead 和 bitvGroup】

6. 0x300 + 0x300 + 0x300 = 0x900 大于 1 KB, 调整挂载到最初一条链表 list[63],设置对应的 bitvGroup 位

free(p) 索引定位

p 落在哪个 Header 内

1. 已知 Header 首地址、 Header 数量、Header 大小
2. Header 内成员 pHeapData 指向 1MB 内存空间
3. 遍历所有 Header, 查看 p 落在哪个 Header 的 [pHeapData, pHeapData+1MB] 内

p 落在哪个 Group 内

(p - pHeapData) / 32 - 1

p 落在哪个 free-list 内

1. 上 cookie 地址 = p - 4
2. 从上 cookie 取得要开释的内存块大小 size
3. index = (size / 16) - 1

内存分段治理的妙处

分段治理之妙,利于偿还 O.S(当 cntEntries 为 0 时进行“全回收”)

SBH 做分段的治理(每次申请1MB虚拟空间 -> 每次申请32KB物理内存 -> 分为8Page -> 64条链表)

内存的提早偿还

为了内存调配的高效性,对内存的回收应用了 Defering 机制

当偿还完所有的内存块

当偿还完所有内存块, SBH 将复原到初始状态

VC malloc + GCC allocator

  • malloc 和 allocator 的访问速度都很快,绝大多数状况下不须要咱们从新实现
  • allocator 目标是为了缩小 cookie, 毛病是不会向操作系统偿还内存

叠屋架床

叠屋架床,层层封装是一种节约吗?
是,但有必要。因为每一个下层调用都无奈保障上层是否有适合的内存治理

【腾讯云】轻量 2核2G4M,首年65元

阿里云限时活动-云数据库 RDS MySQL  1核2G配置 1.88/月 速抢

本文由乐趣区整理发布,转载请注明出处,谢谢。

您可能还喜欢...

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据