glib的slab算法实现学习
发布者:
Zero
slab提出来是为了解决内部内存碎片的问题,在linux内核中与buddy system一起来解决内核内存管理。但是要看懂slab在linux内核中的实现当前有些困难,我们不如拿些容易阅读的代码来了解slab算法的运作过程。GLIB库实现非常clear,可以做为slab算法的实现学习的入门。
slab在GLIB中的实现相关文件是gslice.h/c,但是在这个实现文件中,有更复杂的,支持多线程更多的magazine caching算法。
0. slab算法的运作机理
关于slab算法的运作机理,可以查看wiki
slab结构体定义
struct _ChunkLink {
ChunkLink *next;
ChunkLink *data;
};
struct _SlabInfo {
ChunkLink *chunks;
guint n_allocated;
SlabInfo *next, *prev;
};
从结构体可以知道,每个slab维护着前面slab的link prev和后面的slab的link prev,可知它们链接起来就是一个双向环形链表(slab ring)。除此之外,还维护着一个chunk指针,用来指向free chunk的单向链表。
allocator结构体定义
...
/* slab allocator */
GMutex slab_mutex;
SlabInfo **slab_stack; /* array of MAX_SLAB_INDEX (allocator) */
guint color_accu;
} Allocator;
从数据结构可知,全局变量allocator会维护着一个指针数组,成员为SlabInfo指针,指向一个环形slab双向链表,也即前面介绍的slab ring。每个成员的slabinfo指向的slab ring所管理的chunks,size都必须是相同的,例如第一个slab ring里面的chunk全部都是8 (bytes),第二个slab ring里全部都是8*2 (bytes),以此类推,一直到最大的chunk size。初始化时,所有的成员都会初始化为null,代表当前slab system没有free list。
slab内存请求操作的过程
static gpointer
slab_allocator_alloc_chunk (gsize chunk_size)
{
ChunkLink *chunk;
guint ix = SLAB_INDEX (allocator, chunk_size); // 找到chunk_size所对应的slab slot
/* ensure non-empty slab */
// 如果没有free list,则预先分配一页来填充此slot(一页可能会有很多chunks)
if (!allocator->slab_stack[ix] || !allocator->slab_stack[ix]->chunks)
allocator_add_slab (allocator, ix, chunk_size);
/* allocate chunk */
// 分配第一个chunk给client,后面的chunks挂接到当前slab上
chunk = allocator->slab_stack[ix]->chunks;
allocator->slab_stack[ix]->chunks = chunk->next;
allocator->slab_stack[ix]->n_allocated++;
/* rotate empty slabs */
// 如果当前所有的chunks用完,旋转slab ring,定位到下一个slab
if (!allocator->slab_stack[ix]->chunks)
allocator->slab_stack[ix] = allocator->slab_stack[ix]->next;
return chunk;
}
当client首次请求一定量的的内存时,slab system首先会将请求的size up align to 8的倍数,作为chunk size,然后再分配一页内存。去除slab info 结构体和color(padding),之后那一页内剩下的共有n个chunk size。拿出1个chunk返回给client,剩下的(n-1)个chunk size挂接到当前的slab节点上。
allocator_add_slab函数
static void
allocator_add_slab (Allocator *allocator,
guint ix,
gsize chunk_size)
{
ChunkLink *chunk;
SlabInfo *sinfo;
gsize addr, padding, n_chunks, color = 0;
// 计算出当前系统一页的内存大小
gsize page_size = allocator_aligned_page_size (allocator, SLAB_BPAGE_SIZE (allocator, chunk_size));
/* allocate 1 page for the chunks and the slab */
gpointer aligned_memory = allocator_memalign (page_size, page_size - NATIVE_MALLOC_PADDING);
guint8 *mem = aligned_memory; // 对齐到page 的虚拟内存地址
guint i;
if (!mem)
{
const gchar *syserr = "unknown error";
#if HAVE_STRERROR
syserr = strerror (errno);
#endif
mem_error ("failed to allocate %u bytes (alignment: %u): %s\n",
(guint) (page_size - NATIVE_MALLOC_PADDING), (guint) page_size, syserr);
}
/* mask page address */
addr = ((gsize) mem / page_size) * page_size;
/* assert alignment */
mem_assert (aligned_memory == (gpointer) addr);
/* basic slab info setup */
// 从下面知道每次分配一页时,slab_info总是在那个内存页的末尾
sinfo = (SlabInfo*) (mem + page_size - SLAB_INFO_SIZE);
sinfo->n_allocated = 0;
sinfo->chunks = NULL;
/* figure cache colorization */
n_chunks = ((guint8*) sinfo - mem) / chunk_size;
padding = ((guint8*) sinfo - mem) - n_chunks * chunk_size;
if (padding)
{
color = (allocator->color_accu * P2ALIGNMENT) % padding;
allocator->color_accu += allocator->config.color_increment;
}
/* add chunks to free list */
// 将第一个free chunk的内存地址定为跳过mem之后color (padding)的地址
chunk = (ChunkLink*) (mem + color);
sinfo->chunks = chunk;
// 将连续内存空间,用单向链表链接起来
for (i = 0; i < n_chunks - 1; i++)
{
chunk->next = (ChunkLink*) ((guint8*) chunk + chunk_size);
chunk = chunk->next;
}
chunk->next = NULL; /* last chunk */
/* add slab to slab ring */
allocator_slab_stack_push (allocator, ix, sinfo);
}
一些有意思的MACRO定义:
/* optimized version of ALIGN (size, P2ALIGNMENT) */
#if GLIB_SIZEOF_SIZE_T * 2 == 8 /* P2ALIGNMENT */
#define P2ALIGN(size) (((size) + 0x7) & ~(gsize) 0x7)
#elif GLIB_SIZEOF_SIZE_T * 2 == 16 /* P2ALIGNMENT */
#define P2ALIGN(size) (((size) + 0xf) & ~(gsize) 0xf)
#else
#define P2ALIGN(size) ALIGN (size, P2ALIGNMENT)
#endif
#define P2ALIGNMENT (2 * sizeof (gsize))
#define NATIVE_MALLOC_PADDING P2ALIGNMENT /* per-page padding left for native malloc(3) see [1] */
#define SLAB_INFO_SIZE P2ALIGN (sizeof (SlabInfo) + NATIVE_MALLOC_PADDING)
#define SLAB_BPAGE_SIZE(al,csz) (8 * (csz) + SLAB_INFO_SIZE)
如果要求分配8个字节的内存,csz=8,所以每次加载chunks,分配的内存必须能够包含8个chunks,加上SLAB_INFO_SIZE的大小。
static void
allocator_slab_stack_push (Allocator *allocator,
guint ix,
SlabInfo *sinfo)
{
/* insert slab at slab ring head */
if (!allocator->slab_stack[ix])
{
sinfo->next = sinfo;
sinfo->prev = sinfo;
}
else
{
SlabInfo *next = allocator->slab_stack[ix], *prev = next->prev;
next->prev = sinfo;
prev->next = sinfo;
sinfo->next = next;
sinfo->prev = prev;
}
allocator->slab_stack[ix] = sinfo;
}
static gsize
allocator_aligned_page_size (Allocator *allocator,
gsize n_bytes)
{
gsize val = 1 << g_bit_storage (n_bytes - 1);
val = MAX (val, allocator->min_page_size);
return val;
}
gsize val = 1 << g_bit_storage (n_bytes - 1);
用来将n_bytes表示的数字up align到2的n次幂的倍数。如果up align之后的数比min_page_size(4k=2^12)要大,那么函数返回的值就是val。也就是说allocator_aligned_page_size并不一定返回4k page size,或者说只要chunk size大于等于512,8 * 512 + 16 + 8 > 4096 (order >= 64)。
然而从以下的MACRO定义可知:
#define MAX_SLAB_CHUNK_SIZE(al) (((al)->max_page_size - SLAB_INFO_SIZE) /8 )
#define MAX_SLAB_INDEX(al) (SLAB_INDEX (al, MAX_SLAB_CHUNK_SIZE (al)) + 1)
allocator中的slabinfo slot个数是不会超过64的(只有63,而且chunk size=504)。也就是说allocator_aligned_page_size
返回的永远会是一个page的size(4k),而且一个page里最少会有8个chunks。
但是如何分配那一页内存呢?
static gpointer
allocator_memalign (gsize alignment, gsize memsize)
{
gpointer aligned_memory = NULL;
gint err = ENOMEM;
#if HAVE_COMPLIANT_POSIX_MEMALIGN
err = posix_memalign (&aligned_memory, alignment, memsize);
#elif HAVE_MEMALIGN
errno = 0;
aligned_memory = memalign (alignment, memsize);
err = errno;
#elif HAVE_VALLOC
errno = 0;
aligned_memory = valloc (memsize);
err = errno;
#else
/* simplistic non-freeing page allocator */
mem_assert (alignment == sys_page_size);
mem_assert (memsize <= sys_page_size);
if (!compat_valloc_trash)
{
const guint n_pages = 16;
guint8 *mem = malloc (n_pages * sys_page_size);
err = errno;
if (mem)
{
gint i = n_pages;
guint8 *amem = (guint8*) ALIGN ((gsize) mem, sys_page_size);
if (amem != mem)
i--; /* mem wasn't page aligned */
while (--i >= 0)
g_trash_stack_push (&compat_valloc_trash, amem + i * sys_page_size);
}
}
aligned_memory = g_trash_stack_pop (&compat_valloc_trash);
#endif
if (!aligned_memory)
errno = err;
return aligned_memory;
}
假如程序走到最后一个else语句,那么这个slab系统就有点复杂了。compat_valloc_trash是一个全局的静态指针static GTrashStack *compat_valloc_trash = NULL;
这个函数首先会向系统一次性请求分配16 * page_size(4k)大小的连续内存空间,然后将这些内存用GTrashStack串联起来,(要知道GTrashStack结构知道一个next域指向下一个区域,本身并不消耗内存),串联的单元就是一个页。这个就是g_trash_stack_push
干的事情。
之后调用g_trash_stack_pop将第一个页的内存分配出去。
slab内存释放的操作
slab内存释放的操作由slab_allocator_free_chunk来完成,chunk_size是up allign到8的倍数的内存大小。
static void
slab_allocator_free_chunk (gsize chunk_size, gpointer mem)
{
ChunkLink *chunk;
gboolean was_empty;
guint ix = SLAB_INDEX (allocator, chunk_size); // 找到chunk size所属的slab slot序号
// 计算chunk size所决定的page的大小(从slab分配出去的chunk都有所属的page)
gsize page_size = allocator_aligned_page_size (allocator, SLAB_BPAGE_SIZE (allocator, chunk_size));
// 计算释放chunk的地址所在page的内存首地址
gsize addr = ((gsize) mem / page_size) * page_size;
/* mask page address */
guint8 *page = (guint8*) addr;
// slab info结构体在一个page的最后24字节
SlabInfo *sinfo = (SlabInfo*) (page + page_size - SLAB_INFO_SIZE);
/* assert valid chunk count */
// 这个slab应该有chunks被分配出去,不然这个slab应该被回收给系统,稍后知道为什么。
mem_assert (sinfo->n_allocated > 0);
/* add chunk to free list */
was_empty = sinfo->chunks == NULL;
// 把这个chunk插入到free chunk list头
chunk = (ChunkLink*) mem;
chunk->next = sinfo->chunks;
sinfo->chunks = chunk;
sinfo->n_allocated--;
/* keep slab ring partially sorted, empty slabs at end */
// 如果之前所有的chunks都分配出去了,这时有了free chunk,就应该让slab slot知道
if (was_empty)
{
/* unlink slab */
SlabInfo *next = sinfo->next, *prev = sinfo->prev;
next->prev = prev;
prev->next = next;
if (allocator->slab_stack[ix] == sinfo)
allocator->slab_stack[ix] = next == sinfo ? NULL : next;
/* insert slab at head */
// 让slab slot直接指向这个有free chunk的slab,以方便下次分配这样的chunk时,直接获取。
allocator_slab_stack_push (allocator, ix, sinfo);
}
/* eagerly free complete unused slabs */
// 以下操作就是为什么要做mem_assert (sinfo->n_allocated > 0);原因
// 当这个slab所有的chunk都free时,就可以将这个slab所在页面返回给系统,或者TrashStack内存池。
if (!sinfo->n_allocated)
{
/* unlink slab */
SlabInfo *next = sinfo->next, *prev = sinfo->prev;
next->prev = prev;
prev->next = next;
if (allocator->slab_stack[ix] == sinfo)
allocator->slab_stack[ix] = next == sinfo ? NULL : next;
/* free slab */
allocator_memfree (page_size, page); // 返回给系统或者内存池
}
}
将所有chunk都free的slab返回给系统或者内存池:
static void
allocator_memfree (gsize memsize, gpointer mem)
{
#if HAVE_COMPLIANT_POSIX_MEMALIGN || HAVE_MEMALIGN || HAVE_VALLOC
free (mem);
#else
mem_assert (memsize <= sys_page_size);
g_trash_stack_push (&compat_valloc_trash, mem);
#endif
}
睿初科技软件开发技术博客,转载请注明出处
blog comments powered by Disqus
发布日期
标签
最近发表
- volatile与多线程
- TDD practice in UI: Develop and test GUI independently by mockito
- jemalloc源码解析-核心架构
- jemalloc源码解析-内存管理
- boost::bind源码分析
- 小试QtTest
- 一个gtk下的目录权限问题
- Django学习 - Model
- Code snippets from C & C++ Code Capsule
- Using Eclipse Spy in GUI products based on RCP
文章分类
- cpp 3
- wxwidgets 4
- swt/jface 1
- chrome 3
- memory_management 5
- eclipse 1
- 工具 4
- 项目管理 1
- cpplint 1
- 算法 1
- 编程语言 1
- python 5
- compile 1
- c++ 7
- 工具 c++ 1
- 源码分析 c++ 3
- c++ boost 2
- data structure 1
- wxwidgets c++ 1
- template 1
- boost 1
- wxsocket 1
- wxwidget 2
- java 2
- 源码分析 1
- 网路工具 1
- eclipse插件 1
- django 1
- gtk 1
- 测试 1
- 测试 tdd 1
- multithreading 1