Linux内存管理之slab机制(创建cache)


Linux内核中创建cache节点由函数kmem_cache_create()实现。

该函数的执行流程:

1,从全局cache_cache中获得cache结构,因为全局cache_cache初始化对象的大小就是kmem_cache结构的大小,所以返回的指针正好可以转换为cache结构;调用 kmem_cache_zalloc(&cache_cache, gfp);

2,获得slab中碎片大小,由函数calculate_slab_order()实现;

3,计算并初始化cache的各种属性,如果是外置式,需要用kmem_find_general_cachep(slab_size, 0u)指定cachep->slabp_cache,用于存放slab对象和kmem_bufctl_t[]数组;

4,设置每个CPU上得本地cachesetup_cpu_cache();

5cache创建完毕,将其加入到全局slab cache链表中;

一、主实现

[cpp]
  1. /** 
  2.  * kmem_cache_create - Create a cache. 
  3.  * @name: A string which is used in /proc/slabinfo to identify this cache. 
  4.  * @size: The size of objects to be created in this cache. 
  5.  * @align: The required alignment for the objects. 
  6.  * @flags: SLAB flags 
  7.  * @ctor: A constructor for the objects. 
  8.  * 
  9.  * Returns a ptr to the cache on success, NULL on failure. 
  10.  * Cannot be called within a int, but can be interrupted. 
  11.  * The @ctor is run when new pages are allocated by the cache. 
  12.  * 
  13.  * @name must be valid until the cache is destroyed. This implies that 
  14.  * the module calling this has to destroy the cache before getting unloaded. 
  15.  * Note that kmem_cache_name() is not guaranteed to return the same pointer, 
  16.  * therefore applications must manage it themselves. 
  17.  * 
  18.  * The flags are 
  19.  * 
  20.  * %SLAB_POISON - Poison the slab with a known test pattern (a5a5a5a5) 
  21.  * to catch references to uninitialised memory. 
  22.  * 
  23.  * %SLAB_RED_ZONE - Insert `Red' zones around the allocated memory to check 
  24.  * for buffer overruns. 
  25.  * 
  26.  * %SLAB_HWCACHE_ALIGN - Align the objects in this cache to a hardware 
  27.  * cacheline.  This can be beneficial if you're counting cycles as closely 
  28.  * as davem. 
  29.  */  
  30.  /*创建slab系统顶层的cache节点。创建完成后,cache 
  31.  里并没有任何slab以及对象,只有当分配对象 
  32.  ,并且cache中没有空闲对象时,才会创建新的slab。*/  
  33. struct kmem_cache *  
  34. kmem_cache_create (const char *name, size_t size, size_t align,  
  35.     unsigned long flags, void (*ctor)(void *))  
  36. {  
  37.     size_t left_over, slab_size, ralign;  
  38.     struct kmem_cache *cachep = NULL, *pc;  
  39.     gfp_t gfp;  
  40.   
  41.     /* 
  42.      * Sanity checks... these are all serious usage bugs. 
  43.      *//* 安全性检查 */  
  44.     if (!name || in_interrupt() || (size < BYTES_PER_WORD) ||  
  45.         size > KMALLOC_MAX_SIZE) {  
  46.         printk(KERN_ERR "%s: Early error in slab %s\n", __func__,  
  47.                 name);  
  48.         BUG();  
  49.     }  
  50.   
  51.     /* 
  52.      * We use cache_chain_mutex to ensure a consistent view of 
  53.      * cpu_online_mask as well.  Please see cpuup_callback 
  54.      */  
  55.      /* slab分配器是否已经初始化好,如果是内核启动阶段 
  56.      ,则只有一个cpu执行slab分配器的初始化动作,无需加锁,否则需要加锁 */  
  57.     if (slab_is_available()) {  
  58.         get_online_cpus();  
  59.         mutex_lock(&cache_chain_mutex);  
  60.     }  
  61.     /* 遍历cache链,做些校验工作 */  
  62.     list_for_each_entry(pc, &cache_chain, next) {  
  63.         char tmp;  
  64.         int res;  
  65.   
  66.         /* 
  67.          * This happens when the module gets unloaded and doesn't 
  68.          * destroy its slab cache and no-one else reuses the vmalloc 
  69.          * area of the module.  Print a warning. 
  70.          */  
  71.         /* 检查cache链表中的cache是否都有名字 */  
  72.         res = probe_kernel_address(pc->name, tmp);  
  73.         if (res) {/*没有名字,报错*/  
  74.             printk(KERN_ERR  
  75.                    "SLAB: cache with size %d has lost its name\n",  
  76.                    pc->buffer_size);  
  77.             continue;  
  78.         }  
  79.          /* 检查cache链表中是否已经存在相同名字的cache */  
  80.         if (!strcmp(pc->name, name)) {  
  81.             printk(KERN_ERR  
  82.                    "kmem_cache_create: duplicate cache %s\n", name);  
  83.             dump_stack();  
  84.             goto oops;  
  85.         }  
  86.     }  
  87.   
  88. #if DEBUG   
  89.     WARN_ON(strchr(name, ' ')); /* It confuses parsers */  
  90. #if FORCED_DEBUG   
  91.     /* 
  92.      * Enable redzoning and last user accounting, except for caches with 
  93.      * large objects, if the increased size would increase the object size 
  94.      * above the next power of two: caches with object sizes just above a 
  95.      * power of two have a significant amount of internal fragmentation. 
  96.      */  
  97.     if (size < 4096 || fls(size - 1) == fls(size-1 + REDZONE_ALIGN +  
  98.                         2 * sizeof(unsigned long long)))  
  99.         flags |= SLAB_RED_ZONE | SLAB_STORE_USER;  
  100.     if (!(flags & SLAB_DESTROY_BY_RCU))  
  101.         flags |= SLAB_POISON;  
  102. #endif   
  103.     if (flags & SLAB_DESTROY_BY_RCU)  
  104.         BUG_ON(flags & SLAB_POISON);  
  105. #endif   
  106.     /* 
  107.      * Always checks flags, a caller might be expecting debug support which 
  108.      * isn't available. 
  109.      */  
  110.     BUG_ON(flags & ~CREATE_MASK);  
  111.   
  112.     /* 
  113.      * Check that size is in terms of words.  This is needed to avoid 
  114.      * unaligned accesses for some archs when redzoning is used, and makes 
  115.      * sure any on-slab bufctl's are also correctly aligned. 
  116.      */  
  117.     if (size & (BYTES_PER_WORD - 1)) {  
  118.         size += (BYTES_PER_WORD - 1);  
  119.         size &= ~(BYTES_PER_WORD - 1);  
  120.     }  
  121.   
  122.     /* calculate the final buffer alignment: */  
  123.   
  124.     /* 1) arch recommendation: can be overridden for debug */  
  125.     if (flags & SLAB_HWCACHE_ALIGN) {  
  126.         /* 
  127.          * Default alignment: as specified by the arch code.  Except if 
  128.          * an object is really small, then squeeze multiple objects into 
  129.          * one cacheline. 
  130.          */  
  131.         ralign = cache_line_size();  
  132.         while (size <= ralign / 2)  
  133.             ralign /= 2;  
  134.     } else {  
  135.         ralign = BYTES_PER_WORD;  
  136.     }  
  137.   
  138.     /* 
  139.      * Redzoning and user store require word alignment or possibly larger. 
  140.      * Note this will be overridden by architecture or caller mandated 
  141.      * alignment if either is greater than BYTES_PER_WORD. 
  142.      */  
  143.     if (flags & SLAB_STORE_USER)  
  144.         ralign = BYTES_PER_WORD;  
  145.   
  146.     if (flags & SLAB_RED_ZONE) {  
  147.         ralign = REDZONE_ALIGN;  
  148.         /* If redzoning, ensure that the second redzone is suitably 
  149.          * aligned, by adjusting the object size accordingly. */  
  150.         size += REDZONE_ALIGN - 1;  
  151.         size &= ~(REDZONE_ALIGN - 1);  
  152.     }  
  153.   
  154.     /* 2) arch mandated alignment */  
  155.     if (ralign < ARCH_SLAB_MINALIGN) {  
  156.         ralign = ARCH_SLAB_MINALIGN;  
  157.     }  
  158.     /* 3) caller mandated alignment */  
  159.     if (ralign < align) {  
  160.         ralign = align;  
  161.     }  
  162.     /* disable debug if necessary */  
  163.     if (ralign > __alignof__(unsigned long long))  
  164.         flags &= ~(SLAB_RED_ZONE | SLAB_STORE_USER);  
  165.     /* 
  166.      * 4) Store it. 
  167.      */  
  168.     align = ralign;  
  169.     /* slab分配器是否已经可用 */  
  170.     if (slab_is_available())  
  171.         gfp = GFP_KERNEL;  
  172.     else  
  173.         /* slab初始化好之前,不允许阻塞,且只能在低端内存区分配 */  
  174.         gfp = GFP_NOWAIT;  
  175.   
  176.     /* Get cache's description obj. */  
  177.     /* 获得struct kmem_cache对象 ,为什么能从cache中获得的对象是 
  178.     kmem_cache结构呢,因为这里的全局变量cache_cache的对象大小 
  179.     就是kmem_cache结构大小*/  
  180.     cachep = kmem_cache_zalloc(&cache_cache, gfp);  
  181.     if (!cachep)  
  182.         goto oops;  
  183.   
  184. #if DEBUG   
  185.     cachep->obj_size = size;  
  186.   
  187.     /* 
  188.      * Both debugging options require word-alignment which is calculated 
  189.      * into align above. 
  190.      */  
  191.     if (flags & SLAB_RED_ZONE) {  
  192.         /* add space for red zone words */  
  193.         cachep->obj_offset += sizeof(unsigned long long);  
  194.         size += 2 * sizeof(unsigned long long);  
  195.     }  
  196.     if (flags & SLAB_STORE_USER) {  
  197.         /* user store requires one word storage behind the end of 
  198.          * the real object. But if the second red zone needs to be 
  199.          * aligned to 64 bits, we must allow that much space. 
  200.          */  
  201.         if (flags & SLAB_RED_ZONE)  
  202.             size += REDZONE_ALIGN;  
  203.         else  
  204.             size += BYTES_PER_WORD;  
  205.     }  
  206. #if FORCED_DEBUG && defined(CONFIG_DEBUG_PAGEALLOC)   
  207.     if (size >= malloc_sizes[INDEX_L3 + 1].cs_size  
  208.         && cachep->obj_size > cache_line_size() && size < PAGE_SIZE) {  
  209.         cachep->obj_offset += PAGE_SIZE - size;  
  210.         size = PAGE_SIZE;  
  211.     }  
  212. #endif   
  213. #endif   
  214.   
  215.     /* 
  216.      * Determine if the slab management is 'on' or 'off' slab. 
  217.      * (bootstrapping cannot cope with offslab caches so don't do 
  218.      * it too early on.) 
  219.      */  
  220.      /* 确定slab管理对象的存储方式:内置还是外置 
  221.      。通常,当对象大于等于512时,使用外置方式 
  222.      。初始化阶段采用内置式。 
  223.      slab_early_init 参见kmem_cache_init函数 */  
  224.     if ((size >= (PAGE_SIZE >> 3)) && !slab_early_init)  
  225.         /* 
  226.          * Size is large, assume best to place the slab management obj 
  227.          * off-slab (should allow better packing of objs). 
  228.          */  
  229.         flags |= CFLGS_OFF_SLAB;  
  230.   
  231.     size = ALIGN(size, align);  
  232.     /* 获得slab中碎片的大小 */  
  233.     left_over = calculate_slab_order(cachep, size, align, flags);  
  234.     /* cachep->num为该cache中每个slab的对象数,为0,表示为该对象创建cache失败 */  
  235.     if (!cachep->num) {  
  236.         printk(KERN_ERR  
  237.                "kmem_cache_create: couldn't create cache %s.\n", name);  
  238.         kmem_cache_free(&cache_cache, cachep);  
  239.         cachep = NULL;  
  240.         goto oops;  
  241.     }  
  242.     /* 计算slab管理对象的大小,包括struct slab对象和kmem_bufctl_t数组 */  
  243.     slab_size = ALIGN(cachep->num * sizeof(kmem_bufctl_t)  
  244.               + sizeof(struct slab), align);  
  245.   
  246.     /* 
  247.      * If the slab has been placed off-slab, and we have enough space then 
  248.      * move it on-slab. This is at the expense of any extra colouring. 
  249.      */  
  250.   
  251.     /* 如果这是一个外置式slab,并且碎片大小大于slab管理对象的大小 
  252.     ,则可将slab管理对象移到slab中,改造成一个内置式slab */  
  253.     if (flags & CFLGS_OFF_SLAB && left_over >= slab_size) {  
  254.         /* 除去off-slab标志位 */  
  255.         flags &= ~CFLGS_OFF_SLAB;  
  256.         /* 更新碎片大小 */  
  257.         left_over -= slab_size;  
  258.     }  
  259.   
  260.     if (flags & CFLGS_OFF_SLAB) {  
  261.         /* really off slab. No need for manual alignment */  
  262.         /* align是针对slab对象的,如果slab管理对象是外置存储 
  263.         ,自然不会像内置那样影响到后面slab对象的存储位置 
  264.         ,也就不需要对齐了 */  
  265.         slab_size =  
  266.             cachep->num * sizeof(kmem_bufctl_t) + sizeof(struct slab);  
  267.   
  268. #ifdef CONFIG_PAGE_POISONING   
  269.         /* If we're going to use the generic kernel_map_pages() 
  270.          * poisoning, then it's going to smash the contents of 
  271.          * the redzone and userword anyhow, so switch them off. 
  272.          */  
  273.         if (size % PAGE_SIZE == 0 && flags & SLAB_POISON)  
  274.             flags &= ~(SLAB_RED_ZONE | SLAB_STORE_USER);  
  275. #endif   
  276.     }  
  277.     /* cache的着色块的单位大小 */  
  278.     cachep->colour_off = cache_line_size();  
  279.     /* Offset must be a multiple of the alignment. */  
  280.     /* 着色块大小必须是对象要求对齐方式的倍数 */  
  281.     if (cachep->colour_off < align)  
  282.         cachep->colour_off = align;  
  283.      /* 计算碎片区需要多少个着色快 */  
  284.     cachep->colour = left_over / cachep->colour_off;  
  285.      /* slab管理对象的大小 */  
  286.     cachep->slab_size = slab_size;  
  287.     cachep->flags = flags;  
  288.     cachep->gfpflags = 0;  
  289.     if (CONFIG_ZONE_DMA_FLAG && (flags & SLAB_CACHE_DMA))  
  290.         cachep->gfpflags |= GFP_DMA;  
  291.     /* slab对象的大小 */  
  292.     cachep->buffer_size = size;  
  293.      /* 计算对象在slab中索引时用,参见obj_to_index函数 */  
  294.     cachep->reciprocal_buffer_size = reciprocal_value(size);  
  295.   
  296.     if (flags & CFLGS_OFF_SLAB) {  
  297.         /* 分配一个slab管理区域对象,保存在slabp_cache中, 
  298.         这个函数传入的大小为slab_size,也就是分配slab_size大小的cache 
  299.         ,在slab创建的时候如果是外置式,那么需要从分配的这里面 
  300.         分配出slab对象,剩下的空间放kmem_bufctl_t[]数组, 
  301.         如果是内置式的slab,此指针为空 */  
  302.         cachep->slabp_cache = kmem_find_general_cachep(slab_size, 0u);  
  303.         /* 
  304.          * This is a possibility for one of the malloc_sizes caches. 
  305.          * But since we go off slab only for object size greater than 
  306.          * PAGE_SIZE/8, and malloc_sizes gets created in ascending order, 
  307.          * this should not happen at all. 
  308.          * But leave a BUG_ON for some lucky dude. 
  309.          */  
  310.         BUG_ON(ZERO_OR_NULL_PTR(cachep->slabp_cache));  
  311.     }  
  312.     cachep->ctor = ctor;  
  313.     cachep->name = name;  
  314.     /* 设置每个cpu上的local cache */  
  315.     if (setup_cpu_cache(cachep, gfp)) {  
  316.         __kmem_cache_destroy(cachep);  
  317.         cachep = NULL;  
  318.         goto oops;  
  319.     }  
  320.   
  321.     /* cache setup completed, link it into the list */  
  322.     /* cache创建完毕,将其加入到全局slab cache链表中 */  
  323.     list_add(&cachep->next, &cache_chain);  
  324. oops:  
  325.     if (!cachep && (flags & SLAB_PANIC))  
  326.         panic("kmem_cache_create(): failed to create slab `%s'\n",  
  327.               name);  
  328.     if (slab_is_available()) {  
  329.         mutex_unlock(&cache_chain_mutex);  
  330.         put_online_cpus();  
  331.     }  
  332.     return cachep;  
  333. }  

其中,cache_cache

[cpp]
  1. /* internal cache of cache description objs */  
  2. static struct kmem_cache cache_cache = {  
  3.     .batchcount = 1,  
  4.     .limit = BOOT_CPUCACHE_ENTRIES,  
  5.     .shared = 1,  
  6.     .buffer_size = sizeof(struct kmem_cache),/*大小为cache结构,难怪名称为cache_cache*/  
  7.     .name = "kmem_cache",  
  8. };  
  • 1
  • 2
  • 3
  • 下一页

相关内容