linux spinlock/rwlock/seqlock原理剖析(基于ARM64)

619次阅读  |  发布于4年以前

背景

说明:

  1. Kernel版本:4.14

  2. ARM64处理器,Contex-A53,双核

  3. 使用工具:Source Insight 3.5, Visio

  4. 概述

吹起并发机制研究的进攻号角了!

作为第一篇文章,应该提纲挈领的介绍下并发。什么是并发,并发就是:你有两个儿子,同时抢一个玩具玩,你一巴掌打在你大儿子手上,小儿子拿到了玩具。并发是指多个执行流访问同一个资源,并发引起竞态。

来张图吧:

图中每一种颜色代表一种竞态情况,主要归结为三类:

  1. 进程与进程之间:单核上的抢占,多核上的SMP;
  2. 进程与中断之间:中断又包含了上半部与下半部,中断总是能打断进程的执行流;
  3. 中断与中断之间:外设的中断可以路由到不同的CPU上,它们之间也可能带来竞态;

目前内核中提供了很多机制来处理并发问题,spinlock就是其中一种。

spinlock,就是大家熟知的自旋锁,它的特点是自旋锁保护的区域不允许睡眠,可以用在中断上下文中。自旋锁获取不到时,CPU会忙等待,并循环测试等待条件。自旋锁一般用于保护很短的临界区。

下文将进一步揭开神秘的面纱。

  1. spinlock原理分析

2.1 spin_lock/spin_unlock

先看一下函数调用流程:

直接看ARM64中这个arch_spin_lock/arch_spin_unlock函数的实现吧:

static inline void arch_spin_lock(arch_spinlock_t *lock)
{
    unsigned int tmp;
    arch_spinlock_t lockval, newval;

    asm volatile(
    /* Atomically increment the next ticket. */
    ARM64_LSE_ATOMIC_INSN(
    /* LL/SC */
"   prfm    pstl1strm, %3\n"
"1: ldaxr   %w0, %3\n"
"   add %w1, %w0, %w5\n"
"   stxr    %w2, %w1, %3\n"
"   cbnz    %w2, 1b\n",
    /* LSE atomics */
"   mov %w2, %w5\n"
"   ldadda  %w2, %w0, %3\n"
    __nops(3)
    )

    /* Did we get the lock? */
"   eor %w1, %w0, %w0, ror #16\n"
"   cbz %w1, 3f\n"
    /*
     * No: spin on the owner. Send a local event to avoid missing an
     * unlock before the exclusive load.
     */
"   sevl\n"
"2: wfe\n"
"   ldaxrh  %w2, %4\n"
"   eor %w1, %w2, %w0, lsr #16\n"
"   cbnz    %w1, 2b\n"
    /* We got the lock. Critical section starts here. */
"3:"
    : "=&r" (lockval), "=&r" (newval), "=&r" (tmp), "+Q" (*lock)
    : "Q" (lock->owner), "I" (1 << TICKET_SHIFT)
    : "memory");
}

static inline void arch_spin_unlock(arch_spinlock_t *lock)
{
    unsigned long tmp;

    asm volatile(ARM64_LSE_ATOMIC_INSN(
    /* LL/SC */
    "   ldrh    %w1, %0\n"
    "   add %w1, %w1, #1\n"
    "   stlrh   %w1, %0",
    /* LSE atomics */
    "   mov %w1, #1\n"
    "   staddlh %w1, %0\n"
    __nops(1))
    : "=Q" (lock->owner), "=&r" (tmp)
    :
    : "memory");
}

spinlock的核心思想是基于tickets的机制:

  1. 每个锁的数据结构arch_spinlock_t中维护两个字段:nextowner,只有当nextowner相等时才能获取锁;
  2. 每个进程在获取锁的时候,next值会增加,当进程在释放锁的时候owner值会增加;
  3. 如果有多个进程在争抢锁的时候,看起来就像是一个排队系统,FIFO ticket spinlock

上边的代码中,核心逻辑在于asm volatile()内联汇编中,有点迷糊吗?把核心逻辑翻译成C语言,类似于下边:

  1. ldaxrLoad-Acquire Exclusive Register derives an address from a base register value, loads a 32-bit word or 64-bit doubleword from memory, and writes it to a register,从内存地址中读取值到寄存器中,独占访问;

  2. stxrStore Exclusive Register stores a 32-bit or a 64-bit doubleword from a register to memory if the PE has exclusive access to the memory address,将寄存器中的值写入到内存中,并需要返回是否独占访问成功;

  3. eorBitwise Exclusive OR,执行独占的按位或操作;

  4. ldaddaAtomic add on word or doubleword in memory atomically loads a 32-bit word or 64-bit doubleword from memory, adds the value held in a register to it, and stores the result back to memory,原子的将内存中的数据进行加值处理,并将结果写回到内存中;

  5. 此外,还需要提醒一点的是,在arch_spin_lock中,当自旋等待时,会执行WFE指令,这条指令会让CPU处于低功耗的状态,其他CPU可以通过SEV指令来唤醒当前CPU。 如果说了这么多,你还是没有明白,那就再来一张图吧:

2.2 spin_lock_irq/spin_lock_bh

自旋锁还有另外两种形式,那就是在持有锁的时候,不仅仅关掉抢占,还会把本地的中断关掉,或者把下半部关掉(本质上是把软中断关掉)。这种锁用来保护临界资源既会被进程访问,也会被中断访问的情况。

看一下调用流程图:

__local_bh_disable_ip是怎么实现的呢,貌似也没有看到关抢占?有必要前情回顾一下了,如果看过之前的文章的朋友,应该见过下边这张图片:

  1. rwlock读写锁

  1. 可以多个读者同时进入临界区;
  2. 读者与写者互斥;
  3. 写者与写者互斥;

先看流程分析图:

看一下arch_read_lock/arch_read_unlock/arch_write_lock/arch_write_unlock源代码:

static inline void arch_read_lock(arch_rwlock_t *rw)
{
    unsigned int tmp, tmp2;

    asm volatile(
    "   sevl\n"
    ARM64_LSE_ATOMIC_INSN(
    /* LL/SC */
    "1: wfe\n"
    "2: ldaxr   %w0, %2\n"
    "   add %w0, %w0, #1\n"
    "   tbnz    %w0, #31, 1b\n"
    "   stxr    %w1, %w0, %2\n"
    "   cbnz    %w1, 2b\n"
    __nops(1),
    /* LSE atomics */
    "1: wfe\n"
    "2: ldxr    %w0, %2\n"
    "   adds    %w1, %w0, #1\n"
    "   tbnz    %w1, #31, 1b\n"
    "   casa    %w0, %w1, %2\n"
    "   sbc %w0, %w1, %w0\n"
    "   cbnz    %w0, 2b")
    : "=&r" (tmp), "=&r" (tmp2), "+Q" (rw->lock)
    :
    : "cc", "memory");
}

static inline void arch_read_unlock(arch_rwlock_t *rw)
{
    unsigned int tmp, tmp2;

    asm volatile(ARM64_LSE_ATOMIC_INSN(
    /* LL/SC */
    "1: ldxr    %w0, %2\n"
    "   sub %w0, %w0, #1\n"
    "   stlxr   %w1, %w0, %2\n"
    "   cbnz    %w1, 1b",
    /* LSE atomics */
    "   movn    %w0, #0\n"
    "   staddl  %w0, %2\n"
    __nops(2))
    : "=&r" (tmp), "=&r" (tmp2), "+Q" (rw->lock)
    :
    : "memory");
}

static inline void arch_write_lock(arch_rwlock_t *rw)
{
    unsigned int tmp;

    asm volatile(ARM64_LSE_ATOMIC_INSN(
    /* LL/SC */
    "   sevl\n"
    "1: wfe\n"
    "2: ldaxr   %w0, %1\n"
    "   cbnz    %w0, 1b\n"
    "   stxr    %w0, %w2, %1\n"
    "   cbnz    %w0, 2b\n"
    __nops(1),
    /* LSE atomics */
    "1: mov %w0, wzr\n"
    "2: casa    %w0, %w2, %1\n"
    "   cbz %w0, 3f\n"
    "   ldxr    %w0, %1\n"
    "   cbz %w0, 2b\n"
    "   wfe\n"
    "   b   1b\n"
    "3:")
    : "=&r" (tmp), "+Q" (rw->lock)
    : "r" (0x80000000)
    : "memory");
}

static inline void arch_write_unlock(arch_rwlock_t *rw)
{
    asm volatile(ARM64_LSE_ATOMIC_INSN(
    "   stlr    wzr, %0",
    "   swpl    wzr, wzr, %0")
    : "=Q" (rw->lock) :: "memory");
}

知道你们不爱看汇编代码,那么翻译成C语言的伪代码看看吧:

读写锁当然也有类似于自旋锁的关中断、关底半部的形式:read_lock_irq/read_lock_bh/write_lock_irq/write_lock_bh,原理都类似,不再赘述了。

  1. seqlock顺序锁

来看一下流程图:

  1. 无加锁访问,读者在读临界区之前,先读取序列号,退出临界区操作后再读取序列号进行比较,如果发现不相等,说明被写者更新内容了,需要重新再读取临界区,所以这种情况下可能给读者带来的开销会大一些;

  2. 加锁访问,实际是spin_lock/spin_unlock,仅仅是接口包装了一下而已,因此对读和写都是互斥的;

  3. 在形式1和形式2中动态选择,如果有写者在写临界区,读者化身为自旋锁,没有写者在写临界区,则化身为顺序无锁访问;

  4. 顺序锁的写锁,只有一种形式,本质上是用自旋锁来保护临界区,然后再把序号值自加处理;

  5. 顺序锁也有一些局限的地方,比如采用读者的形式1的话,临界区中存在地址(指针)操作,如果写者把地址进行了修改,那就可能造成访问错误了;

  6. 说明一下流程图中的smp_rmb/smp_wmb,这两个函数是内存屏障操作,作用是告诉编译器内存中的值已经改变,之前对内存的缓存(缓存到寄存器)都需要抛弃,屏障之后的内存操作需要重新从内存load,而不能使用之前寄存器缓存的值,内存屏障就像是代码中一道不可逾越的屏障,屏障之前的load/store指令不能跑到屏障的后边,同理,后边的也不能跑到前边;

  7. 顺序锁也同样存在关中断和关下半部的形式,原理基本都是一致的,不再啰嗦了。

    最近在项目中,遇到了RCU Stall的问题,下一个topic就先来看看RCU吧,其他的并发机制都会在路上,Just keep growing and fuck everthing else,收工!

Copyright© 2013-2020

All Rights Reserved 京ICP备2023019179号-8