下载本文档
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、精品文档9 种可重复使用的并行数据结构和算法目录倒计数锁存(Countdown Latch)可重用旋转等待(Spin Wait)屏障 (Barrier)阻塞队列受限缓冲区(Bounded Buffer)Thin事件无锁定 LIFO堆栈循环分块并行分拆总结本专栏并未涉及很多公共语言运行库(CLR)功能的机制问题,而是更多介绍了如何有效使用您手头所具有的工具。 身为一名程序员,必须做出很多决策, 而选择正确的数据结构和算法无疑是最常见的, 也是最重要的决策之一。错误的选择可能导致程序无法运行,而大多数情况下, 则决定了性能的好坏。 鉴于并行编程通常旨在改进性能,并且要难于串行编程,因此所作的选择对
2、您程序的成功就更为重要。在本专栏中, 我们将介绍九种可重复使用的数据结构和算法,这些结构和算法是许多并行程序所常用的, 您应该能够轻松将它们应用到自己的.NET软件中。专栏中每个示例随附的代码都是可用的, 但尚未经过完全定型、测试和优化。这里列举的模式虽然并不详尽,但却代表了一些较为常见的模式。如您所见,很多示例都是互为补充的。在开始前,我想还是先介绍一些相关内容。Microsoft ?.NET Framework 提供了几个现有的并发基元。 虽然我要为您讲解如何构建自己的基元,但实际上现有基元是足以应付大多数情况的。 我只是想说某些可选的方案有时也是有参考价值的。此外, 了解这些技巧如何应用
3、于实际操作也有助于加深您对并行编程的整体理解。在开始讲解前, 我假定您对现有基元已经有了一个基本的了解。您也可以参阅MSDN? 杂志 2005 年 8 月版的文章 “关于多线程应用程序:每个开发人员都应了解的内容”,以全面了解其概念。一、倒计数锁存(Countdown Latch)Semaphore 之所以成为并发编程中一种较为知名的数据结构,原因是多方面的,而并不只是因为它在计算机科学领域有着悠久的历史(可以追溯到19世纪 60年代的操作系统设计)。Semaphore 只是一种带有一个计数字段的数据结构,它只支持两种操作:放置和取走(通常分别称为P 和 V )。一次放置操作会增加一个sema
4、phore计数, 而一次取走操作会。1欢迎下载精品文档减少一个 semaphore 计数。当 semaphore 计数为零时, 除非执行一项并发的放置操作使计数变为非零值,否则任何后续的取走尝试都将阻塞(等待)。这两种操作均为不可再分(atomic) 操作,并发时不会产生错误, 能够确保并发的放置和取走操作有序地进行。Windows具有基础内核和对 semaphore对象的 Win32支持(请参阅 CreateSemaphore和相关API),并且在 .NET Framework 中这些对象可以通过System.Threading.Semaphore类公开到上层。 Mutex 和 Monito
5、r所支持的临界区,通常被认为是一种特殊的semaphore ,其计数会在 0 和 1 之间来回切换,换句话说,是一个二进制的semaphore 。另外还有一种 “反向 semaphore ”也是非常有用。 也就是说, 有时您需要数据结构能够等待数据结构计数归零。 Fork/join式并行模式在数据并行编程中是极为常见的,其中由单个“主”线程控制执行若干 “辅助 ”线程并等待线程执行完毕。在这类情况下,使用反向semaphore 会很有帮助。 大多数时候, 您其实并不想唤醒线程来修改计数。因此在这种情况下,我们将结构称为倒计数 “锁存 ”,用来表示计数的减少, 同时还表明一旦设置为“Signal
6、ed ”状态,锁存将保持 “signaled ”(这是一个与锁存相关的属性)。遗憾的是, Windows 和 .NETFramework 均不支持这种数据结构。但令人欣慰的是,构建这种数据闭锁并不难。要构建倒计数锁存, 只需将其计数器初始值设为n ,并让每项辅助任务在完成时不可再分地将 n 减掉一个计数,这可以通过为减量操作加上“锁 ”或调用 Interlocked.Decrement来实现。接下来,线程可以不执行取走操作,而是减少计数并等待计数器归零;而当线程被唤醒时,它就可以得知已经有n 个信号向锁存注册。在while (count != 0)循环中,让等待的线程阻塞通常是不错的选择(这种
7、情况下,您稍后将不得不使用事件),而不是使用旋转。public class CountdownLatch private int m_remain;private EventWaitHandle m_event;public CountdownLatch(int count) m_remain = count;m_event = new ManualResetEvent(false);public void Signal()/ The last thread to signal also sets the event. if (Interlocked.Decrement(ref m_remai
8、n) = 0)m_event.Set();。2欢迎下载精品文档public void Wait() m_event.WaitOne();这看上去极为简单,但要正确运用还需要技巧。稍后我们将通过一些示例来讲解如何使用这种数据结构。请注意,此处所示基本实现还有很多可以改进地方,例如:在事件上调用WaitOne 之前添加某种程度的旋转等待、缓慢分配事件而不是在构造器中进行分配(以防足够的旋转会避免出现阻塞,如本专栏稍后介绍的ThinEvent演示的那样)、添加重置功能以及提供Dispose方法(以便在不再需要内部事件对象时将对象关闭)。二、可重用旋转等待(Spin Wait)虽然忙碌等待 (busy
9、 waiting)更容易实现阻塞,但在某些情况下,您也许的确想在退回到真正的等待状态前先旋转(spin)一段时间。 我们很难理解为何这样做会有帮助,而大多数人之所以一开始就避免旋转等待,是因为旋转看上去像是在做无用功;如果上下文切换(每当线程等待内核事件时都会发生)需要几千个周期(在Windows上确实是这样),我们称之为 c ,并且线程所等待的条件出现的时间少于2c 周期时间( 1c用于等待自身, 1c用于唤醒) ,则旋转可以降低等待所造成的系统开销和滞后时间,从而提升算法的整体吞吐量和可伸缩性。如果您决定使用旋转等待,就必须谨慎行事。 因为如果这样做, 您可能需要注意很多问题,比如:要确保
10、在旋转循环内调用Thread.SpinWait ,以提高 Intel超线程技术的计算机上硬件对其他硬件线程的可用性;偶尔使用参数1 而非 0 来调用 Thread.Sleep,以避免优先级反向问题; 通过轻微的回退(back-off)来引入随机选择, 从而改善访问的局部性(假定调用方持续重读共享状态)并可能避免活锁;当然,在单CPU 的计算机最好不要采用这种方法(因为在这种环境下旋转是非常浪费资源的)。SpinWait 类需要被定义为值类型,以便分配起来更加节省资源。现在,我们可以使用此算法来避免前述 CountdownLatch算法中出现的阻塞。public struct SpinWait
11、private int m_count;private static readonly bool s_isSingleProc =(Environment.ProcessorCount = 1);private const int s_yieldFrequency = 4000;private const int s_yieldOneFrequency = 3*s_yieldFrequency;。3欢迎下载精品文档public int Spin() int oldCount = m_count;/ On a single-CPU machine, we ensure our counter i
12、s always/ a multiple ofs_yieldFrequency,so we yield every time./ Else, we just increment by one.m_count += (s_isSingleProc ? s_yieldFrequency : 1);/ If not a multiple ofs_yieldFrequencyspin (w/ backoff).int countModFrequency = m_count % s_yieldFrequency;if (countModFrequency > 0)Thread.SpinWait(i
13、nt)(1 + (countModFrequency * 0.05f);elseThread.Sleep(m_count <= s_yieldOneFrequency ? 0 : 1);return oldCount;private void Yield()Thread.Sleep(m_count < s_yieldOneFrequency ? 0 : 1);private const int s_spinCount = 4000;public void Wait()SpinWait s = new SpinWait();while (m_remain > 0)if (s.S
14、pin() >= s_spinCount) m_event.WaitOne();不可否认,选择频率和旋转计数是不确定的。与Win32临界区旋转计数类似,我们应该根据测试和实验的结果来选择合理的数值,而且即使合理的数值在不同系统中也会发生变化。例如,根据Microsoft Media Center和 Windows kernel团队的经验, MSDN文档建。4欢迎下载精品文档议临界区旋转计数为4,000,但您的选择可以有所不同。理想的计数取决于多种因素,包括在给定时间等待事件的线程数和事件出现的频率等。大多数情况下, 您会希望通过等待事件来消除显式让出时间,如锁存的示例中所示。您甚至可以选
15、择动态调整计数:例如,从中等数量的旋转开始,每次旋转失败就增加计数。一旦计数达到预定的最大值,就完全停止旋转并立即发出WaitOne 。逻辑如下所示: 您希望立即增加达到预定的最大周期数,但却无法超过最大周期数。如果您发现此最大值不足以阻止上下文切换, 那么立即执行上下文切换总的算来占用的资源更少。慢慢您就会希望旋转计数能够达到一个稳定的值。三、屏障 (Barrier)屏障, 又称集合点,是一种并发性基元,它无需另一 “主 ”线程控制即可实现各线程之间简单的互相协调。每个线程在到达屏障时都会不可再分地发出信号并等待。仅当所有n都到达屏障时,才允许所有线程继续。这种方法可用于协调算法(coope
16、rativealgorithms),该算法广泛应用于科学、数学和图形领域。很多计算中都适合使用屏障,实际上,甚至 CLR的垃圾收集器都在使用它们。屏障只是将较大的计算分割为若干较小的协作阶段(cooperative phase),例如:const int P = .;Barrier barrier = new Barrier(P);Data partitions = new DataP;/ Running on Pseparate threads in parallel: public void Body(int myIndex) FillMyPartition(partitionsmyInd
17、ex);barrier.Await();ReadOtherPartition(partitionsPmyIndex - 1);barrier.Await();/ .您会很快发现在这种情况下是可以使用倒计数锁存的。每个线程都可以在调用Signal后立即调用Wait ,而不是调用Await ;在到达屏障后,所有线程都会被释放。但这里存在一个问题: 前面所讲的锁存并不支持多次重复使用同一对象,而这却是所有屏障都支持的一个常用属性。 实际上, 上述示例就需要使用此属性。您可以通过单独的屏障对象来实现这一点,但这样做非常浪费资源;而由于所有线程每次只出现在一个阶段,因此根本无需多个屏障对象。5欢迎下载精
18、品文档要解决这个问题, 您可以使用相同的基础倒计数锁存算法来处理减少计数器计数、发信号指示事件、等待等方面的问题,从而将其扩展为可重复使用。要实现这一点,您需要使用所谓的感应反向屏障(sensereversingbarrier),该屏障需要在 “偶数 ”和 “奇数 ”阶段之间交替。在交替阶段需要使用单独的事件。using System;using System.Threading;public class Barrier private volatile int m_count;private int m_originalCount;private EventWaitHandle m_oddE
19、vent;private EventWaitHandle m_evenEvent;private volatile bool m_sense = false; / false=even, true=odd.public Barrier(int count) m_count = count;m_originalCount = count;m_oddEvent = new ManualResetEvent(false);m_evenEvent = new ManualResetEvent(false);public void Await() bool sense = m_sense;/ The l
20、ast thread to signal also sets the event.if (m_count = 1 | Interlocked.Decrement(ref m_count) = 0) m_count = m_originalCount;m_sense = !sense; / Reverse the sense.if (sense = true) / oddm_evenEvent.Reset();m_oddEvent.Set(); else / evenm_oddEvent.Reset();m_evenEvent.Set();。6欢迎下载精品文档 else if (sense =
21、true) m_oddEvent.WaitOne();elsem_evenEvent.WaitOne();为何需要两个事件,其原因很难讲清楚。一种方法是在Await中先执行 Set随后立即执行 Reset ,但这很危险,并会导致死锁。原因有二:第一,另一线程的m_count可能已减少,但在依次快速调用Set和 Reset时,计数的值还不足以达到可在事件上调用WaitOne。第二, 虽然等待的线程可能已经能够调用WaitOne ,但可报警等待(如CLR 一贯使用的那些) 可以中断等待, 从而暂时从等待队列中删除等待的线程,以便运行异步过程调用 (APC) 。等待的线程将始终看不到事件处于设置(s
22、et)状态。两种情况均会导致事件丢失,并可能导致死锁。针对奇数阶段和偶数阶段使用单独的事件即可避免这种情况。您可能想继续像CountdownLatch中那样将旋转添加到Barrier。但如果您尝试这样做,可能会遇到一个问题:一般情况下,旋转线程会开始旋转直到m_count归零。但通过上述实现, m_count 的值实际上永远不会为零,除非最后一个线程将其重置为m_originalCount。这种想当然的方法将导致一个或多个线程进行旋转(永远地) ,而其他线程则会在下一阶段阻塞(也是永远地)。解决方法很简单。您旋转,等待感应发生变化public void Await() bool sense =
23、 m_sense;/ The last thread to signal also sets the event.if (m_count = 1 | Interlocked.Decrement(ref m_count) = 0) m_count = m_originalCount;m_sense = !sense; / Reverse the sense.if (sense = true) / oddm_evenEvent.Set();m_oddEvent.Reset(); else / evenm_oddEvent.Set();m_evenEvent.Reset(); else 。7欢迎下载
24、精品文档SpinWait s = new SpinWait();while (sense = m_sense) if (s.Spin() >= s_spinCount) if (sense = true) m_oddEvent.WaitOne();elsem_evenEvent.WaitOne();由于所有线程都必须离开前一阶段的 Await 才可以完成下一阶段,因此可以确定,所有线程要么会观察到感应发生变化,要么最终等待事件并被唤醒。阻塞队列在共享内存的体系结构中,两项或多项任务间唯一的同步点通常是一个位于中枢的共享集合的数据结构。通常,一项或多项任务会负责为其他一项或多项任务生成要执
25、行的“工作 ”,我们称之为生产者 / 使用者关系 (producer/consumer)。这类数据结构的简单同步通常是非常简单的 使用 Monitor或 ReaderWriterLock即可解决,但当缓冲区为空时,任务间的协调就会变得比较困难。要解决这个问题,通常需要使用阻塞队列。实际上,阻塞队列有几种稍微不同的变体,包括简单变体和复杂变体。在简单变量中, 使用者仅在队列为空时才会阻塞,而在复杂变量中,每个生产者都正好“配有 ”一个使用者, 也就是说, 在使用者到达并开始处理排队项目之前,生产者会被阻塞,同理,在生产者交付项目前,所有使用者也会被阻塞。这时通常使用FIFO (先进先出)排序,但
26、我们并不总是有必要这么做。 我们也可以对缓冲区进行限制,这一点稍后会为大家介绍。 由于稍后将要介绍的受限缓冲区包含更为简单的“为空时阻塞 ”(blocking-when-empty)行为,因此我们这里仅对配对变量做一了解。要实现这个目的,我们只需封装一个简单的Queue<T>,上方保持同步。那么到底需要何种同步?每当线程对元素进行排队时,在返回前都会等待使用者取消元素排队。当线程取消元素排队时,如果发现缓冲区为空,则必须等待新元素的进入。当然,取消排队后,使用者必须通知生产者已取到其项目(请参见图 5)。Figure 5 阻塞队列复制代码class Cell<T> in
27、ternal T m_obj;internal Cell(T obj) m_obj = obj; 。8欢迎下载精品文档public class BlockingQueue<T> private Queue<Cell<T>> m_queue = new Queue<Cell<T>>(); public void Enqueue(T obj) Cell<T> c = new Cell<T>(obj);lock (m_queue) m_queue.Enqueue(c);Monitor.Pulse(m_queue);M
28、onitor.Wait(m_queue);public T Dequeue() Cell<T> c;lock (m_queue) while (m_queue.Count = 0)Monitor.Wait(m_queue);c = m_queue.Dequeue();Monitor.Pulse(m_queue);return c.m_obj;请注意, 我们可以在Enqueue方法中依次调用Pulse和 Wait ,类似地, 在 Dequeue 方法中依次调用Wait和 Pulse 。只有在释放监视器之后,才会对内部事件进行设置,而由于监视器的这种实现方法, 会导致某个线程调度pin
29、g-pong。我们可能会想, 也许可以使用Win32事件来构建一个更加优化的通知机制。但是,使用这类完善的Win32事件会带来巨大开销,尤其是使用它们时所进行的成本分配和内核跳转(kernel transitions),因此还是考虑其他选择吧。您可以像CLR 的 ReaderWriterLock那样将这些时间集中到池中,也可以像ThinEvent类型(稍后介绍)一样缓慢分配它们。这种实现方法也是有弊端的,即要为每个新元素分配对象,备选方法可能也会将这些对象加入到池中,但同样会带来其他麻烦。受限缓冲区(Bounded Buffer)某些类别的队列中会出现资源使用问题。 如果生产者任务创建项目的速
30、度快于使用者处理项目的速度,则系统的内存使用将不受限制。9欢迎下载精品文档为了说明这个问题,我们假设一个系统,单个生产者每秒钟可将 50个项目排入队列, 而使用者每秒钟只能使用10 个项目。 首先, 这样会打乱系统的平衡性,而且对于一对一的生产者 使用者配置无法进行很好的调整。只需一分钟,就会有2,400个项目堆积在缓冲区中。假设这些项目中每个项目使用10KB 内存,那将意味着缓冲区本身就会占用24MB 内存。一小时后,这个数字将飙升至1GB 以上。解决这一问题的一个方法是调整生产者线程与使用者线程的比例, 在上述情况中, 要将比例调整为一个生产者对应五个使用者。但是到达速度通常是不稳定的,
31、这会导致系统周期性的不稳定,并带来一些明显的问题,简单的固定比例是无法解决这个问题的。服务器上的程序通常是长时间运行的,人们希望程序能够长期保持良好的运行状态,但如果内存使用不受限,就会造成不可避免的混乱,还可能导致必须定期回收服务器进程的情况。受限缓冲区允许您对生产者强制阻塞前缓冲区可能达到的大小进行限制。阻塞生产者可让使用者有机会 “赶上 ”(通过允许其线程接收调度时间片),同时还能够解决内存使用量增加的问题。我们的方法还是仅封装Queue<T>,同时添加两个等待条件和两个事件通知条件:生产者在队列满时等待,直至队列变为非满,而使用者在队列空时等待,直至变为非空; 生产者在生产
32、出项目后通知等待的使用者,而使用者也会在取走项目后通知生产者,如图 6 中所示。Figure6受限缓冲区(Bounded Buffer)复制代码public class BoundedBuffer<T> private Queue<T> m_queue = new Queue<T>();private int m_consumersWaiting;private int m_producersWaiting;private const int s_maxBufferSize = 128;public void Enqueue(T obj) lock (m_q
33、ueue) while (m_queue.Count = (s_maxBufferSize - 1) m_producersWaiting+;Monitor.Wait(m_queue);m_producersWaiting-;m_queue.Enqueue(obj);if (m_consumersWaiting > 0)Monitor.PulseAll(m_queue);。10欢迎下载精品文档public T Dequeue() T e;lock (m_queue) while (m_queue.Count = 0) m_consumersWaiting+;Monitor.Wait(m_
34、queue);m_consumersWaiting-;e = m_queue.Dequeue();if (m_producersWaiting > 0)Monitor.PulseAll(m_queue);return e;这里我们再一次使用了一种比较天真的方法。但是我们确实优化了对 PulseAll的调用(因为它们耗费的资源很多) ,方法是使用 m_consumersWaiting 和 m_producersWaiting这两个计数器并仅就计数器值是否为零发出信号。除此以外, 我们还可以再做进一步的改进。例如,共享与此类似的单个事件可能会唤醒过多线程:如果使用者将队列大小降为0 ,并且生
35、产者和使用者同时处于等待状态,显然您只希望唤醒生产者(至少开始时要这么做)。此实现将以先进先出的规则处理所有等待者,这意味着您可能需要在任一生产者运行前唤醒使用者,这样做仅仅是为了让使用者发现队列为空,然后再次等待。令人欣慰的是,最终出现生产者和使用者同时等待的情况是很少见的,但其出现也是有规律的,而且受限区域较小。Thin事件与 Monitor.Wait、Pulse和 PulseAll相比, Win32 事件有一个很大的优势:它们是 “粘滞的”(sticky)。也就是说,一旦有事件收到信号,任何后续等待都将立即取消阻止,即使线程在信号发出前尚未开始等待。如果没有这个功能,您就需要经常编写一些
36、代码将所有等待和信号通知严格地限制在临界区域内,由于Windows 计划程序总是会提升已唤醒线程的优先级, 因此这些代码的效率很低;如果不采取这种方法,您就必须使用某种技巧型很强、容易出现竞态条件的代码。11欢迎下载精品文档作为替代方法,您可以使用“thin事件 ”,这是一种可重用数据结构,可在阻塞前短暂地旋转,仅在必要时才缓慢分配Win32事件,否则允许您执行类似手动重置事件的行为。换句话说,它可以对那些复杂的容易导致竞态条件的代码进行封装,这样您就不必在整个基本代码内散播它。此示例依赖于Vance Morrison的文章中描述的一些内存模型保证,使用的时候要多加小心(请参见图7)。Figu
37、re7 Thin事件复制代码public struct ThinEvent private int m_state; / 0 means unset, 1 means set.private EventWaitHandle m_eventObj;private const int s_spinCount = 4000;public void Set() m_state = 1;Thread.MemoryBarrier(); / required.if (m_eventObj != null)m_eventObj.Set();public void Reset() m_state = 0;if
38、(m_eventObj != null)m_eventObj.Reset();public void Wait() SpinWait s = new SpinWait();while (m_state = 0) if (s.Spin() >= s_spinCount) if (m_eventObj = null) ManualResetEvent newEvent =new ManualResetEvent(m_state = 1);if (Interlocked.CompareExchange<EventWaitHandle>(ref m_eventObj, newEven
39、t, null) = null) 。12欢迎下载精品文档/ If someone set the flag before seeing the new/ event obj, we must ensure its been set.if (m_state = 1)m_eventObj.Set(); else / Lost the race w/ another thread. Just use/ its event.newEvent.Close();m_eventObj.WaitOne();这基本上反映了m_state变量中的事件状态,其中值为0表示未设置,值为1表示已设置。现在,等待一个已设
40、置事件耗费资源是很低的;如果m_state在 Wait例程的入口处值为 1 ,我们会立即返回,无需任何内核跳转。但如果线程在事件设置完毕之前进入等待状态,处理上就需要很多技巧。要等待的首个线程必须分配一个新的事件对象,并对其进行比较后交换至m_eventObj字段中;如果CAS 失败,则意味着其他等待者对事件进行了初始化,所以我们只可重复使用它;否则就必须重新检查自上次看到m_state后其值是否发生更改。 不然的话, m_state 的值也许会为 1 ,那么 m_eventObj 就无法收到信号通知,这将导致在调用 WaitOne时出现死锁。 调用 Set的线程必须首先设置 m_state
41、,随后如果发现值为非空的 m_eventObj ,就会调用其上的 Set 。这里需要两个内存屏障:需要注意的是切不可提前移动m_state 的第二次读取,我们会使用Interlocked.CompareExchange设置m_eventObj来保证这点; 在写入 m_eventObj之前,不可移动 Set 中的对 m_eventObj的读取(这是一种在某些Intel 和 AMD 处理器以及 CLR 2.0 内存模型上出现的奇怪的合法转换,并未显式调用Thread.MemoryBarrier)。并行重置事件通常是不安全的,因此调用方需要进行额外的同步化。现在您可以轻松在其他地方使用它,例如在上述
42、的CountdownLatch 示例和队列示例中, 而且通常这样做可以大幅度提升性能,尤其是当您可以巧妙地运用旋转时。我们上面介绍了一个技巧性很强的实现方式。请注意, 您可以使用单个标志和监视器来实现自动和手动重置类型,这远比本示例简单(但效率方面有时会不及本例)。无锁定 LIFO堆栈。13欢迎下载精品文档使用锁定构建线程安全的集合是相当直接明了的,即使限制和阻塞方面会有些复杂(如上面看到的)。 但是,当所有协调均通过简单的后进先出(LIFO)堆栈数据结构实现时,使用锁定的开销会比实际所需的高。线程的临界区(即保持锁定的时间)有开始点和结束点, 其持续时间可能会跨越许多指令的有效期。保持锁定可
43、阻止其他线程同时进行读取和写入操作。这样做可以实现序列化, 这当然是我们所想要的结果,但严格地讲, 这种序列化要比我们所需的序列化强很多。 我们的目的是要在堆栈上推入和弹出元素,而这两项操作只需通过常规读取和单一的比较交换写入即可实现。我们可以利用这点来构建伸缩性更强的无锁定堆栈,从而不会强制线程进行没必要的等待。我们的算法工作方式如下。 使用有链接的列表代表堆栈,其标头代表堆栈的顶端,并存储在m_head 字段中。在将一个新项推入堆栈时,要构造一个新节点,其值等于您要推入堆栈的值,然后从本地读取 m_head 字段,并将其存储至新节点的m_next 字段, 随后执行不可再分的 Interlo
44、cked.CompareExchange来替换堆栈当前的头部。如果顶端自首次读取后在序列中的任何点发生更改,CompareExchange 都会失败, 并且线程必须返回循环并再次尝试整个序列。 弹出同样是比较直截了当的。读取 m_head 并尝试将其与m_next引用的本地副本交换; 如果失败,您只需一直尝试,如图 8中所示。 Win32 提供了一种名为SList的类比数据结构,其构建方法采用了类似的算法。Figure8 无锁定堆栈复制代码public class LockFreeStack<T> private volatile StackNode<T> m_head
45、;public void Push(T item) StackNode<T> node = new StackNode<T>(item);StackNode<T> head;do head = m_head;node.m_next = head; while (m_head != head | Interlocked.CompareExchange( ref m_head, node, head) != head);public T Pop() StackNode<T> head;SpinWait s = new SpinWait();。14欢迎
46、下载精品文档while (true) StackNode<T> next;do head = m_head;if (head = null) goto emptySpin;next = head.m_next; while (m_head != head | Interlocked.CompareExchange( ref m_head, next, head) != head);break;emptySpin:s.Spin();return head.m_value;class StackNode<T> internal T m_value;internal Stac
47、kNode<T> m_next;internal StackNode(T val) m_value = val; 请注意, 这是理想的并发控制的一种形式:无需阻止其他线程存取数据,只需抱着会在争用中“胜出 ”的信念继续即可。如果事实证明无法“胜出 ”,您将会遇到一些变化不定的问题,例如活锁。 这种设计方案还表明您无法确保能够实现FIFO调度。根据概率统计, 系统中所有线程都将向前推进。而实际上从整体来看,系统进度总是向前推进的,因为其中一个线程的失败总是意味着至少有一个其他线程是推进的(这是调用该“无锁定 ”的一个条件) 。有些情况下,当CompareExchange 无法避免 m
48、_head 大量争用内存时,使用指数回退算法会很有用。同时, 我们还对堆栈变空的情况采取了相当直截了当的方法。我们只是一直旋转,等待有新项目推入。将Pop 重新写入处于非等待状态的TryPop是很简单易懂的,但是要利用事件。15欢迎下载精品文档进行等待则会有一些复杂。这两个功能都是十分重要的,所以留给那些喜欢动手的读者作为练习之用。我们为每个Push都分配了对象,这让我们无需担心所谓的ABA 问题。在内部重复使用已从列表中弹出的节点就会导致ABA 问题。开发人员有时会尝试将节点集中到池中以减少对象分配的数目, 但这样做是有问题的:结果会是, 即使对 m_head 执行了大量干扰性写入操作,一个
49、不可再分割的操作也可以实现,但实际上却是不正确的。(例如:线程1读取节点 A ,然后由线程2将节点 A删除并置入池中;线程 2将节点 B 作为新的头推入,然后节点 A 从池中返回到线程2并被推入;随后,线程1会成功执行CompareExchange ,但现在作为头的A已经与先前所读取的不同了。)尝试以本机C/C+编写此算法时也会出现类似问题; 因为一旦地址被释放,内存分配器就会立即重复使用这些地址,节点会被弹出并释放, 然后该节点的地址会被用于新的节点分配,结果导致与上面相同的问题。接下来我们不再讨论ABA,有关它的详细介绍我们可以从其他的资源获得。最后,可以使用类似的无锁定技术编写一个FIFO队列。它的优势在于并行推入和弹出的线程之间并不一定发生冲突,而在上述LockFreeStack中,推入者和弹出者始终会争用同一m_head 字段。然而,
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 贵州城市职业学院《医用治疗仪器》2023-2024学年第一学期期末试卷
- 2025安徽省安全员-C证考试(专职安全员)题库及答案
- 2025江苏省建筑安全员B证考试题库及答案
- 贵阳人文科技学院《中国古代文学一》2023-2024学年第一学期期末试卷
- 2025辽宁省建筑安全员《B证》考试题库
- 2025湖南省安全员知识题库及答案
- 2025四川建筑安全员B证考试题库
- 2025重庆市建筑安全员C证(专职安全员)考试题库
- 2025甘肃省建筑安全员知识题库
- 2025年海南建筑安全员C证(专职安全员)考试题库
- 农村信访业务培训课件
- DLT 1051-2019电力技术监督导则
- 【《小班幼儿不良饮食习惯的表现、原因及培养策略》6400字(论文)】
- 山东省枣庄市滕州市2023-2024学年高二上学期期末考试数学试卷
- 寒假小学生心理健康教育
- 健康体检授权委托书
- 人工智能 法规
- 琴房租赁合同
- 中国石油青海油田公司员工压力状况调查及员工帮助计划(EAP)实探的开题报告
- 闸门与启闭机相关知识培训讲解
- 中医护理技术之耳针法课件
评论
0/150
提交评论