可重复使用地并行大数据结构和算法_第1页
可重复使用地并行大数据结构和算法_第2页
可重复使用地并行大数据结构和算法_第3页
可重复使用地并行大数据结构和算法_第4页
已阅读5页,还剩28页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、实用标准文档9 种可重复使用的并行数据结构和算法目录倒计数锁存(Countdown Latch)可重用旋转等待(Spin Wait)屏障(Barrier)阻塞队列受限缓冲区(Bounded Buffer)Thin事件无锁定LIFO堆栈循环分块并行分拆总结本专栏并未涉及很多公共语言运行库(CLR) 功能的机制问题,而是更多介绍了如何有效使用您手头所具有的工具。 身为一名程序员,必须做出很多决策, 而选择正确的 数据结构和算法 无疑是最常见的, 也是最重要的决策之一。错误的选择可能导致程序无法运行,而大多数情况下, 则决定了性能的好坏。 鉴于并行编程通常旨在改进性能,并且要难于串行编程,因此所作的

2、选择对您程序的成功就更为重要。在本专栏中, 我们将介绍九种可重复使用的数据结构和算法,这些结构和算法是许多并行程序所常用的,您应该能够轻松将它们应用到自己的.NET软件中。专栏中每个示例随附的代码都是可用的,但尚未经过完全定型、测试和优化。这里列举的模式虽然并不详尽,但却代表了一些较为常见的模式。如您所见,很多示例都是互为补充的。在开始前,我想还是先介绍一些相关内容。Microsoft? .NET Framework提供了几个现有的并发基元。 虽然我要为您讲解如何构建自己的基元,但实际上现有基元是足以应付大多数情况的。 我只是想说某些可选的方案有时也是有参考价值的。此外,了解这些技巧如何应用于

3、实际操作也有助于加深您对并行编程的整体理解。在开始讲解前, 我假定您对现有文案大全实用标准文档基元已经有了一个基本的了解。您也可以参阅 MSDN?杂志2005年 8 月版的文章 “关于多线程应用程序:每个开发人员都应了解的内容”,以全面了解其概念。一、倒计数锁存(Countdown Latch)Semaphore之所以成为并发编程中一种较为知名的数据结构,原因是多方面的,而并不只是因为它在计算机科学领域有着悠久的历史(可以追溯到19 世纪60 年代的操作系统设计)。 Semaphore只是一种带有一个计数字段的数据结构,它只支持两种操作:放置和取走(通常分别称为P 和 V )。一次放置操作会增

4、加一个semaphore计数,而一次取走操作会减少一个semaphore计数。当semaphore计数为零时,除非执行一项并发的放置操作使计数变为非零值,否则任何后续的取走尝试都将阻塞(等待)。 这两种操作均为不可再分(atomic)操作,并发时不会产生错误,能够确保并发的放置和取走操作有序地进行。 Windows具有基础内核和对semaphore 对象的 Win32 支持(请参阅CreateSemaphore和相关 API ),并且在 .NET Framework中这些对象可以通过System.Threading.Semaphore类公开到上层。 Mutex和Monitor 所支持的临界区,

5、通常被认为是一种特殊的semaphore ,其计数会在 0和 1之间来回切换, 换句话说, 是一个二进制的 semaphore。另外还有一种“反向semaphore”也是非常有用。也就是说,有时您需要数据结构能够等待数据结构计数归零。Fork/join式并行模式在数据并行编程中是极为常见的,其中由单个“主”线程控制执行若干“辅助”线程并等待线程执行完毕。在这类情况下,使用反向semaphore会很有帮助。大多数时候,您其实并不想唤醒线程来修改计数。因此在这种情况下,我们将结构称为倒计数“锁存”,用来表示计数的减少,同时还表明一旦设置为“Signaled”状态,锁存将保持“signaled ”(

6、这是一个与锁存相关的属性)。遗憾的是,文案大全实用标准文档Windows和 .NET Framework均不支持这种数据结构。但令人欣慰的是,构建这种数据闭锁并不难。要构建倒计数锁存,只需将其计数器初始值设为n ,并让每项辅助任务在完成时不可再分地将n 减掉一个计数,这可以通过为减量操作加上“锁”或调用Interlocked.Decrement来实现。接下来,线程可以不执行取走操作,而是减少计数并等待计数器归零;而当线程被唤醒时,它就可以得知已经有n 个信号向锁存注册。在while(count != 0)循环中,让等待的线程阻塞通常是不错的选择(这种情况下,您稍后将不得不使用事件),而不是使用

7、旋转。public class CountdownLatch private int m_remain;private EventWaitHandle m_event;public CountdownLatch(int count) m_remain = count;m_event = new ManualResetEvent(false);public void Signal()/ The last thread to signal also sets the event. if (Interlocked.Decrement(ref m_remain) = 0)m_event.Set();文

8、案大全实用标准文档public void Wait() m_event.WaitOne();这看上去极为简单,但要正确运用还需要技巧。稍后我们将通过一些示例来讲解如何使用这种数据结构。请注意,此处所示基本实现还有很多可以改进地方,例如:在事件上调用WaitOne之前添加某种程度的旋转等待、缓慢分配事件而不是在构造器中进行分配(以防足够的旋转会避免出现阻塞,如本专栏稍后介绍的ThinEvent演示的那样)、添加重置功能以及提供Dispose方法(以便在不再需要内部事件对象时将对象关闭)。二、可重用旋转等待(Spin Wait)虽然忙碌等待(busy waiting)更容易实现阻塞,但在某些情况下

9、,您也许的确想在退回到真正的等待状态前先旋转(spin)一段时间。我们很难理解为何这样做会有帮助,而大多数人之所以一开始就避免旋转等待,是因为旋转看上去像是在做无用功;如果上下文切换(每当线程等待内核事件时都会发生)需要几千个周期(在Windows上确实是这样),我们称之为c,并且线程所等待的条件出现的时间少于2c 周期时间( 1c 用于等待自身,1c 用于唤醒),则旋转可以降低等待所造成的系统开销和滞后时间,从而提升算法的整体吞吐量和可伸缩性。如果您决定使用旋转等待,就必须谨慎行事。因为如果这样做,您可能需要注意很多问题,比如:要确保在旋转循环内调用Thread.SpinWait,以提高In

10、tel超线程技术的计算文案大全实用标准文档机上硬件对其他硬件线程的可用性;偶尔使用参数1 而非0 来调用Thread.Sleep,以避免优先级反向问题;通过轻微的回退(back-off)来引入随机选择,从而改善访问的局部性(假定调用方持续重读共享状态)并可能避免活锁;当然, 在单 CPU的计算机最好不要采用这种方法(因为在这种环境下旋转是非常浪费资源的)。SpinWait类需要被定义为值类型,以便分配起来更加节省资源。现在,我们可以使用此算法来避免前述CountdownLatch算法中出现的阻塞。public struct SpinWait private int m_count;privat

11、e static readonly bool s_isSingleProc =(Environment.ProcessorCount = 1);private const int s_yieldFrequency = 4000;private const int s_yieldOneFrequency = 3*s_yieldFrequency;public int Spin() int oldCount = m_count;/ On a single-CPU machine, we ensure our counter is always/ a multiple of s_yieldFrequ

12、ency , so we yield every time./ Else, we just increment by one.m_count += (s_isSingleProc ? s_yieldFrequency : 1);/ If not a multiple of s_yieldFrequency spin (w/ backoff).文案大全实用标准文档int countModFrequency = m_count % s_yieldFrequency;if (countModFrequency > 0)Thread.SpinWait(int)(1 + (countModFreq

13、uency * 0.05f);elseThread.Sleep(m_count <= s_yieldOneFrequency ? 0 : 1);return oldCount;private void Yield()Thread.Sleep(m_count < s_yieldOneFrequency ? 0 : 1);private const int s_spinCount = 4000;public void Wait()SpinWait s = new SpinWait();while (m_remain > 0)if (s.Spin() >= s_spinCou

14、nt) m_event.WaitOne();文案大全实用标准文档不可否认,选择频率和旋转计数是不确定的。与Win32 临界区旋转计数类似,我们应该根据测试和实验的结果来选择合理的数值,而且即使合理的数值在不同系统中也会发生变化。例如,根据 Microsoft Media Center和 Windows kernel团队的经验, MSDN文档建议临界区旋转计数为4,000,但您的选择可以有所不同。 理想的计数取决于多种因素,包括在给定时间等待事件的线程数和事件出现的频率等。大多数情况下, 您会希望通过等待事件来消除显式让出时间,如锁存的示例中所示。您甚至可以选择动态调整计数:例如,从中等数量的旋

15、转开始,每次旋转失败就增加计数。一旦计数达到预定的最大值,就完全停止旋转并立即发出WaitOne。逻辑如下所示:您希望立即增加达到预定的最大周期数,但却无法超过最大周期数。 如果您发现此最大值不足以阻止上下文切换, 那么立即执行上下文切换总的算来占用的资源更少。慢慢您就会希望旋转计数能够达到一个稳定的值。三、屏障(Barrier)屏障,又称集合点,是一种并发性基元,它无需另一“主”线程控制即可实现各线程之间简单的互相协调。每个线程在到达屏障时都会不可再分地发出信号并等待。仅当所有n都到达屏障时,才允许所有线程继续。这种方法可用于协调算法(cooperativealgorithms),该算法广泛

16、应用于科学、数学和图形领域。很多计算中都适合使用屏障,实际上, 甚至 CLR 的垃圾收集器都在使用它们。屏障只是将较大的计算分割为若干较小的协作阶段(cooperative phase),例如:const int P = .;Barrier barrier = new Barrier(P);文案大全实用标准文档Data partitions = new DataP;/ Running on P separate threads in parallel:public void Body(int myIndex) FillMyPartition(partitionsmyIndex);barrier

17、.Await();ReadOtherPartition(partitionsP myIndex - 1);barrier.Await();/ .您会很快发现在这种情况下是可以使用倒计数锁存的。每个线程都可以在调用Signal后立即调用Wait ,而不是调用Await ;在到达屏障后,所有线程都会被释放。但这里存在一个问题: 前面所讲的锁存并不支持多次重复使用同一对象,而这却是所有屏障都支持的一个常用属性。 实际上, 上述示例就需要使用此属性。您可以通过单独的屏障对象来实现这一点,但这样做非常浪费资源;而由于所有线程每次只出现在一个阶段,因此根本无需多个屏障对象。要解决这个问题, 您可以使用相同

18、的基础倒计数锁存算法来处理减少计数器计数、发信号指示事件、等待等方面的问题,从而将其扩展为可重复使用。要实现这一点,您需要使用所谓的感应反向屏障(sense reversing barrier),该屏障需要在“偶数”和“奇数”阶段之间交替。在交替阶段需要使用单独的事件。using System;using System.Threading;文案大全实用标准文档public class Barrier private volatile int m_count;private int m_originalCount;private EventWaitHandle m_oddEvent;privat

19、e EventWaitHandle m_evenEvent;private volatile bool m_sense = false; / false=even, true=odd.public Barrier(int count) m_count = count;m_originalCount = count;m_oddEvent = new ManualResetEvent(false);m_evenEvent = new ManualResetEvent(false);public void Await() bool sense = m_sense;/ The last thread

20、to signal also sets the event.if (m_count = 1 | Interlocked.Decrement(ref m_count) = 0) m_count = m_originalCount;m_sense = !sense; / Reverse the sense.if (sense = true) / odd文案大全实用标准文档m_evenEvent.Reset();m_oddEvent.Set(); else / evenm_oddEvent.Reset();m_evenEvent.Set(); else if (sense = true) m_odd

21、Event.WaitOne();elsem_evenEvent.WaitOne();为何需要两个事件,其原因很难讲清楚。一种方法是在Await中先执行Set随后立即执行Reset ,但这很危险,并会导致死锁。原因有二:第一,另一线程的m_count可能已减少,但在依次快速调用Set 和 Reset时,计数的值还不足以达到可在事件上调用WaitOne。第二,虽然等待的线程可能已经能够调用WaitOne,但可报警等待 (如CLR 一贯使用的那些) 可以中断等待, 从而暂时从等待队列中删除等待的线程,以便运行异步过程调用(APC) 。等待的线程将始终看不到事件处于设置(set)状态。两种情况均会导致

22、事件丢失,并可能导致死锁。针对奇数阶段和偶数阶段使用单独的事件即可避免这种情况。文案大全实用标准文档您可能想继续像CountdownLatch中那样将旋转添加到Barrier 。但如果您尝试这样做,可能会遇到一个问题:一般情况下,旋转线程会开始旋转直到m_count归零。但通过上述实现, m_count的值实际上永远不会为零,除非最后一个线程将其重置为m_originalCount。这种想当然的方法将导致一个或多个线程进行旋转(永远地),而其他线程则会在下一阶段阻塞(也是永远地)。解决方法很简单。您旋转,等待感应发生变化public void Await() bool sense = m_se

23、nse;/ The last thread to signal also sets the event.if (m_count = 1 | Interlocked.Decrement(ref m_count) = 0) m_count = m_originalCount;m_sense = !sense; / Reverse the sense.if (sense = true) / oddm_evenEvent.Set();m_oddEvent.Reset(); else / evenm_oddEvent.Set();m_evenEvent.Reset(); else SpinWait s

24、= new SpinWait();文案大全实用标准文档while (sense = m_sense) if (s.Spin() >= s_spinCount) if (sense = true) m_oddEvent.WaitOne();elsem_evenEvent.WaitOne();由于所有线程都必须离开前一阶段的Await才可以完成下一阶段,因此可以确定,所有线程要么会观察到感应发生变化,要么最终等待事件并被唤醒。阻塞队列在共享内存的体系结构中,两项或多项任务间唯一的同步点通常是一个位于中枢的共享集合的数据结构。通常,一项或多项任务会负责为其他一项或多项任务生成要执行的“工作”,

25、我们称之为生产者 / 使用者关系(producer/consumer)。这类数据结构的简单同步通常是非常简单的 使用 Monitor或 ReaderWriterLock即可解决,但当缓冲区为空时,任务间的协调就会变得比较困难。要解决这个问题,通常需要使用阻塞队列。实际上,阻塞队列有几种稍微不同的变体,包括简单变体和复杂变体。在简单变量中, 使用者仅在队列为空时才会阻塞,而在复杂变量中,每个生产者都正好“配有”一个使用者,也就是说,在使用者到达并开始处理排队项目之前,生产者会被阻塞,同理, 在生产者交付项目前,所有使用者也会被阻塞。这时通常使用FIFO(先进先出)排序,但我们并不总是有必要这么做

26、。 我们也可以对缓冲区进行限制,这一点稍后会为大家介绍。由于稍后将要介绍文案大全实用标准文档的受限缓冲区包含更为简单的“为空时阻塞”(blocking-when-empty)行为,因此我们这里仅对配对变量做一了解。要实现这个目的,我们只需封装一个简单的Queue<T>,上方保持同步。那么到底需要何种同步?每当线程对元素进行排队时,在返回前都会等待使用者取消元素排队。当线程取消元素排队时,如果发现缓冲区为空,则必须等待新元素的进入。当然,取消排队后,使用者必须通知生产者已取到其项目(请参见图 5)。Figure 5阻塞队列复制代码class Cell<T> interna

27、l T m_obj;internal Cell(T obj) m_obj = obj; public class BlockingQueue<T> private Queue<Cell<T>> m_queue = new Queue<Cell<T>>();public void Enqueue(T obj) Cell<T> c = new Cell<T>(obj);lock (m_queue) m_queue.Enqueue(c);Monitor.Pulse(m_queue);Monitor.Wait(m_qu

28、eue);文案大全实用标准文档public T Dequeue() Cell<T> c;lock (m_queue) while (m_queue.Count = 0)Monitor.Wait(m_queue);c = m_queue.Dequeue();Monitor.Pulse(m_queue);return c.m_obj;请注意,我们可以在Enqueue方法中依次调用Pulse和 Wait ,类似地,在 Dequeue方法中依次调用Wait和 Pulse 。只有在释放监视器之后,才会对内部事件进行设置,而由于监视器的这种实现方法,会导致某个线程调度ping-pong。我们可

29、能会想,也许可以使用 Win32事件来构建一个更加优化的通知机制。但是,使用这类完善的Win32事件会带来巨大开销,尤其是使用它们时所进行的成本分配和内核跳转(kernel transitions),因此还是考虑其他选择吧。您可以像CLR 的 ReaderWriterLock那样将这些时间集中到池中,也可以像ThinEvent类型(稍后介绍)一样缓慢分配它们。这种实现方法也是有弊端的,即要为每个新元素分配对象,备选方法可能也会将这些对象加入到池中,但同样会带来其他麻烦。文案大全实用标准文档受限缓冲区(Bounded Buffer)某些类别的队列中会出现资源使用问题。如果生产者任务创建项目的速度

30、快于使用者处理项目的速度,则系统的内存使用将不受限制。为了说明这个问题,我们假设一个系统,单个生产者每秒钟可将50 个项目排入队列,而使用者每秒钟只能使用10 个项目。首先,这样会打乱系统的平衡性,而且对于一对一的生产者 使用者配置无法进行很好的调整。只需一分钟,就会有2,400 个项目堆积在缓冲区中。假设这些项目中每个项目使用10KB 内存,那将意味着缓冲区本身就会占用24MB 内存。一小时后,这个数字将飙升至1GB 以上。解决这一问题的一个方法是调整生产者线程与使用者线程的比例,在上述情况中, 要将比例调整为一个生产者对应五个使用者。但是到达速度通常是不稳定的,这会导致系统周期性的不稳定,

31、并带来一些明显的问题,简单的固定比例是无法解决这个问题的。服务器上的程序通常是长时间运行的,人们希望程序能够长期保持良好的运行状态,但如果内存使用不受限,就会造成不可避免的混乱,还可能导致必须定期回收服务器进程的情况。受限缓冲区允许您对生产者强制阻塞前缓冲区可能达到的大小进行限制。阻塞生产者可让使用者有机会“赶上” (通过允许其线程接收调度时间片),同时还能够解决内存使用量增加的问题。我们的方法还是仅封装Queue<T>,同时添加两个等待条件和两个事件通知条件:生产者在队列满时等待,直至队列变为非满,而使用者在队列空时等待,直至变为非空;生产者在生产出项目后通知等待的使用者,而使用

32、者也会在取走项目后通知生产者,如图 6中所示。Figure 6受限缓冲区(Bounded Buffer)文案大全实用标准文档复制代码public class BoundedBuffer<T> private Queue<T> m_queue = new Queue<T>();private int m_consumersWaiting;private int m_producersWaiting;private const int s_maxBufferSize = 128;public void Enqueue(T obj) lock (m_queue)

33、while (m_queue.Count = (s_maxBufferSize - 1) m_producersWaiting+;Monitor.Wait(m_queue);m_producersWaiting-;m_queue.Enqueue(obj);if (m_consumersWaiting > 0)Monitor.PulseAll(m_queue);public T Dequeue() T e;文案大全实用标准文档lock (m_queue) while (m_queue.Count = 0) m_consumersWaiting+;Monitor.Wait(m_queue);

34、m_consumersWaiting-;e = m_queue.Dequeue();if (m_producersWaiting > 0)Monitor.PulseAll(m_queue);return e;这里我们再一次使用了一种比较天真的方法。但是我们确实优化了对PulseAll的调用(因为它们耗费的资源很多),方法是使用m_consumersWaiting和 m_producersWaiting这两个计数器并仅就计数器值是否为零发出信号。除此以外,我们还可以再做进一步的改进。例如,共享与此类似的单个事件可能会唤醒过多线程:如果使用者将队列大小降为0 ,并且生产者和使用者同时处于等待

35、状态,显然您只希望唤醒生产者(至少开始时要这么做)。此实现将以先进先出的规则处理所有等待者,这意味着您可能需要在任一生产者运行前唤醒使用者,这样做仅仅是为了让使用者发现队列为空,然后再次等待。令人欣慰的是,最终出现生产者和使用者同时等待的情况是很少见的,但其出现也是有规律的,而且受限区域较小。文案大全实用标准文档Thin事件与 Monitor.Wait、Pulse和 PulseAll相比, Win32事件有一个很大的优势:它们是 “粘滞的” (sticky) 。也就是说,一旦有事件收到信号,任何后续等待都将立即取消阻止,即使线程在信号发出前尚未开始等待。如果没有这个功能,您就需要经常编写一些代

36、码将所有等待和信号通知严格地限制在临界区域内,由于Windows计划程序总是会提升已唤醒线程的优先级, 因此这些代码的效率很低;如果不采取这种方法,您就必须使用某种技巧型很强、容易出现竞态条件的代码。作为替代方法,您可以使用“thin事件”,这是一种可重用数据结构,可在阻塞前短暂地旋转,仅在必要时才缓慢分配Win32事件,否则允许您执行类似手动重置事件的行为。换句话说, 它可以对那些复杂的容易导致竞态条件的代码进行封装,这样您就不必在整个基本代码内散播它。此示例依赖于Vance Morrison的文章中描述的一些内存模型保证,使用的时候要多加小心(请参见图 7)。Figure 7 Thin事件

37、复制代码public struct ThinEvent private int m_state; / 0 means unset, 1 means set.private EventWaitHandle m_eventObj;private const int s_spinCount = 4000;public void Set() m_state = 1;文案大全实用标准文档Thread.MemoryBarrier(); / required.if (m_eventObj != null)m_eventObj.Set();public void Reset() m_state = 0;if

38、(m_eventObj != null)m_eventObj.Reset();public void Wait() SpinWait s = new SpinWait();while (m_state = 0) if (s.Spin() >= s_spinCount) if (m_eventObj = null) ManualResetEvent newEvent =new ManualResetEvent(m_state = 1);if (Interlocked.CompareExchange<EventWaitHandle>(ref m_eventObj, newEven

39、t, null) = null) / If someone set the flag before seeing the new/ event obj, we must ensure its been set.文案大全实用标准文档if (m_state = 1)m_eventObj.Set(); else / Lost the race w/ another thread. Just use/ its event.newEvent.Close();m_eventObj.WaitOne();这基本上反映了m_state变量中的事件状态,其中值为0 表示未设置, 值为1 表示已设置。现在, 等待一

40、个已设置事件耗费资源是很低的;如果m_state在 Wait例程的入口处值为1 ,我们会立即返回,无需任何内核跳转。但如果线程在事件设置完毕之前进入等待状态, 处理上就需要很多技巧。要等待的首个线程必须分配一个新的事件对象,并对其进行比较后交换至m_eventObj字段中;如果CAS 失败,则意味着其他等待者对事件进行了初始化,所以我们只可重复使用它;否则就必须重新检查自上次看到m_state后其值是否发生更改。不然的话,m_state的值也许会为1 ,那么m_eventObj就无法收到信号通知,这将导致在调用WaitOne时出现死锁。 调用Set的线程必须首先设置m_state ,随后如果发

41、现值为非空的m_eventObj,就会调用其上的Set 。这里需要两个内存屏障:需文案大全实用标准文档要注意的是切不可提前移动m_state的第二次读取,我们会使用Interlocked.CompareExchange设置 m_eventObj来保证这点;在写入m_eventObj之前, 不可移动Set 中的对m_eventObj的读取 (这是一种在某些Intel和 AMD处理器以及CLR 2.0内存模型上出现的奇怪的合法转换,并未显式调用Thread.MemoryBarrier)。并行重置事件通常是不安全的,因此调用方需要进行额外的同步化。现在您可以轻松在其他地方使用它,例如在上述的Coun

42、tdownLatch示例和队列示例中,而且通常这样做可以大幅度提升性能,尤其是当您可以巧妙地运用旋转时。我们上面介绍了一个技巧性很强的实现方式。请注意, 您可以使用单个标志和监视器来实现自动和手动重置类型,这远比本示例简单(但效率方面有时会不及本例)。无锁定LIFO堆栈使用锁定构建线程安全的集合是相当直接明了的,即使限制和阻塞方面会有些复杂(如上面看到的)。但是,当所有协调均通过简单的后进先出(LIFO)堆栈数据结构实现时,使用锁定的开销会比实际所需的高。线程的临界区(即保持锁定的时间)有开始点和结束点,其持续时间可能会跨越许多指令的有效期。保持锁定可阻止其他线程同时进行读取和写入操作。这样做

43、可以实现序列化,这当然是我们所想要的结果,但严格地讲, 这种序列化要比我们所需的序列化强很多。我们的目的是要在堆栈上推入和弹出元素,而这两项操作只需通过常规读取和单一的比较交换写入即可实现。我们可以利用这点来构建伸缩性更强的无锁定堆栈,从而不会强制线程进行没必要的等待。我们的算法工作方式如下。使用有链接的列表代表堆栈,其标头代表堆栈的顶端,并存储在m_head字段中。在将一个新项推入堆栈时,要构造一个新节点,其值等于您要推入堆栈文案大全实用标准文档的值,然后从本地读取m_head字段,并将其存储至新节点的m_next字段,随后执行不可再分的Interlocked.CompareExchange

44、来替换堆栈当前的头部。如果顶端自首次读取后在序列中的任何点发生更改,CompareExchange都会失败,并且线程必须返回循环并再次尝试整个序列。弹出同样是比较直截了当的。读取m_head并尝试将其与m_next引用的本地副本交换;如果失败,您只需一直尝试,如图 8 中所示。 Win32提供了一种名为SList的类比数据结构,其构建方法采用了类似的算法。Figure 8无锁定堆栈复制代码public class LockFreeStack<T> private volatile StackNode<T> m_head;public void Push(T item) StackNode<T> node = new StackNode<T>(item);StackNode<T> head;do head = m_head;node.m_next = head; while (m_head != head | Interlocked.CompareExchange(

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论