A. 多核编程与单核编程的区别
多核对于单核的好处是可以真正地同时处理多件事情,因此如果程序想要在多核CPU上获得更好的性能的话,使用多线程技术是必需的。但是采用多线程涉及到线程间数据同步的问题,程序员必须在线程间协调好对数据的访问和处理。不过我觉得多核编程与单核编程的区别并不是指线程同步问题,因为单核编程同样可以使用多线程,同样需要面对线程同步的问题。同样的代码不经过特别优化,均可以在多核CPU和单核CPU上运行得很好,只不过运行效率不同罢了。所以我觉得多核编程和单核编程的区别在于对多线程技术需求的迫切程度。如果程序针对多核环境来编程,那么必然要采用多线程技术,以获得更好的性能;如果程序只针对单核环境,那么对多线程并不是那么敏感,但如果它采用了多线程,一旦在多核环境运行,它也能获得性能的提升。
B. 求Scala程序设计 Java虚拟机多核编程实战书籍电子版百度云资源
Scala程序设计Java虚拟机多核编程实战链接:https://pan..com/s/1Wwq9R-rMxQVMBDJTDfT1Aw
C. 多核程序设计
楼上的答案没有回答到关键上.单任务如果使用的是多线程或多进程程序设计同样能使两个核的利用率比较均衡,达到提高cpu利用率从而减少数据处理所需时间的效果.
主要是因为过去的CPU都是单核的,程序员基本上都没有多核程序设计的概念.很多软件还没有充分的应用多核的思想.
一个程序有的部分很容易分成多线程,比如应用软件的界面和数据处理分成独立的两个线程.但是有的过程很难简单的分成两个线程,其间有许多过去PC上程序员们没有面对过的问题(少数精于网络分布式计算的程序员如google的后台数据系统,才遇到过这些问题,因为这些程序员面临的是组织网络上几万甚至几十万台服务器协同计算),特别是象你所说的数据处理的程序.
D. 多核程序设计技术有什么好书 知乎
多核处理器是指在一枚处理器中集成两个或多个完整的计算引擎(内核)。多核技术的开发源于工程师们认识到,仅仅提高单核芯片的速度会产生过多热量且无法带来相应的性能改善,先前的处理器产品就是如此。
E. WINDOWS多核编程与程序优化
Turbo C就可以的。编辑文本的时候可以用utraledit
至于vc++之类的我是不推荐初学者使用的
F. 多核计算与程序设计的内容简介
第1部分介绍多核编程的基础知识,包括多核编程常见问题、锁竞争、加速比、负载均衡等基本概念,多线程退出算法、读写锁、旋转锁、原子操作等多线程编程基础知识,基于OpenMP标准的并行程序设计基础等;
第2部分介绍基础的数据结构与算法,包括数组、链表、哈希表、二叉树、AVL树、复合二叉树等基本数据结构,在链表那章中还讲解了多线程并行遍历的基本方法。
第3部分介绍多核并行计算方面的基础知识,并行编程包括常用的编程模式如分治模式、流水线模式、任务图分解与调度模式、动态任务调度模式等,并行搜索包括顺序搜索及终止检测算法,并行最短路径搜索等,并行排序包括并行快速排序、并行归并排序、并行基数排序等,并行数值计算包括并行矩阵乘法、并行前缀和计算等方面的内容。本部分介绍的各种并行算法和程序中,重点介绍如何解决多核系统中的计算随CPU核数的扩展性,CPUCache伪共享方面的问题。
第4部分介绍多核共享资源计算方面的内容,也是《多核计算与程序设计》中最重要的内容,讲解了分布式计算设计模式如线程分组竞争模式、条件同步模式、批量私有化处理模式、数据本地化模式等。这部分中讲解了《多核计算与程序设计》中几个最重要的程序:分布式队列中实现了自动让每个线程带有一个本地队列、分布式查找中介绍了分段锁的哈希表、动态负载平衡的分布式查找等,分布式内存管理则介绍了适应多核的内存管理方案,尤其是基于抢夺式的分布式内存管理算法,在分配和释放共享内存时也几乎不需要使用锁,性能优异。
第5部分介绍任务分解与调度方面的知识,这也是《多核计算与程序设计》中最重要的内容,包括任务图分解与调度的实现方法,动态任务分解与调度的实现方法等。其中还介绍了使用动态嵌套任务调度进行并行计算的方法,给出了用动态嵌套任务调度实现ParallelForo、并行快速排序、并行归并的实例。
最后一章中还介绍了Lock-Free编程(使用CAS原子操作进行编程)的基础知识,如ABA问题,内存删除问题等,并给出了一个Lock-Free的队列的实现实例。
G. 多核64位汇编语言程序设计pdf下载
多核64位汇编语言程序设计
知道相关内容的
H. 多核程序设计和并行程序设计是一样的吗
参考答案 我长得就那么大众啊?没有,你长得很奥拓
I. 寻一篇多核程序设计的论文
We are dedicating all of our future proct development to multicore designs. We believe this is a key inflection point for the instry.
Intel President
Paul Otellini
Describing Intel’s future direction at the Developers Forum 2005
多核下的多线程程序设计与传统的单核下的多线程程序设计有着一定的差别,在单CPU下,是多个线程在同一个CPU上并发地执行,而在多核下,则是由多个线程在多个核上并行地执行。
但是,目前的程序设计中对于多核的利用并没有达到预期的效果。因此,为了能够在多核的环境下设计出更适合多核系统的程序,则是一个挑战。
要做到这一点,就必须将应用程序看做是众多相互依赖的任务的集合,将应用程序划分成多个独立的任务,并确定这些任务之间的相互依赖关系,这就称为分解(decomposition)。如下如示:
分解方式 设计 说明
任务分解 不同的程序行为采用不同的线程实现 常用于GUI应用程序
数据分解 多个线程对不同的数据块执行相同的操作 常用于音频、图像处理和科学计算应用程序
数据流分解 一个线程的输出作为另一个线程的输入 应注意尽量避免延迟
任务分解:对应用程序根据其执行的功能进行分解的过程称为任务分解(task decomposition)。根据这种方法,就能够对众多的独立任务进行分类。如果其中两个任务能够同时运行,那么开发人员就应该对其进行调度,形成二者之间的并行执行。
数据分解:数据分解也称为数据级并行(data-level parallelism)。是将应用程序根据各任务所处理的数据而非按任务来进行分解的方法,即以数据为中心。一般而言,能够按照数据分解方式进行分解的应用程序都包含多个线程,这些线程分别对不同的数据对象执行相同的操作。
数据流分解:在很多情况下,当对一个问题进行分解时,关键问题不在于采用一些什么任务来完成这个工作,而在于数据在这些任务之间是如何流动的。这个时候就要采用数据流分解方式,如典型的生产者/消费者问题。
对于任务分解,有两个需要注意的地方:
1. 划分的对象是计算,将计算划分为不同的任务
2. 划分后,研究不同任务所需的数据,如果这些数据不相交,则证明划分是成功的,如果数据有相当程序的相交,意味着要重新进行数据划分和功能划分。
如在一个气候模型中,需要考虑到地表模型、水文模型与海洋模型等多种情况,那么就应该将这几种模型划分成不同的任务,再分别进行并行地运算。
对于数据分解,划分的对象是数据,可以是算法的输入数据、中间处理数据和输出数据。在划分时应该考虑到数据上的相应操作。
最简单的情况下,比如对1000万个数进行相加,可以对其进行数据上的分解,用多个线程来分别计算不同批次的数据。然后再将计算的中间数据加到一起成为最终的结果。
--------------------------------------------------------------------------------
scutan 回复于:2008-07-09 21:50:58
1. 线程过多
线程并不是越多越好,对于某个程序,如果线程过多反而会严重地降低程序的性能。这种影响主要在于:
将给定的工作量划分给过多的线程会造成每个线程的工作量过少,因此可能导致线程启动和终止的开销比程序实际工作的时间还要多。
同时,太多并发线程的存在将导致共享有限硬件资源的开销增大。如保存和恢复寄存器状态的开销、保存和恢复线程cache状态的开销、废除虚存的开销、线程聚集在一起等待获取某个锁。
怎样解决这个问题:
限制可运行线程的个数
将计算线程与I/O线程分离开
使用已有的技术,如OpenMP,线程池等
2. 数据竞争、死锁
死锁,想必大家都很熟悉。这里谈谈一些简单的避免死锁的规则:
加锁的顺序是关键,使用嵌套的锁时必须保证以相同的顺序获取锁
防止发生饥饿:即这个代码的执行是否一定会结束。
不要重复请求同一个锁
越复杂的加锁方案越有可能造成死锁—设计应力求简单
3. 竞争激烈的锁
即使是正确使用锁来避免数据竞争,但如果各线程对锁的竞争很激烈,那么也会引发性能问题。即很多个线程来竞争同一个锁。在这个情况下,可以考虑将资源划分成若干个部分,然后用彼此独立的锁分别保护各个部分。即合理地安排加锁粒度的问题。在早期的linux内核中就使用了大内核锁,现在已经把锁给细划到不同的子系统中去了。
如果一个数据结构被频繁读取但不被频繁写入,就可以使用读写锁来解决竞争。
4. 线程安全函数
已有的一些函数并不是线程安全的,具体的线程安全函数可以参考APUE2上面的线程一章。
5. 存储效率问题
目前,处理器的速度已经比存储器快很多,一个处理器从内存中读或写一个值的时间内可以完成上百次的操作。因此,现在的程序往往受限于存储器的瓶颈。
首先,可以通过节省带宽,可以减少与存储器的数据交换数量,要节省带宽就要将数据压缩得更加紧凑。
其次是cache的利用。可以减少数据在不同CPU的cache间的移动。CPU亲合力(CPU Affinity)就是指在Linux系统中能够将一个或多个进程绑定到一个或多个处理器上运行。一个进程的CPU亲合力掩码决定了该进程将在哪个或哪几个CPU上运行,在一个多处理器系统中,设置CPU亲合力的掩码可能会获得更好的性能。
在下面的例子中讲解了如何利用将某个进程绑定以某个CPU上运行的实例。
http://linux.chinaunix.net/bbs/viewthread.php?tid=904906&extra=page%3D1%26amp%3Bfilter%3Ddigest
--------------------------------------------------------------------------------
scutan 回复于:2008-07-09 21:51:30
由于CPU运算速度的增长远远大于内存速度的增长,同时由于程序运行的局部性原理,所以现代计算机体系结构中引入了cache。
其实系统的存储器本身就是一个层次结构,从寄存器->高速缓存->主存->本地磁盘->颁布式文件系统。
在下面的贴子中的一个文档对cache方面讲解得非常不错,可以看看:
http://bbs.chinaunix.net/viewthread.php?tid=1022341&highlight=scutan
高速缓存的性能主要有以下几个方面:
1. 高速缓存的大小:
当CPU接收到指令后,它会最先向CPU中的一级缓存去寻找相关的数据,如果未命中,则继续向下一级的二级缓存中寻找。所以高速缓存越大,命中的机率也就越高。
2. 块大小的影响
大的块有利有弊,一方面,较大的块能利用程序中可能存在的空间局部性,帮助提高命中率。不过,对于给定的高速缓存的大小,块越大就意味着缓存行数越小,这会损害时间局部性比空间局部性更好的程序中的命中率。同时,因为块越大,传达时间也就越长。
3. 相联度的影响
较高的相联度的优点的降低了高速缓存由于冲突不命中出现抖动的可能性。不过,较高的相联度会造成较高的成本。
4. 前端总线的影响
现在的CPU技术发展很快,运算速度提高很大,而足够大的前端总线可以保障有足够的数据供给CPU,较低的前端总线将无法供给足够的数据给CPU,限制了CPU性能的发挥。
最后谈谈程序性能优化的相关内容。
对于程序性能的优化,首先应该考虑的架构以及算法这两方面的优化,最后再来考虑下面所讲述的这些优化。
消除连续的函数调用
消除不必要的存储器引用
通过展开循环降低循环开销
提高并行性
重新排列循环以提高空间局部性
让最常运行部分运行得更快
参考资料:
[1]. John L. Hennessy, David A. Patterson. 计算机体系结构:量化研究方法. 第4版
[2]. Shameem Akhter, Jason Roberts. 多核程序设计技术—通过软件多线程提升性能
[3]. Randal E. Bryant, David O’Hallaron. 深入理解计算机系统
[4]. Daniel P.Bovet, Marco Cesati. 深入理解Linux内核 第3版
http://www.chinaunix.net/jh/23/1193971.html
我抄的 自己拿回去看看
J. 多核程序设计相关。
DWORD WINAPI Thread1(PVOID pvParam)
{
int i;
int j=0;
int low = 1;
int high = n;
for(i=low;i<high;i++)
{
j = j * i;
}
return 0;
}
int main( )
{bound qw1,qw2;
qw1.low=1;
qw1.high =n/2;
HANDLE ThreadHandle1= CreateThread(NULL,0,Thread1,&qw1,0,NULL);
qw2.low=n/2+1;
qw2.high=n;
HANDLE ThreadHandle2 = CreateThread(NULL,0,Thread1,&qw2,0,NULL);
HANDLE ThreadHandles[2]= {ThreadHandle1,ThreadHandle2};
WaitForMultipleObjects(2,ThreadHandles,TRUE,INFINITE);
printf (“j=%d”,j)
return 0;
}