Ⅰ linux怎么查看每个进程占用的内存
ps
aux
user
pid
%cpu
%mem
vsz
rss
tty
stat
start
time
command
●
user,进程所有者的用户名。
●
pid,进程号,可以唯一标识该进程。
●
%cpu,进程自最近一次刷新以来所占用的cpu时间和总时间的百分比。
●
%mem,进程使用内存的百分比。
●
vsz,进程使用的虚拟内存大小,以k为单位。
●
rss,进程占用的物理内存的总数量,以k为单位。
●
tty,进程相关的终端名。
●
stat,进程状态,用(r--运行或准备运行;s--睡眠状态;i--空闲;z--冻结;d--不间断睡眠;w-进程没有驻留页;t停止或跟踪。)这些字母来表示。
●
start,进程开始运行时间。
●
time,进程使用的总cpu时间。
●
command,被执行的命令行。
Ⅱ linux的虚拟内存是4G,而每个进程都有自己独立的4G内存空间,怎么理解
一个进程用到的虚拟地址是由内存区域表来管理的,实际用不了4G。而用到的内存区域,会通过页表映射到物理内存。所以每个进程都可以使用同样的虚拟内存地址而不冲突,因为它们的物理地址实际上是不同的。
内核用的是3G以上的1G虚拟内存地址,其中896M是直接映射到物理地址的,128M按需映射896M以上的所谓高位内存。各进程用的是同一个内核,什么叫“都运行内核”?
Ⅲ Linux进程的内存使用解析
进程XXX占用了多少内存?这是个经常被问到,也经常被答错的问题。linux进程的内存分配是个比较复杂的话题,而linux上的工具往往把这个问题过分简单化,因此引出不少误解和困惑。首先把ps,
top这类工具扔掉,然后看这么一个简单程序:[root@pczou
pczou]#
cat
./prog.c#i
nclude#i
nclude#i
nclude#i
nclude#define
ONEM
(1024*1024)
www.shiwu.com
int
func(){char
s[16*ONEM];char*
p;p
=
malloc(32*ONEM);pause();return
0;}int
main(){printf(pid:
%d/n,
getpid());func();return
0;}其中func()这个函数分配了32MB的内存,以及16MB的堆栈。运行一下这个prog程序,prog会停在pause()的位置,看看ps怎么说:USER
PID
%CPU
%MEM
VSZ
RSS
TTY
STAT
START
TIME
COMMANDroot
4238
0.0
0.0
52396
352
pts/0
S
21:29
0:00
./progVSZ指的是进程内存空间的大小,这里是52396KB;RSS指的是驻留物理内存中的内存大小,这里是352KB。一般系统管理员知道VSZ并不代表进程真正用到的内存,因为有些空间会仅在页表中挂个名,也就是说只是虚拟存在着,只有真正用到的时候内核才会把虚拟页面和真正的物理页面映射起来。比如,prog.c中用malloc()分配的32MB内存,由于程序中并没有用到这些内存,没有物理内存被分配,也就不应算到进程的帐上。
www.shiwu.com
进程的内存使用情况比较复杂,这是因为:进程所申请的内存不一定真正会被用到真正用到了的内存也不一定是只有该进程自己在用
(比如动态共享库)所以酒足饭饱结帐的时候,饭馆打出的帐单中往往漏洞百出,不是计入了没上的菜,就是一个菜算了两份钱。而ps给出的就是这样的糊涂帐单,不足为凭。算清楚帐的唯一办法是把每个菜都仔细过一遍,看看有没有上,有没有重复。下面的帐单要清楚多了:Virtual
memory
:
52396
KBEffective
VM
:
52120
KBMapped
:
352
KBEffective
mapped:
76.6
KBSole
use
:
72
KBPer
file
memory
useld-2.3.4.so
:
VM
94208
B,
M
90112
B,
S
8192
Bprog
:
VM
8192
B,
M
8192
B,
S
8192
Blibc-2.3.4.so
:
VM
1180
KB,
M
221184
B,
S
16384
B可以看出,虽然虚拟地址空间是52396KB,实际映射(a.k.a.
分配)的空间是352KB,这和ps给出的结果一致。再看Effective
Mapped这个值,仅为76.6
KB。这个值的计算方法是:有效的实际使用内存
=
该进程独占的内存
+
共享的内存A
/共享A的进程数目
+
共享的内存B
/共享B的进程数目
+
...比如对于一个kde应用程序kontact,它用的Qt库的虚拟地址空间为
7M,而实际映射的空间有4.5M,也就是说真正给
Qt分配物理内存大小为4.5M。假设有10个KDE应用正在运行,那么记到kontact帐上的就不应该是4.5M,而是A-A之后的0.45M。这么算帐虽然并不十分准确,但Effective
Mapped已经足以说明进程所占用内存的实际大小了。
www.shiwu.com
OK,最后用这个方法给系统中所有进程都结下帐:从上面的统计结果可以看出:虽然firefox的占用虚拟空间是最大的,但其实际占用的内存却比X
Server要少。firefox
的实际占用的内存和其RSS
(a.k.a.
mapped)差别不大,占RSS的99%;而kontact的实际占用内存却仅占RSS的63%,有27%的内存是共享的。由此可以粗略看出我用的窗口管理器是KDE而非Gnome,why?
因为Qt之类的共享库被很多KDE进程分担了。sole值可以理解为private
mapped,也就是这个进程退出后可能被释放的内存
(对于非匿名的映射页面可能还会存留一段时间)。作者
railon
Ⅳ linux 下怎么查看一个进程占用内存大小
这里介绍下查看一个进程占用内存大小的方法。
1、首先单击桌面左上角的应用程序,选择系统工具选项,如下图所示。
Ⅳ linux进程内存相关
3种地址:虚拟地址、物理地址、逻辑地址
物理地址:内存的电路地址,对应内存地址线上的高低电平,物理可见的。
虚拟地址: 分页机制 的产物,也叫线性地址,是进程能看见的地址。
逻辑地址: 分段机制 的产物,属于inter cpu的历史遗留问题,linux可以当做不存在。
3种地址的转换:进程访问逻辑地址,linux内核根据分段机制装换成虚拟地址,然后把进程的页表和虚拟地址都告诉cpu,cpu就可以根据分页机制将虚拟地址装换成物理地址,然后访问内存。
linux内核中巧妙地屏蔽里分段机制,就是逻辑地址等于虚拟地址,访问内存只需要利用分页机制把虚拟地址转换成物理地址。
linux会为每个进程创建自己的虚拟地址空间,就是进程地址空间,64位系统就是128T的内存空间。需要注意的是,虚拟地址就是假的,一开始不和物理地址对应,也就是说不占用物理内存,只有当虚拟地址有写入操作是,内核会触发缺页,分配真实的物理地址给虚拟地址。物理地址的管理可参考 内核内存管理
从进程空间看,用户态闲置内存有3块,Stack、Memory Mapping Region、Heap,Stack是程序函数调用运行时需要的,不可控,能自由分配的内存就剩Memory Mapping Region、Heap了,linux系统提供的内存分配函数就是针对这两个区域的。
Heap操作函数:int brk(void *addr)、void *sbrk(intptr_t increment)
Memory Mapping Region操作函数:mmap()、munmap()
当然进程可以直接使用系统调用去申请内存,但是如果不管理的话,经过大量的申请和释放,会把进程空间切割的乱七八糟,导致不能申请大块的连续空间,为此就出现了内存管理模块,封装了系统调用,对进程提供malloc和free等高级函数。实际上,除了一些特殊程序,我们也很少用系统调用,一般都是使用内存管理模块提供的malloc和free,关系如下图:
内存管理模块用各种好处,例如不会每次操作都去执行系统调用,减少内存碎片的产生等等。
当然也有很多实现方式,例如常用的glibc的Ptmalloc,google的tcmalloc,facebook的jemalloc等。各有各的应用场景,blablabla....
使用时,gcc默认会链接glibc的,如果想使用其他lib,gcc链接时指定就能覆盖掉glibc的。
我们重点讲Ptmalloc,从而启发程序员在写程序时多考虑下内存分配情况,可以选择或自己实现适合自己程序的内存管理lib。
Ptmalloc的历史发展,blablabla......,Ptmalloc采取内存池管理,进程malloc时,通过brk(小于128K的内存)、mmap(大内存)从系统获取地址空间,给进程使用,进程free时,不会立即通过brk、munmap将地址空间还给系统,会自己维护起来,叫做空闲内存,这些空闲内存在进程再次malloc时,还会被分出去,并且空闲内存会在特定条件下合并起来还给系统。
内存分配区,管理了一片内存,对外分发和回收,可以理解为一个内存池,分main arena和non main arena。
main arena:最早的分配区,管理着所有可分配的内存,通过brk,mmap等系统调用向系统申请内存。注意只有main arena可以操作Heap。
non main arena:由于多线程的出现,如果多有线程都操作main arena就会有竞争,需要加锁控制,所以出现了non main arena,通过mmap向main arena申请一大块内存,然后自己管理,可以理解为内存分销商。
只有主线程在main arena上申请内存,子线程在non main arena上,non main arena的个数是有上限的,所以non main arena允许多个子线程共用,这样就涉及到加锁,所以程序涉及应避免子线程个数太多。
进程申请到的一块内存叫做一个内存片,arena内部使用chunk数据结构来描述内存片,包括进程正在使用的内存片,和进程free掉的空闲内存片
A:是否main arena内存
M:使用mmap内存
P:上一块是否被使用
size of previous chunk:上一块没有被使用时,表示上块长度,被使用时是上块用来存User data的。
Size of chunk:就是下一块的size of previous chunk,释放时填上本块长度,供下块合并用。
分给进程的内存片arena可以不管,但是进程free回来的,arena需要通过一定方式组织起来,方便进程再次使用。组织方式有下面几种:
bins是个数组,包含128个bin,每个bin是个链表,分small bin和large bin两种,各64个,small bin中chunk大小固定,两个相邻的small bin中的chunk大小相差8bytes,large bin中chunk大小是一定范围内的,其中的chunk按大小排列。
空闲chunk按大小选择合适的bin,按新旧顺序挂到链表上,优先分配旧的chunk。
不大于max_fast (默认值为64B)的chunk被释放后,首先会被放到fast bins 中,fast bins中的chunk并不改变它的使用标志P。这样也就无法将它们合并,当需要给用户分配的chunk小于或等于max_fast时,ptmalloc首先会在fast bins中查找相应的空闲块。在特定的时候,ptmalloc会遍历fast bins中的chunk,将相邻的空闲chunk进行合并,并将合并后的chunk加入unsorted bin中。
进行malloc时,如果在fast bins中没有找到合适的chunk,则ptmalloc会先在unsorted bin中查找合适的空闲chunk,如果unsorted bin不能满足分配要求。malloc便会将unsorted bin中的chunk加入bins中。然后再从bins中继续进行查找和分配过程。从这个过程可以看出来,unsorted bin可以看做是bins的一个缓冲区,增加它只是为了加快分配的速度。
前面的bin中都是回收回来的内存,top chunk才是内存的初始来源,每个arena都有一个top chunk,用来管理Heap的,Heap会在arena第一次分配内存时初始化,会分配一块(chunk_size + 128K) align 4K的空间(132K)作为初始的Heap,top chunk占据整个空间,每次分配会在低地址出切出一片,如下图:
回收时,只有和top chunk相连的内存才能和top chunk合并,才能进而还给系统。
子线程Heap:在main arena中mmap出64M的空间,叫做sub-heap,再在sub-heap上初始化Heap。
主线程的Heap才是真Heap,使用进程Heap,使用brk申请内存。
子线程的heap不够用时,会在申请新的sub-heap,和老的sub-heap单向链表连起来,top chunk会搬到新sub-heap上。
描述mmap出来的内存,单独管理,free时按阈值来决定是否munmap,有动态调整阈值功能,防止太频繁的mmap和munmap。本文不关注。
即最后一次small request中因分割而得到的剩余部分,它有利于改进引用局部性,也即后续对 small chunk 的 malloc 请求可能最终被分配得彼此靠近。
当用户请求 small chunk而无法从small bin和unsorted bin得到时,会在large bin中找最合适的chunk,然后做切割,返回给用户的User chunk,剩下的是Remainder chunk添加到unsorted bin中。这一Remainder chunk就将成为last remainder chunk。
下一块为高地址,前一块为低地址。
Glibc内存管理 华庭(庄明强)