導航:首頁 > 程序命令 > jps非內部或外部命令

jps非內部或外部命令

發布時間:2022-08-14 19:03:44

㈠ windows 命令行 jps查看java進程沒有反應。如何用jps查看java進程。求解。

沒有反應,說明你的環境變數配置不對

你的path裡面應該沒有指向java安裝目錄的bin文件夾吧!?!

㈡ JVM調優的常見命令行工具有哪些

JVM調優的常見命令工具包括:
1)jps命令用於查詢正在運行的JVM進程,
2)jstat可以實時顯示本地或遠程JVM進程中類裝載、內存、垃圾收集、JIT編譯等數據
3)jinfo用於查詢當前運行這的JVM屬性和參數的值。
4)jmap用於顯示當前Java堆和永久代的詳細信息
5)jhat用於分析使用jmap生成的mp文件,是JDK自帶的工具
6)jstack用於生成當前JVM的所有線程快照,線程快照是虛擬機每一條線程正在執行的方法,目的是定位線程出現長時間停頓的原因。

linux命令里的jps是什麼意思

jps 是java提供的一個顯示當前所有java進程pid的命令,適合在linux/unix平台上簡單察看當前java進程的一些簡單情況。

㈣ 如何查看hadoop集群是否安裝成功(用jps命令

1、用jps命令
(1)master節點
啟動集群:
cy@master:~$ start-all.sh
starting namenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-namenode-master.out
slave2: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave2.out
slave1: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave1.out
master: starting secondarynamenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-secondarynamenode-master.out
starting jobtracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-jobtracker-master.out
slave1: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave1.out
slave2: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave2.out

用jps命令查看Java進程:
cy@master:~$ jps
6670 NameNode
7141 Jps
7057 JobTracker

(2)slave1節點

用jps命令查看Java進程:

cy@slave1:~$ jps
3218 Jps
2805 DataNode
2995 TaskTracker

(3)slave2節點

用jps命令查看Java進程:

cy@slave2:~$ jps
2913 TaskTracker
2731 DataNode
3147 Jps
如果三台虛擬機用jps命令查詢時如上面顯示的那樣子,就說明hadoop安裝和配置成功了。

2、hadoop集群的測試,用hadoop-examples-1.2.1.jar中自帶的wordcount程序進行測試,該程序的作用是統計單詞的個數。
(1)我們現在桌面上創建一個新的文件test.txt,裡面總共有10行,每行都是hello world
(2)在HDFS系統里創建一個input文件夾,使用命令如下:
hadoop fs -mkdir input
或 hadoop fs -mkdir /user/你的用戶名/input
(3)把創建好的test.txt上傳到HDFS系統的input文件夾下,使用命令如下所示。
hadoop fs -put /home/你的用戶名/桌面/test.txt input
或 hadoop fs -put /home/你的用戶名/桌面/test.txt /user/你的用戶名/input
(4)我們可以查看test.txt是否在HDFS的input文件夾下,如下所示:
hadoop fs -ls input
如果顯示如下就說明上傳成功:
Found 1 items
-rw-r--r-- 3 cy supergroup 120 2015-05-08 20:26 /user/cy/input/test.txt

(5)執行hadoop-examples-1.2.1.jar中自帶的wordcount程序,如下:(提示:在執行下面的命令之前,你要在終端用cd命令進入到/home/cy/Hadoop/hadoop-1.2.1目錄)
hadoop jar hadoop-examples-1.2.1.jar wordcount /user/你的用戶名/input/test.txt /user/你的用戶名/output

如果顯示如下結果就說明運行成功:
15/05/08 20:31:29 INFO input.FileInputFormat: Total input paths to process : 1
15/05/08 20:31:29 INFO util.NativeCodeLoader: Loaded the native-hadoop library
15/05/08 20:31:29 WARN snappy.LoadSnappy: Snappy native library not loaded
15/05/08 20:31:30 INFO mapred.JobClient: Running job: job_201505082010_0001
15/05/08 20:31:31 INFO mapred.JobClient: map 0% rece 0%
15/05/08 20:31:35 INFO mapred.JobClient: map 100% rece 0%
15/05/08 20:31:42 INFO mapred.JobClient: map 100% rece 33%
15/05/08 20:31:43 INFO mapred.JobClient: map 100% rece 100%
15/05/08 20:31:43 INFO mapred.JobClient: Job complete: job_201505082010_0001
15/05/08 20:31:43 INFO mapred.JobClient: Counters: 29
15/05/08 20:31:43 INFO mapred.JobClient: Job Counters
15/05/08 20:31:43 INFO mapred.JobClient: Launched rece tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=3117
15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all reces waiting after reserving slots (ms)=0
15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0
15/05/08 20:31:43 INFO mapred.JobClient: Launched map tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: Data-local map tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=8014
15/05/08 20:31:43 INFO mapred.JobClient: File Output Format Counters
15/05/08 20:31:43 INFO mapred.JobClient: Bytes Written=18
15/05/08 20:31:43 INFO mapred.JobClient: FileSystemCounters
15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_READ=30
15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_READ=226
15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_WRITTEN=116774
15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=18
15/05/08 20:31:43 INFO mapred.JobClient: File Input Format Counters
15/05/08 20:31:43 INFO mapred.JobClient: Bytes Read=120
15/05/08 20:31:43 INFO mapred.JobClient: Map-Rece Framework
15/05/08 20:31:43 INFO mapred.JobClient: Map output materialized bytes=30
15/05/08 20:31:43 INFO mapred.JobClient: Map input records=10
15/05/08 20:31:43 INFO mapred.JobClient: Rece shuffle bytes=30
15/05/08 20:31:43 INFO mapred.JobClient: Spilled Records=4
15/05/08 20:31:43 INFO mapred.JobClient: Map output bytes=200
15/05/08 20:31:43 INFO mapred.JobClient: CPU time spent (ms)=610
15/05/08 20:31:43 INFO mapred.JobClient: Total committed heap usage (bytes)=176427008
15/05/08 20:31:43 INFO mapred.JobClient: Combine input records=20
15/05/08 20:31:43 INFO mapred.JobClient: SPLIT_RAW_BYTES=106
15/05/08 20:31:43 INFO mapred.JobClient: Rece input records=2
15/05/08 20:31:43 INFO mapred.JobClient: Rece input groups=2
15/05/08 20:31:43 INFO mapred.JobClient: Combine output records=2
15/05/08 20:31:43 INFO mapred.JobClient: Physical memory (bytes) snapshot=182902784
15/05/08 20:31:43 INFO mapred.JobClient: Rece output records=2
15/05/08 20:31:43 INFO mapred.JobClient: Virtual memory (bytes) snapshot=756301824
15/05/08 20:31:43 INFO mapred.JobClient: Map output records=20
(6)我們可以使用下面的命令還查看運行後的結果:
hadoop fs -ls output
hadoop fs -text /user/你的用戶名/output/part-r-00000
如果顯示如下就說明hadoop三個節點安裝和配置成功,測試也成功了,就可以繼續更深入地使用和研究hadoop了
hello 10
world 10

㈤ 啟動Hadoop後,執行jps命令發現某些進程啟動不了怎麼辦

咨詢記錄 · 回答於2021-10-12

㈥ shell腳本中的jps提示命令未找到

這里應該使用jps命令的絕對路徑,因為直接用腳本的方式,可能會因為系統路徑的差異導致無法找到自己編譯安裝的軟體路徑。一般替換成絕對路徑就沒有問題了。建議你嘗試一下。

㈦ 安裝部署hadoop 從節點jps命令報錯

jps在java安裝目錄的bin目錄下

你可以到java-bin目錄下去執行
或者把java-bin添加到PATH的環境變數中

㈧ 求助,為什麼我的ubuntu不能使用jps命令

提示都說了,不建議使用這個腳本,使用start-dfs.sh和start-mappred.sh來替代它。這說明腳本的作者或者維護人也覺得這個腳本可能有問題……你要是有興趣也可以自己改改……

㈨ 如何在Windows 8上執行「jps」命令

要使用jps,要安裝JDK(1.5及以後版本)
JDK的bin要配置到classpath中
先來段腳手架代碼:
Code:
package schele;

import java.util.Date;
import java.util.Timer;
import java.util.TimerTask;
public class JDKTimerDemo {
public static void main(String[] args) {
Timer timer = new Timer();
timer.schele(new TimerTask() {
@Override public void run() {
System.out.println(Thread.currentThread() + " is running");
}
}, new Date(), 6000);
}
}

㈩ 下配置的hadoop為什麼不能用jps命令

根據樓主的描述hadoop應該已經啟來了。
jps是java的工具,能夠顯示系統當前運行的java程序及其進程號。
運行jps沒有顯示,應該是沒有配置好系統的path、java_home和classpath。

執行hadoop fs -ls等同於hadoop fs -ls .該命令查看的是hdfs的/user/hadoop目錄。而且默認是沒有這個目錄的。需要自己創建。

閱讀全文

與jps非內部或外部命令相關的資料

熱點內容
新夢幻大陸伺服器地址 瀏覽:239
網吧伺服器怎麼更換壁紙 瀏覽:528
linux命令方法 瀏覽:328
linux下載freetype 瀏覽:121
程序員入駐平台 瀏覽:327
程序員大戰外掛 瀏覽:743
html實例教程pdf 瀏覽:155
linux命令開放所有許可權 瀏覽:573
30歲能學會編程 瀏覽:735
小火箭的伺服器是什麼 瀏覽:967
cad查信息命令 瀏覽:402
XP禁止新建文件夾 瀏覽:394
程序員的悲慘生活 瀏覽:207
什麼找房app比較好用 瀏覽:202
手機視頻剪輯壓縮 瀏覽:320
中華軟體庫源碼資源共享 瀏覽:69
極雲普惠沒有合適的前端伺服器 瀏覽:173
伺服器空白處怎麼辦 瀏覽:677
stm單片機控制機械臂 瀏覽:192
施工方案整理到文件夾叫什麼名 瀏覽:958