導航:首頁 > 程序命令 > jps命令

jps命令

發布時間:2022-01-16 02:21:27

① 為什麼我的jdk沒有jps這個命令

JPS即JPEG Stereo,是一種3d圖像格式;JPS文件格式其實就是JPEG文件格式

② 下配置的hadoop為什麼不能用jps命令

根據樓主的描述hadoop應該已經啟來了。
jps是java的工具,能夠顯示系統當前運行的java程序及其進程號。
運行jps沒有顯示,應該是沒有配置好系統的path、java_home和classpath。
執行hadoop
fs
-ls等同於hadoop
fs
-ls
.該命令查看的是hdfs的/user/hadoop目錄。而且默認是沒有這個目錄的。需要自己創建。

③ 如何在Windows 8上執行「jps」命令

要使用jps,要安裝JDK(1.5及以後版本)
JDK的bin要配置到classpath中
先來段腳手架代碼:
Code:
package schele;

import java.util.Date;
import java.util.Timer;
import java.util.TimerTask;
public class JDKTimerDemo {
public static void main(String[] args) {
Timer timer = new Timer();
timer.schele(new TimerTask() {
@Override public void run() {
System.out.println(Thread.currentThread() + " is running");
}
}, new Date(), 6000);
}
}

④ 如何查看hadoop集群是否安裝成功(用jps命令

1、用jps命令
(1)master節點
啟動集群:
cy@master:~$ start-all.sh
starting namenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-namenode-master.out
slave2: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave2.out
slave1: starting datanode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-datanode-slave1.out
master: starting secondarynamenode, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-secondarynamenode-master.out
starting jobtracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-jobtracker-master.out
slave1: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave1.out
slave2: starting tasktracker, logging to /home/cy/Hadoop/hadoop-1.2.1/libexec/../logs/hadoop-cy-tasktracker-slave2.out

用jps命令查看Java進程:
cy@master:~$ jps
6670 NameNode
7141 Jps
7057 JobTracker

(2)slave1節點

用jps命令查看Java進程:

cy@slave1:~$ jps
3218 Jps
2805 DataNode
2995 TaskTracker

(3)slave2節點

用jps命令查看Java進程:

cy@slave2:~$ jps
2913 TaskTracker
2731 DataNode
3147 Jps
如果三台虛擬機用jps命令查詢時如上面顯示的那樣子,就說明hadoop安裝和配置成功了。

2、hadoop集群的測試,用hadoop-examples-1.2.1.jar中自帶的wordcount程序進行測試,該程序的作用是統計單詞的個數。
(1)我們現在桌面上創建一個新的文件test.txt,裡面總共有10行,每行都是hello world
(2)在HDFS系統里創建一個input文件夾,使用命令如下:
hadoop fs -mkdir input
或 hadoop fs -mkdir /user/你的用戶名/input
(3)把創建好的test.txt上傳到HDFS系統的input文件夾下,使用命令如下所示。
hadoop fs -put /home/你的用戶名/桌面/test.txt input
或 hadoop fs -put /home/你的用戶名/桌面/test.txt /user/你的用戶名/input
(4)我們可以查看test.txt是否在HDFS的input文件夾下,如下所示:
hadoop fs -ls input
如果顯示如下就說明上傳成功:
Found 1 items
-rw-r--r-- 3 cy supergroup 120 2015-05-08 20:26 /user/cy/input/test.txt

(5)執行hadoop-examples-1.2.1.jar中自帶的wordcount程序,如下:(提示:在執行下面的命令之前,你要在終端用cd命令進入到/home/cy/Hadoop/hadoop-1.2.1目錄)
hadoop jar hadoop-examples-1.2.1.jar wordcount /user/你的用戶名/input/test.txt /user/你的用戶名/output

如果顯示如下結果就說明運行成功:
15/05/08 20:31:29 INFO input.FileInputFormat: Total input paths to process : 1
15/05/08 20:31:29 INFO util.NativeCodeLoader: Loaded the native-hadoop library
15/05/08 20:31:29 WARN snappy.LoadSnappy: Snappy native library not loaded
15/05/08 20:31:30 INFO mapred.JobClient: Running job: job_201505082010_0001
15/05/08 20:31:31 INFO mapred.JobClient: map 0% rece 0%
15/05/08 20:31:35 INFO mapred.JobClient: map 100% rece 0%
15/05/08 20:31:42 INFO mapred.JobClient: map 100% rece 33%
15/05/08 20:31:43 INFO mapred.JobClient: map 100% rece 100%
15/05/08 20:31:43 INFO mapred.JobClient: Job complete: job_201505082010_0001
15/05/08 20:31:43 INFO mapred.JobClient: Counters: 29
15/05/08 20:31:43 INFO mapred.JobClient: Job Counters
15/05/08 20:31:43 INFO mapred.JobClient: Launched rece tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_MAPS=3117
15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all reces waiting after reserving slots (ms)=0
15/05/08 20:31:43 INFO mapred.JobClient: Total time spent by all maps waiting after reserving slots (ms)=0
15/05/08 20:31:43 INFO mapred.JobClient: Launched map tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: Data-local map tasks=1
15/05/08 20:31:43 INFO mapred.JobClient: SLOTS_MILLIS_REDUCES=8014
15/05/08 20:31:43 INFO mapred.JobClient: File Output Format Counters
15/05/08 20:31:43 INFO mapred.JobClient: Bytes Written=18
15/05/08 20:31:43 INFO mapred.JobClient: FileSystemCounters
15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_READ=30
15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_READ=226
15/05/08 20:31:43 INFO mapred.JobClient: FILE_BYTES_WRITTEN=116774
15/05/08 20:31:43 INFO mapred.JobClient: HDFS_BYTES_WRITTEN=18
15/05/08 20:31:43 INFO mapred.JobClient: File Input Format Counters
15/05/08 20:31:43 INFO mapred.JobClient: Bytes Read=120
15/05/08 20:31:43 INFO mapred.JobClient: Map-Rece Framework
15/05/08 20:31:43 INFO mapred.JobClient: Map output materialized bytes=30
15/05/08 20:31:43 INFO mapred.JobClient: Map input records=10
15/05/08 20:31:43 INFO mapred.JobClient: Rece shuffle bytes=30
15/05/08 20:31:43 INFO mapred.JobClient: Spilled Records=4
15/05/08 20:31:43 INFO mapred.JobClient: Map output bytes=200
15/05/08 20:31:43 INFO mapred.JobClient: CPU time spent (ms)=610
15/05/08 20:31:43 INFO mapred.JobClient: Total committed heap usage (bytes)=176427008
15/05/08 20:31:43 INFO mapred.JobClient: Combine input records=20
15/05/08 20:31:43 INFO mapred.JobClient: SPLIT_RAW_BYTES=106
15/05/08 20:31:43 INFO mapred.JobClient: Rece input records=2
15/05/08 20:31:43 INFO mapred.JobClient: Rece input groups=2
15/05/08 20:31:43 INFO mapred.JobClient: Combine output records=2
15/05/08 20:31:43 INFO mapred.JobClient: Physical memory (bytes) snapshot=182902784
15/05/08 20:31:43 INFO mapred.JobClient: Rece output records=2
15/05/08 20:31:43 INFO mapred.JobClient: Virtual memory (bytes) snapshot=756301824
15/05/08 20:31:43 INFO mapred.JobClient: Map output records=20
(6)我們可以使用下面的命令還查看運行後的結果:
hadoop fs -ls output
hadoop fs -text /user/你的用戶名/output/part-r-00000
如果顯示如下就說明hadoop三個節點安裝和配置成功,測試也成功了,就可以繼續更深入地使用和研究hadoop了
hello 10
world 10

linux系統下用jps命令查看java進程,提示process information unavailable是為什麼

一般kill進程是這樣的:

比如你要殺掉top進程,

ps-ef|greptop查看top進程因為顯示出進程數太多使用grep過濾,

kill-9殺掉top進程,

ps-ef|greptop查看top進程有沒殺掉,如圖已殺掉

⑥ 我已經成功在windows下配置了hadoop,啟動成功後,利用jps命令,居然發現什麼都沒顯示.

根據樓主的描述hadoop應該已經啟來了。
jps是java的工具,能夠顯示系統當前運行的java程序及其進程號。
運行jps沒有顯示,應該是沒有配置好系統的path、java_home和classpath。

執行hadoop fs -ls等同於hadoop fs -ls .該命令查看的是hdfs的/user/hadoop目錄。而且默認是沒有這個目錄的。需要自己創建。

⑦ linux命令里的jps是什麼意思

jps(Java Virtual Machine Process Status Tool)是JDK 1.5提供的一個顯示當前所有java進程pid的命令,簡單實用,非常適合在linux/unix平台上簡單察看當前java進程的一些簡單情況。

⑧ windows 命令行 jps查看java進程沒有反應。如何用jps查看java進程。求解。

沒有反應,說明你的環境變數配置不對

你的path裡面應該沒有指向java安裝目錄的bin文件夾吧!?!

⑨ shell腳本中的jps提示命令未找到

這里應該使用jps命令的絕對路徑,因為直接用腳本的方式,可能會因為系統路徑的差異導致無法找到自己編譯安裝的軟體路徑。一般替換成絕對路徑就沒有問題了。建議你嘗試一下。

⑩ 安裝部署hadoop 從節點jps命令報錯

jps在java安裝目錄的bin目錄下

你可以到java-bin目錄下去執行
或者把java-bin添加到PATH的環境變數中

閱讀全文

與jps命令相關的資料

熱點內容
看電視可以用什麼app 瀏覽:943
安卓路由表怎麼看 瀏覽:76
10個小孩分糖果python 瀏覽:826
安卓app小紅點怎麼取消 瀏覽:288
馬哥linux面授 瀏覽:772
2345程序員 瀏覽:374
怎麼開啟網速顯示安卓 瀏覽:206
索尼950app怎麼樣 瀏覽:400
計算機畢設論文源碼 瀏覽:148
小米手機怎麼下載易媒體App 瀏覽:191
還原系統設計可以怎樣清理文件夾 瀏覽:670
北京時間校準伺服器雲伺服器 瀏覽:844
pythonexcel數據計算 瀏覽:49
內醫附院黨建APP怎麼下載 瀏覽:356
榮耀v20刷加密門禁卡 瀏覽:329
app緩沖視頻怎麼保存在手機 瀏覽:433
廣度優先演算法c語言 瀏覽:680
提高程序員競爭力 瀏覽:108
nfc可以開加密門卡嗎 瀏覽:675
如何知道網頁使用的伺服器是什麼 瀏覽:224