Ⅰ 如何在CentOS 7.x中安裝OpenERP
1/slickplaid/5557321 不過這方法安裝好像很費時,等新版本出來再看看,反正正式要用也等正式版吧,或者用2月26日那個版本。 deb安裝就搞定,2月26日之後的版本,好像報表這塊改動比較多。 源碼安裝的,也可以下載了2月26日的版本 停掉服務 替換 openerp 目錄。 5/trunk/nightly/src/openerp-8/odoo/odoo/zip/master 把源文件解壓到openerp用戶家目錄下: sudo tar xvf openerp-8/odoo/odoo.git git pull 進行差異更新 git checkout 8.0(切換到8.0版本) git checkout 7.0(切換到7.0版本) 6.配置OpenERP服務 復制OE的默認配置文件到/etc/並修改所有者及許可權: sudo cp /opt/openerp/server/install/openerp-server.conf /etc/ sudo chown openerp: /etc/openerp-server.conf sudo chmod 640 /etc/openerp-server.conf 修改配置文件: sudo vi /etc/openerp-server.conf 這里需要修改資料庫用戶的密碼,為第四步時設定的密碼(這里用password做參考值),並增加日誌文件的路徑: [options] ; This is the password that allows database operations: ; admin_passwd = admin db_host = 127.0.0.1 db_port = 5432 db_user = openerp db_password = password logfile = /var/log/openerp/openerp-server.log addons_path = /opt/openerp/server/addons 說明:Odoo8 的 addons 目錄變位置了,加一句 使用openerp用戶shell登錄,驗證openerp是否已正確安裝: sudo su - openerp -s /bin/bash /opt/openerp/server/openerp-server 最後一行顯示 openerp.service.server: HTTP service (werkzeug) running on 0.0.0.0:8069表明openerp伺服器組件已經安裝正確, 你可以用從瀏覽器輸入IP:8069來連接oe(其中IP是OE伺服器的IP,本機可以用localhost:8069,或者127.0.0.1:8069連接。 此時你可以按Ctr+C停止OE服務。 如果發現錯誤提示,通常是依賴包沒有正確安裝。按照第五步的方法安裝缺少的依賴包。 7.增加啟動腳本 增加啟動腳本/etc/init.d/openerp : sudo vi /etc/init.d/openerp 輸入如下內容(可以粘貼復制的),:w 保存:q退出 #!/bin/sh ### BEGIN INIT INFO # Provides: openerp-server # Required-Start: $remote_fs $syslog # Required-Stop: $remote_fs $syslog # Should-Start: $network # Should-Stop: $network # Default-Start: 2 3 4 5 # Default-Stop: 0 1 6 # Short-Description: Enterprise Resource Management software # Description: Open ERP is a complete ERP and CRM software. ### END INIT INFO PATH=/bin:/sbin:/usr/bin DAEMON=/opt/openerp/server/openerp-server NAME=openerp-server DESC=openerp-server # Specify the user name (Default: openerp). USER=openerp # Specify an alternate config file (Default: /etc/openerp-server.conf). CONFIGFILE="/etc/openerp-server.conf" # pidfile PIDFILE=/var/run/$NAME.pid # Additional options that are passed to the Daemon. DAEMON_OPTS="-c $CONFIGFILE" [ -x $DAEMON ] exit 0 [ -f $CONFIGFILE ] exit 0 checkpid() { [ -f $PIDFILE ] return 1 pid=`cat $PIDFILE` [ -d /proc/$pid ] && return 0 return 1 } case "${1}" in start) echo -n "Starting ${DESC}: " start-stop-daemon --start --quiet --pidfile ${PIDFILE} \ --chuid ${USER} --background --make-pidfile \ --exec ${DAEMON} -- ${DAEMON_OPTS} echo "${NAME}." ;; stop) echo -n "Stopping ${DESC}: " start-stop-daemon --stop --quiet --pidfile ${PIDFILE} \ --oknodo echo "${NAME}." ;; restartforce-reload) echo -n "Restarting ${DESC}: " start-stop-daemon --stop --quiet --pidfile ${PIDFILE} \ --oknodo sleep 1 start-stop-daemon --start --quiet --pidfile ${PIDFILE} \ --chuid ${USER} --background --make-pidfile \ --exec ${DAEMON} -- ${DAEMON_OPTS} echo "${NAME}." ;; *) N=/etc/init.d/${NAME} echo "Usage: ${NAME} {startstoprestartforce-reload}" >&2 exit 1 ;; esac exit 0 建立日誌文件的目錄,並修改許可權: sudo mkdir /var/log/openerp sudo chown openerp:root /var/log/openerp sudo chmod +x /etc/init.d/openerp 啟動服務並測試腳本是否可以正常工作: sudo /etc/init.d/openerp start netstat -at 兩個命令之間間隔一段時期,讓OE伺服器啟動,結果中表明有一行 tcp 0 0 *:8069 *:* LISTEN 表明腳本啟動OE成功。 使用瀏覽器web客戶端打開,可以進入資料庫管理頁面。建議在此修改資料庫管理員用戶密碼。 默認的用戶名和密碼問admin、admin。然後停止openerp: sudo /etc/init.d/openerp stop 訪問日誌文件及網路監聽,確認服務已經停止: netstat -at 8.設置開機自動啟動: sudo update-rc.d openerp defaults 查看日誌: less /var/log/openerp/openerp-server.log 創建資料庫,開始openerp之旅吧! 注意這個案例源碼運行的 openerp 目錄在 /opt/openerp/server/openerp , 所以要添加 擴展 添加 到 /opt/openerp/server/openerp/addons 目錄 需要使用 winscp 和自動備份 模塊的的,記得放開 許可權 sudo chmod -R 777 /opt/openerp/server/openerp/addons 和自動備份模塊的相應許可權。 更新:下載最新的源碼包,停掉服務sudo /etc/init.d/openerp stop 直接用最新的openerp目錄覆蓋對應目錄就好了, 然後再啟動服務sudo /etc/init.d/openerp start
Ⅱ 用iso文件怎麼裝centos linux系統
需要有linux系統:
1、至少有兩個分區,否則存放centos.iso的分區無法格式化,假設有/dev/sda1為根分區;/dev/sda3為/opt分區
2、將centos.iso存放在/opt/centos.iso
3、mount -o loop /opt/centos.iso /mnt
4、復制引導文件
cp /mnt/isolinux/vmlinuz /boot/vmlinuz-ins
cp /mnt/isolinux/initrd.img /boot/initrd-ins
5、修改引導文件
vi /boot/grub/menu.lst
復制原來的默認引導4行,例如
title CentOS (2.6.18-400.1.1.el5)
root (hd0,0)
kernel /boot/vmlinuz-2.6.18-400.1.1.el5 ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-2.6.18-400.1.1.el5.img
title CentOS (2.6.18-400.1.1.el5)
root (hd0,0)
kernel /boot/vmlinuz-2.6.18-400.1.1.el5 ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-2.6.18-400.1.1.el5.img
6、修改為
title CentOS install
root (hd0,0)
kernel /boot/vmlinuz-ins ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-ins
title CentOS (2.6.18-400.1.1.el5)
root (hd0,0)
kernel /boot/vmlinuz-2.6.18-400.1.1.el5 ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-2.6.18-400.1.1.el5.img
7、重啟主機就會進入安裝步驟了
8、選擇從硬碟安裝,指定iso存放位置/dev/sda3,剩下的就和光碟安裝一樣一樣的了
Ⅲ centos7.3離線安裝telnet用於升級openssh
一、檢查系統有沒有安裝過telnet包
rpm -qa|grep telnet
rpm -qa | grep telnet-server
rpm -qa | grep xinetd
————————————————
二、卸載已安裝的rpm包(包名參考上一條命令查詢的結果)
rpm -e telnet- - . * .x86_64
rpm -e telnet-server- - . * .x86_64
rpm -e xinetd- - . * .x86_64
————————————————
三、通過rz命令上傳telnet rpm安裝包
————————————————
四、安裝rpm包,此處省略上傳文件步驟,我用的winscp上傳的,各位自便
安裝順序:xinetd--》telnet--》telnet-server
rpm -ivh xinetd-2.3.15-14.el7.x86_64.rpm
rpm -ivh telnet-0.17-65.el7_8.x86_64.rpm
rpm -ivh telnet-server-0.17-65.el7_8.x86_64.rpm
————————————————
五、查看已安裝telnet包版本
[root@kps4 src]# rpm -qa|grep telnet
結果如下:
telnet-server-0.17-65.el7_8.x86_64
telnet-0.17-65.el7_8.x86_64
————————————————
六、配置telnet登錄的終端類型,在/etc/securetty文件末尾增加一些pts終端,如下
pts/0
pts/1
pts/2
pts/3
編輯
vim /etc/securetty
tail -5 /etc/securetty
查看配置類型,如下
xvc0
pts/0
pts/1
pts/2
pts/3
————————————————
七、啟動telnet服務,並設置開機自動啟動
systemctl enable xinetd
systemctl enable telnet.socket
systemctl start telnet.socket
systemctl start xinetd
netstat -lntp|grep 23
啟動結果如下:
tcp6 0 0 :::23 :::* LISTEN 1/systemd
————————————————
八、防火牆開放23號埠
firewall-cmd --zone=public --add-port=23/tcp --permanent
重新載入防火牆
firewall-cmd --reload
————————————————
九、檢測ssh 可以正常登陸,使用ssh登陸,然後停止telnet服務並移除
systemctl stop telnet.socket
systemctl stop xinetd
systemctl disable xinetd
systemctl disable telnet.socket
————————————————
Ⅳ Linux下數據備份命令scp、rsync和後台運行
scp和rsync 均可實現文件的復制,但相比較,scp佔用系統資源較小,rsync速度較快。當小文件眾多時,rsync會導致硬碟I/O非常高,而scp基本不影響系統正常使用。可根據需要這倆選其一實現文件復制。
scp 是secure 的縮寫,scp是Linux系統下基於ssh登錄進行安全的遠程文件拷貝命令。
可以實現本地文件復制到遠程伺服器,也可以將遠程文件復制到本地。
rsync 是remote sync的縮寫。使用rsync備份數據時,不會直接覆蓋以前的數據(如果數據已經存在),而是先判斷已存在的數據和新數據的差異(默認規則是文件大小或修改時間有差異),只有數據不相同時才會把不相同的部分覆蓋。在僅作增量數據的時比scp靈活。
一般CentOS默認安裝rsync,若使用 rsync -v 提示找不到命令,可使用 yum install -y rsync 安裝。
單個冒號和雙冒號的區別 :使用rsync在遠程傳輸數據前,是需要進行登陸認證的,這個過程可使用ssh協議也可以使用rsync協議完成。單冒號(:)使用的是ssh協議;雙冒號(::)使用的是rsync協議。
默認情況下,rsync只確保源文件的所有內容(明確排除的文件除外)都復制到目標目錄。它不會使兩個目錄保持不同,並且不會刪除文件。如果要使目標目錄成為源目錄的鏡像副本,則使用--delete選項。可刪除只存在目標目錄,不存在於源目錄的文件。
增量備份算是一個經常使用的場景了。兩台伺服器之間進行文件定期備份,無需所有文件都一遍,僅復制有變動的文件。
具體做法是,第一次同步是全量備份,所有文件在基準目錄裡面同步一份。以後每一次同步都是增量備份,只同步源目錄與基準目錄之間有變動的部分,將這部分保存在一個新的目標目錄。這個新的目標目錄之中,也是包含所有文件,但實際上,只有那些變動過的文件是存在於該目錄,其他沒有變動的文件都是指向基準目錄文件的硬鏈接。
--link-dest 參數用來指定同步時的基準目錄。
上面命令中, --link-dest 參數指定基準目錄 /compare/path ,然後源目錄 /source/path 跟基準目錄進行比較,找出變動的文件,將它們拷貝到目標目錄 /target/path 。那些沒變動的文件則會生成硬鏈接。這個命令的第一次備份時是全量備份,後面就都是增量備份了。
一般伺服器之間復制文件都比較大,為防止誤操作,最好在後台運行。但因為需要和遠程伺服器之間的ssh通訊多是需要密碼的,所以不能直接使用nohup 放置於後台。無論是scp還是rsync都可操作如下:
後台和前台任務的切換
scp不支持斷點續傳,掛起scp進程可能導致數據缺失。傾向於使用rsync。
如果有其他任務需要使用nohup後台運行,但執行時卻忘記了使用nohup,也可參照此方法進行設置。
參考:1. Linux之scp命令及後台運行scp
Ⅳ CentOS使用不了scp命令怎麼辦
scp命令是Linux中的文件傳輸命令,但在CentOS系統操作中,有時會遇到無法使用的情況,CentOS無法使用scp命令的解決方法:
1、scp這東西應該屬於openssh-clients這個包,運行:
yum install openssh-clients
2、再運行scp就可以了,再次運行:
scp 1.so [email protected]:/root/
輸入密碼後又再次提示:
bash: scp: command not found
3、在目標主機也同樣安裝一下openssh-clients,再次嘗試,問題解決。
Ⅵ centos 中 怎麼安裝 kafka
kafka是LinkedIn開發並開源的一個分布式MQ系統,現在是Apache的一個孵化項目。在它的主頁描述kafka為一個高吞吐量的分布式(能將消息分散到不同的節點上)MQ。在這片博文中,作者簡單提到了開發kafka而不選擇已有MQ系統的原因。兩個原因:性能和擴展性。Kafka僅僅由7000行Scala編寫,據了解,Kafka每秒可以生產約25萬消息(50 MB),每秒處理55萬消息(110 MB)。
安裝准備
版本
Kafka版本:kafka_2.10-0.8.2.0
Zookeeper版本:3.4.6
Zookeeper 集群:hadoop104,hadoop107,hadoop108
Zookeeper集群的搭建參見:在CentOS上安裝ZooKeeper集群
物理環境
安裝兩台物理機:
192.168.40.104 hadoop104(運行3個Broker)
192.148.40.105 hadoop105(運行2個Broker)
該集群的創建主要分為三步,單節點單Broker,單節點多Broker,多節點多Broker
單節點單Broker
本節以hadoop104上創建一個Broker為例
#tar -xvf kafka_2.10-0.8.2.0.tgz
# cd kafka_2.10-0.8.2.0
配置
修改config/server.properties
[html] view plainprint?
broker.id=1
port=9092
host.name=hadoop104
socket.send.buffer.bytes=1048576
socket.receive.buffer.bytes=1048576
socket.request.max.bytes=104857600
log.dir=./kafka1-logs
num.partitions=10
zookeeper.connect=hadoop107:2181,hadoop104:2181,hadoop108:2181
啟動Kafka服務
[html] view plainprint?
#bin/kafka-server-start.sh config/server.properties
創建Topic
[html] view plainprint?
#bin/kafka-topics.sh --create --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --replication-factor 1 --partitions 1 --topic test
查看Topic
[html] view plainprint?
#bin/kafka-topics.sh --list --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181
輸出:
procer發送消息
[html] view plainprint?
#bin/kafka-console-procer.sh --broker-list localhost:9092 --topic test
consumer接收消息
[html] view plainprint?
#bin/kafka-console-consumer.sh --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --topic test --from-beginning
如果要最新的數據,可以不帶--from-beginning參數即可。
# /bin/kafka-console-consumer.sh --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --topic test
單節點多個Broker
配置
將上個章節中的文件夾再復制兩份分別為kafka_2,kafka_3
[html] view plainprint?
#cp -r kafka_2.10-0.8.2.0 kafka_2
#cp -r kafka_2.10-0.8.2.0 kafka_3
分別修改kafka_2/config/server.properties以及kafka_3/config/server.properties 文件中的broker.id,以及port屬性,確保唯一性
[html] view plainprint?
kafka_2/config/server.properties
broker.id=2
port=9093
kafka_3/config/server.properties
broker.id=3
port=9094
啟動
啟動另外兩個Broker
[html] view plainprint?
#cd kafka_2
# bin/kafka-server-start.sh config/server.properties &
#cd ../kafka_3
# bin/kafka-server-start.sh config/server.properties &
創建一個replication factor為3的topic
[html] view plainprint?
#bin/kafka-topics.sh --create --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
查看Topic的狀態
[html] view plainprint?
bin/kafka-topics.sh --describe --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --topic my-replicated-topic
從上面的內容可以看出,該topic包含1個part,replicationfactor為3,且Node3 是leador
解釋如下:
"leader" is the node responsible for all reads and writes for the given partition. Each node will be the leader for a randomly selected portion of the partitions.
"replicas" is the list of nodes that replicate the log for this partition regardless of whether they are the leader or even if they are currently alive.
"isr" is the set of "in-sync" replicas. This is the subset of the replicas list that is currently alive and caught-up to the leader.
再來看一下之前創建的test topic, 從下圖可以看出沒有進行replication
多個節點的多個Broker
在hadoop105上分別把下載的文件解壓縮到kafka_4,kafka_5兩個文件夾中,再將hadoop104上的server.properties配置文件拷貝到這連個文件夾中
[html] view plainprint?
#scp -r config/ root@hadoop105:/root/hadoop/kafka_4/
#scp -r config/ root@hadoop105:/root/hadoop/kafka_5/
配置
並分別修改內容如下:
[html] view plainprint?
kafka_4
brokerid=4
port=9095
host.name=hadoop105
kafka_5
brokerid=5
port=9096
host.name=hadoop105
啟動服務
[html] view plainprint?
#cd kafka_4
# bin/kafka-server-start.sh config/server.properties &
#cd ../kafka_5
# bin/kafka-server-start.sh config/server.properties &
到目前為止,兩台物理機上的5個Broker已經啟動完畢
總結
在kafka的核心思路中,不需要在內存里緩存數據,因為操作系統的文件緩存已經足夠完善和強大,只要不做隨機寫,順序讀寫的性能是非常高效的。kafka的數據只會順序append,數據的刪除策略是累積到一定程度或者超過一定時間再刪除。Kafka另一個獨特的地方是將消費者信息保存在客戶端而不是MQ伺服器,這樣伺服器就不用記錄消息的投遞過程,每個客戶端都自己知道自己下一次應該從什麼地方什麼位置讀取消息,消息的投遞過程也是採用客戶端主動pull的模型,這樣大大減輕了伺服器的負擔。Kafka還強調減少數據的序列化和拷貝開銷,它會將一些消息組織成Message Set做批量存儲和發送,並且客戶端在pull數據的時候,盡量以zero-的方式傳輸,利用sendfile(對應java里的FileChannel.transferTo/transferFrom)這樣的高級IO函數來減少拷貝開銷。可見,kafka是一個精心設計,特定於某些應用的MQ系統,這種偏向特定領域的MQ系統我估計會越來越多,垂直化的產品策略值的考慮。
Ⅶ CentOS使用不了scp命令怎麼辦
解決方法
在測試中需要在兩台虛擬機之間傳遞文件,首先想到的是scp命令,結果提示:
-bash: scp: command not found
想當然用yum install scp命令安裝,結果提示:
No package scp available.
後來發現scp這東西應該屬於openssh-clients這個包,運行:
yum install openssh-clients
再運行scp就可以了,再次運行:
scp 1.so [email protected]:/root/
輸入密碼後又再次提示:
bash: scp: command not found
在目標主機也同樣安裝一下openssh-clients,再次嘗試,問題解決。
上面就是CentOS無法使用scp命令的解決方法的介紹了,無法使用的原因是使用了yum install scp命令,應該運行yum install openssh-clients後再運行scp就可以了。
Ⅷ 新裝的centOS 6.2 沒有scp命令,該如何安裝scp呢
scp屬於openssh 包,安裝上該包就可以使用:
yum install openssh-clients openssh-server openssh
Ⅸ linux centos之間互傳文件
第一台上安裝個上網代理比如squid
第二台配置yum.conf
添加proxy=http://第一台內網ip:代理埠
現在第二台就可以正常通過yum上網安裝軟體了。