Ⅰ 如何在CentOS 7.x中安装OpenERP
1/slickplaid/5557321 不过这方法安装好像很费时,等新版本出来再看看,反正正式要用也等正式版吧,或者用2月26日那个版本。 deb安装就搞定,2月26日之后的版本,好像报表这块改动比较多。 源码安装的,也可以下载了2月26日的版本 停掉服务 替换 openerp 目录。 5/trunk/nightly/src/openerp-8/odoo/odoo/zip/master 把源文件解压到openerp用户家目录下: sudo tar xvf openerp-8/odoo/odoo.git git pull 进行差异更新 git checkout 8.0(切换到8.0版本) git checkout 7.0(切换到7.0版本) 6.配置OpenERP服务 复制OE的默认配置文件到/etc/并修改所有者及权限: sudo cp /opt/openerp/server/install/openerp-server.conf /etc/ sudo chown openerp: /etc/openerp-server.conf sudo chmod 640 /etc/openerp-server.conf 修改配置文件: sudo vi /etc/openerp-server.conf 这里需要修改数据库用户的密码,为第四步时设定的密码(这里用password做参考值),并增加日志文件的路径: [options] ; This is the password that allows database operations: ; admin_passwd = admin db_host = 127.0.0.1 db_port = 5432 db_user = openerp db_password = password logfile = /var/log/openerp/openerp-server.log addons_path = /opt/openerp/server/addons 说明:Odoo8 的 addons 目录变位置了,加一句 使用openerp用户shell登录,验证openerp是否已正确安装: sudo su - openerp -s /bin/bash /opt/openerp/server/openerp-server 最后一行显示 openerp.service.server: HTTP service (werkzeug) running on 0.0.0.0:8069表明openerp服务器组件已经安装正确, 你可以用从浏览器输入IP:8069来连接oe(其中IP是OE服务器的IP,本机可以用localhost:8069,或者127.0.0.1:8069连接。 此时你可以按Ctr+C停止OE服务。 如果发现错误提示,通常是依赖包没有正确安装。按照第五步的方法安装缺少的依赖包。 7.增加启动脚本 增加启动脚本/etc/init.d/openerp : sudo vi /etc/init.d/openerp 输入如下内容(可以粘贴复制的),:w 保存:q退出 #!/bin/sh ### BEGIN INIT INFO # Provides: openerp-server # Required-Start: $remote_fs $syslog # Required-Stop: $remote_fs $syslog # Should-Start: $network # Should-Stop: $network # Default-Start: 2 3 4 5 # Default-Stop: 0 1 6 # Short-Description: Enterprise Resource Management software # Description: Open ERP is a complete ERP and CRM software. ### END INIT INFO PATH=/bin:/sbin:/usr/bin DAEMON=/opt/openerp/server/openerp-server NAME=openerp-server DESC=openerp-server # Specify the user name (Default: openerp). USER=openerp # Specify an alternate config file (Default: /etc/openerp-server.conf). CONFIGFILE="/etc/openerp-server.conf" # pidfile PIDFILE=/var/run/$NAME.pid # Additional options that are passed to the Daemon. DAEMON_OPTS="-c $CONFIGFILE" [ -x $DAEMON ] exit 0 [ -f $CONFIGFILE ] exit 0 checkpid() { [ -f $PIDFILE ] return 1 pid=`cat $PIDFILE` [ -d /proc/$pid ] && return 0 return 1 } case "${1}" in start) echo -n "Starting ${DESC}: " start-stop-daemon --start --quiet --pidfile ${PIDFILE} \ --chuid ${USER} --background --make-pidfile \ --exec ${DAEMON} -- ${DAEMON_OPTS} echo "${NAME}." ;; stop) echo -n "Stopping ${DESC}: " start-stop-daemon --stop --quiet --pidfile ${PIDFILE} \ --oknodo echo "${NAME}." ;; restartforce-reload) echo -n "Restarting ${DESC}: " start-stop-daemon --stop --quiet --pidfile ${PIDFILE} \ --oknodo sleep 1 start-stop-daemon --start --quiet --pidfile ${PIDFILE} \ --chuid ${USER} --background --make-pidfile \ --exec ${DAEMON} -- ${DAEMON_OPTS} echo "${NAME}." ;; *) N=/etc/init.d/${NAME} echo "Usage: ${NAME} {startstoprestartforce-reload}" >&2 exit 1 ;; esac exit 0 建立日志文件的目录,并修改权限: sudo mkdir /var/log/openerp sudo chown openerp:root /var/log/openerp sudo chmod +x /etc/init.d/openerp 启动服务并测试脚本是否可以正常工作: sudo /etc/init.d/openerp start netstat -at 两个命令之间间隔一段时期,让OE服务器启动,结果中表明有一行 tcp 0 0 *:8069 *:* LISTEN 表明脚本启动OE成功。 使用浏览器web客户端打开,可以进入数据库管理页面。建议在此修改数据库管理员用户密码。 默认的用户名和密码问admin、admin。然后停止openerp: sudo /etc/init.d/openerp stop 访问日志文件及网络监听,确认服务已经停止: netstat -at 8.设置开机自动启动: sudo update-rc.d openerp defaults 查看日志: less /var/log/openerp/openerp-server.log 创建数据库,开始openerp之旅吧! 注意这个案例源码运行的 openerp 目录在 /opt/openerp/server/openerp , 所以要添加 扩展 添加 到 /opt/openerp/server/openerp/addons 目录 需要使用 winscp 和自动备份 模块的的,记得放开 权限 sudo chmod -R 777 /opt/openerp/server/openerp/addons 和自动备份模块的相应权限。 更新:下载最新的源码包,停掉服务sudo /etc/init.d/openerp stop 直接用最新的openerp目录覆盖对应目录就好了, 然后再启动服务sudo /etc/init.d/openerp start
Ⅱ 用iso文件怎么装centos linux系统
需要有linux系统:
1、至少有两个分区,否则存放centos.iso的分区无法格式化,假设有/dev/sda1为根分区;/dev/sda3为/opt分区
2、将centos.iso存放在/opt/centos.iso
3、mount -o loop /opt/centos.iso /mnt
4、复制引导文件
cp /mnt/isolinux/vmlinuz /boot/vmlinuz-ins
cp /mnt/isolinux/initrd.img /boot/initrd-ins
5、修改引导文件
vi /boot/grub/menu.lst
复制原来的默认引导4行,例如
title CentOS (2.6.18-400.1.1.el5)
root (hd0,0)
kernel /boot/vmlinuz-2.6.18-400.1.1.el5 ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-2.6.18-400.1.1.el5.img
title CentOS (2.6.18-400.1.1.el5)
root (hd0,0)
kernel /boot/vmlinuz-2.6.18-400.1.1.el5 ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-2.6.18-400.1.1.el5.img
6、修改为
title CentOS install
root (hd0,0)
kernel /boot/vmlinuz-ins ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-ins
title CentOS (2.6.18-400.1.1.el5)
root (hd0,0)
kernel /boot/vmlinuz-2.6.18-400.1.1.el5 ro root=LABEL=/ rhgb quiet
initrd /boot/initrd-2.6.18-400.1.1.el5.img
7、重启主机就会进入安装步骤了
8、选择从硬盘安装,指定iso存放位置/dev/sda3,剩下的就和光盘安装一样一样的了
Ⅲ centos7.3离线安装telnet用于升级openssh
一、检查系统有没有安装过telnet包
rpm -qa|grep telnet
rpm -qa | grep telnet-server
rpm -qa | grep xinetd
————————————————
二、卸载已安装的rpm包(包名参考上一条命令查询的结果)
rpm -e telnet- - . * .x86_64
rpm -e telnet-server- - . * .x86_64
rpm -e xinetd- - . * .x86_64
————————————————
三、通过rz命令上传telnet rpm安装包
————————————————
四、安装rpm包,此处省略上传文件步骤,我用的winscp上传的,各位自便
安装顺序:xinetd--》telnet--》telnet-server
rpm -ivh xinetd-2.3.15-14.el7.x86_64.rpm
rpm -ivh telnet-0.17-65.el7_8.x86_64.rpm
rpm -ivh telnet-server-0.17-65.el7_8.x86_64.rpm
————————————————
五、查看已安装telnet包版本
[root@kps4 src]# rpm -qa|grep telnet
结果如下:
telnet-server-0.17-65.el7_8.x86_64
telnet-0.17-65.el7_8.x86_64
————————————————
六、配置telnet登录的终端类型,在/etc/securetty文件末尾增加一些pts终端,如下
pts/0
pts/1
pts/2
pts/3
编辑
vim /etc/securetty
tail -5 /etc/securetty
查看配置类型,如下
xvc0
pts/0
pts/1
pts/2
pts/3
————————————————
七、启动telnet服务,并设置开机自动启动
systemctl enable xinetd
systemctl enable telnet.socket
systemctl start telnet.socket
systemctl start xinetd
netstat -lntp|grep 23
启动结果如下:
tcp6 0 0 :::23 :::* LISTEN 1/systemd
————————————————
八、防火墙开放23号端口
firewall-cmd --zone=public --add-port=23/tcp --permanent
重新加载防火墙
firewall-cmd --reload
————————————————
九、检测ssh 可以正常登陆,使用ssh登陆,然后停止telnet服务并移除
systemctl stop telnet.socket
systemctl stop xinetd
systemctl disable xinetd
systemctl disable telnet.socket
————————————————
Ⅳ Linux下数据备份命令scp、rsync和后台运行
scp和rsync 均可实现文件的复制,但相比较,scp占用系统资源较小,rsync速度较快。当小文件众多时,rsync会导致硬盘I/O非常高,而scp基本不影响系统正常使用。可根据需要这俩选其一实现文件复制。
scp 是secure 的缩写,scp是Linux系统下基于ssh登录进行安全的远程文件拷贝命令。
可以实现本地文件复制到远程服务器,也可以将远程文件复制到本地。
rsync 是remote sync的缩写。使用rsync备份数据时,不会直接覆盖以前的数据(如果数据已经存在),而是先判断已存在的数据和新数据的差异(默认规则是文件大小或修改时间有差异),只有数据不相同时才会把不相同的部分覆盖。在仅作增量数据的时比scp灵活。
一般CentOS默认安装rsync,若使用 rsync -v 提示找不到命令,可使用 yum install -y rsync 安装。
单个冒号和双冒号的区别 :使用rsync在远程传输数据前,是需要进行登陆认证的,这个过程可使用ssh协议也可以使用rsync协议完成。单冒号(:)使用的是ssh协议;双冒号(::)使用的是rsync协议。
默认情况下,rsync只确保源文件的所有内容(明确排除的文件除外)都复制到目标目录。它不会使两个目录保持不同,并且不会删除文件。如果要使目标目录成为源目录的镜像副本,则使用--delete选项。可删除只存在目标目录,不存在于源目录的文件。
增量备份算是一个经常使用的场景了。两台服务器之间进行文件定期备份,无需所有文件都一遍,仅复制有变动的文件。
具体做法是,第一次同步是全量备份,所有文件在基准目录里面同步一份。以后每一次同步都是增量备份,只同步源目录与基准目录之间有变动的部分,将这部分保存在一个新的目标目录。这个新的目标目录之中,也是包含所有文件,但实际上,只有那些变动过的文件是存在于该目录,其他没有变动的文件都是指向基准目录文件的硬链接。
--link-dest 参数用来指定同步时的基准目录。
上面命令中, --link-dest 参数指定基准目录 /compare/path ,然后源目录 /source/path 跟基准目录进行比较,找出变动的文件,将它们拷贝到目标目录 /target/path 。那些没变动的文件则会生成硬链接。这个命令的第一次备份时是全量备份,后面就都是增量备份了。
一般服务器之间复制文件都比较大,为防止误操作,最好在后台运行。但因为需要和远程服务器之间的ssh通讯多是需要密码的,所以不能直接使用nohup 放置于后台。无论是scp还是rsync都可操作如下:
后台和前台任务的切换
scp不支持断点续传,挂起scp进程可能导致数据缺失。倾向于使用rsync。
如果有其他任务需要使用nohup后台运行,但执行时却忘记了使用nohup,也可参照此方法进行设置。
参考:1. Linux之scp命令及后台运行scp
Ⅳ CentOS使用不了scp命令怎么办
scp命令是Linux中的文件传输命令,但在CentOS系统操作中,有时会遇到无法使用的情况,CentOS无法使用scp命令的解决方法:
1、scp这东西应该属于openssh-clients这个包,运行:
yum install openssh-clients
2、再运行scp就可以了,再次运行:
scp 1.so [email protected]:/root/
输入密码后又再次提示:
bash: scp: command not found
3、在目标主机也同样安装一下openssh-clients,再次尝试,问题解决。
Ⅵ centos 中 怎么安装 kafka
kafka是LinkedIn开发并开源的一个分布式MQ系统,现在是Apache的一个孵化项目。在它的主页描述kafka为一个高吞吐量的分布式(能将消息分散到不同的节点上)MQ。在这片博文中,作者简单提到了开发kafka而不选择已有MQ系统的原因。两个原因:性能和扩展性。Kafka仅仅由7000行Scala编写,据了解,Kafka每秒可以生产约25万消息(50 MB),每秒处理55万消息(110 MB)。
安装准备
版本
Kafka版本:kafka_2.10-0.8.2.0
Zookeeper版本:3.4.6
Zookeeper 集群:hadoop104,hadoop107,hadoop108
Zookeeper集群的搭建参见:在CentOS上安装ZooKeeper集群
物理环境
安装两台物理机:
192.168.40.104 hadoop104(运行3个Broker)
192.148.40.105 hadoop105(运行2个Broker)
该集群的创建主要分为三步,单节点单Broker,单节点多Broker,多节点多Broker
单节点单Broker
本节以hadoop104上创建一个Broker为例
#tar -xvf kafka_2.10-0.8.2.0.tgz
# cd kafka_2.10-0.8.2.0
配置
修改config/server.properties
[html] view plainprint?
broker.id=1
port=9092
host.name=hadoop104
socket.send.buffer.bytes=1048576
socket.receive.buffer.bytes=1048576
socket.request.max.bytes=104857600
log.dir=./kafka1-logs
num.partitions=10
zookeeper.connect=hadoop107:2181,hadoop104:2181,hadoop108:2181
启动Kafka服务
[html] view plainprint?
#bin/kafka-server-start.sh config/server.properties
创建Topic
[html] view plainprint?
#bin/kafka-topics.sh --create --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --replication-factor 1 --partitions 1 --topic test
查看Topic
[html] view plainprint?
#bin/kafka-topics.sh --list --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181
输出:
procer发送消息
[html] view plainprint?
#bin/kafka-console-procer.sh --broker-list localhost:9092 --topic test
consumer接收消息
[html] view plainprint?
#bin/kafka-console-consumer.sh --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --topic test --from-beginning
如果要最新的数据,可以不带--from-beginning参数即可。
# /bin/kafka-console-consumer.sh --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --topic test
单节点多个Broker
配置
将上个章节中的文件夹再复制两份分别为kafka_2,kafka_3
[html] view plainprint?
#cp -r kafka_2.10-0.8.2.0 kafka_2
#cp -r kafka_2.10-0.8.2.0 kafka_3
分别修改kafka_2/config/server.properties以及kafka_3/config/server.properties 文件中的broker.id,以及port属性,确保唯一性
[html] view plainprint?
kafka_2/config/server.properties
broker.id=2
port=9093
kafka_3/config/server.properties
broker.id=3
port=9094
启动
启动另外两个Broker
[html] view plainprint?
#cd kafka_2
# bin/kafka-server-start.sh config/server.properties &
#cd ../kafka_3
# bin/kafka-server-start.sh config/server.properties &
创建一个replication factor为3的topic
[html] view plainprint?
#bin/kafka-topics.sh --create --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic
查看Topic的状态
[html] view plainprint?
bin/kafka-topics.sh --describe --zookeeper hadoop107:2181,hadoop104:2181,hadoop108:2181 --topic my-replicated-topic
从上面的内容可以看出,该topic包含1个part,replicationfactor为3,且Node3 是leador
解释如下:
"leader" is the node responsible for all reads and writes for the given partition. Each node will be the leader for a randomly selected portion of the partitions.
"replicas" is the list of nodes that replicate the log for this partition regardless of whether they are the leader or even if they are currently alive.
"isr" is the set of "in-sync" replicas. This is the subset of the replicas list that is currently alive and caught-up to the leader.
再来看一下之前创建的test topic, 从下图可以看出没有进行replication
多个节点的多个Broker
在hadoop105上分别把下载的文件解压缩到kafka_4,kafka_5两个文件夹中,再将hadoop104上的server.properties配置文件拷贝到这连个文件夹中
[html] view plainprint?
#scp -r config/ root@hadoop105:/root/hadoop/kafka_4/
#scp -r config/ root@hadoop105:/root/hadoop/kafka_5/
配置
并分别修改内容如下:
[html] view plainprint?
kafka_4
brokerid=4
port=9095
host.name=hadoop105
kafka_5
brokerid=5
port=9096
host.name=hadoop105
启动服务
[html] view plainprint?
#cd kafka_4
# bin/kafka-server-start.sh config/server.properties &
#cd ../kafka_5
# bin/kafka-server-start.sh config/server.properties &
到目前为止,两台物理机上的5个Broker已经启动完毕
总结
在kafka的核心思路中,不需要在内存里缓存数据,因为操作系统的文件缓存已经足够完善和强大,只要不做随机写,顺序读写的性能是非常高效的。kafka的数据只会顺序append,数据的删除策略是累积到一定程度或者超过一定时间再删除。Kafka另一个独特的地方是将消费者信息保存在客户端而不是MQ服务器,这样服务器就不用记录消息的投递过程,每个客户端都自己知道自己下一次应该从什么地方什么位置读取消息,消息的投递过程也是采用客户端主动pull的模型,这样大大减轻了服务器的负担。Kafka还强调减少数据的序列化和拷贝开销,它会将一些消息组织成Message Set做批量存储和发送,并且客户端在pull数据的时候,尽量以zero-的方式传输,利用sendfile(对应java里的FileChannel.transferTo/transferFrom)这样的高级IO函数来减少拷贝开销。可见,kafka是一个精心设计,特定于某些应用的MQ系统,这种偏向特定领域的MQ系统我估计会越来越多,垂直化的产品策略值的考虑。
Ⅶ CentOS使用不了scp命令怎么办
解决方法
在测试中需要在两台虚拟机之间传递文件,首先想到的是scp命令,结果提示:
-bash: scp: command not found
想当然用yum install scp命令安装,结果提示:
No package scp available.
后来发现scp这东西应该属于openssh-clients这个包,运行:
yum install openssh-clients
再运行scp就可以了,再次运行:
scp 1.so [email protected]:/root/
输入密码后又再次提示:
bash: scp: command not found
在目标主机也同样安装一下openssh-clients,再次尝试,问题解决。
上面就是CentOS无法使用scp命令的解决方法的介绍了,无法使用的原因是使用了yum install scp命令,应该运行yum install openssh-clients后再运行scp就可以了。
Ⅷ 新装的centOS 6.2 没有scp命令,该如何安装scp呢
scp属于openssh 包,安装上该包就可以使用:
yum install openssh-clients openssh-server openssh
Ⅸ linux centos之间互传文件
第一台上安装个上网代理比如squid
第二台配置yum.conf
添加proxy=http://第一台内网ip:代理端口
现在第二台就可以正常通过yum上网安装软件了。