⑴ maven用命令怎么更新依赖包
maven
mvn clean install -e -U
-e详细异常,-U强制更新
⑵ idea怎么运行maven命令
1.官方文档说IntelliJ IDEA已经自身集成了maven,则不用劳心去下载maven 。
2.导入一个程序,看是否是maven程序的关键在于工程之中有没有pom.xml这个文件,比如这里。
3.为这个工程配置好服务器。
3.1 点击“Edit Configurations”;
3.2 进入Run/Debug Configurations 窗口,点击左上角的 “+”;
3.3 在弹出的“Add New Configuration”列表中选择 “maven";
3.4 为新的configuration输入名称和执行的命令,点击确认;
4.配置完成后,新的configuration会成为默认的configuration,直接点击运行按钮--三角形绿色按钮。
5.之后,web程序会被编译并且运行,如果是第一次运行,中间可能会去下载一些依赖包。
若运行成功,这会给出一个链接,鼠标直接点击链接后,浏览器就会直接运行该maven 项目 。
⑶ maven怎么添加hadoop依赖
关于Maven的使用就不再啰嗦了,网上很多,并且这么多年变化也不大,这里仅介绍怎么搭建Hadoop的开发环境。
1. 首先创建工程
[plain]view plain
mvnarchetype:generate-DgroupId=my.hadoopstudy-DartifactId=hadoopstudy-DarchetypeArtifactId=maven-archetype-quickstart-DinteractiveMode=false
2. 然后在pom.xml文件里添加hadoop的依赖包hadoop-common, hadoop-client, hadoop-hdfs,添加后的pom.xml文件如下
[html]view plain
<projectxmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xmlns="http://maven.apache.org/POM/4.0.0"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0http://maven.apache.org/maven-v4_0_0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>my.hadoopstudy</groupId>
<artifactId>hadoopstudy</artifactId>
<packaging>jar</packaging>
<version>1.0-SNAPSHOT</version>
<name>hadoopstudy</name>
<url>http://maven.apache.org</url>
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.5.1</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-hdfs</artifactId>
<version>2.5.1</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.5.1</version>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.1</version>
<scope>test</scope>
</dependency>
</dependencies>
</project>
3. 测试
3.1 首先我们可以测试一下hdfs的开发,这里假定使用上一篇Hadoop文章中的hadoop集群,类代码如下
[java]view plain
packagemy.hadoopstudy.dfs;
importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.FSDataOutputStream;
importorg.apache.hadoop.fs.FileStatus;
importorg.apache.hadoop.fs.FileSystem;
importorg.apache.hadoop.fs.Path;
importorg.apache.hadoop.io.IOUtils;
importjava.io.InputStream;
importjava.net.URI;
publicclassTest{
publicstaticvoidmain(String[]args)throwsException{
Stringuri="hdfs://9.111.254.189:9000/";
Configurationconfig=newConfiguration();
FileSystemfs=FileSystem.get(URI.create(uri),config);
//列出hdfs上/user/fkong/目录下的所有文件和目录
FileStatus[]statuses=fs.listStatus(newPath("/user/fkong"));
for(FileStatusstatus:statuses){
System.out.println(status);
}
//在hdfs的/user/fkong目录下创建一个文件,并写入一行文本
FSDataOutputStreamos=fs.create(newPath("/user/fkong/test.log"));
os.write("HelloWorld!".getBytes());
os.flush();
os.close();
//显示在hdfs的/user/fkong下指定文件的内容
InputStreamis=fs.open(newPath("/user/fkong/test.log"));
IOUtils.Bytes(is,System.out,1024,true);
}
}
3.2 测试MapRece作业
测试代码比较简单,如下:
[java]view plain
packagemy.hadoopstudy.maprece;
importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.Path;
importorg.apache.hadoop.io.IntWritable;
importorg.apache.hadoop.io.Text;
importorg.apache.hadoop.maprece.Job;
importorg.apache.hadoop.maprece.Mapper;
importorg.apache.hadoop.maprece.Recer;
importorg.apache.hadoop.maprece.lib.input.FileInputFormat;
importorg.apache.hadoop.maprece.lib.output.FileOutputFormat;
importorg.apache.hadoop.util.GenericOptionsParser;
importjava.io.IOException;
publicclassEventCount{
<Object,Text,Text,IntWritable>{
=newIntWritable(1);
privateTextevent=newText();
publicvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{
intidx=value.toString().indexOf("");
if(idx>0){
Stringe=value.toString().substring(0,idx);
event.set(e);
context.write(event,one);
}
}
}
<Text,IntWritable,Text,IntWritable>{
privateIntWritableresult=newIntWritable();
publicvoidrece(Textkey,Iterable<IntWritable>values,Contextcontext)throwsIOException,InterruptedException{
intsum=0;
for(IntWritableval:values){
sum+=val.get();
}
result.set(sum);
context.write(key,result);
}
}
publicstaticvoidmain(String[]args)throwsException{
Configurationconf=newConfiguration();
String[]otherArgs=newGenericOptionsParser(conf,args).getRemainingArgs();
if(otherArgs.length<2){
System.err.println("Usage:EventCount<in><out>");
System.exit(2);
}
Jobjob=Job.getInstance(conf,"eventcount");
job.setJarByClass(EventCount.class);
job.setMapperClass(MyMapper.class);
job.setCombinerClass(MyRecer.class);
job.setRecerClass(MyRecer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
FileInputFormat.addInputPath(job,newPath(otherArgs[0]));
FileOutputFormat.setOutputPath(job,newPath(otherArgs[1]));
System.exit(job.waitForCompletion(true)?0:1);
}
}
运行“mvn package”命令产生jar包hadoopstudy-1.0-SNAPSHOT.jar,并将jar文件复制到hadoop安装目录下
这里假定我们需要分析几个日志文件中的Event信息来统计各种Event个数,所以创建一下目录和文件
[plain]view plain
/tmp/input/event.log.1
/tmp/input/event.log.2
/tmp/input/event.log.3
因为这里只是要做一个列子,所以每个文件内容可以都一样,假如内容如下
[plain]view plain
JOB_NEW...
JOB_NEW...
JOB_FINISH...
JOB_NEW...
JOB_FINISH...
然后把这些文件复制到HDFS上
[plain]view plain
$bin/hdfsdfs-put/tmp/input/user/fkong/input
运行maprece作业
[plain]view plain
$bin/hadoopjarhadoopstudy-1.0-SNAPSHOT.jarmy.hadoopstudy.maprece.EventCount/user/fkong/input/user/fkong/output
查看执行结果
[plain]view plain
$bin/hdfsdfs-cat/user/fkong/output/part-r-00000
⑷ 求助:各种MAVEN命令的意义以及执行过程,如:mvn –T1 –C clean install -X
mvn–T1–Ccleaninstall-X
我分开解释下:
–T1:线程数,可以并行地构建那些相互间没有依赖关系的模块,充分利用多核CPU资源。
–C: 如果校验不成功 ,那么表示失败
clean: 清理上一次构建生成的文件
install:用来将不是maven建的artifacts安装本地资源库
-X:debug级别 输出信息
⑸ metrics-core-2.2.0.jar的maven依赖怎么写
第一步:将IKAnalyzer.jar包存放在一个文件夹中,比如mylib文件夹
第二步:建一个IKAnalyzer.jar包相关的pom.xml文件,需要在pom.xml中定义其maven坐标及其相应的依赖代码即可,同样将pom文件存放在上述jar文件同一文件夹下,IKAnalyzer.jar坐标及依赖代码如下:
<project xmlns=""
xmlns:xsi=""
xsi:schemaLocation="
">
<modelVersion>4.0.0</modelVersion>
<groupId>org.wltea.ik-analyzer</groupId>
<artifactId>ik-analyzer</artifactId>
<version>3.2.8</version>
<name>IK Analyzer 3</name>
<description>A dictionary and grammar-based Chinese segmenter</description>
<dependencies>
<dependency>
<groupId>org.apache.lucene</groupId>
<artifactId>lucene-core</artifactId>
<version>3.0.3</version>
<optional>true</optional>
</dependency>
<dependency>
<groupId>org.apache.solr</groupId>
<artifactId>solr-core</artifactId>
<version>1.4.1</version>
<optional>true</optional>
</dependency>
<dependency>
<groupId>junit</groupId>
<artifactId>junit</artifactId>
<version>3.8.2</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.apache.lucene</groupId>
<artifactId>lucene-analyzers</artifactId>
<version>3.0.3</version>
<scope>test</scope>
</dependency>
<dependency>
<groupId>org.apache.lucene</groupId>
<artifactId>lucene-smartcn</artifactId>
<version>3.0.3</version>
<scope>test</scope>
</dependency>
</dependencies>
</project>
第三步:打开CMD,进入到mylib文件夹,运行下面命令
mvn install:install-file \
-Dfile=IKAnalyzer3.2.8.jar \
-DgroupId=org.wltea.ik-analyzer \
-DartifactId=ik-analyzer \
-Dversion=3.2.8 \
-Dpackaging=jar
这样你就可以将IKAnalyzer3.2.8.jar安装到您Maven本地的库文件夹相应目录中。你可以根据你需要安装包的实际情况修改上面的几个参数的设定值即可。之后你可以在pom.xml文件中通过以下依赖在项目中引入上述的包,如下:
<dependency>
<groupId>org.wltea.ik-analyzer</groupId>
<artifactId>ik-analyzer</artifactId>
<version>3.2.8</version>
</dependency>
当然你也可以不将IKAnalyzer3.2.8.jar发布到您本地的Maven库中,而是通过下面配置引入,效果和上面的差不多:
<dependency>
<groupId>org.wltea</groupId>
<artifactId>IKAnalyzer</artifactId>
<version>3.2.8</version>
<systemPath>C:\Users\yangping\Desktop\a\IKAnalyzer3.2.8.jar</systemPath>
</dependency>
⑹ 使用Maven 命令,该怎么处理
Maven是一个构建工具,服务与构建.使用Maven配置好项目后,输入简单的命令,如:mvn clean install,Maven会帮我们处理那些繁琐的任务. Maven是跨平台的. Maven最大化的消除了构建的重复. Maven可以帮助我们标准化构建过程.所有的项目都是简单一致的,简化了学习成本. 总之,Maven作为一个构建工具,不仅帮我们自动化构建,还能抽象构建过程,提供构建任务实现.他跨平台,对外提供一致的操作接口,这一切足以使他成为优秀的,流行的构建工具. 但是Maven不仅是构建工具,他还是一个依赖管理工具和项目信息管理工具.他还提供了中央仓库,能帮我们自动下载构件. 使用Maven还能享受一个额外的好处,即Maven对于项目目录结构、测试用例命名方式等内容都有既定的规则,只要遵循了这些成熟的规则,用户在项目间切换的时候就免去了额外的学习成本,可以说是约定优于配置(Convention Over Configuration)。
⑺ 怎样解决maven里编译时包的依赖有关问题
一、导出到默认目录 targed/dependency
从Maven项目中导出项目依赖的jar包:进入工程pom.xml 所在的目录下,执行如下命令:
mvn dependency:-dependencies
或在eclipse中,选择项目的pom.xml文件,点击右键菜单中的Run As,见下图红框中,在弹出的Configuration窗口中,输入 dependency:-dependencies后,点击运行
maven项目所依赖的jar包会导出到targed/dependency目录中。
二、导出到自定义目录中
在maven项目下创建lib文件夹,输入以下命令:
mvn dependency:-dependencies -DoutputDirectory=lib
maven项目所依赖的jar包都会复制到项目目录下的lib目录下
三、设置依赖级别
同时可以设置依赖级别,通常使用compile级别
mvn dependency:-dependencies -DoutputDirectory=lib -DincludeScope=compile
⑻ maven如何安装有哪些常用命令
目前越来越多的项目开始采用maven管理,本经验介绍下maven如何安装,安装完如何验证,以及dos下常用maven命令用都是什么作用。
工具/原料
apache-maven-3.1.0本经验用的这个版本实验
方法/步骤
下载maven,下载后如果是压缩包,进行解压,得到maven目录。
找到我们的maven目录并复制路径,右键计算机,属性里选择高级系统设置,找到环境变量。
用户变量下选择新建,变量名为M2_HOME,变量值为D:\Program Files\apache-maven-3.1.0,点击确定
找到maven下的bin目录D:\Program Files\apache-maven-3.1.0\bin复制,用户变量下选中PATH点击编辑,粘贴,注意加分号跟其它的隔开。
这就算配置完成,验证对不对,win+R快捷键cmd进入dos窗口,输入命令,mvn -v(注意中间有个空格),回车运行后可以看见maven版本maven home表示安装成功。
进入或者新建想要生成项目的文件夹,通过运行dos命令mvn archetype:generate,可以简单搭建一个maven项目的骨架。运行过程中会让我们输入groupId,artifactId,package,也可以直接设置这些,例如:mvn archetype:generate -DgroupId=com.xh.maven -DartifactId=maven_03 -Dversion=0.0.1_SNAPSHOT
如果我们写好了一个项目,dos命令下可以通过mvn compile编译项目src/main/java下中的类
如果编译的结果显示有ERROR,怎么查看ERROR的详细信息呢,可以通过mvn -e,从本例这个提示看,就是pom.xml上第一行xml后面编码encoding拼写错误
mvn项目是src下有个main,还有个test测试,mvn -test就是编译src/test/java中的类
mvn package 打包
mvn install 会把打的jar包发到仓库中,这样另一个项目中pom.xml下通过dependency下配置就可调用里面的类
⑼ 如何执行Maven命令
<plugins> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> <version>2.3.2</version> <configuration> <source>1.6</source> <target>1.6</target> <encoding>UTF-8</encoding> </configuration> </plugin> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-jar-plugin</artifactId> <configuration> <archive> <manifest> <addClasspath>true</addClasspath> <classpathPrefix>lib/</classpathPrefix> <mainClass>com.abc.ABCTest</mainClass> -->入口类名 </manifest> </archive> </configuration> </plugin> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-dependency-plugin</artifactId> <executions> <execution> <id></id> <phase>install</phase> <goals> <goal>-dependencies</goal> </goals> <configuration> <outputDirectory>${project.build.directory}/lib</outputDirectory> -->拷贝所以依赖存放位置 </configuration> </execution> </executions> </plugin> </plugins> 然后再用mvn clean install 装配一下,打出的jar包就可以运行