导航:首页 > 编程语言 > pythonetl开发

pythonetl开发

发布时间:2022-09-15 06:06:00

1. 为什么要用etl工具自己手动写脚本然后运行不是也可以么

成品ETL工具与手工写脚本之比较:
一、灵活性来讲:ETL工具比较灵活,需要在此平台上设置规则定义,前期是需要工具先前必须已有支持功能,如果需要扩展,要ETL工具源厂商开发。而自己写脚本只需先前好好调研需求,自己写能实现的功能即可。俗话说得好“求人不如求己”哈哈哈!

二、难易度:ETL工具相对上手比较容易,工程师只需具备两个必要条件:1 、对数据库熟悉 2、对客户的业务逻辑了解。手动写脚本呢?不仅要具备操作ETL工具的条件,还要必须有一定技术水平。

三、后期管理与维护:ETL工具非常容易,这点上是用工具的最给力的优势。可能也是ETL工具诞生的缘由吧!原因:人力少不说,如有新的需求,只需稍加改动,图形配置定义即可。而手工编码呢?较难。需要重又开发写程序,随着数据信息的日积月累,每日数据的递增,更新。开发的速度赶不上需求的更新,严重到先前开发架构不合理甚至于有可能推倒重来的风险。如果取中间,既有图形配置有兼具脚本开发功能,有款中国的Beeload/ BeeDI

四、性能和效率:这方面取决于多方面如:1、硬件:服务器 CPU 内存 2、数据库类型 数据类型 3、网络状况 4 、ETL 工具的配置 设计。。。。。整体来说 工具属于较高范畴,各家成熟ETL 不一致、各有千秋。手工写脚本就要看编程者的水平啦!因人而异,如果直接在数据库上写存储过兴许比任何一家成品工具高得多。在性能上,工具当属老美的informatica IBM 的DS

五、开发周期:工具只需操作上源厂商负责培训,再把客户目前需求了解透彻,周期很短,上线见效快。手工编码不仅需要把客户(当前)需求了解透彻,未来需求也要有所预测,再进行开发。这样周期就不得而知了。

六、工作量:从上述些显然保守点得出:ETL工具属中等,手工编码属较重。写好程序还需大量测试工具,不断修正BUG 与完善。成熟工具已把这些工具先前做过了,即使有,也是可以容忍个别,源厂商可以分担修正。

七、投入成本价格:ETL工具前期成本投入较多,钞票先付。后期维护成本相对低。编写脚本,先期投入人力(工程师的工薪)中期大量测试人力,后期维护人力(工程师的工薪)看似相对较低。貌似不要票子的开源滴ETL工具 Kettle,后期才付费(服务费与培训费)

总之不管是用工具还是自己写脚本,要全盘考虑,根据各自项目大小,成本,愿意付出哪部分,适合的才是最佳滴!

2. 大数据开发人员到企业干些什么工作

大数据技术人员有三大就业方向和十大职位:
三大就业方向:大数据系统研发类人才、大数据应用开发类人才和大数据分析类人才。
一、ETL研发
ETL研发,主要负责将分散的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。

二、Hadoop开发
Hadoop的核心是HDFS和MapRece.HDFS提供了海量数据的存储,MapRece提供了对数据的计算。
三、可视化(前端展现)工具开发
新型数据可视化工具如Spotifre,Qlikview和Tableau可以直观高效地展示数据。
可视化开发就是在可视开发工具提供的图形用户界面上,通过操作界面元素,由可视开发工具自动生成应用软件。
四、信息架构开发
信息架构师必须了解如何定义和存档关键元素,确保以最有效的方式进行数据管理和利用。信息架构师的关键技能包括主数据管理、业务知识和数据建模等。
五、数据仓库研究
数据仓库的专家熟悉Teradata、Neteeza和Exadata等公司的大数据一体机。能够在这些一体机上完成数据集成、管理和性能优化等工作。
六、OLAP开发
OLAP在线联机分析开发者,负责将数据从关系型或非关系型数据源中抽取出来建立模型,然后创建数据访问的用户界面,提供高性能的预定义查询功能。
七、数据科学研究
数据科学家是一个全新的工种,能够将企业的数据和技术转化为企业的商业价值。
数据科学家是分析师、艺术家的合体,需要具备多种交叉科学和商业技能。
八、数据预测(数据挖掘)分析
预测分析开发者有些场景看上有有些类似数据科学家,即在企业历史数据的基础上通过假设来测试阈值并预测未来的表现。
九、企业数据管理
数据管理的人员需要能够利用各种技术工具汇集企业周围的大量数据,并将数据清洗和规范化,将数据导入数据仓库中,成为一个可用的版本。然后,通过报表和分析技术,数据被切片、切块,并交付给成千上万的人。担当数据管家的人,需要保证市场数据的完整性,准确性,唯一性,真实性和不冗余。

十、数据安全研究
数据安全这一职位,主要负责企业内部大型服务器、存储、数据安全管理工作,并对网络、信息安全项目进行规划、设计和实施。数据安全研究员还需要具有较强的管理经验,具备运维管理方面的知识和能力,对企业传统业务有较深刻的理解,才能确保企业数据安全做到一丝不漏。

3. 如何利用python进行数据分析

作者Wes McKinney是pandas库的主要作者,所以本书也可以作为利用Python实现数据密集型应用的科学计算实践指南。本书适合刚刚接触Python的分析人员以及刚刚接触科学计算的Python程序员
•将IPython这个交互式Shell作为你的首要开发环境。
•学习NumPy(Numerical Python)的基础和高级知识。
•从pandas库的数据分析工具开始。
•利用高性能工具对数据进行加载、清理、转换、合并以及重塑。
•利用matplotlib创建散点图以及静态或交互式的可视化结果。
•利用pandas的groupby功能对数据集进行切片、切块和汇总操作。
•处理各种各样的时间序列数据。
•通过详细的案例学习如何解决Web分析、社会科学、金融学以及经•济学等领域的问题。

4. python数据分析师需要掌握什么技能

首先是基础篇
1、首先是Excel,貌似这个很简单,其实未必。Excel不仅能够做简单二维表、复杂嵌套表,能画折线图/Column chart/Bar chart/Area chart/饼图/雷达图/Combo char/散点图/Win Loss图等,而且能实现更高级的功能,包括透视表(类似于BI的多维分析模型Cube),以及Vlookup等复杂函数,处理100万条以内的数据没有大问题。最后,很多更高级的工具都有Excel插件,例如一些AI Machine Learning的开发工具。
2. SQL(数据库)

我们都知道数据分析师每天都会处理海量的数据,这些数据来源于数据库,那么怎么从数据库取数据?如何建立两表、三表之间的关系?怎么取到自己想要的特定的数据?等等这些数据选择问题就是你首要考虑的问题,而这些问题都是通过SQL解决的,所以SQL是数据分析的最基础的技能。
3. 统计学基础
数据分析的前提要对数据有感知,数据如何收集?数据整体分布是怎样的?如果有时间维度的话随着时间的变化是怎样的?数据的平均值是什么?数据的最大值最小值指什么?数据相关与回归、时间序列分析和预测等等。
4、掌握可视化工具,比如BI,如Cognos/Tableau/FineBI等,具体看企业用什么工具,像我之前用的是FineBI。这些工具做可视化非常方便,特别是分析报告能含这些图,一定会吸引高层领导的眼球,一目了然了解,洞察业务的本质。另外,作为专业的分析师,用多维分析模型Cube能够方便地自定义报表,效率大大提升。
进阶阶段需要掌握的:

1、系统的学好统计学
纯粹的机器学习讲究算法预测能力和实现,但是统计一直就强调“可解释性”。比如说,针对今天微博股票发行就上升20%,你把你的两个预测股票上涨还是下跌的model套在新浪的例子上,然后给你的上司看。统计学就是这样的作用。
数据挖掘相关的统计方法(多元Logistic回归分析、非线性回归分析、判别分析等)
定量方法(时间轴分析、概率模型、优化)
决策分析(多目的决策分析、决策树、影响图、敏感性分析)
树立竞争优势的分析(通过项目和成功案例学习基本的分析理念)
数据库入门(数据模型、数据库设计)
预测分析(时间轴分析、主成分分析、非参数回归、统计流程控制)
数据管理(ETL(Extract、Transform、Load)、数据治理、管理责任、元数据)
优化与启发(整数计划法、非线性计划法、局部探索法、超启发(模拟退火、遗传算法))
大数据分析(非结构化数据概念的学习、MapRece技术、大数据分析方法)
数据挖掘(聚类(k-means法、分割法)、关联性规则、因子分析、存活时间分析)
其他,以下任选两门(社交网络、文本分析、Web分析、财务分析、服务业中的分析、能源、健康医疗、供应链管理、综合营销沟通中的概率模型)
风险分析与运营分析的计算机模拟
软件层面的分析学(组织层面的分析课题、IT与业务用户、变革管理、数据课题、结果的展现与传达方法)
2、掌握AI Machine Learning算法,会用工具(比如Python/R)进行建模。
传统的BI分析能回答过去发生了什么?现在正在发生什么?但对于未来会发生什么?必须靠算法。虽然像Tableau、FineBI等自助式BI已经内置了一部分分析模型,但是分析师想要更全面更深度的探索,需要像Python/R的数据挖掘工具。另外大数据之间隐藏的关系,靠传统工具人工分析是不可能做到的,这时候交由算法去实现,无疑会有更多的惊喜。
其中,面向统计分析的开源编程语言及其运行环境“R”备受瞩目。R的强项不仅在于其包含了丰富的统计分析库,而且具备将结果进行可视化的高品质图表生成功能,并可以通过简单的命令来运行。此外,它还具备称为CRAN(The Comprehensive R Archive Network)的包扩展机制,通过导入扩展包就可以使用标准状态下所不支持的函数和数据集。R语言虽然功能强大,但是学习曲线较为陡峭,个人建议从python入手,拥有丰富的statistical libraries,NumPy ,SciPy.org ,Python Data Analysis Library,matplotlib: python plotting。
以上我的回答希望对你有所帮助

5. 为什么那么多人关注Python的发展前景和方向

网络CEO曾表述:靠移动互联网的风口现已没有可能再出现独角兽了,由于市场现已进入了一个相对平稳的发展阶段,互联网人口渗透率现已超过了50%。而未来的机会在人工智能。确实互联网巨头公司在人工智能领域投入显着增大,都力求做人工智能时代的“带头大哥”。 人工智能的首选编程语言就是python。Python作为一门编程言语,其魅力远超C#,java,C,C++,它被昵称为“胶水言语”,更被酷爱它的程序员誉为“美丽的”编程言语。从云端、客户端,到物联网终端,python应用无处不在。近年来各专业机构和媒体对编程语言排名,Python排名始终靠前并呈上升的趋势,相信小伙伴们已经看到了目前AI的开展力度了,随着人工智能时代的降临, Python作为人工智能的黄金语言,不能不火爆。未来Python的主要发展方向及对应的薪金:
一、人工智能。人工智能(AI)薪资高的月薪50K以上早有报道,而Python正是人工智能方向首选的黄金语言。现在在拉勾网上,人工智能工程师的招聘起薪普遍在20K-35K。当然,如果是初级工程师,起薪也已经超过了12500元/月。
二、大数据。我们目前正处于大数据时代,Python这门语言在大数据上比Java更加有效率,大数据虽然难学,但是Python可以更好地和大数据对接可以看到,用Python做大数据的薪资也至少是20K以上了,大数据持续火爆,未来做大数据工程师,薪资还将逐渐上涨。
三、网络爬虫工程师。数据是大数据的源头,网络爬虫作为数据采集的利器,大有用武之地。利用Python可以更快的提升对数据抓取的精准程度和速度,是数据分析师的福祉,通过网络爬虫,让BOSS再也不用担心你没有数据。做爬虫工程师的的薪资为20K起,当然,因为大数据,薪资也将一路上扬。
四、Python web全栈工程师。全栈工程师是指掌握多种技能,并能利用多种技能独立完成产品的人。也叫全端工程师(同时具备前端和后台能力)。全栈工程师不管在哪个语言中都是人才中的人才,而Python web全栈工程师薪资基本上都会高出20K。所以如果你能力足够,首选就是Python web全栈工程师。
五、Python自动化运维。运维工作者对Python的需求很大,小伙伴们快快行动起来吧,学习Python自动化运维也能有个10k-15k的工资。
六、Python自动化测试。Python这门语言十分高效,只要是和自动化有关系的,它可以发挥出巨大的优势,用Python测试也可以说是测试人员

6. 数据分析员用python做数据分析是怎么回事,需要用到python中的那些内容,具体是怎么操作的

大数据!大数据!其实是离不开数据二字,但是总体来讲,自己之前对数据的认知是不太够的,更多是在关注技术的提升上。换句话讲,自己是在做技术,这些技术处理的是数据,而不能算是自己是在做数据的。大规模数据的处理是一个非常大的课题,但是这一点更偏向于是搞技术的。

与数据分析相关的Python库很多,比如Numpy、pandas、matplotlib、scipy等,数据分析的操作包括数据的导入和导出、数据筛选、数据描述、数据处理、统计分析、可视化等等。接下来我们看一下如何利用Python完成数据的分析。
生成数据表
常见的生成方法有两种,第一种是导入外部数据,第二种是直接写入数据,Python支持从多种类型的数据导入。在开始使用Python进行数据导入前需要先导入pandas库,为了方便起见,我们也同时导入Numpy库。代码是最简模式,里面有很多可选参数设置,例如列名称、索引列、数据格式等等。
检查数据表
Python中使用shape函数来查看数据表的维度,也就是行数和列数。你可以使用info函数查看数据表的整体信息,使用dtypes函数来返回数据格式。Isnull是Python中检验空值的函数,你可以对整个数据表进行检查,也可以单独对某一列进行空值检查,返回的结果是逻辑值,包含空值返回True,不包含则返回False。使用unique函数查看唯一值,使用Values函数用来查看数据表中的数值。
数据表清洗
Python中处理空值的方法比较灵活,可以使用Dropna函数用来删除数据表中包含空值的数据,也可以使用fillna函数对空值进行填充。Python中dtype是查看数据格式的函数,与之对应的是astype函数,用来更改数据格式,Rename是更改列名称的函数,drop_plicates函数删除重复值,replace函数实现数据替换。
数据预处理
数据预处理是对清洗完的数据进行整理以便后期的统计和分析工作,主要包括数据表的合并、排序、数值分列、数据分组及标记等工作。在Python中可以使用merge函数对两个数据表进行合并,合并的方式为inner,此外还有left、right和outer方式。使用ort_values函数和sort_index函数完成排序,使用where函数完成数据分组,使用split函数实现分列。
数据提取
主要是使用三个函数:loc、iloc和ix,其中loc函数按标签值进行提取,iloc按位置进行提取,ix可以同时按标签和位置进行提取。除了按标签和位置提起数据以外,还可以按具体的条件进行数据,比如使用loc和isin两个函数配合使用,按指定条件对数据进行提取。
数据筛选汇总
Python中使用loc函数配合筛选条件来完成筛选功能,配合sum和 count函数还能实现excel中sumif和countif函数的功能。Python中使用的主要函数是groupby和pivot_table。groupby是进行分类汇总的函数,使用方法很简单,制定要分组的列名称就可以,也可以同时制定多个列名称,groupby 按列名称出现的顺序进行分组。

7. R,Python,Scala 和 Java,到底该使用哪一种大数据编程语言

哪一种都行,Python适用于脚本,网络和爬虫,Java适用网络,商业和游戏,r适用于脚本和网络

8. 大数据用什么语言开发

目前全世界的开发人员,编码人员和软件工程师都使用许多编程语言。根据一项调查,计算机语言的总数总计达9000种。但是,如今,其中只有50种编程语言是首选。

编程语言会根据大数据和AI等行业而有所不同。科技市场由大数据主导,因此,如果作为大数据专业人士,必须学习最重要的编程语言。


大数据中最喜欢的编程语言:

Python

Python在全球拥有500万用户,目前被其视为开发人员最常用的编程语言之一。让我们感受到Python是未来流行编程的是,世界上一些成功的公司选择Python编程语言进行产品开发,比如:NASA,Google,Instagram,Spotify,Uber,Netflix,Dropbox,Reddit和Pinterest,而且初学者和专业人员都认为Python是一种功能强大的语言。

Python由Guido van Rossum于1991年开发,Python成为程序员第一个学习入门级编程语言。

Python最适合针对大数据职业的技术专业人员,将在数据分析,Web应用程序或统计代码与生产数据库集成一起时,Python成为了最佳选择。此外,它还具有强大的库软件包作为后盾,可帮助满足大数据和分析需求,使其成为大数据爱好者的首选。Pandas,NumPy,SciPy,Matplotlib,Theano,SymPy,Scikit学习是大数据中最常用的一些库。

R

R编程语言为数据表示提供了多种图形功能,例如条形图,饼图,时间序列,点图,3D表面,图像图,地图,散点图等。借助R语言,可以轻松地自定义图形并开发新鲜个性的图形。

R语言由Ross Ihaka和Robert Gentleman编写;但是,它现在是由R开发核心团队开发的。它是一种可编程语言,有助于有效地存储和处理数据。R不是数据库,而是一种可以轻松连接到数据库管理系统(DBMS)的语言。R可以轻松连接到excel和MS Office,但它本身不提供任何电子表格数据视图。编程语言是数据分析的理想选择,它有助于访问分析结果的所有领域,并与分析方法结合使用,从而得出对公司重要的肯定结论。

Scala

Scala是金融行业主要使用的一种开源高级编程语言。Scala特点是可确保其在大数据可用性方面的重要性。

Apache Spark是用于大数据应用程序的集群计算框架,是用Scala编写的。大数据专业人员需要在Scala中具有深入的知识和动手经验。

Java

Java进入技术行业已有一段时间了,自Java诞生以来,它就以其在数据科学技术中的多功能性而闻名。值得注意的是,用于处理和存储大数据应用程序的开源框架Hadoop HDFS已完全用Java编写。Java被广泛用于构建各种ETL应用程序,例如Apache,Apache Kafka和Apache Camel等,这些应用程序用于运行数据提取,数据转换以及在大数据环境中的加载。

收入最高的编程语言

根据Stack Overflow的调查,Scala,Go和Objective-C是目前丰厚报酬的编程语言。

9. ETL工程师要学什么

技术方面:需要学习使用数据源、目标端工具的基本使用(如 oracle MySQL hive等);需要学习etl工具的安装配置常用错误解决(如 kettle DataStage infa sqoop datax等)

理论方面:懂得数仓分层架构,维度建模等。

从ETL的字面来看,它主要包含三大阶段,分别是数据抽取、数据转换、数据加载。

1.数据抽取

这个阶段的主要目标是汇总多种数据源,为下一步的转换做准备。

2.数据转换

这个阶段是ETL的核心环节,也是最复杂的环节。它的主要目标是将抽取到的各种数据,进行数据的清洗、格式的转换、缺失值填补、剔除重复等操作,最终得到一份格式统一、高度结构化、数据质量高、兼容性好的数据,为后续的分析决策提供可靠的数据支持。

3.数据加载

这个阶段的主要目标是把数据加载至目的地,比如数据仓库中。通常的做法是,将处理好的数据写成特定格式(如parquet、csv等)的文件,然后再把文件挂载到指定的表分区上。也有些表的数据量很小,不会采用分区表,而是直接生成最终的数据表。

了解了ETL这部分的工作主要做什么,接下来再来说作为ETL工程师需要具备哪些技能,这些也就是需要学习的重点——

1、精通SQL语言,具备存储过程开发能力,能熟练进行SQL查询优化;

2、熟悉Hive数据仓库设计,了解数据仓库模型及思想、维度建模思想,了解数据仓库;

3、熟悉Hadoop、Spark、Flink、Kafka等相关技术;

4、熟练Python、Java中至少一种语言;

5、熟悉Mysql、Nosql等常见数据库。

10. 大数据专业主要学习什么语言

大数据专业需要学习哪些技术:


一、编程语言


想要学习大数据技术,首先要掌握一门基础编程语言。Java编程语言的使用率最广泛,因此就业机会会更多一些,而Python编程语言正在高速推广应用中,同时学习Python的就业方向会更多一些。


二、Linux


学习大数据一定要掌握一定的Linux技术知识,不要求技术水平达到就业的层次,但是一定要掌握Linux系统的基本操作。能够处理在实际工作中遇到的相关问题。


三、SQL


大数据的特点就是数据量非常大,因此大数据的核心之一就是数据仓储相关工作。因此大数据工作对于数据库要求是非常的高。甚至很多公司单独设置数据库开发工程师。


四、Hadoop


Hadoop是分布式系统的基础框架,以一种可靠、高效、可伸缩的方式进行数据处理。具有高可靠性、高扩展性、高效性、高容错性、低成本等优点,从事大数据相关工作Hadoop是必学的知识点。


五、Spark


Spark是专门为大规模数据处理而设计的快速通用的计算引擎。可以用它来完成各种各样的运算,包括SQL查询、文本处理、机器学习等等。


六、机器学习


机器学习是目前人工智能领域的核心技术,在大数据专业中也有非常广泛的引用。在算法和自动化的发展过程中,机器学习扮演着非常重要的角色。可以大大拓展自己的就业方向。

互联网行业里大数据和云智能是当下最重要板块,企业借助大数据技术不仅能避免企业发展时会面临的各种风险,更能解决发展过程中所遇到的种种难题。近些年来大数据的公司越来越多,但是大数据人才需求还存在着很大缺口,为了响应市场需求未来我国还会需要更多的大数据人才。网络、阿里、京东等互联网高企依仗自身的强大技术和数据优势,均已将大数据作为企业的重要战略部署。


大数据专业未来就业方向解析:


一、ETL研发


企业数据种类与来源的不断增加,对数据进行整合与处理变得越来越困难,企业迫切需要一种有数据整合能力的人才。ETL开发者这是在此需求基础下而诞生的一个职业岗位。ETL人才在大数据时代炙手可热的原因之一是:在企业大数据应用的早期阶段,Hadoop只是穷人的ETL.


二、Hadoop开发


随着数据规模不断增大,传统BI的数据处理成本过高企业负担加重。而Hadoop廉价的数据处理能力被重新挖掘,企业需求持续增长。并成为大数据人才必须掌握的一种技术。


三、可视化工具开发


可视化开发就是在可视化工具提供的图形用户界面上,通过操作界面元素,有可视化开发工具自动生成相关应用软件,轻松跨越多个资源和层次连接所有数据。过去,数据可视化属于商业智能开发者类别,但是随着Hadoop的崛起,数据可视化已经成了一项独立的专业技能和岗位。


四、信息架构开发


大数据重新激发了主数据管理的热潮。充分开发利用企业数据并支持决策需要非常专业的技能。信息架构师必须了解如何定义和存档关键元素,确保以最有效的方式进行数据管理和利用。信息架构师的关键技能包括主数据管理、业务知识和数据建模等。

五、数据仓库研究


为方便企业决策,出于分析性报告和决策支持的目的而创建的数据仓库研究岗位是一种所有类型数据的战略集合。为企业提供业务智能服务,指导业务流程改进和监视时间、成本、质量和控制。


六、OLAP开发


OLAP在线联机分析开发者,负责将数据从关系型或非关系型数据源中抽取出来建立模型,然后创建数据访问的用户界面,提供高性能的预定义查询功能。


七、数据科学研究


数据科学家是一个全新的工种,能够将企业的数据和技术转化为企业的商业价值。随着数据学的进展,越来越多的实际工作将会直接针对数据进行,这将使人类认识数据,从而认识自然和行为。


八、数据预测分析


营销部门经常使用预测分析预测用户行为或锁定目标用户。预测分析开发者有些场景看上有些类似数据科学家,即在企业历史数据的基础上通过假设来测试阈值并预测未来的表现。


九、企业数据管理


企业要提高数据质量必须考虑进行数据管理,并需要为此设立数据管家职位,这一职位的人员需要能够利用各种技术工具汇集企业周围的大量数据,并将数据清洗和规范化,将数据导入数据仓库中,成为一个可用的版本。


十、数据安全研究


数据安全这一职位,主要负责企业内部大型服务器、存储、数据安全管理工作,并对网络、信息安全项目进行规划、设计和实施。


大数据的特点就是能够灵活、快速、高效的响应各种市场需求。大数据的受众领域非常广泛,不仅改善着人们的社会活动和生活方式,运用好大数据技术还能为企业带了更多的商机和商业价值。大数据不仅与IT行业关系密切,众多行业都已经开始了大数据运营的布局,例如金融、医疗、政府等。撼地大数据就是以大数据技术为基础研发出了属于自己的大数据数智招商系统,为产业招商打造了一个精准招商服务云平台,极大的改善了现阶段产业园招商难的窘境。

阅读全文

与pythonetl开发相关的资料

热点内容
压缩因子定义 浏览:966
cd命令进不了c盘怎么办 浏览:212
药业公司招程序员吗 浏览:972
毛选pdf 浏览:659
linuxexecl函数 浏览:727
程序员异地恋结果 浏览:374
剖切的命令 浏览:228
干什么可以赚钱开我的世界服务器 浏览:290
php备案号 浏览:990
php视频水印 浏览:167
怎么追程序员的女生 浏览:487
空调外压缩机电容 浏览:79
怎么将安卓变成win 浏览:459
手机文件管理在哪儿新建文件夹 浏览:724
加密ts视频怎么合并 浏览:775
php如何写app接口 浏览:804
宇宙的琴弦pdf 浏览:396
js项目提成计算器程序员 浏览:944
pdf光子 浏览:834
自拍软件文件夹名称大全 浏览:328