导航:首页 > 配服务器 > 怎么在云服务器上跑深度学习项目

怎么在云服务器上跑深度学习项目

发布时间:2023-01-13 06:26:41

1. python程序怎么部署到云服务器

你需要登录云服务器管理控制台,记录被我打马赛克位置的公网ip。

登录服务器
windows推荐下putty进行连接远程服务器,linux和macos不需要那么麻烦,ssl就行了。

putty
在下图的host name中输入你的公网IP,点击open。

putty界面
输入密码,看不见输入不要慌,linux就是这样保护安全的。

Paste_Image.png
登录成功界面见下图,然后想怎么操作就怎么操作了。

登陆成功界面
运行我的python文件
推荐FileZilla进行文件传输(不具体说明了),我上传了我的flask网站项目

我的项目
记住服务器同时有Python2和Python3,

python
运行的时候记得使用合适的版本,我用的是虚拟环境(自行网络如何创建虚拟环境)
在运行python之前先安装一个screen,他可以将一个程序在后台运行
sudo apt-get install screen

运行python文件,成功后按下ctrl+A和ctrl+D可以隐藏。隐藏后可以输入screen -r 恢复。

运行成功

2. 深度学习跑700多张图片的数据集,租什么样的服务器比较好

珍岛GPU云服务器。
珍岛GPU云服务器适用于深度学习,针对AI,数据分析在各种规模上实现出色的加速,应对极其严峻的计算挑战,同时珍岛云提供多种GPU实例规格。

3. 怎么使用云服务器刷网课

1、云服务器上需有一个公网IP地点位置
2、在云服务器上安装web服务器。
3、开发一个官方网站,将网课连接放到官方网站的列表中。
4、申请一个域名地点位置其实就是常说的官方网站地点位置。
5、将这个官方网站公布出去。并将域名绑定到这个购买IP地点位置。
6、用浏览器打开这个官网网址时,完全就能够看到网页上产生了网课的链接,点击链接完全就能够播放网课。

4. 怎么把java项目部署到云服务器

小鸟云企业级高可用云服务器、云虚拟主机、网站服务器租用托管服务提供商,一站式云计算解决方案,弹性灵活、按需付费,轻松助力企业及个人云端部署!

我们要部署 Java Web 项目,那就至少得将项目上传到云服务器。其实过程很简单,基本上也就是下面三个步骤:
① 打包上传:将项目打包成 war 文件,然后利用传到远程服务器(在Eclipse中直接将项目导出为.war文件)。
② 将 war 文件移动到 Tomcat 目录下的 webapps 下。
③ 重启 Tomcat,访问我们的项目。
在这个过程中,我们需要注意。因为一般而已,作为一个 Web 项目,我们肯定是有数据库的使用的。那么数据库部分怎么办呢?其实,只需要将我们已有的数据库转储为 sql 文件,然后将 sql 文件上传到云服务器上执行即可。以 mysql 为例,如下操作:
① 转储为 sql 脚本,并上传:先在本地将我们项目使用的数据库转为 sql 文件,上传到云服务器上 (可以利用 Navicat 将数据库转储为.sql文件)。
② 执行 sql:然后进入 mysql 中执行该 sql 文件。(若服务器装有Navicat,可直接用Navicat执行.sql文件,执行前需要选中存放表的数据库,应该与代码中数据库连接语句包含的数据库名保持一致)

5. 学生能去哪里租用便宜的gpu云服务器来进行深度学习计算

其实你可以去腾讯云去租用GPU云服务器来进行深度学习计算。腾讯云 GPU 实例类型众多,应用广泛,不同的实例类型有不同的产品定位。用户可以根据自身的应用场景,结合性能、价格等因素,选择最符合业务需求的实例。

比如你要进行深度学习计算,建议使用腾讯云GN8/GN10X 实例。GN10Xp配备Tesla V100 NVLink 32GB GPU,具有强大的单精度浮点运算能力,并具备较大的 GPU 板载内存。最大实例规格配置8个 V100 ,80个 vGPU 和320GB主机内存,是深度学习训练的首选。

GN10Xp 最大实例规格具备125.6 TFLOPS 单精度浮点运算能力,支持 Tensor Core 加速,单卡搭载32GB显存,GPU 卡之间通过300GB/s的 NVLink 高速互连。强大的计算与数据吞吐能力大大缩短训练周期,使得复杂模型的快速迭代成为可能,人工智能相关业务得以把握先机。

腾讯云GPU云服务器,管理很简单GPU云服务器采用和云服务器CVM一致的管理方式,无需跳板机登录,简单易用。清晰的显卡驱动的安装、部署指引,免去高学习成本。而且节约成本,你无需预先采购、准备硬件资源,一次性购买,免除硬件更新带来的额外费用,有效降低基础设施建设投入。目前,腾讯云的GPU云服务器已全面支持包年包月计费和按量计费,你可以根据需要选择计费模式。

6. 实验室没有服务器如何跑深度学习模型

实验室没有服务器可以用Googlecolab跑深度学习模型。具体操作步骤如下:
1、创建colab文件:进入Google云盘后,创建一个colab文件。第一次使用,会存在colab选项不显示的情况,点击关联更多应用即可。点击colab选项后会跳转到一个页面,与jupyter基本一模一样,可输入代码段,能连接服务器,有文件目录、colab文件名和使用选项。
2、配置colab环境:点击修改后点击笔记本设置就可以配置gpu了,硬件加速器选择gpu,点击连接即配置好环境,将Googledrive的云空间连接起来,就有了drive文件夹,现在配置已经全部完成。
3、配置完成就可以使用Googlecolab跑深度学习模型了,gpu是k80计算速度慢,可以再新建一个colab文件,两三次就可以开到p100了。gpu用完的场景,需要1天时间恢复,可以再弄一个谷歌账号重复上述操作。

7. 如何在后台部署深度学习模型

搭建深度学习后台服务器

我们的Keras深度学习REST API将能够批量处理图像,扩展到多台机器(包括多台web服务器和Redis实例),并在负载均衡器之后进行循环调度。

为此,我们将使用:

8. 如何搭建一台深度学习服务器

你可以去服务器厂商,比如国内的正睿、浪潮、联想、曙光,国外的惠普、戴尔等,找找比如深度学习、GPU计算等相关功能的产品参考或者问问就清楚了。

9. 做深度学习的服务器需要哪些配置

主要是看运行什么软件和数据量,训练数值大小,这里要强调一下,数值大小和数据量是不一样的。

深度学习服务器的核心部件还是CPU、硬盘、内存、GPU,特别是很多深度学习依靠GPU的大规模数据处理能力,这就要强调CPU的计算能力和数量,同时不同的数据对GPU的显存要求也不一样。

当下大部分都在用RTX3090做深度学习,最新RTX4090已经上市,单精度计算能力是RTX3090的2倍,这两个GPU都是24G显存;像A100强调双精度计算能力,显存有40G和80G两个版本,而A6000单精度计算能和RTX3090差不多,显存是48G,可以参考选择。

当然,最重要的还是口袋里的银子,A6000市场价大概是RTX的2倍还要多,A100最近更是要上十万了,估计也快买不到了,价高缺货;RTX3090/4090的价位低,性价比高,这也是为什么大部分人都选择它们做深度学习了,这是市场的选择。

10. 训练好的深度学习模型是怎么部署的

先说结论:部署的方式取决于需求

需求一:简单的demo演示,只要看看效果的,像是学校里面的demo展示这种

caffe、tf、pytorch等框架随便选一个,切到test模式,拿python跑一跑就好,顺手写个简单的GUI展示结果

高级一点,可以用CPython包一层接口,然后用C++工程去调用

需求二:要放到服务器上去跑,但一不要求吞吐二不要求时延的那种,说白了还是有点玩玩的意思

caffe、tf、pytorch等框架随便选一个,按照官方的部署教程,老老实实用C++部署,例如pytorch模型用工具导到libtorch下跑(官方有教程,很简单)

这种还是没有脱离框架,有很多为训练方便保留的特性没有去除,性能并不是最优的;

另外,这些框架要么CPU,要么NVIDIA GPU,对硬件平台有要求,不灵活;还有,框架是真心大,占内存(tf还占显存),占磁盘

需求三:放到服务器上跑,要求吞吐和时延(重点是吞吐)

这种应用在互联网企业居多,一般是互联网产品的后端AI计算,例如人脸验证、语音服务、应用了深度学习的智能推荐等。由于一般是大规模部署,这时不仅仅要考虑吞吐和时延,还要考虑功耗和成本。所以除了软件外,硬件也会下功夫,比如使用推理专用的NVIDIA P4、寒武纪MLU100等。这些推理卡比桌面级显卡功耗低,单位能耗下计算效率更高,且硬件结构更适合高吞吐量的情况软件上,一般都不会直接上深度学习框架。对于NVIDIA的产品,一般都会使用TensorRT来加速(我记得NVIDIA好像还有TensorRT inference server什么的,名字记不清了,反正是不仅可以加速前传,还顺手帮忙调度了)。TensorRT用了CUDA、CUDNN,而且还有图优化、fp16、int8量化等。反正用NVIDIA的一套硬软件就对了

需求四:放在NVIDIA嵌入式平台上跑,注重时延

比如PX2、TX2、Xavier等,参考上面(用全家桶就对了),也就是贵一点嘛

需求五:放在其他嵌入式平台上跑,注重时延

硬件方面,要根据模型计算量和时延要求,结合成本和功耗要求,选合适的嵌入式平台。比如模型计算量大的,可能就要选择带GPU的SoC,用opencl/opengl/vulkan编程;也可以试试NPU,不过现在NPU支持的算子不多,一些自定义Op多的网络可能部署不上去对于小模型,或者帧率要求不高的,可能用CPU就够了,不过一般需要做点优化(剪枝、量化、SIMD、汇编、Winograd等)顺带一提,在手机上部署深度学习模型也可以归在此列,只不过硬件没得选,用户用什么手机你就得部署在什么手机上23333。为老旧手机部署才是最为头疼的上述部署和优化的软件工作,在一些移动端开源框架都有人做掉了,一般拿来改改就可以用了,性能都不错。

需求六:上述部署方案不满足我的需求

比如开源移动端框架速度不够——自己写一套。比如像商汤、旷世、Momenta都有自己的前传框架,性能应该都比开源框架好。只不过自己写一套比较费时费力,且如果没有经验的话,很有可能费半天劲写不好

阅读全文

与怎么在云服务器上跑深度学习项目相关的资料

热点内容
用友通加密狗坏了 浏览:546
如何在服务器上配置外网网址 浏览:840
阿里云服务器的硬件在哪里 浏览:52
python自动注册谷歌 浏览:329
phpini验证码 浏览:824
解压后的文件怎么驱动 浏览:326
老板要程序员加班 浏览:414
泰尔pdf 浏览:311
视频转码压缩哪款软件好 浏览:647
盯盯拍记录仪下载什么app 浏览:436
新东方新概念英语pdf 浏览:696
python中如何创建菜单栏 浏览:507
中石化app那个叫什么名 浏览:706
借贷宝合集解压密码 浏览:640
python爬取网页代码 浏览:480
efs加密对微信无效 浏览:496
刘秀pdf 浏览:998
脚上长黑刺是什么app 浏览:703
算法工程师上海 浏览:390
php的循环语句怎么写 浏览:289