❶ 免費申請aws一年免費伺服器使用教程
在我國,常見的雲伺服器提供商有阿里雲、騰訊雲,而在國外,谷歌雲、微軟雲、亞馬遜雲和甲骨文雲等都是行業巨頭。由於市場競爭激烈,各家廠商紛紛推出了免費試用或永久試用的套餐來吸引新客戶。其中,甲骨文雲的永久免費VPS因其申請人數過多,現在申請可能會遇到封控嚴格的問題,甚至可能導致被封號。而雲計算領域的先驅亞馬遜雲,提供了眾多免費試用產品,其中免費一年的electric computer cloud類似於阿里雲和騰訊雲的輕量雲伺服器,直譯為彈性雲計算,簡稱EC2,再簡稱VPS。
注冊亞馬遜雲賬號,創建Linux實例,修改實例區域。
登錄後,點擊右上角賬戶名下拉列表,選擇設置,默認區域選擇新加坡(選擇就近地點)。
進入EC2,啟動實例,使用SSH工具連接實例。
使用Xshell連接工具可以成功連接!
使用FinalShell連接時,會循環彈出導入密鑰,無法成功連接。
使用Xshell連接工具可以成功連接。
可以無限免費更換IP。如圖所示,已有分配IP,第一次更換IP應該是空的。
注意:不要添加多個分配IP,否則佔用IP會導致額外收費。
取消、釋放關聯IP。這樣就可以將IP釋放刪除,系統會默認再分配一個IP。如果再想換IP,就重復3.2、3.3步驟。
終止實例時需要注意後續問題。
登錄賬戶時發現出現賬單。
發現賬單超出免費額度的問題。
原因是8月26日,我將實例刪除,但沒有將與此實例關聯的IP也刪除。已經附加了一個彈性IP地址,再次分配給未運行的實例時,該地址會產生一些費用。總之,分配了彈性IP後,一定要附著在運行的實例上。實例刪除時,IP也要刪除。
❷ 和CPU、GPU「三足鼎立」,DPU真有如此大的潛力嗎
作者 | 趙廣立
近年來摩爾定律「失速」,使得中央處理器(CPU)的性能增長邊際成本急劇上升。有研究數據表明,現在CPU的性能年化增長率(面積歸一化之後)僅有3%左右。然而,人們對計算的需求依然爆發性增長。
在此背景下,包括人工智慧(AI)晶元在內的專用計算晶元陸續登上 歷史 舞台,綻放光芒。眼下,以數據為中心的專用處理器「DPU」正成為專用計算晶元的「新貴」。美國晶元巨頭英偉達公司甚至將其定位為數據中心繼CPU和圖形處理器(GPU)之後的「第三顆主力晶元」,掀起了行業熱潮。
和CPU、GPU「三足鼎立」,DPU真有如此大的潛力嗎?它的應用場景有哪些?我國能抓住DPU發展機遇嗎?近日,由中國科學院計算技術研究所(以下簡稱中科院計算所)主編,中科馭數(北京) 科技 有限公司、中國計算機學會集成電路設計專業組、計算機體系結構國家重點實驗室聯合編寫的行業首部《專用數據處理器(DPU)技術白皮書》(以下簡稱《DPU技術白皮書》)發布。結合上述問題,《中國科學報》聯系采訪了主要編寫人員一探究竟。
「DPU最直接的作用是作為CPU的卸載(offload)引擎,其效果是給CPU『減負』。」《DPU技術白皮書》主編、中科院計算所研究員鄢貴海告訴《中國科學報》,作一形象比喻,DPU提供了數據中心一把「殺雞」的工具,節省的是CPU這把「牛刀」,以釋放CPU算力,留給更需要它的業務負載。
接管CPU的網路協議處理任務,就是一個很好的例子。鄢貴海說,比如在數據中心僅線速處理10G的網路,大概就需要一個8核高端CPU一半的的算力,而如果是40G、100G甚至更高速的網路,性能開銷更大。
雲計算巨頭亞馬遜雲服務(AWS)形象地稱之為「數據中心稅」——還未運行業務程序,接入網路數據就要佔去許多計算資源。
「DPU誕生的使命就是承載網路虛擬化、硬體資源池化等基礎設施層服務,以釋放CPU的算力到上層應用。」《DPU技術白皮書》編委會成員、中科馭數高級副總裁張宇解釋說,將「CPU處理效率低下、GPU處理不了」的負載卸載到專用的DPU,就能實現對「數據中心稅」的抵消,從而有助於提升整個計算系統的效率、降低整體系統的總體擁有成本。
張宇介紹稱,DPU主要處理網路數據和輸入輸出(IO)數據,並提供帶寬壓縮、安全加密、網路功能虛擬化等功能。「這些可以說是離我們普通用戶每天感知到的各種應用最遠的功能了。而這些基礎功能是實現日常應用更高效、更安全、更實時的保障。」
業界對DPU中的「D」有三種說法,因此DPU就有三個中文名。
一種是「Data」,DPU被稱為「數據處理器」;一種是「Datacenter」,DPU譯作「數據中心處理器」;一種是「Data-centric」,相應的,DPU可叫作「以數據為中心的處理器」。
「以上三種關於DPU的說法,從不同角度反映DPU的特徵,都有一定的可取之處,我們認為可以作為不同的三個維度來理解DPU的內涵。」李曉維說。
「隨著『軟體硬體化』成為常態,異構計算的潛能將因各種DPU的普及而徹底發揮出來。」《DPU技術白皮書》編委會成員、中科馭數聯合創始人兼CTO盧文岩認為,新一代的DPU不僅可以作為運算的加速引擎,還具備「控制平面」(即追求數據處理功能的覆蓋面)的功能,能更高效地完成網路虛擬化、IO虛擬化、存儲虛擬化等任務,徹底將CPU的算力釋放給應用程序。
「可以說,DPU的出現將讓各行各業的業務層數字化應用更全面、更流暢、更綠色。」盧文岩說。
從市場規模角度來看,根據Fungible公司和英偉達公司的預測,用於數據中心的DPU量級將達到和數據中心伺服器等量的級別。
「伺服器每年新增大約千萬量級,一台伺服器可能沒有GPU,但一定會有一顆或者多顆DPU,好比每台伺服器都必須配網卡一樣。」鄢貴海說,伺服器每年新增大約1500萬台,每顆DPU以1萬元計算,這將是千億量級的市場規模。
在這個千億量級市場中,國際傳統晶元巨頭如英偉達、英特爾、Marwell、博通等廠商,都在積極布局DPU產品研發。
這些晶元巨頭的布局並不意外,他們或有智能網卡研發基礎(如博通)繼續延伸技術觸角,或通過並購專用加速晶元公司(如英偉達、英特爾)補充其在DPU領域的技術能力。相比它們,更值得一提的是,亞馬遜旗下的AWS和阿里雲兩大雲計算巨頭,早已注意到數據中心開銷問題,並已有了良好實踐。
據《DPU技術白皮書》顯示,2013年,AWS研發了Nitro產品,將為虛擬機提供遠程資源、加密解密、故障跟蹤、安全策略等服務程序的資源開銷,全部放到專用加速器上執行,「輕量化管理程序+定製化硬體」的上場一舉節省30%CPU資源。幾乎在同期,阿里雲也著手研發「神龍架構」(X-Dragon系統),以硬體化的MOC卡統一支持網路、IO、存儲和外設的虛擬化,如今「神龍架構」已經更迭到了第4代。
「可見,DPU其實在行業內已經孕育已久,從早期的網路協議處理卸載,到後續的網路、存儲、虛擬化卸載,其帶來的作用非常顯著,只不過在此之前DPU『有實無名』,現在是時候邁上一個新的台階了。」鄢貴海表示。
可喜的是,國內一些圍繞DPU技術的創業公司也逐漸嶄露頭角。除了參與編寫《DPU技術白皮書》的中科馭數之外,還有雲豹智能、星雲智聯、芯啟源、雲脈芯聯等新近成立的 科技 創業公司,展現出良好勢頭。
以中科馭數為例,這家創始團隊來自中科院計算所的初創企業,在DPU理論基礎、數據中心架構方面有著深刻理解,工程實現經驗也因一些來自亞馬遜、賽靈思、華為等核心骨乾的加入,得到了很好的積累。2019年,中科馭數完成第一代DPU晶元的流片,預計將於2022年推出第二代DPU晶元「K2」。
「我們認為DPU的潛力確實是巨大的。」在鄢貴海看來,從技術發展的角度來看,DPU的出現有一定的必然性——上層應用對於算力的需求在過去5年急劇增長,使得DPU的應用場景很多,它將廣泛分布在5G、雲計算、大數據、數據中心和邊緣計算等領域。
而從工業和信息化部今年發布的《新型數據中心發展三年行動計劃(2021—2023年)》中,鄢貴海更是看到了新型算力晶元難得的 歷史 發展機遇。
該計劃明確提出要加快提升算力算效水平,「推動CPU、GPU等異構算力提升,逐步提高自主研發算力的部署比例」「加強專用伺服器等核心技術研發」「樹立基於5G和工業互聯網等重點應用場景的邊緣數據中心應用標桿」等要求和措施。
「雖然國內廠商在晶元產品化的環節相比國外一線廠商還有差距,但是在DPU架構的理解上是有獨到的見解的,而且我國目前在數據中心這個領域,無論是市場規模、增速還是用戶數量,相較於國外都有巨大的優勢。」鄢貴海認為,國內廠商有望充分利用這一「應用勢能」,加快發展步伐,在DPU這個賽道與國外廠商「逐鹿中原」。
不過,挑戰與機遇並存。
「目前要解決DPU標准化應用,還存在一定挑戰。」鄢貴海解釋道,由於數據中心本身的復雜性,各大廠商一方面採用商用現貨組件(即COTS)來構建系統,追求低成本,一方面又設法分層服務化,打造面向不用類型客戶的標准化產品,但除此之外的所有技術實現幾乎都是「八仙過海,各顯神通」——如AWS有Nitro,阿里雲有MOC。
❸ 亞馬遜輕量伺服器可以包年嗎
可以。亞馬遜輕量伺服器在華為雲平台和阿里雲平台上和亞馬遜官方網站都可以購買,並且購買包年還有包年優惠。亞馬遜雲服務是全球市場份額最大的雲計算廠商,由光環新網和西雲數據運營,可以在中國監管環境下運營公有雲。從全球數據中心提供超過200項功能齊全的服務。數百萬客戶(包括增長最快速的初創公司、最大型企業和主要的政府機構)都在使用AWS來降低成本、提高敏捷性並加速創新。
❹ Acorn,用於 Kubernetes 的輕量級、可移植的 PaaS
Acorn 是一個用於 Kubernetes 的輕量級、可移植的 PaaS 框架,其設計旨在簡化開發和部署基於 Kubernetes 的應用程序的流程。作為 K3s 的締造者 Darren Shepherd 及其團隊的成果,Acorn 強調了開源、簡潔、輕量化和可移植性,使其成為在 Kubernetes 環境下構建和擴展微服務的理想選擇。
Acorn 的核心目標是提供一個無需深入了解 Kubernetes 細節即可運行應用程序的平台。通過使用自己的類 JSON 領域特定語言(DSL),它抽象了 Kubernetes 的復雜性,使開發者能夠輕松地描述基於微服務設計模式的現代應用程序。與 Cloud Foundry 類似,Acorn 專注於接受源代碼或容器鏡像並發布端點的工作流程,它在後台與 Kubernetes API 協商,創建資源並建立所需的管道。
在公有雲環境下,AWS App Runner、Azure Container Apps 和 Google Cloud Run 等服務提供了類似 PaaS 的體驗,但它們局限於特定的雲平台,不可移植至其他環境。相比之下,Acorn 是一種能夠從開發人員筆記本電腦上的 Kind 集群無縫擴展到多節點集群的框架之一,體現了其可移植性。
本文將詳細分析 Acorn 的架構,並展示 Acorn 部署如何轉換為 Kubernetes 對象,以及如何通過一系列步驟在 Minikube 中設置環境並部署應用程序。以下是設置和部署過程的關鍵步驟:
在 Mac 上安裝 Minikube,並在其中啟用 Nginx Ingress,以支持 Acorn 的功能。
使用 Homebrew 安裝 Acorn CLI,並檢查其版本,確保已正確安裝。
通過運行 `acorn init` 命令配置 Minikube,以准備安裝 Acorn。
安裝 Acorn 後,會在 Kubernetes 集群中創建一組資源,用於處理應用程序的構建時間和運行時要求。這包括 `namespaces`,其中 `acorn-system` 用於 API 和控制器組件,而 `acorn` 用於應用程序資源。
安裝程序會創建一個自定義資源定義(CRD),即 `AppInstance.internal.acorn.io`,用於映射集群內的 Acorn 應用程序。
Acorn API 伺服器與 Kubernetes API 伺服器關聯,通過聚合機制與集群 API 對話。Acorn CLI 只需要與 API 組相關的 RBAC 許可權。
API 伺服器將入站請求轉發給 Acorn 控制器,控制器將應用程序定義轉換為 Kubernetes 資源,如 Deployments、ConfigMaps、Secrets 和 Volumes,負責管理和維護應用程序的生命周期。
部署 Acorn 應用程序的流程包括創建一個簡單的基於 Nginx 鏡像的 Web 伺服器實例。在本地目錄中創建一個 `Acornfile`,定義容器和埠配置。運行 `acorn run` 命令後,Acorn 會將 OCI 清單推送到集群內的內部注冊表服務,並生成訪問應用程序的 URL。
測試應用程序後,可以檢查 Kubernetes 集群中生成的資源,如 Deployment、Pod 和服務。使用 Ingress 實現對外暴露,確保應用程序可訪問。
通過將應用程序部署到生產集群,Acorn 實現了真正的可移植性,無需修改集群配置或部署額外資源。它支持 Docker 影響下的通用模式,為多容器應用程序提供運行環境,並與現有服務(如資料庫和緩存)集成。
Acorn 的簡單性和便攜性使其成為開發者和運維人員的首選,它簡化了 Kubernetes 應用程序的部署和管理過程。隨著 Acorn 支持直接從 Git 存儲庫部署的能力,DevOps 團隊將能夠輕松地管理基於微服務的應用程序,從而實現高效、靈活的開發和運維流程。