『壹』 軟體是如何開發出來的
軟體開發流程
先上一個軟體開發的整體流程圖,這就是大名鼎鼎的「瀑布模型(Waterfall Model)」。據說由溫斯頓·羅伊斯(Winston Royce)在1970年提出。
1、環境部署
准備伺服器,部署操作系統、軟體環境、安全軟體、FTP伺服器等。資料庫和應用可分開布置在多個伺服器,也可布置在同一伺服器。
准備網路,分為內網和外網。外網需要購買公網IP和域名。
負責人:網路管理員
2、軟體開發
包括開發語言選擇、架構設計、資料庫設計等工作,並進行編碼、編譯、測試、打包。
負責人:程序員
3、軟體部署
將程序文件上傳到伺服器,進行部署、配置,成功後即可通過客戶端訪問項目。
負責人:軟體實施
軟體開發階段
下面以java語言開發為例,簡單講講程序員是如何進行軟體開發的。
(本部分參考了「軟帝在線」公眾號、博客園「架構與我」的文章)。
1、新建java文件(或工程)
java源代碼本質上就是普通的文本文件,可以用txt等工具編輯java代碼(程序員一般採用源代碼編輯工具,如:Notepad++;或集成開發工具IDE,如:Eclipse)。txt編寫後需將文件擴展名改成java。
2、編寫代碼
以「Hello World」舉例編寫代碼:
public class HelloWorld {
public static void main(String[] args) {
System.out.println("Hello World");
}
}
該程序表示的意思是輸出Hello World這樣一段話。
3、編譯程序
Java程序之所以能做到跨平台運行,是因為Java程序運行在JVM中的,然而JVM只能夠識別位元組碼文件,而不能直接識別Java文件。所以需要先將Java文件編譯成位元組碼文件,即class文件,然後位元組碼文件才能夠在JVM中運行。
編譯文件,可以通過手動執行Dos命令javac,或直接用編譯器如Eclipse完成。
4、運行程序
可在Dos命令窗口中輸入java命令,按回車,輸出Hello World;
或在編譯器的控制台中看到輸出結果。
5、單元測試
單元測試(模塊測試)是開發者對編寫的一小段代碼,檢驗一個很小的、很明確的功能是否正確。
通常採用JUnit框架(多數java開發環境已集成)進行測試,即所謂白盒測試,叫「白盒」是因為程序員知道被測試的軟體如何(How)完成功能和完成什麼樣(What)的功能。
測試通過後,就完成了軟體開發階段,可以打包部署了。(IT售前圈)
『貳』 chat- cgt是什麼
ChatGPT(對話生成技術)是一種機器學習技術,可以根據輸入的文本,自動生成高質量的文本輸出,它能夠模仿人類的塌掘對話行為,使機器能夠與人類進行自然的對話。
ChatGPT技術的出現,確實會對底層程序員的就業有一定的影響。
由於它可以自動生成高質量的文本輸出,傳統的底層程序員慧御,尤其是一些編寫文本信息的底層程序員,將會受到一定程度的影響。
同時,ChatGPT技術也可以用來自動生成文本,這將會對某些文本編輯和撰寫的底層程序員造成影響。
然而,ChatGPT技術也不是完全取代底層程序員的技術。
它可以模仿人類的對話行為,但也有很多不足之處,尤其是它在輸出質量上的不足。因此,底層程前衫岩序員仍然有必要進行校對、修改、編寫等工作,以保證文本的高質量。但不會導致底層程序員全面失業。
自動化技術,包括人工智慧,一直以來都在改變勞動力市場,導致一些工作被自動化,而另一些工作需要更高級別的技能。
因此, ChatGPT 的出現可能導致一些具體的程序員工作需求減少,但同時也會帶來新的工作機會,例如人工智慧開發、數據科學、以及相關的領域。
此外,人工智慧需要大量的高質量數據、高級演算法以及深入的人工智慧知識才能構建和實施。因此,即使在自動化技術的影響下,仍然需要高級程序員來開發、部署和維護人工智慧系統。
因此, ChatGPT 的出現不會導致底層程序員全面失業,但可能對一些具體的工作造成影響,需要程序員通過不斷學習和提高自己的技能來應對這些變化。此外,ChatGPT技術並不能完全取代底層程序員的所有工作,而只能取代其中的一部分,因此它不會導致底層程序員的大規模失業。
總而言之,ChatGPT技術確實會對底層程序員的就業有一定的影響,但是不會導致底層程序員大規模失業。
底層程序員仍然需要運用其他技能,進行校對、一方面,ChatGPT可以幫助底層程序員完成重復性的任務,減少他們花在這些任務上的時間,使他們有更多的時間和精力去完成更加復雜、更有挑戰性的任務。
另一方面,ChatGPT也可以為底層程序員提供支持,幫助他們快速解決問題,使得項目的開發效率大大提升,為企業的發展做出積極貢獻。
此外,藉助ChatGPT,底層程序員可以更加容易地接觸到新技術,從而更好地掌握專業知識,提高職業技能水平,為企業帶來更多的利益。
總之,ChatGPT的出現不會導致底層程序員失業,反而會給他們帶來更豐富的工作內容。
『叄』 18年後,無人倖免
1
AI,真的覺醒了?
人工智慧,會蘇醒嗎?
這是一個古老而又新奇的話題。
「 深度學習 」天生的 不可預測 ,加深了這種憂慮。
「 神經網路 」的 生物性類比 ,讓「AI黑匣子」更讓人擔心。
最近,一個谷歌工程師再次引爆該話題:AI覺醒了?
2022年6月 ,谷歌工程師 Lemoine 表示,自己在與AI「 LaMDA 」聊天中,發現了後者的回答已經 高度人格化 ,認為該AI已經「 覺醒 」。
為此,Lemoine寫了一篇長達 21頁的調查報告 ,試圖讓高層認可AI的人格。
不過,谷歌高層暫未表態,希望獲得更清晰的認定。
但Lemoine彷彿化身科幻電影主角,他沒有放棄,將自己和AI的 聊天記錄 公布於眾,引發軒然大波。《 華盛頓郵報 》跟進報道後,更是在全球炸圈。
AI真的覺醒了嗎? 爭議不斷。
不管真相如何,有一點可以肯定:
因為 深度學習 和 神經網路 的加持,人工智慧已經越來越「 不可捉摸 」。
2
那一夜,人類安然睡去
關於AI覺醒,讓人想起了6年前的另一件事。
2016年3月13日 ,人類和AI在圍棋上進行一場 智力的終極較量 。
在此之前,AI與人類較量屢屢得手。
但人類認為, 圍棋是AI不可突破的天花板 。
因為可測宇宙原子總數約為 10^80 ,而圍棋走法有 2.08*10^170 ,AlphaGo不可能依靠 計算量 和 算力枚舉 來獲勝,那麼,擁有創造力的人類,怎麼可能敗給AI。如果圍棋上敗給了AI,那麼說明它已經完成了「 圖靈測試 」。
然而,前三局,李世石 一敗再敗 ,全世界震驚了。
第四局,李世石判斷黑空中有棋,下出白 78挖 。李世石這史詩級的「 神之一手 」,體現了人類巔峰的 直覺、算力和創造力 。這也是人類 最後的尊嚴之戰。
當年一個作者寫下上段內容(有修改),並提到「 23年後,無人倖免 」,科學家建立了一個數學模型,判斷 2040年 人工智慧可能會達到普通人的智能水平,並引發 智力爆炸 。
面對越來越普遍的AI, 機器即將代替人類,AI正在迅速擴張 。
五年過去了,人類朝著「黑客帝國」大步邁進。
那麼 18年 後,真的 無人倖免 ?
3
AI的另一面:不夠穩定
以上兩件事,本質上都是對 AI覺醒 的擔憂。
一個擁有 自由意志 的AI不可信,最終會威脅到人類。
霍金 警告人類要正視人工智慧帶來的威脅。
比爾·蓋茨 認為人工智慧是「召喚惡魔」。
《 2001太空漫遊 》中,超級電腦 HAL9000 在宇宙中將人類無情抹殺。
《 黑客帝國 》中,人類被AI禁錮在 矩陣 之中。
不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。
雖然科幻電影里描寫得殘酷冰冷,也還沒有得到普遍證實。
但AI的另一個「不可信」,卻是真實存在的。
它不是太聰明太智慧或者產生意識,而是不夠穩定 。
這種不穩定,產生的後果才真的「瘮人」。
關於人工智慧「 失靈 」的例子還有很多很多,這是AI 不夠沉穩 的一面。
這才是實實在在「 不可信 」的地方,也是AI對人類真正的威脅。
我們不願意看到 AI 的 「覺醒」, 但更不能接受 人工智慧 的 「輕率」 。
4
人類需要的是一個可信的AI
所以,人類需要一個「 可信AI 」。
AI是聰明還是愚蠢,也許並不重要。
AI是進化還是退化,可能暫時只是一個偽命題。
人類需要的是一個可靠的助手,一個值得信任的機器助理 。
我是你的創造者,你得聽我的吧,不能瞎搗亂。
阿西莫夫在七十年前就提出了「 機器人學三大定律 」:
這是人類在 AI倫理 思考中的方向。
可以把它稱為是 人工智慧 社會 的道德准則 。
對於人類來說,可信,才是我們對AI最重要的需求。
如果從「 貝葉斯-拉普拉斯 」定理開始溯源人工智慧,目標是解決「 逆向概率 」問題,其實本質就是解決AI的 可信賴度 。
如果不能做到可信,AI就有可能反噬人類。
最起碼AI與我們相伴要保證人類兩點: 生命安全 與 財產安全 。
以 自動駕駛 為例,如果人工智慧以准確率為 99.99% 概率推算, 0.01% 的失誤率依舊會讓人心驚膽戰。如果未來城市有 一百萬輛 自動駕駛 汽車 ,即便是 0.01% 的失誤率,對人類生命安全造成威脅的隱患車輛仍有 一百輛 。
如果我們不能擁有可信AI,我們自然無法確定,人工智慧給我們帶來的到底是技術的進步,還是無數潛在的威脅。
但實際上 它才是人工智慧領域最有價值的航燈,也是現在 科技 公司追求的方向 。
5
什麼是可信AI,
這16個技術小哥在做什麼?
所以,什麼是可信AI?
可能很多人還不知道,先得把這個定義弄清楚。
我們可以先看一檔節目《 燃燒吧,天才程序員2·可信AI 》。
這款綜藝節目第一季在 豆瓣評分8.0 ,讓人腦洞大開。
在第二季中,1 6個AI技術小伙 分為四個團隊待在「小黑屋」中 四天三夜 ,完成 60個小時 任務挑戰。
比賽中,他們需要與「 黑產 」進行無數次較量,培養出與幫助人類的「可信AI」,打敗「黑產」,最終決出 最強團隊 。
關於程序技術的綜藝節目,在中國乃至世界都非常稀缺 。
一方面程序與代碼本身過於硬核,普通人難以理解。
另一方面則是節目腳本設置沖突相比其他綜藝要更難一些。
但《燃燒吧,天才程序員2·可信AI》通過「 反詐騙 」這一實際場景需要,以此構建起節目的比賽邏輯。
16個AI技術小伙需要直面欺詐交易識別、聯合反詐等關卡的挑戰 。
通過AI與攻防互相協作,覆蓋反詐全鏈路。
比賽之中,程序員們通過創造「可信AI」,完成「 科技 反詐」。
哪一個團隊產出的 演算法和模型 在數據的 識別准確率 和 覆蓋率 更好,就能贏得比賽勝利。
雖然不如《 黑客帝國 》那般深刻宏大,也不如《 人工智慧 》那樣發人深省。
但《燃燒吧,天才程序員》卻通過 真實的應用場景 ,解決現實生活存在的實際問題。
當你看完整個節目時就會明白,原來這就是可信AI:依照 現有數據 構建 智能模型 ,非常穩定地解決 現實難題 。
可信AI的 技術應用范圍 非常廣泛, 反詐 是其中一個重要應用場景。
可信AI沒有那麼遙遠,它近在咫尺。它也沒有那麼神秘,很多時候它就是你身邊的小助理。
當前基於 神經網路 的AI技術非常酷,同時占據AI話題至高點,以創造力和神秘性提供太多想像空間,也是許多AI技術員仰視的聖殿。但它面臨的問題也非常多: 具有不可解釋、魯棒性差、過於依賴數據等缺陷,隱藏著許多潛在危害 。
而可信AI的存在,就是為了解決這些「 信任危機 」問題。
如果說基於 神經網路 的AI技術有著 強烈的理想主義 ,那麼基於 大數據整理 的AI技術則是一個 腳踏實地的現實執行者。
6
可信AI的技術特點
要真正了解可信AI對人類的幫助,需要從技術底層入手。
可信AI有四大技術特點:魯棒性、隱私保護、可解釋性、公平性 。
01
魯棒性
魯棒性指 在異常和危險情況下系統生存的能力和演算法穩定 。
1、前者指的是 系統抗打擊的能力 ,如計算機軟體在 輸入錯誤 、磁碟故障、 網路過載 或惡意攻擊情況下,能否 不死機 、 不崩潰 。打個比方,如果把一個 AI模型 比喻成 萬里長城 ,那麼其魯棒性便是長城在面對惡劣天氣(如台風)、自然災害(如地震)時,人工轟炸時仍然可以做到 不輕易倒塌 。
2、後者指的是 AI模型中演算法本身的穩定性 ,如果添加擾動的熊貓照片,輕易就繞開了AI模型的「眼睛」,則說明其魯棒性比較差;比如在 欺詐交易 中,由於 作案手法 不斷升級,可能導致基於既往數據訓練的模型,面臨著新風險數據帶來的 穩定性考驗 ,需要 不斷迭代 來保障模型的 分析和識別能力 。
以 支付寶 為例。支付寶每天都有 上億筆交易 ,其 對抗的不是散戶,而是專業的黑產團伙 。他們可能有兩種攻擊方式:
為了保障資金安全,螞蟻集團引入「 博弈智能攻防 」技術,該技術具有對 風險知識 和 模型 的 提前模擬、提前訓練、提前補防 的能力。應用該技術的AI模型魯棒性有大幅提升,實現「 左右互搏 」,既能夠更智能地「攻」,也能更安全地「防」。
02
隱私保護
傳統的數據保護方法客觀上形成了「 數據孤島 」,影響了如醫療、金融等領域的協同作戰,也制約 AI 技術以及行業發展。
所以, 拓展數據價值的隱私計算技術,對實現「數據不動價值動」顯得尤為重要 。
在AI領域, 聯邦學習 作為一種新的機器學習模型和演算法,就是為解決數據孤島問題而提出的。在保證每個參與方不泄露原始數據,即 數據不出域 的前提下,用多方的數據聯合建模,實現數據 可用不可見 ,進而實現「數據不動價值動」。
03
可解釋性
人類對一切未知的東西,始終都會有一種莫名的恐懼。
如果人工智慧的行為無法進行解釋,只有結果沒有過程,那麼它就像是一個盲盒,你永遠不知道放出來的是「阿拉丁」,還是「潘多拉」。
AI 模型是許多重要決策的重要依據,在很多應用里它的思考過程不能是黑盒 。
人類希望知道模型 背後的邏輯 、收獲新的知識,並在它出現問題時踩好剎車,確保 AI 思考的過程和結果 合規合法 。
這背後需要 數據驅動 與 模型推理能力 結合起來,產生 可解釋的結果 。
04
公平性
AI公平性是可信AI的重要組成部分。
只有實現「 公平性 」,才能真正推動技術 造福 於整個 社會 。
一方面,公平性需要重視 弱勢人群 、兼顧 落後地區發展 ,在重視 社會 倫理原則下進行 AI 調優 ,通過 AI 技術,讓老年人、殘障人士、欠發達地區用戶,享受到 數字經濟時代 的價值。
另一方面,公平性要思考如何從技術上思考如何減少演算法、數據等因素可能帶來的 AI 決策偏見 。
魯棒性、隱私保護、可解釋性、公平性 。
這是可信AI的 四大基本原則 。
今天,發展可信AI,已經成為 全球共識 。
特別是對於領先的 科技 公司來講,他們是要服務用戶且不能犯錯誤的。
微軟 、谷歌、 螞蟻 、京東、 騰訊 、曠世等 科技 企業,都在積極開展可信AI的研究和 探索 。
其中,螞蟻在可信AI上已有很多 技術優勢 ,自 2015年 開始投入研究起,已經完成了 長達7年 的 可信AI技術積累之路 。
據 2021年 權威專利機構 IPR daily 發布的《 人工智慧安全可信關鍵技術專利報告 》顯示,螞蟻集團旗下的 支付寶 在該領域的 專利申請數 和 授權數 ,均位列全 球第一 。
7
可信AI的應用 探索
基於可信AI的以上特點,應用場景多種多樣。
AI在 醫療 、教育、 工業 、金融等多個領域的廣泛應用,演算法安全性、數據濫用、數據歧視等問題也層出不窮。當前AI技術的 主要矛盾, 已經轉化為 人們對AI日益增長的應用范圍需求和AI不可信不夠穩的發展之間的矛盾 。
2018年,IBM開發了多個AI可信工具,以評估測試人工智慧產品在研發過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。之後IBM將這些工具捐獻給Linux Foundation並成為了開源項目,幫助開發人員和數據科學家構建可信、安全、可解釋的人工智慧系統。
作為可信AI領域的先行者之一,螞蟻也做了不少 探索 。
螞蟻的可信AI技術應用最好的實踐結果是,自研了一套 智能風控解決方案 ,定名 IMAGE 。這套技術體系實現了用可信AI技術保障風控業務安全的問題,且達到了非常好的效果。
它能將支付寶 資損率 控制在 千萬分之0.098, 解決了 風控場景 中的諸多 世界難題 。
還有一個例子,是支付寶的「 叫醒熱線 」——從系統識別到用戶遇到詐騙風險,到AI機器人向用戶呼出「 叫醒電話 」,它能把整個過程式控制制在 0.1秒 內 。
螞蟻集團基於可信AI的IMAGE風控體系
另外在可信AI的公平性方面,螞蟻也有自己的實際應用。
目前業內廣泛使用的「 圖形滑塊驗證碼 」一直是視障人群接入數字化服務的巨大障礙。但許多 APP 為了防範機器批量操作,又不得不保留驗證碼服務。
為此,螞蟻開發了一套「 空中手勢 」驗證碼方案,可以利用「 行為識別 」技術幫助視障群體通過「 驗證碼 」關卡。
可信AI的應用 探索 ,並不會讓AI技術失去它的可能性。
它更像是一種倫理規范的約束條約,讓AI在正確的軌道上前行 。
8
18年後,人類真的無人倖免?
讓我們回到一開始的問題。
AI真的會覺醒嗎?
一百年前的人類,很難想像我們如今生活的這個高度數字化世界 。
那麼,一百年後,人工智慧會發生什麼變革,我們真的無法預測。
但AI對人類是福是禍,是一個攸關人類命運的重要課題。
按照現在AI發展的模式來看,未來的AI可能會分為兩大派:
一派是自我獨立的智能AI,一派是追隨人類的可信AI 。
當然,還有人在問,AI真的會存在 獨立意志 嗎?
這要看從科學上如何去解釋,一個AI系統是可以「坎陷」到具有「 自我意識 」的狀態,差別只在於「坎陷」的深度和魯棒性,這可以解釋AlphaZero為什麼能夠自我「坎陷」到圍棋大師,如果再 「 坎陷 」下去呢? 這 一派AI,可能會對人類造成我們認定的「威脅」 。
另一派AI,即可信AI,它們會在 四大基本原則 的架構中不斷完善自我 ,幫助人類解決更多實際問題,成為人類可靠的助手,並與人類共存共生 。那麼,它們會一直幫助和保護人類嗎?
但無論未來如何發展,不同的技術方向或許帶來不同的悲劇或者喜劇,但有一點可以確定:
AI技術在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面 。它會滲透到世界的每一個角落,在很多方面取代「無用之人」。
不管我們如何擔憂,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。
那麼, 18年後,有多少人可以倖免?