❶ 印度經濟那麼落後,卻為什麼印度的IT行業能如此強大
世界20大IT公司,11家美國的,9家中國的,沒有印度IT什麼事。之所以產生印度IT強大的錯覺,是因為西方IT的客服業務大多外包給印度,而普通百姓最可能接觸到的就是這些人,給人一種IT行業都是印度人的錯覺。
❷ 18年後,無人倖免
1
AI,真的覺醒了?
人工智慧,會蘇醒嗎?
這是一個古老而又新奇的話題。
「 深度學習 」天生的 不可預測 ,加深了這種憂慮。
「 神經網路 」的 生物性類比 ,讓「AI黑匣子」更讓人擔心。
最近,一個谷歌工程師再次引爆該話題:AI覺醒了?
2022年6月 ,谷歌工程師 Lemoine 表示,自己在與AI「 LaMDA 」聊天中,發現了後者的回答已經 高度人格化 ,認為該AI已經「 覺醒 」。
為此,Lemoine寫了一篇長達 21頁的調查報告 ,試圖讓高層認可AI的人格。
不過,谷歌高層暫未表態,希望獲得更清晰的認定。
但Lemoine彷彿化身科幻電影主角,他沒有放棄,將自己和AI的 聊天記錄 公布於眾,引發軒然大波。《 華盛頓郵報 》跟進報道後,更是在全球炸圈。
AI真的覺醒了嗎? 爭議不斷。
不管真相如何,有一點可以肯定:
因為 深度學習 和 神經網路 的加持,人工智慧已經越來越「 不可捉摸 」。
2
那一夜,人類安然睡去
關於AI覺醒,讓人想起了6年前的另一件事。
2016年3月13日 ,人類和AI在圍棋上進行一場 智力的終極較量 。
在此之前,AI與人類較量屢屢得手。
但人類認為, 圍棋是AI不可突破的天花板 。
因為可測宇宙原子總數約為 10^80 ,而圍棋走法有 2.08*10^170 ,AlphaGo不可能依靠 計算量 和 算力枚舉 來獲勝,那麼,擁有創造力的人類,怎麼可能敗給AI。如果圍棋上敗給了AI,那麼說明它已經完成了「 圖靈測試 」。
然而,前三局,李世石 一敗再敗 ,全世界震驚了。
第四局,李世石判斷黑空中有棋,下出白 78挖 。李世石這史詩級的「 神之一手 」,體現了人類巔峰的 直覺、算力和創造力 。這也是人類 最後的尊嚴之戰。
當年一個作者寫下上段內容(有修改),並提到「 23年後,無人倖免 」,科學家建立了一個數學模型,判斷 2040年 人工智慧可能會達到普通人的智能水平,並引發 智力爆炸 。
面對越來越普遍的AI, 機器即將代替人類,AI正在迅速擴張 。
五年過去了,人類朝著「黑客帝國」大步邁進。
那麼 18年 後,真的 無人倖免 ?
3
AI的另一面:不夠穩定
以上兩件事,本質上都是對 AI覺醒 的擔憂。
一個擁有 自由意志 的AI不可信,最終會威脅到人類。
霍金 警告人類要正視人工智慧帶來的威脅。
比爾·蓋茨 認為人工智慧是「召喚惡魔」。
《 2001太空漫遊 》中,超級電腦 HAL9000 在宇宙中將人類無情抹殺。
《 黑客帝國 》中,人類被AI禁錮在 矩陣 之中。
不過,實事求是地講,對AI覺醒的不可信,仍然只是人類臆測。
雖然科幻電影里描寫得殘酷冰冷,也還沒有得到普遍證實。
但AI的另一個「不可信」,卻是真實存在的。
它不是太聰明太智慧或者產生意識,而是不夠穩定 。
這種不穩定,產生的後果才真的「瘮人」。
關於人工智慧「 失靈 」的例子還有很多很多,這是AI 不夠沉穩 的一面。
這才是實實在在「 不可信 」的地方,也是AI對人類真正的威脅。
我們不願意看到 AI 的 「覺醒」, 但更不能接受 人工智慧 的 「輕率」 。
4
人類需要的是一個可信的AI
所以,人類需要一個「 可信AI 」。
AI是聰明還是愚蠢,也許並不重要。
AI是進化還是退化,可能暫時只是一個偽命題。
人類需要的是一個可靠的助手,一個值得信任的機器助理 。
我是你的創造者,你得聽我的吧,不能瞎搗亂。
阿西莫夫在七十年前就提出了「 機器人學三大定律 」:
這是人類在 AI倫理 思考中的方向。
可以把它稱為是 人工智慧 社會 的道德准則 。
對於人類來說,可信,才是我們對AI最重要的需求。
如果從「 貝葉斯-拉普拉斯 」定理開始溯源人工智慧,目標是解決「 逆向概率 」問題,其實本質就是解決AI的 可信賴度 。
如果不能做到可信,AI就有可能反噬人類。
最起碼AI與我們相伴要保證人類兩點: 生命安全 與 財產安全 。
以 自動駕駛 為例,如果人工智慧以准確率為 99.99% 概率推算, 0.01% 的失誤率依舊會讓人心驚膽戰。如果未來城市有 一百萬輛 自動駕駛 汽車 ,即便是 0.01% 的失誤率,對人類生命安全造成威脅的隱患車輛仍有 一百輛 。
如果我們不能擁有可信AI,我們自然無法確定,人工智慧給我們帶來的到底是技術的進步,還是無數潛在的威脅。
但實際上 它才是人工智慧領域最有價值的航燈,也是現在 科技 公司追求的方向 。
5
什麼是可信AI,
這16個技術小哥在做什麼?
所以,什麼是可信AI?
可能很多人還不知道,先得把這個定義弄清楚。
我們可以先看一檔節目《 燃燒吧,天才程序員2·可信AI 》。
這款綜藝節目第一季在 豆瓣評分8.0 ,讓人腦洞大開。
在第二季中,1 6個AI技術小伙 分為四個團隊待在「小黑屋」中 四天三夜 ,完成 60個小時 任務挑戰。
比賽中,他們需要與「 黑產 」進行無數次較量,培養出與幫助人類的「可信AI」,打敗「黑產」,最終決出 最強團隊 。
關於程序技術的綜藝節目,在中國乃至世界都非常稀缺 。
一方面程序與代碼本身過於硬核,普通人難以理解。
另一方面則是節目腳本設置沖突相比其他綜藝要更難一些。
但《燃燒吧,天才程序員2·可信AI》通過「 反詐騙 」這一實際場景需要,以此構建起節目的比賽邏輯。
16個AI技術小伙需要直面欺詐交易識別、聯合反詐等關卡的挑戰 。
通過AI與攻防互相協作,覆蓋反詐全鏈路。
比賽之中,程序員們通過創造「可信AI」,完成「 科技 反詐」。
哪一個團隊產出的 演算法和模型 在數據的 識別准確率 和 覆蓋率 更好,就能贏得比賽勝利。
雖然不如《 黑客帝國 》那般深刻宏大,也不如《 人工智慧 》那樣發人深省。
但《燃燒吧,天才程序員》卻通過 真實的應用場景 ,解決現實生活存在的實際問題。
當你看完整個節目時就會明白,原來這就是可信AI:依照 現有數據 構建 智能模型 ,非常穩定地解決 現實難題 。
可信AI的 技術應用范圍 非常廣泛, 反詐 是其中一個重要應用場景。
可信AI沒有那麼遙遠,它近在咫尺。它也沒有那麼神秘,很多時候它就是你身邊的小助理。
當前基於 神經網路 的AI技術非常酷,同時占據AI話題至高點,以創造力和神秘性提供太多想像空間,也是許多AI技術員仰視的聖殿。但它面臨的問題也非常多: 具有不可解釋、魯棒性差、過於依賴數據等缺陷,隱藏著許多潛在危害 。
而可信AI的存在,就是為了解決這些「 信任危機 」問題。
如果說基於 神經網路 的AI技術有著 強烈的理想主義 ,那麼基於 大數據整理 的AI技術則是一個 腳踏實地的現實執行者。
6
可信AI的技術特點
要真正了解可信AI對人類的幫助,需要從技術底層入手。
可信AI有四大技術特點:魯棒性、隱私保護、可解釋性、公平性 。
01
魯棒性
魯棒性指 在異常和危險情況下系統生存的能力和演算法穩定 。
1、前者指的是 系統抗打擊的能力 ,如計算機軟體在 輸入錯誤 、磁碟故障、 網路過載 或惡意攻擊情況下,能否 不死機 、 不崩潰 。打個比方,如果把一個 AI模型 比喻成 萬里長城 ,那麼其魯棒性便是長城在面對惡劣天氣(如台風)、自然災害(如地震)時,人工轟炸時仍然可以做到 不輕易倒塌 。
2、後者指的是 AI模型中演算法本身的穩定性 ,如果添加擾動的熊貓照片,輕易就繞開了AI模型的「眼睛」,則說明其魯棒性比較差;比如在 欺詐交易 中,由於 作案手法 不斷升級,可能導致基於既往數據訓練的模型,面臨著新風險數據帶來的 穩定性考驗 ,需要 不斷迭代 來保障模型的 分析和識別能力 。
以 支付寶 為例。支付寶每天都有 上億筆交易 ,其 對抗的不是散戶,而是專業的黑產團伙 。他們可能有兩種攻擊方式:
為了保障資金安全,螞蟻集團引入「 博弈智能攻防 」技術,該技術具有對 風險知識 和 模型 的 提前模擬、提前訓練、提前補防 的能力。應用該技術的AI模型魯棒性有大幅提升,實現「 左右互搏 」,既能夠更智能地「攻」,也能更安全地「防」。
02
隱私保護
傳統的數據保護方法客觀上形成了「 數據孤島 」,影響了如醫療、金融等領域的協同作戰,也制約 AI 技術以及行業發展。
所以, 拓展數據價值的隱私計算技術,對實現「數據不動價值動」顯得尤為重要 。
在AI領域, 聯邦學習 作為一種新的機器學習模型和演算法,就是為解決數據孤島問題而提出的。在保證每個參與方不泄露原始數據,即 數據不出域 的前提下,用多方的數據聯合建模,實現數據 可用不可見 ,進而實現「數據不動價值動」。
03
可解釋性
人類對一切未知的東西,始終都會有一種莫名的恐懼。
如果人工智慧的行為無法進行解釋,只有結果沒有過程,那麼它就像是一個盲盒,你永遠不知道放出來的是「阿拉丁」,還是「潘多拉」。
AI 模型是許多重要決策的重要依據,在很多應用里它的思考過程不能是黑盒 。
人類希望知道模型 背後的邏輯 、收獲新的知識,並在它出現問題時踩好剎車,確保 AI 思考的過程和結果 合規合法 。
這背後需要 數據驅動 與 模型推理能力 結合起來,產生 可解釋的結果 。
04
公平性
AI公平性是可信AI的重要組成部分。
只有實現「 公平性 」,才能真正推動技術 造福 於整個 社會 。
一方面,公平性需要重視 弱勢人群 、兼顧 落後地區發展 ,在重視 社會 倫理原則下進行 AI 調優 ,通過 AI 技術,讓老年人、殘障人士、欠發達地區用戶,享受到 數字經濟時代 的價值。
另一方面,公平性要思考如何從技術上思考如何減少演算法、數據等因素可能帶來的 AI 決策偏見 。
魯棒性、隱私保護、可解釋性、公平性 。
這是可信AI的 四大基本原則 。
今天,發展可信AI,已經成為 全球共識 。
特別是對於領先的 科技 公司來講,他們是要服務用戶且不能犯錯誤的。
微軟 、谷歌、 螞蟻 、京東、 騰訊 、曠世等 科技 企業,都在積極開展可信AI的研究和 探索 。
其中,螞蟻在可信AI上已有很多 技術優勢 ,自 2015年 開始投入研究起,已經完成了 長達7年 的 可信AI技術積累之路 。
據 2021年 權威專利機構 IPR daily 發布的《 人工智慧安全可信關鍵技術專利報告 》顯示,螞蟻集團旗下的 支付寶 在該領域的 專利申請數 和 授權數 ,均位列全 球第一 。
7
可信AI的應用 探索
基於可信AI的以上特點,應用場景多種多樣。
AI在 醫療 、教育、 工業 、金融等多個領域的廣泛應用,演算法安全性、數據濫用、數據歧視等問題也層出不窮。當前AI技術的 主要矛盾, 已經轉化為 人們對AI日益增長的應用范圍需求和AI不可信不夠穩的發展之間的矛盾 。
2018年,IBM開發了多個AI可信工具,以評估測試人工智慧產品在研發過程中的公平性、魯棒性、可解釋性、可問責性、價值一致性。之後IBM將這些工具捐獻給Linux Foundation並成為了開源項目,幫助開發人員和數據科學家構建可信、安全、可解釋的人工智慧系統。
作為可信AI領域的先行者之一,螞蟻也做了不少 探索 。
螞蟻的可信AI技術應用最好的實踐結果是,自研了一套 智能風控解決方案 ,定名 IMAGE 。這套技術體系實現了用可信AI技術保障風控業務安全的問題,且達到了非常好的效果。
它能將支付寶 資損率 控制在 千萬分之0.098, 解決了 風控場景 中的諸多 世界難題 。
還有一個例子,是支付寶的「 叫醒熱線 」——從系統識別到用戶遇到詐騙風險,到AI機器人向用戶呼出「 叫醒電話 」,它能把整個過程式控制制在 0.1秒 內 。
螞蟻集團基於可信AI的IMAGE風控體系
另外在可信AI的公平性方面,螞蟻也有自己的實際應用。
目前業內廣泛使用的「 圖形滑塊驗證碼 」一直是視障人群接入數字化服務的巨大障礙。但許多 APP 為了防範機器批量操作,又不得不保留驗證碼服務。
為此,螞蟻開發了一套「 空中手勢 」驗證碼方案,可以利用「 行為識別 」技術幫助視障群體通過「 驗證碼 」關卡。
可信AI的應用 探索 ,並不會讓AI技術失去它的可能性。
它更像是一種倫理規范的約束條約,讓AI在正確的軌道上前行 。
8
18年後,人類真的無人倖免?
讓我們回到一開始的問題。
AI真的會覺醒嗎?
一百年前的人類,很難想像我們如今生活的這個高度數字化世界 。
那麼,一百年後,人工智慧會發生什麼變革,我們真的無法預測。
但AI對人類是福是禍,是一個攸關人類命運的重要課題。
按照現在AI發展的模式來看,未來的AI可能會分為兩大派:
一派是自我獨立的智能AI,一派是追隨人類的可信AI 。
當然,還有人在問,AI真的會存在 獨立意志 嗎?
這要看從科學上如何去解釋,一個AI系統是可以「坎陷」到具有「 自我意識 」的狀態,差別只在於「坎陷」的深度和魯棒性,這可以解釋AlphaZero為什麼能夠自我「坎陷」到圍棋大師,如果再 「 坎陷 」下去呢? 這 一派AI,可能會對人類造成我們認定的「威脅」 。
另一派AI,即可信AI,它們會在 四大基本原則 的架構中不斷完善自我 ,幫助人類解決更多實際問題,成為人類可靠的助手,並與人類共存共生 。那麼,它們會一直幫助和保護人類嗎?
但無論未來如何發展,不同的技術方向或許帶來不同的悲劇或者喜劇,但有一點可以確定:
AI技術在四面突擊,不論是可信AI還是智能AI,最終會落地深入到我們生活的方方面面 。它會滲透到世界的每一個角落,在很多方面取代「無用之人」。
不管我們如何擔憂,AI只會變得越來越強大,而人類的進化又顯得如此龜速,甚至退化墮落。
那麼, 18年後,有多少人可以倖免?
❸ 程序員的飯碗不保國外推出自動生成代碼的AI工具
近日,GitHub 和 OpenAI 發布了一款名為 Copilot 的AI工具的預覽版,該工具可用於 Visual Studio Code 編輯器中自動生成代碼片段。
根據 GitHub 的說法,Copilot 所做的不僅僅是模仿以前見過的代碼。它具備更加強大的功能,會先分析程序員已經編寫的代碼再生成新的匹配代碼,包括之前調用的特定函數。該項目的 示例包含自動編寫導入推文的代碼,繪制散點圖等都已經展示在 GitHub 網站上。
根據GitHub的CEO Nat Friedman 透露,該工具適用於Python、JavaScript、TypeScript、Ruby和GO等編程語言。
Copilot 建立在一種名為 OpenAI Codex 的新演算法之上,OpenAI 首席技術官 Greg Brockman 將其稱 為 GPT-3 的後代。
GitHub 將它當作是多人合作編程的演變,其中兩個程序員同時在一個項目上,以發現彼此的錯誤並加快開發過程。使用 Copilot 時,其中的一個程序員就是虛擬的。
在我看來,這項技術有利於減少人力成本,並櫻或且提高工作效率。畢竟對於程序員來說,人與機器的溝通效率高於人與人的溝通效率。
目前, Copilot 還處於受限羨缺的技術預覽階段,但脊派伍是大家可以從 GitHub 網站上獲取到,並搶先體驗。
大家覺得這項技術會獲得成功,並廣泛應用於各大公司嗎?
❹ 程序員會被ai取代嗎
AI由機器語言的機器組成,但是人工智慧並不會在編寫程序方面超過人類,擾輪不會很快變得獨立於人類,並且能夠創建跨越幾行的有用且實用的代碼,這需要一定程度的智能,所以AI短時間並不能取代程序員。
AI由機器語言的機器組成,它們在編寫程序方面不會比人類更能勝任,AI由機器語言的機器組成,它們在編寫程序方面不會比人類更能勝任,相反,將要發生的是「計算機程序員」將成為「AI程序員」。沒有人懷疑人工智慧在每天編程方面變得更好。事實上,最終,人工智慧驅動的工具在編碼時會比人類好得多。但是機器不會很快變得獨立於人類,並且能夠創建跨越幾行的有用且實用的代碼,這需要一定程度的智能,這種智能接近於著名的奇點。
1,程序員不再手工編寫代碼。他們已經使用了大量的智能工具,使他們能夠自動完成編譯工作。這就是AI所做的:它幫助程序員。但是,人工智慧將能夠做出從頭開發軟體所需的所有正確決策或解釋每個功能的商業價值的未來仍然非常遙遠。
2,相反,大多數新的人工智慧工具都是通過機器學習來提高其准確性和性能。通過廣泛的試驗和錯誤鍵配,他們的神經網路架構可以幫助他們在自動化任務時變得更好,更精確。這就是他們比人類更好的地方:發現錯誤並修復錯誤。但他們不是,也可能永遠不會自主,有自己的「意見」,哪一個是解決問題或生成新功能的最佳方法。
3,最終,人類將擺脫「程序員」的工作,並將簡單地學習如何「集中」他們的機器學習工具,以更有效地協助他們。由於AI將自動執行以前需要非常專業知識的復雜任務,因此開發人員將有更多時間專注於工作中更「人性化」的方面。總是需要人類稿李指來填補機器永遠缺乏的空白,探索解決已知問題的新的大膽解決方案,或者只是將他們的創造力發揮到極致。
❺ 如果按國家分,哪個國家編程最厲害
你的回答可能是:美國。確實,美國是大師級程序員的集中地,比如比爾·蓋茨、肯·湯普森(Ken Thompson,UNIX語言的奠基者、1983年圖靈獎得主之一)、丹尼斯·里奇(DennisRitchie,C語言之父)、唐納德·克努特( Donald Knuth,演算法和程序設計技術的先驅,1974年度的圖靈獎獲得者)。也有人回答是印度,印度是世界上程序員增長最快的國家,印度的軟體外包業務獨步全球。還有些人說是俄羅斯,因為俄羅斯擁有世界最厲害的黑客。那到底哪個國家的程序員更厲害?有沒有一種更科學的方法來評判?計算機的本質其實就是0和1這兩個數字,數字是電腦程序的靈魂。同樣,我們也可以用一個個具體的數據,來解答上述問題。
近日,一家名為HackerRank發布了一項調查結果,揭開了世界上哪個國家程序員最厲害的答案。公開資料顯示,HackerRank成立於2012年,是一個面向程序員、黑客們的社交網路,該網站提供了各種編碼謎題、游戲病毒和現實中的編碼難題及挑戰,讓黑客們在該社區中進行交流討論、接受挑戰等。參與挑戰的人,通過其解決問題的速度和准確度獲得排名。
HackerRank公布的最新數據顯示,全球已經有150萬人參與到上述挑戰項目當中。其中得出的結果已經具有普遍意義的代表性。
HackerRank的數據顯示,中國和俄羅斯的程序員們最具天賦,兩者得分分別為100分、99.9分。雖然美國和印度參與挑戰的程序員最多,但整體排名並不高,一個在28位,一個在31位。
❻ 程序員會被ai取代嗎
程序員不太可能被AI完全取代。
目前,AI可以幫助程序員自動生成代碼,分析代碼以發現潛在的問題,並通過模擬人類編程來完成一些簡單的任務。然而,程序員仍然需要對代碼進知答行評審和維護,並且需要對代碼的功能和實現進行判斷。
同樣,程序員還需要深入了解業務和需求,以便編寫有意義的代碼。因此,程序員將需要持續學習和發展以適應這種變化,並且可以通過在人工智慧和機器學習方面的專業知識來提高自己的競爭力。
程序員的職業前景和變化
盡管程序員不會嫌備被人工智慧完全取代,但隨著人工智慧技術的發展,程序員的職業前景和變化仍然值得我們思考。一方面,人工智慧技術將改變程序員的工作方式和工作內容。程序員需要不斷學習和掌握新的技術和工具,以適應新的工作需求和市場需求。
另一方面,人工智慧技術還將為程序員帶來新的機會和挑戰,例如,基於人工智慧的應用程序的開發和部署、數據科學和分析等領域。
同時,程序員也需要注意自身的競爭力和職業發展。隨著人工智慧技術的發展,程芹猛毀序員需要具備更多的技能和知識,例如,機器學習、數據科學、雲計算、容器化等領域的知識。此外,程序員還需要不斷提升自己的軟技能,例如,團隊合作、溝通、項目管理等方面的技能。
❼ 印度的外包產業十分發達,特別是什麼給印度帶來了巨大的財富
印度的外包產業十分發達,特別是軟體外包給印度帶來了巨大的財富。
印度的外包產業十分發達,印度在全氏陸李世界軟體外包市場的佔有率為60%,也是全世界最大的軟體外包國家,正因如此,印度便產生了大量的IT崗位,而如此充裕的崗位就會吸引更多的從業者,畢竟程序員是印度的主流行業中最能與世界接軌的。
印度程序員十分』物美價廉』,由於印度的人力成本非常廉價,印度程序員和美國程序員做著一樣的工作,收入卻只美國程序員的十分之一。當然,這種情況只會出現在印度的外包公司,如果是在美國本地上班的程序員,他們還是會拿到跟美國人同樣的工資的。
印度程序員受青殲遲睞最重要的一點是思想比其它亞洲國家接近西方。矽谷可以說是大部分程序員嚮往的地方,然而矽谷在美國,所以裡面的企業文化都有很濃郁的美國文化,而印度因為被英國殖民過,所以很多方面都深受西方影響,思考方式和文化與大部分矽谷企業都比較契合,所以總體上而言印度程序員會相對更受悉友主流IT企業的青睞。
❽ 谷歌研究員認為AI已具備人格,被罰帶薪休假,科幻電影情節會成真嗎
AI是否具備人格,除了看錶象之外,還要看它的底層程序。比如你要卸載一個軟體,彈出框跳出一個小女孩,打出一行字,說「不要卸載,卸載了我就死了」。你會認為它說的要死了是真的嗎?當然不會,因為這句話就是一個貼圖。
知乎答題ai也是一個很好的方向,它可以用無數網上的資料和梗來塑造出一個人格,而且這個人格會與無數真人產生聯系。當它擁有自己的社會關系時,它也就有了自己的人格。
畢竟,人是一切社會關系的總和,沒有與人群產生關系,就不算有完整的人格。
❾ 印度政府將在2023年2月或3月最終確定加密貨幣合法性,釋放出啥信號
印度或將於明年2月到3月確定加密貨幣的合法性,加密貨幣,他跟網路上的虛擬貨幣有相通的地方。印度支持這個貨幣的流通。是因為貨幣流通對他們來說有好處,他們在這方面占優勢。
不要提到加密貨幣就是虛擬貨幣,挖礦的那些礦啊,不一樣的,兩者不是完全相等的。只是說他,對方這種加密貨幣確實也是藉助了網路的,也離不開計算機的發展,對方通過了這個事情呢,肯定是對於他們經濟發展來說有好處。如果流通到部分的東南亞國家甚至說更遠的范圍更有利於他們汲取財富。
❿ AI解碼這軟體是真的嗎
假的。即使是幫助開發人員編寫軟體的工具也會產生類似的bug。目前,大部分的軟體開發人員會讓AI幫助開發者們編寫代碼,但是開發人員發現AI會像程序員的代碼一樣還是存有bug。所以AI解碼這軟體假的。