導航:首頁 > 源碼編譯 > 人工智慧怎麼擺脫演算法

人工智慧怎麼擺脫演算法

發布時間:2024-11-30 21:54:04

❶ 人工智慧的原理是什麼

人工智慧的原理,簡單的形容就是:

人工智慧=數學計算。

機器的智能程度,取決於「演算法」。最初,人們發現用電路的開和關,可以表示1和0。那麼很多個電路組織在一起,不同的排列變化,就可以表示很多的事情,比如顏色、形狀、字母。再加上邏輯元件(三極體),就形成了「輸入(按開關按鈕)——計算(電流通過線路)——輸出(燈亮了)」

但是到了圍棋這里,沒法再這樣窮舉了。力量再大,終有極限。圍棋的可能性走法,遠超宇宙中全部原子之和(已知),即使用目前最牛逼的超算,也要算幾萬年。在量子計算機成熟之前,電子計算機幾無可能。

所以,程序員給阿爾法狗多加了一層演算法:

A、先計算:哪裡需要計算,哪裡需要忽略。

B、然後,有針對性地計算。

——本質上,還是計算。哪有什麼「感知」!

在A步,它該如何判斷「哪裡需要計算」呢?

這就是「人工智慧」的核心問題了:「學習」的過程。

仔細想一下,人類是怎樣學習的?

人類的所有認知,都來源於對觀察到的現象進行總結,並根據總結的規律,預測未來。

當你見過一隻四條腿、短毛、個子中等、嘴巴長、汪汪叫的動物,名之為狗,你就會把以後見到的所有類似物體,歸為狗類。

不過,機器的學習方式,和人類有著質的不同:

人通過觀察少數特徵,就能推及多數未知。舉一隅而反三隅。

機器必須觀察好多好多條狗,才能知道跑來的這條,是不是狗。

這么笨的機器,能指望它來統治人類嗎。

它就是仗著算力蠻干而已!力氣活。

具體來講,它「學習」的演算法,術語叫「神經網路」(比較唬人)。

(特徵提取器,總結對象的特徵,然後把特徵放進一個池子里整合,全連接神經網路輸出最終結論)

它需要兩個前提條件:

1、吃進大量的數據來試錯,逐漸調整自己的准確度;

2、神經網路層數越多,計算越准確(有極限),需要的算力也越大。

所以,神經網路這種方法,雖然多年前就有了(那時還叫做「感知機」)。但是受限於數據量和計算力,沒有發展起來。

神經網路聽起來比感知機不知道高端到哪裡去了!這再次告訴我們起一個好聽的名字對於研(zhuang)究(bi)有多重要!

現在,這兩個條件都已具備——大數據和雲計算。誰擁有數據,誰才有可能做AI。

目前AI常見的應用領域:

圖像識別(安防識別、指紋、美顏、圖片搜索、醫療圖像診斷),用的是「卷積神經網路(CNN)」,主要提取空間維度的特徵,來識別圖像。

自然語言處理(人機對話、翻譯),用的是」循環神經網路(RNN)「,主要提取時間維度的特徵。因為說話是有前後順序的,單詞出現的時間決定了語義。

神經網路演算法的設計水平,決定了它對現實的刻畫能力。頂級大牛吳恩達就曾經設計過高達100多層的卷積層(層數過多容易出現過擬合問題)。

當我們深入理解了計算的涵義:有明確的數學規律。那麼,

這個世界是是有量子(隨機)特徵的,就決定了計算機的理論局限性。——事實上,計算機連真正的隨機數都產生不了。

——機器仍然是笨笨的。

更多神佑深度的人工智慧知識,想要了解,可以私信詢問。

❷ 人工智慧作惡誰之過

「9·11 是猶太人乾的,把他們都送進毒氣室!種族戰爭現在開始!」

2016年3月23日,一個人設為19歲女性,昵稱為 Tay 的聊天機器人在推特上線。這個微軟開發的機器人能夠通過抓取和用戶互動的數據模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay 就被「調教」成了一個滿口叫囂著種族清洗的極端分子,微軟只好以系統升級為由將其下架。

微軟聊天機器人的極端言論。

這樣的口號並不是聊天機器人的發明,而在社交網路上大量存在著。美國大選期間,一些所謂的「政治新媒體」賬號發出的摻雜陰謀論、種族主義的內容,在Facebook 上進行了病毒式傳播。這有賴於人工智慧協助下的「精準定位」:誰最容易相信陰謀論,誰對現實最不滿?相應的政治廣告和假新聞能精準地投放到這群人中,使人對自己的看法更加深信不疑。

因為設計缺陷而 「暴走」的聊天機器人,和精心策劃的線上政治行為,看起來彷彿是兩回事。但這種我們似乎從未見過的景象,卻指向了同一個「凶器」——大數據驅動下的人工智慧。

1、人工智慧有作惡的能力嗎?

人工智慧會「作惡」嗎?面對智能的崛起,許多人抱有憂慮和不安: 擁有感情和偏見的人會作惡,而僅憑理性計算進行判定的計算機似乎也會「作惡」, 且作起來易如反掌。這讓許多人(特別是非技術領域的人)對人工智慧的發展持悲觀態度。

這種憂慮並不是最近才有的。人工智慧這個詞誕生於上世紀50年代,指可體現出思維行動的計算機硬體或者軟體,而 對機器「擁有思維」之後的倫理探討,早至阿西莫夫開始就在科幻作品裡出現。

14 年前,威爾·史密斯主演的電影《機械公敵》里就有這樣一個場景:2035 年的人類社會,超高級的人工智慧承擔大量工作,並與人類和諧相處。這些原本完全符合阿西莫夫「三定律」的人工智慧,在一次關鍵升級之後對人類發起了進攻。這些機器人擁有了思維進化的能力,在它們的推算下,要達到「不傷害人類」的目的,就必須先消滅「彼此傷害」的人類。

十分高產的科幻作家阿西莫夫(1920-1992)。

劍橋分析CEO亞歷山大·尼克斯(Alexander Nix)。

劍橋分析並不是一個孤例。澳洲一個 Facebook 的廣告客戶透露,Facebook 的人工智慧會分析其用戶特徵和所發的內容,給出諸如「有不安全感的年輕人」「抑鬱、壓力大」等標簽,然後有針對性地投放游戲、癮品和甚至虛假交友網站的廣告,從中獲取巨大利益。

即使不存在數據泄露問題,對用戶數據的所謂「智能挖掘」也很容易遊走在「合規」但「有違公平」的邊緣。例如,電商能夠根據一個人的消費習慣和消費能力的計算,對某個人進行針對的、精密的價格歧視。購買同樣的商品,用 iPhone X 手機的用戶很可能會比用安卓「千元機」的用戶付更多的價錢,因為他們「傾向於對價格不敏感」。而我們所經常談論的「大數據殺熟」——比如攜程老用戶訂旅館的價格會更高——也建立在用戶行為數據的基礎上。

數據的收集本身也值得商榷。前網路人工智慧首席科學家吳恩達(Andrew Ng)就曾公開表示, 大公司的產品常常不是為了收入而做,而是為了用戶的數據而做;在某一個產品上收集的數據,會用於在另一個產品上獲利。 在智能面前,沒有所謂的個人隱私和行蹤,也很難確定數據收集的邊界在哪裡,尤其是個人隱私與公共信息、主動提供與被動提供的邊界。

總而言之, 在以商業利益為目標的人工智慧眼裡,並沒有「人」或者「用戶」的概念,一切都是可以利用的數據。 劍橋大學互聯網與社會研究中心教授朔沙娜·祖博夫將這種人工智慧和資本「合體」的現狀,稱之為 「監控資本主義」 (Surveillance Capitalism)——在大數據和人工智慧的協助下,通過對每個人的監控和信息的榨取,實現資本的最大化。

業界對此的態度很曖昧。AI 作為當下最熱門、來錢最快的行當之一,這些動輒年薪50萬美元的工程師很少得閑來思考「形而上」的問題。 一位不願具名的研究人員在與我的微信私聊中表達了他的「個人看法」:「現在的技術離『通用人工智慧』還很遠,對社會倫理方面的影響沒有那麼大,更多還是從繁瑣的重復勞動中解脫出來。」

作者試圖找到行業內人士對此評論,谷歌(中國)和網路自動駕駛部門的人工智慧相關人員均表示,探討 AI 的社會問題,牽涉到公司利益和形象,比較敏感,不便評論。

「人工智慧作為一個工具,如何使用,目前來看決定權依然在人。」俞揚說道 ,「系統的設計者和商業(應用)的提供人員需要對此負責。」

如何負責?這或許需要我們正視人工智慧對整個社會關系的挑戰。

4、人工智慧作惡之後

2018年3月 19 日,一輛自動駕駛的優步(Uber)在美國亞利桑那州惹上了麻煩。面對路中出現的一個推著自行車的女性,這輛車速 38 mph(約61km/h)的沃爾沃在昏暗的光線條件下並沒有減速,徑直撞了上去,受害者被送往醫院之後不治身亡。這是自動駕駛第一例行人致死的事故。

電視台對自動駕駛優步車禍的報道。

事故發生之後,有不少人將矛頭指向了自動駕駛的人工智慧是否足夠安全上,或者呼籲優步禁止自動駕駛。然而更關鍵的問題在於,亞利桑那有著全美國幾乎最開放的自動駕駛政策,事故發生地坦佩市(Tempe)是實行自動駕駛最火的「試驗田」之一;事故所在的街區早已做過路線測試,並被自動駕駛的智能採納。但是在事故發生之後,對於責任的認定依然遇到了困難。

因為人的疏忽造成的車禍數不勝數,人們早已習慣了如何處理、怎樣追責;然而機器出錯了之後,人們忽然手足無措。 人工智慧會出錯嗎?當然會。只是我們在這個問題上一直缺乏認知。 就如同上文提到的「隱性歧視」,深度學習的「黑箱」,現有的法律法規很難對這些錯誤進行追究,因為不要說普通人,就連技術人員也很難找出出錯的源頭。

當人工智慧的決策在人類社會中越來越重要時,我們也不得不考慮,智能為什麼會犯錯,犯錯了怎麼辦;若要讓智能擺脫被商業或者政治目的支使的工具,真正成為人類的「夥伴」, 需要怎麼監管、如何教育,才能讓人工智慧「不作惡」。

人工智慧的監管問題亟待解決。

對此,現有的法律框架內很難有清晰的、可操作的實施方案。歐盟率先在數據和演算法安全領域做出了立法的嘗試,2018年5月即將生效的新法規規定,商業公司有責任公開「影響個人的重大決策」是否由機器自動做出,且做出的決策必須要「可以解釋」(explainable)。但法條並沒有規定怎麼解釋,以及細到什麼程度的解釋是可以接受的。

另外一個重要的問題是, 讓機器求真求善,需要人類自己直面決策中的黑暗角落。 在 Atari 游戲智能的測試中,游戲中的人工智慧 bot 可以用最快的速度找到漏洞開始作弊,而游戲玩家又何嘗不是呢?不管是帶有歧視的語義分析,針對少數族裔進行的「智能監視」和跟蹤,或者把已婚未育女性的簡歷扔掉的智能簡歷篩選,都長期以各種形式存在於人類社會中。

人工智慧不是一個可預測的、完美的理性機器,它會擁有人類可能擁有的道德缺陷,受制於人們使用的目標和評估體系。 至少目前,機器依然是人類實然世界的反應,而不是「應然世界」的指導和先驅。 對機器的訓練同樣少不了對人性和社會本身的審視——誰在使用,為了什麼而使用,在我們的世界中扮演著怎樣的角色?數據是誰給的,訓練的目標是誰定的?我們期望中的機器,會繼承我們自己的善惡嗎?

谷歌中國人工智慧和機器學習首席科學家李飛飛認為, 要讓機器「不作惡」,人工智慧的開發需要有人本關懷 。「AI 需要反映我們人類智能中更深層的部分,」李飛飛在《紐約時報》的專欄中寫道,「要讓機器能全面地感知人類思維……知道人類需要什麼。」她認為,這已經超越了單純計算機科學的領域,而需要心理學、認知科學乃至社會學的參與。

未來,人工智慧進入更多的領域、發揮更強的功能,是無可爭辯的事實。然而,我們的生產關系能否適應人工智慧帶來的生產力,這句馬克思政治經濟學的基本原則值得我們認真思考一番。 我們並不想看到未來的「機器暴政」將我們的社會綁在既有的偏見、秩序和資本操縱中。

一個AI

人工智慧之所以會作惡,可能就是因為太像人類了吧。

閱讀全文

與人工智慧怎麼擺脫演算法相關的資料

熱點內容
程序員怎麼升職 瀏覽:241
圖形化命令按鈕vb 瀏覽:985
vcu盤加密怎麼設置 瀏覽:412
如何加密備份微信聊天記錄 瀏覽:527
安卓手機如何模擬鍵盤 瀏覽:930
查看dns地址命令 瀏覽:767
android錄屏工具 瀏覽:840
成都互動直播系統源碼 瀏覽:955
usb藍牙android 瀏覽:409
伺服器顯示error1什麼意思 瀏覽:710
python代碼精簡 瀏覽:459
文件加密了怎麼找到了 瀏覽:195
jellyfin插件怎麼選擇主伺服器 瀏覽:839
asp用戶注冊源碼 瀏覽:48
什麼是照片壓縮文件 瀏覽:393
java調用js代碼 瀏覽:981
崑山市民app怎麼修改身份信息 瀏覽:779
php登陸次數 瀏覽:746
python字元轉成數字 瀏覽:824
海川用的是什麼伺服器 瀏覽:378