❶ 一個菜鳥程序員該怎樣定位自身的價值方向
我到底能夠解決什麼問題?給別人帶來什麼樣的方便?這是每個程序員首先要考慮的問題。這決定了你要在什麼樣的領域、什麼樣的公司工作,決定了你做什麼產品,也決定了你要選擇什麼技術。
❷ 位元組跳動副總裁離職,為什麼科技公司的大潮正在退去
AI 工程化難題是一個已經討論過很長時間的問題,其中包括場景碎片化、應用成本高、穩定性差、可解釋性差等。有人些人認為,這些原因加速了 AI 頂級研究者從業界到學界的迴流。
同時在位元組跳動,這樣的事情似乎也在發生。而馬維英也只是眾多“重返學術界”的AI大牛之一。
不久前,曠視科技南京負責人魏秀參,也重返到南京理工大學。對此,魏秀參給出的回復是“家庭原因”。
從最開始來分析,最早是從吳恩達開始,後面又有李飛飛、張潼、張亞勤、賈佳亞等科學家不斷離職,陸續離開工業界回歸學術界。背後的原因或許諸多,除了個人因素外,不少網友也將這種現象與AI企業的發展相關聯。
❸ 李飛飛表示人工智慧能識別三千種車但場景理解還不如2歲孩子
中國政府今年7月印發《新一代人工智慧發展規劃》,近日又出台《促進新一代人工智慧產業發展三年行動計劃(2018-2020年)》。李飛飛認為,中國在人工智慧基礎研究、創業、產業發展和政府支持上走在了世界的前列。
實際上,中國在人工智慧學術領域已經取得了很大成就。李飛飛說,如果匯總2015年排名前100的全球人工智慧期刊的總發表數,有43%的文章有中國科研人員參與。
不過李飛飛也指出,人工智慧人才目前「全球稀缺」,「不管在美國還是在中國,人才依然非常緊俏」。她說,人工智慧需要國際合作,需要「動用全球的人才來參與」,合作才能推動全球人工智慧研究與產業應用的共同成長和進步。
❹ 人工智慧背後的操控者是誰
「9·11 是猶太人乾的,把他們都送進毒氣室!種族戰爭現在開始!」
2016年3月23日,一個人設為19歲女性,昵稱為 Tay 的聊天機器人在推特上線。這個微軟開發的機器人能夠通過抓取和用戶互動的數據模仿人類的對話,像人一樣用笑話、段子和表情包聊天。但是上線不到一天,Tay 就被「調教」成了一個滿口叫囂著種族清洗的極端分子,微軟只好以系統升級為由將其下架。
微軟聊天機器人的極端言論。
這樣的口號並不是聊天機器人的發明,而在社交網路上大量存在著。美國大選期間,一些所謂的「政治新媒體」賬號發出的摻雜陰謀論、種族主義的內容,在Facebook 上進行了病毒式傳播。這有賴於人工智慧協助下的「精準定位」:誰最容易相信陰謀論,誰對現實最不滿?相應的政治廣告和假新聞能精準地投放到這群人中,使人對自己的看法更加深信不疑。
因為設計缺陷而 「暴走」的聊天機器人,和精心策劃的線上政治行為,看起來彷彿是兩回事。但這種我們似乎從未見過的景象,卻指向了同一個「凶器」——大數據驅動下的人工智慧。
1、人工智慧有作惡的能力嗎?
人工智慧會「作惡」嗎?面對智能的崛起,許多人抱有憂慮和不安: 擁有感情和偏見的人會作惡,而僅憑理性計算進行判定的計算機似乎也會「作惡」, 且作起來易如反掌。這讓許多人(特別是非技術領域的人)對人工智慧的發展持悲觀態度。
這種憂慮並不是最近才有的。人工智慧這個詞誕生於上世紀50年代,指可體現出思維行動的計算機硬體或者軟體,而 對機器「擁有思維」之後的倫理探討,早至阿西莫夫開始就在科幻作品裡出現。
14 年前,威爾·史密斯主演的電影《機械公敵》里就有這樣一個場景:2035 年的人類社會,超高級的人工智慧承擔大量工作,並與人類和諧相處。這些原本完全符合阿西莫夫「三定律」的人工智慧,在一次關鍵升級之後對人類發起了進攻。這些機器人擁有了思維進化的能力,在它們的推算下,要達到「不傷害人類」的目的,就必須先消滅「彼此傷害」的人類。
十分高產的科幻作家阿西莫夫(1920-1992)。
劍橋分析CEO亞歷山大·尼克斯(Alexander Nix)。
劍橋分析並不是一個孤例。澳洲一個 Facebook 的廣告客戶透露,Facebook 的人工智慧會分析其用戶特徵和所發的內容,給出諸如「有不安全感的年輕人」「抑鬱、壓力大」等標簽,然後有針對性地投放游戲、癮品和甚至虛假交友網站的廣告,從中獲取巨大利益。
即使不存在數據泄露問題,對用戶數據的所謂「智能挖掘」也很容易遊走在「合規」但「有違公平」的邊緣。例如,電商能夠根據一個人的消費習慣和消費能力的計算,對某個人進行針對的、精密的價格歧視。購買同樣的商品,用 iPhone X 手機的用戶很可能會比用安卓「千元機」的用戶付更多的價錢,因為他們「傾向於對價格不敏感」。而我們所經常談論的「大數據殺熟」——比如攜程老用戶訂旅館的價格會更高——也建立在用戶行為數據的基礎上。
數據的收集本身也值得商榷。前網路人工智慧首席科學家吳恩達(Andrew Ng)就曾公開表示, 大公司的產品常常不是為了收入而做,而是為了用戶的數據而做;在某一個產品上收集的數據,會用於在另一個產品上獲利。 在智能面前,沒有所謂的個人隱私和行蹤,也很難確定數據收集的邊界在哪裡,尤其是個人隱私與公共信息、主動提供與被動提供的邊界。
總而言之, 在以商業利益為目標的人工智慧眼裡,並沒有「人」或者「用戶」的概念,一切都是可以利用的數據。 劍橋大學互聯網與社會研究中心教授朔沙娜·祖博夫將這種人工智慧和資本「合體」的現狀,稱之為 「監控資本主義」 (Surveillance Capitalism)——在大數據和人工智慧的協助下,通過對每個人的監控和信息的榨取,實現資本的最大化。
業界對此的態度很曖昧。AI 作為當下最熱門、來錢最快的行當之一,這些動輒年薪50萬美元的工程師很少得閑來思考「形而上」的問題。 一位不願具名的研究人員在與我的微信私聊中表達了他的「個人看法」:「現在的技術離『通用人工智慧』還很遠,對社會倫理方面的影響沒有那麼大,更多還是從繁瑣的重復勞動中解脫出來。」
作者試圖找到行業內人士對此評論,谷歌(中國)和網路自動駕駛部門的人工智慧相關人員均表示,探討 AI 的社會問題,牽涉到公司利益和形象,比較敏感,不便評論。
「人工智慧作為一個工具,如何使用,目前來看決定權依然在人。」俞揚說道 ,「系統的設計者和商業(應用)的提供人員需要對此負責。」
如何負責?這或許需要我們正視人工智慧對整個社會關系的挑戰。
4、人工智慧作惡之後
2018年3月 19 日,一輛自動駕駛的優步(Uber)在美國亞利桑那州惹上了麻煩。面對路中出現的一個推著自行車的女性,這輛車速 38 mph(約61km/h)的沃爾沃在昏暗的光線條件下並沒有減速,徑直撞了上去,受害者被送往醫院之後不治身亡。這是自動駕駛第一例行人致死的事故。
電視台對自動駕駛優步車禍的報道。
事故發生之後,有不少人將矛頭指向了自動駕駛的人工智慧是否足夠安全上,或者呼籲優步禁止自動駕駛。然而更關鍵的問題在於,亞利桑那有著全美國幾乎最開放的自動駕駛政策,事故發生地坦佩市(Tempe)是實行自動駕駛最火的「試驗田」之一;事故所在的街區早已做過路線測試,並被自動駕駛的智能採納。但是在事故發生之後,對於責任的認定依然遇到了困難。
因為人的疏忽造成的車禍數不勝數,人們早已習慣了如何處理、怎樣追責;然而機器出錯了之後,人們忽然手足無措。 人工智慧會出錯嗎?當然會。只是我們在這個問題上一直缺乏認知。 就如同上文提到的「隱性歧視」,深度學習的「黑箱」,現有的法律法規很難對這些錯誤進行追究,因為不要說普通人,就連技術人員也很難找出出錯的源頭。
當人工智慧的決策在人類社會中越來越重要時,我們也不得不考慮,智能為什麼會犯錯,犯錯了怎麼辦;若要讓智能擺脫被商業或者政治目的支使的工具,真正成為人類的「夥伴」, 需要怎麼監管、如何教育,才能讓人工智慧「不作惡」。
人工智慧的監管問題亟待解決。
對此,現有的法律框架內很難有清晰的、可操作的實施方案。歐盟率先在數據和演算法安全領域做出了立法的嘗試,2018年5月即將生效的新法規規定,商業公司有責任公開「影響個人的重大決策」是否由機器自動做出,且做出的決策必須要「可以解釋」(explainable)。但法條並沒有規定怎麼解釋,以及細到什麼程度的解釋是可以接受的。
另外一個重要的問題是, 讓機器求真求善,需要人類自己直面決策中的黑暗角落。 在 Atari 游戲智能的測試中,游戲中的人工智慧 bot 可以用最快的速度找到漏洞開始作弊,而游戲玩家又何嘗不是呢?不管是帶有歧視的語義分析,針對少數族裔進行的「智能監視」和跟蹤,或者把已婚未育女性的簡歷扔掉的智能簡歷篩選,都長期以各種形式存在於人類社會中。
人工智慧不是一個可預測的、完美的理性機器,它會擁有人類可能擁有的道德缺陷,受制於人們使用的目標和評估體系。 至少目前,機器依然是人類實然世界的反應,而不是「應然世界」的指導和先驅。 對機器的訓練同樣少不了對人性和社會本身的審視——誰在使用,為了什麼而使用,在我們的世界中扮演著怎樣的角色?數據是誰給的,訓練的目標是誰定的?我們期望中的機器,會繼承我們自己的善惡嗎?
谷歌中國人工智慧和機器學習首席科學家李飛飛認為, 要讓機器「不作惡」,人工智慧的開發需要有人本關懷 。「AI 需要反映我們人類智能中更深層的部分,」李飛飛在《紐約時報》的專欄中寫道,「要讓機器能全面地感知人類思維……知道人類需要什麼。」她認為,這已經超越了單純計算機科學的領域,而需要心理學、認知科學乃至社會學的參與。
未來,人工智慧進入更多的領域、發揮更強的功能,是無可爭辯的事實。然而,我們的生產關系能否適應人工智慧帶來的生產力,這句馬克思政治經濟學的基本原則值得我們認真思考一番。 我們並不想看到未來的「機器暴政」將我們的社會綁在既有的偏見、秩序和資本操縱中。
一個AI
人工智慧之所以會作惡,可能就是因為太像人類了吧。
❺ 從洗衣妹到人工智慧首席科學家李飛飛,她究竟有著怎樣的傳奇經歷
在李飛飛的背後,有著一段勵志的人生,早年的時候她還有過清潔工、中餐館的收銀員、開乾洗店的工作經歷。李飛飛由一個移民,靠著自己的努力考上了普林斯頓大學。當父母打零工的時候,她借錢開了一家洗衣店,周六日幫助家裡面做洗衣店的生意。畢業以後她拒絕華爾街年薪十萬美元的工作前往去西藏研究一年藏葯。回來以後讀了博士,讀的是當時非常冷門的專業人工智慧和計算機神經科學,她現在所有的追求,就是賦予計算機視覺智能。
她清楚的知道自己的方向,知道自己要做的是怎樣一個人,要完成一件怎樣的事。後來讀博選擇的人工智慧和計算機神經科學也不被人看好,但是她憑著自己的努力真的把這件事做起來了,這將把人類帶到一個新的未知領域,努力在讓這個世界發展的更好。
❻ 李飛被粉絲接機,這個人很有名嗎
李飛是北京時代峰峻文化藝術發展有限公司的實際控股人,其公司旗下TFBOYS、時代少年團等藝人團隊被大眾所喜愛,作為目前熱火男團公司的老闆,李飛近期在機場被粉絲接機事件登上了熱搜榜單。
一、李飛時代峰峻創業初期。時代峰峻剛開始不是一家文化傳媒公司,也不是打造明星的專業公司,它是一家房地產公司,受娛樂圈飛速發展和日韓娛樂團體炙手可熱的影響,讓北京時代峰峻的董事長李飛發現了商機,他們招募外表形象優秀,多才多藝的男童,不斷篩選,在10~12周歲左右的男生中挑選優秀人員作為練習生,成立tf家族。
所以,在多數情況看來,時代峰峻公司老闆李飛受人喜愛的獨到之處不僅體現他推廣的藝人團隊和節目上,本身也是十分親和的人,這樣如此被大眾粉絲追崇,也是很少見的,也是名副其實。