<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      歡迎來到洪衛的博客

      人生三從境界:昨夜西風凋碧樹,獨上高樓,望盡天涯路。 衣帶漸寬終不悔,為伊消得人憔悴。 眾里尋他千百度,驀然回首,那人卻在燈火闌珊處。
      擴大
      縮小

      AI歷史和哲學基礎淺談

      換個角度看AI:研究歷史和哲學邏輯

        正如題圖所示,仿生人會夢見電子羊嗎?(注:Do Androids Dream of Electric Sheep?是Philip K. Dick所著的一本科幻小說,講述人類在一個崩壞的環境中復制自己并奴役這些仿生人的故事。)

        人工智能發展迅速且應用廣泛。現實生活中AI技術的發展聽起來像科幻電影,而科幻電影則更像是另一種畫面感十足的現實場景。經過幾十年的探索,AI技術可以說已趨于成熟,然而人們依舊固執己見,業內人士乃至全世界都對其可行性仍持懷疑態度。

        類似的情形出現在瑪麗?雪萊(Mary Shelley)創作的哥特式小說《弗蘭肯斯坦》(Frankenstein)中。小說探討了將人造生命創造出來并引入社會所產生的一系列后果。令我們困惑的是,書中的怪人一方面做出毫無人性的暴行,另一方面又展現出同人類一樣的弱點,對友情的需求以及對于自我存在的危機感。

        有人說我們應該關注新發現的前景與后果。但是,如果把機器人大軍引入到像當今社會這樣復雜的系統后產生混亂呢?也有人說我們要關注取得的成就,以及那些將此類想法落地的成功案例。然而,在偶然的成功和理論支撐的結果之間我們又該如何抉擇?

       

        不妨集中注意力,一起理智地來追溯AI的歷史淵源吧!

        不管你感興趣的是古希臘哲學家邏輯思考的規則,還是阿拉伯數學家的公式推導,亦或是19世紀歐洲知識分子對數學的狂熱。一個不爭的事實是:問題遠遠比你想象的更為深刻(即便考慮摩爾定律)。

          • “我們日后成為什么樣的人主要取決于父輩們在不經意間的教導,除此之外,我們由零零碎碎的智慧所塑造。”  ——Umberto Eco

        接下來內容,討論AI的發展史,包括一些重要人物所提出的相關問題、論證和看法。其中涉及的事件大部分都發生在20世紀60年代左右,同時期,也逐漸形成了AI的正式定義、發展目標、科研群體與反對者等。

      機器可以思考嗎?

        1950年,艾倫·圖靈(Alan Turing)試圖在他具有開創性意義的論文《計算機器與智能》中回答這個刻意簡化的問題。論文部分內容的含義并不明確,而且限定了人們對人工智能的理解。為此圖靈設計了一個思維實驗,這就是著名的圖靈測試:參與者A是男性,參與者B是女性,參與者C的性別未知。C扮演詢問者的角色,雖然無法看到A和B,但可以用客觀的語句和兩人進行交流。通過向A和B提問,C要試著確定A和B的性別。A的任務是迷惑C,讓C做出錯誤的決定,而B則要協助C做正確的決定。

        將問題重新設計,如下:

        如果由一臺機器來扮演A的角色,會發生什么?這種情況下,詢問者做出錯誤決定的頻率會與角色A、B由兩個真人扮演時一樣嗎?

        圖靈的方法似乎遵從了鴨子測試(duck test)的原理:如果它看起來像只鴨子,像鴨子一樣游泳,像鴨子一樣嘎嘎叫,那它大概就是只鴨子。

        當談及人類相關的智能,例如意識,圖靈的觀點是,不能因為某人(或某物)不具備尚未定義的特征而對其否定。因此,意識與我們對AI的探索無關。

        哥德爾不完備定理(G?del’s incompleteness theorems)是我們試圖談論AI時面臨的一大障礙。根據這一系列定理,數學邏輯無法具備完備性和相容性。因此,以數學邏輯進行學習的機器往往無法觸及到一些真理。圖靈對此的回應倒讓人長舒一口氣:你怎么知道人類智力就不存在局限性呢?

        小貼士:哥德爾不完備定理是庫爾特·哥德爾于1931年證明并發表的兩條定理。

          • 簡單地說,第一條定理指出:任何相容的形式系統,只要蘊涵皮亞諾算術公理,就可以在其中構造在體系中不能被證明的真命題,因此通過推演不能得到所有真命題(即體系是不完備的)。
          • 把第一條定理的證明過程在體系內部形式化后,哥德爾證明了他的第二條定理。該定理指出:任何相容的形式系統,只要蘊涵皮亞諾算術公理,它就不能用于證明它本身的相容性。

        圖靈的這篇論文論證充分,具有清晰的辯證結構,然而,因為論文推測的技術尚未被發現,圖靈的論述也被擱置。

      邁向人工智能

        馬文·明斯基(Marvin Minsky)是人工智能研究領域的先驅之一。翻開人工智能家族塵封的相冊,明斯基就是給家庭聚餐添上些許不安的老人:“明斯基老叔,他迷人,與眾不同,講話總是很有趣。”

        明斯基是1956年達特茅斯會議(the Dartmouth Conference)的組織者之一。在這次會議上,Artificial Intelligence作為術語首次被提出,同時也作為一個領域而誕生。明斯基對AI的切實可行充滿信心,但他不看好用錯誤的探索方式,他也因此被人們所銘記。

        1961年,明斯基被問及AI領域所取得的進展。讓我們看看他說了什么:

          • 我們應該先問問什么是“真正的”智能?我覺得這更像是一個美學問題,或者關乎一種尊嚴感,而不是一個科技問題!對我來說,“智能”不過意味著各種性能的綜合,我們關注這些性能但無法理解。所以,這個問題通常和數學上“深度”問題相伴相隨。一個定理的證明一旦被真正理解,它的內容就變得無關緊要了。

        定義AI固然困難,明斯基承認這一點,因此他將繼續探索。他的著手點是為AI確定幾大發展支柱,即搜索、模式識別、學習、規劃和歸納。

        項目的終極目的是通過探索獲得AI的解決方案。通過模式識別可以確定適合AI的工具,通過學習以往的經驗可以對現有的算法進行改善,通過規劃可以更高效地研究AI。至于機器能否獲得歸納與推理能力,明斯基說道:

          • 目前根據哥德爾不完備定理,還沒有一個歸納推理系統能有效適用于所有體系。但是,給定一個體系(例如我們的世界)或者一些體系的集合,以及一套成功的標準,實現機器的認知就是技術性問題,而非空想。

        明斯基在接下來的回答中多次重申,要實現AI應該通過各種復雜的分層架構。基于這一點,他質疑感知機算法,因為這一算法連中等難度的問題都解決不了,何況實際問題更加復雜。

        明斯基的論斷挫敗了大眾研究感知機的信心,從而耽誤了深度學習的發展。通過進行深度架構,即使利用簡單的構件也可以解決復雜的問題似乎在為明斯基開脫。不管怎樣,明斯基的確具備獨特的洞察力。

        然而,因為幫助業界發現了各種原始方法的缺陷,明斯基的言論具有建設性意義。此外,深度學習或許是目前為止我們所探索到的最佳算法(還催生了各種很棒的應用),但絕不是AI的終極算法。

      想法、大腦和程序

        1980年,約翰·希爾勒(John Searle)對于AI的發展很不滿。盡管早些時候他強烈反對強人工智能的概念,但這次他決定公開反駁。事實上,即使標題聽起來有些諷刺。但我仍感覺希爾勒在揪著我的衣領,大力揮舞他的手,指著我說:“年輕的小伙子,讓我幫你從根本上區分一下吧。”

          • “你可能會有這樣的印象:AI領域中寫有關強人工智能的人認為他們可以避重就輕,因為他們沒有認真研究過這個理論,并認為其他人也一樣。至少我會發聲質疑,并認真研究。”

        希爾勒只攻擊強人工智能這個概念,他認為這是一種計算機能夠模仿任何人類行為的能力。而所謂計算機擁有認知能力的觀點,亦可通過類比被推翻。由他提出的著名的思想實驗“中文房間實驗”論證了這一觀點,實驗過程如下:

      假定某人被關在一個只有中文字符的房間里,而他只懂英文,對中文則一竅不通,甚至說不出中文字符與日文字符的區別。他在屋內完全是通過英文規則手冊操作著屋外遞進來的中文紙片(問題),這些字符需要通過英文形式的句法來確認,之后通過擺弄這些字符再將信息遞送出去(回答)。恭喜!通過這個程序你就學會了中文。

        這就是希爾勒于1980年提出的中文房間實驗。思想實驗本身并不是一個實驗,因為它無法實際操作,而是探索一個想法的潛在結果。最古老也最有名的思想實驗,可能是伽利略的比薩斜塔實驗(你是否也認為伽利略真的從塔上往下扔蘋果?)。

        希爾勒的觀點是,能夠給出中文問題答案并不意味著懂中文,而這種能力也并非取決于由哪種語言書寫規則。因此,給予適當算法后產生預期輸出的計算機,不是一個“會思考的”個體。

       

        就某些功能推理而言,希爾勒質疑的是一個程序的思考能力。他指責當今的AI研究人員存在行為主義和操作主義,試圖將程序與頭腦等同(事實也如此),而忽略了大腦的重要性。

        希爾勒認為,認知只源于生物行為;而程序可以完全獨立運行(因為它不受硬件平臺的限制),因此程序并不具備認知能力。

        當閱讀他的原文時,你會感覺到希爾勒正在攻擊一個尚未成熟的計算機科學家社區,而這個社區關于什么是智能并沒有達成共識,只是試圖通過技術手段和推測來模擬機器智能。

        如同一般哲學方法中的虛無主義一樣,明斯基回應希爾勒:“應該忽視希爾勒的誤解。”

      大象不會下棋

        即使大象不會下象棋,你也沒有理由責備它們。“大象不會下象棋”( Elephants Don't Play Chess)是羅德尼·布魯克斯(Rodney A. Brooks)在1990年發表的一篇論文,試圖采用論據和他的機器人隊伍來支持AI。羅德尼·布魯克對AI的發展做出了卓越的貢獻,經典的AI理論中應該有他的一席之地。

        在那個時代,人工智能正經歷著第二個寒冬。企業和政府也意識到不能對AI抱有過高期望而削減了資金。

        所以是時候反省了。當一件事情從根本上失敗時,有兩種方式來理解:要么是這件事情不可能完成,要么采用了錯誤的方法。

        布魯克斯認為AI停滯不前是因為研究人員過于關注函數表達式。符號系統假設就是關于機器智能如何運作存在已久的觀點。根據這個假設,世界上的人、汽車和情感等眾多實體,可以很自然地將它們與符號相匹配,并輸入給計算機。如果該假設成立,那么只要提供必要的信息便能使計算機擁有智能。

        盡管這個假設看起來沒有問題,但它在某種程度上誤導了AI的發展:

          • 符號系統不足以描述整個世界。根據框架問題,定義任何尚未明確存在的事物是一種邏輯錯誤。因此,布魯克斯建議:為什么不把整個世界作為它自己的模型?
          • 簡單計算無法衍生機器智能。啟發式算法的大量使用是訓練智能算法的必經之路,但這與我們嘗試創造知識的初衷背道而馳。(網格搜索是對人類智力的侮辱。)
          • 當AI的發展目標是尋求一種通用人工智能模型時,就出現了布魯克斯稱之為混淆的現象:大量的研究表明智能算法的適用場景并不明確。機器智能確實具有吸引力,正因為如此,人類對知識的探索才永無止境。

        布魯克斯并不支持物理根據假設(physical grounding hypothesis)。也就是說,讓人工智能直接與世界交互,并將其用作自己的表示。上述假設與AI現在的發展之間還有很大的差距:從學習需要巨大的計算資源、專家的指導到總不夠用的訓練數據;布魯克斯還設想,為AI配備物理實體和廉價硬件并將其銷售到世界各地。要解決這個問題并不容易。

        布魯克斯認為機器智能是集群行為而不是復雜行為。或許他實驗中最深刻的見解是,“目標導向行為源自于簡單的無目標導向的交互行為。”無需預設協同模式,因為智能計算機可以制定出自己與世界交互的最佳策略。

        布魯克斯關于AI發展的討論為我們證明了物理根據假設的重要性:人類是我們最常見和最親近的智能體。因此,當我們試圖重新創造這種智能特征時,就需要觀察人類文明緩慢的形成過程。如果考慮到人類學習智能行為所需的時間,如交互、繁衍和生存,與我們尚未成熟的下棋程序相比,便可以得出結論:學習行為或許是最難開發的技能,也是我們應該要關注的重點。

      布魯克斯雖然對自己提出的實用方法很滿意,但也承認其理論局限性,但他歸因于學術界尚未提出讓大家透徹理解人群動態交互行為理論。

      再一次,工程師漠視了哲學界的異議:

          • “如果我們的策略不能說服高高在上的哲學家,至少我們的技術將徹底改變我們生活的世界。” 

      AI的進步

        盡管涌現出大量問題,但是我們不能質疑AI的進步。不管怎樣,目前得益于技術的進步出現了很多不錯的AI應用。如果忽略它們的存在去衡量當前研究質量是沒有意義的。

        深度學習是否能成為實現機器智能的有效工具?還是說,這是AI進入寒冬之前另一個間冰期?

        更重要的是,人們關注的角度已經開始從純粹的哲學問題轉向社會層面,而AI對日常生活的需求已遠比理解概念、哲學和智能本身更加明顯和迫切。不過,這種轉變可能是一個更難以回答的問題,進而促使我們深入研究。

        當維特根斯坦(Wittgenstein)撰寫《邏輯哲學論》的時候,他面臨著為難的選擇:他的論點與他的學說相悖。也就是說,如果他的學說是正確的話,那么他的論點就是不合邏輯的,因此他的學說應該是錯誤的。但是維特根斯坦對此有不同的看法:

          • “我的論點可以這樣解釋:當人們從開始學習到徹底理解后,便會認為它毫無意義。”

        因此,我們需要用發展的眼光去理解隱含在復雜概念背后的真理。我們要堅定地邁出前進的步伐,也要做好隨時放棄的準備。因為并不是每一步探索的結果都是正確的,但是我們需要理解每一步探索的過程。所以后來,當維特根斯坦談到這個論點時,他說自己不需要梯子就能夠直達真理。

        或許在AI的發展過程中,我們仍然需要參考維特根斯坦的論點。

        內容來源:大數據文摘

       

      posted on 2018-05-22 11:21  洪衛  閱讀(1457)  評論(0)    收藏  舉報

      導航

      Copyright?2018 洪衛
      主站蜘蛛池模板: 伊人久久精品无码麻豆一区 | 午夜天堂精品久久久久| 孕妇怀孕高潮潮喷视频孕妇 | 亚洲成人一区| 亚洲天堂成人网在线观看| 精品一区二区中文字幕| 国产亚洲av人片在线播放| 国产欧美精品区一区二区三区| av无码小缝喷白浆在线观看| 国产成人综合久久亚洲av| 无人区码一码二码三码区| 日本高清日本在线免费| 亚洲午夜无码av毛片久久| 高清无打码一区二区三区| 在线无码午夜福利高潮视频| 草草浮力影院| 一 级做人爱全视频在线看| 在线中文字幕国产精品| 日本无产久久99精品久久| 一区二区三区四区五区自拍 | 91精品国产吴梦梦在线观看永久| 欧美性插b在线视频网站| 性姿势真人免费视频放| 绝顶丰满少妇av无码| 亚洲 自拍 另类 欧美 综合| 久久成人影院精品777| 亚洲免费视频一区二区三区| 国产乱码精品一区二三区| 巨爆乳中文字幕爆乳区| 日韩亚洲国产中文字幕欧美| 亚洲综合91社区精品福利| 色av专区无码影音先锋| 天堂影院一区二区三区四区| 波多野结衣美乳人妻hd电影欧美| 亚洲人成色99999在线观看| 绝顶丰满少妇av无码| 国内精品伊人久久久久AV一坑 | 内射干少妇亚洲69XXX| 久久被窝亚洲精品爽爽爽| 宜兰县| 国产精品露脸视频观看|