天天操免费视频,国产免费aa,三级视频黄色,98精品国产,久久深爱网,国产精品久久国产精麻豆96堂,色偷偷色偷偷色偷偷在线视频

如何解決"人工智能超越人類智慧"的爭議問題?

來源:網(wǎng)絡

點擊:940

A+ A-

所屬頻道:新聞中心

關(guān)鍵詞:人工智能,人類智力

      本世紀以來,隨著互聯(lián)網(wǎng)大數(shù)據(jù)的興起,信息的爆炸式增長,深度學習等機器學習算法在互聯(lián)網(wǎng)領(lǐng)域的廣泛應用,人工智能再次進入快速發(fā)展的時期。與此同時,不同領(lǐng)域的科學家,企業(yè)家如物理學家霍金,微軟創(chuàng)始人比爾蓋茨等人,紛紛對人工智能的未來表達了擔心,提出人工智能的快速發(fā)展可能對人類本身產(chǎn)生威脅,由于這些科學家,企業(yè)家具有很強的影響力,人工智能威脅論因此得到廣泛傳播。

      在人工智能威脅論熱度日益高漲的情況下,人工智能領(lǐng)域科學家對人工智能威脅論也提出了反駁意見。這其中就包括Facebook人工智能實驗室主任,NYU計算機科學教授Yann LeCun,百度首席科學家,斯坦福大學計算機科學系和電子工程系副教授吳恩達,中國科學院自動化所教授,人工智能領(lǐng)域?qū)<彝躏w躍等。

      應該說人工智能威脅論引發(fā)爭論背后,本質(zhì)上是人工智能的智力發(fā)展水平能不能定量評測的問題。對于這個問題,前人研究者已經(jīng)做出大量工作。例如1950年,圖靈提出了著名的圖靈實驗,采用提問和人類裁判的方法,判斷一臺計算機是否具有同人相當?shù)闹橇Α?/p>

      2015年3月Stuart.Geman,Donald.Geman等研究在National Acad Sciences發(fā)表論文“Visual Turing test for computer vision systems”,提出的視覺圖靈測試“Visual Turing test”,目的是測試計算機能否能像人類那樣描述一張圖片。

      除此之外,2015年1月,在德克薩斯州召開的美國人工智能大會上,學者專門組織了研討會(Beyond Turing Test),對圖靈測試進行深入的討論,并對智能的評測標準提出了新的建議。總體上,這些測試還存在分析范圍單一,或無法定量分析的問題。我們首先看一下圖靈測試。

      一、圖靈測試的先天不足

      測試人工智能系統(tǒng)是否具有智能最著名的方法是”圖靈測試“。1950年,圖靈發(fā)表論文《Computing Machinery and Intelligence》提出了“機器思維”的概念,提出一位測試者在與被測試者相互隔離不能進行直接交流的情況下,通過信息傳輸,和被測試者進行一系列的問答,在經(jīng)過一段時間后,測試者如果無法根據(jù)獲取的信息判斷對方是人還是計算機系統(tǒng),那么就可以認為這個系統(tǒng)具有同人類相當?shù)闹橇δ芰Γ簿褪钦f這臺計算機是有思維能力的,這就是著名的“圖靈測試”(Turing Testing)。圖靈在論文中這樣定義圖靈測試:

      “我們稱下面這個問題為“模仿游戲”。游戲參與者包括一個男人,一個女人,以及一個任意性別的詢問者。詢問者與另兩個人待在不同的房間里,并通過打字的方式與他們交流,以確保詢問者不能通過聲音和筆跡區(qū)分二者。兩位被詢問者分別用X和Y表示,詢問者事先只知道X和Y中有且僅有一位女性,而詢問的目標是正確分辨X和Y中哪一位是女性。另一方面,兩位被詢問者X和Y的目標都是試圖讓詢問者認為自己是女性。也就是說,男性被詢問者需要把自己偽裝成女性,而女性被詢問者需要努力自證。現(xiàn)在我們問:如果我們把“模仿游戲”中的男性被詢問者換成計算機,結(jié)果會怎樣?相比人類男性,計算機能否使詢問者更容易產(chǎn)生誤判?”。

      圖靈測試并沒有定義智能的范疇,而只能作為一個人工智能的充分條件,關(guān)于這一點,圖靈在論文中寫道:

      “機器能否擁有智能,為了回答這個問題我們應該首先定義‘機器’和‘智能’。一種可能性是根據(jù)大多數(shù)普通人的日常理解去定義這兩個概念,但這樣做是危險的。在這里我并不打算定義這兩個概念,可能有人會說這項測試對機器而言過于嚴格——畢竟人類也無法反過來成功偽裝成機器,這只需檢查算術(shù)的速度和正確度即可辨別。難道被認為擁有智能的機器就不能表現(xiàn)出和人類不同的行為么?這是一個很有力的反對意見,但至少不管怎樣,假如我們有能力制造出一個可以成功通過測試的機器的話,也就無需為這個反對意見煩惱了。”

    定義智能的范疇

    定義智能的范疇

      圖靈測試與人工智能的關(guān)系可以用集合的概念進行闡述,如上圖所示。從圖中可以看到“所有人類行為”對應的集合“和所有智能行為”對應的集合有交集但又互有不同。雖然“在全部智能行為”中有部分能力是人類靠自身力量無法完全實現(xiàn),但人類可以被認為是有智能標準體,因此,能達到“人類水平”的部分—也就是兩個集合交集的那個部分—就應該被認作是“擁有智能”的特征。而且,人類的所有行為并不總是和智能相關(guān)。圖靈測試要求機器全面模擬“所有人類行為”,其中既包括人類“智能”的部分,也包括人類的“非智能”行為,由此可得出結(jié)論通過圖靈測試是“擁有智能”的一個有效的充分條件,而非必要條件或充要條件。

      作為最被廣泛應用的人工智能測試方法,圖靈測試經(jīng)常用來檢驗機器是否具備人的智能,但總體看,圖靈測試的方法受人為因素干擾太多,嚴重依賴于裁判者和被測試者的主觀判斷,因此往往有人在沒有得到嚴格驗證的情況下宣稱其程序通過圖靈測試,例如2014年6月英國雷丁大學客座教授凱文.沃維克宣稱一款名為“尤金.古特曼(Eugene.Goostman)”的計算機軟件通過了測試,但是測試結(jié)果充滿爭議,例如機器人只要能夠通過30%的評判標準即可被判定通過圖靈測試,另外這個計算機軟件通過扮演一名年僅13歲,且第二外語為英語的男孩讓參與測試的裁判大幅度降低了測試難度。

      中國科學院自動化所研究員王飛躍在“關(guān)于人工智能九個問題”中也對圖靈測試存在的問題進行了討論,他的意見主要有以下兩點:

     ?。?)第一點是人類的智能并不是一個單一的對象,而是有多個類別組成,同樣人工智能對應也是多類別組成。圖靈測試究竟測試的那些類別并不明確,從實踐上看,目前圖靈測試僅僅局限在語言智能等特定小領(lǐng)域里,不具備代表性。

      (2)圖靈測試并不是考官對一臺計算機測試后就可以宣布其是否擁有智能,圖靈測試的本意是指一個廣義的人類做個為整體的考官,其測試的時間段也不是具體的一段時間而是廣義的時間段,即所有的人類在所有時間都分辨不出人與機器之后,才算其人類智能與人工智能等價。

      從上述討論可以看出,圖靈實驗只對人工智能系統(tǒng)是否具有人類智能回答“是”或“否”,并不對人工智能系統(tǒng)的發(fā)展水平進行定量分析,而且測試的智能或智力種類還過于單一;在測試方法上存在漏洞,容易被測試者找到漏洞從而產(chǎn)生作弊行為,從上述存在的問題看,圖靈實驗目前還無法承擔定量分析智能系統(tǒng)智力發(fā)展水平的需求。

      二,解決人工智能威脅論爭論的四個困難

      總體看,目前包括圖靈測試在內(nèi)的各種方案中還存在無法定量分析人工智能發(fā)展水平的問題,只能定性的判斷一個人工智能系統(tǒng)是否和人一樣擁有同等水平的智力。但這個系統(tǒng)和人類智慧進行對比,高低程度如何,發(fā)展速度與人類智慧發(fā)展速度比率如何,上述中研究沒有涉及到可具體執(zhí)行的思路和方案。我們認為這些問題長時間存在,主要與下面提到的四點困難有關(guān)。

      (1)第一個困難是沒有統(tǒng)一的模型和測試方法對不同的人工智能系統(tǒng)進行測試。人工智能無論從理論研究還是從應用實踐都存在眾多分支和發(fā)展方向。在理論上人工智能分為三大學派,如符號主義(Symbolicism)或計算機學派(Computerism);連結(jié)主義或生理學派(Physiologism);行為主義(Actionism)或控制論學派(Cyberneticsism)等。在應用實踐上,人工智能可以應用的方向包括符號計算、模式識別、機器翻譯、機器學習、問題求解、邏輯推理與定理證明、自然語言處理、分布式人工智能、計算機視覺、智能信息檢索、專家系統(tǒng)等等。

      每種具體的人工智能系統(tǒng)往往只具備一個或若干上述提到的功能。例如IBM的深藍強于計算能力,在國際象棋方面可以與人類對手一決高下;沃森系統(tǒng)擁有龐大知識庫系統(tǒng),因此可以在常識問答比賽中擊敗人類選手。因為沒有統(tǒng)一的模型可以涵蓋這些人工智能系統(tǒng),就無法形成統(tǒng)一的測試方法進行測試和比較。如圖1.2所示,人工智能系統(tǒng)A在計算能力上得分為100,人工智能系統(tǒng)B在計算機視覺識別上得分為80,人工智能系統(tǒng)C在機器翻譯測試得分為90分,我們?nèi)匀粺o法得出結(jié)論A的智力能力高于C,C的智力能力高于B的結(jié)論。

    不同測試方法得出的評分不具可比性

    不同測試方法得出的評分不具可比性

      (2)第二個困難是沒有統(tǒng)一的模型和測試方法,能夠同時對人工智能系統(tǒng)和人類進行測試,這也是當前人工智能威脅論產(chǎn)生最重要的原因之一。因為沒有人工智能系統(tǒng)和人類智能水平統(tǒng)一的測量方法,人工智能威脅論宣揚者往往將計算機或軟件系統(tǒng)表現(xiàn)強大的領(lǐng)域作為標準,例如計算能力,歷史,地理等常識的掌握能力等,而忽略諸如圖像識別能力,創(chuàng)新創(chuàng)造的能力,發(fā)現(xiàn)規(guī)律的能力等,對于這個原因產(chǎn)生的問題,人工智能威脅論反駁者往往無法拿出定量的數(shù)字結(jié)果進行反駁。

      目前雖然針對人類智力能力的評測方法已經(jīng)非常成熟,但過去100多年的發(fā)展和改進過程中,這些方法并沒有考慮到人工智能系統(tǒng)的特點和發(fā)展水平,因此很難將人類的智商測試方法拿來測試人工智能系統(tǒng)。例如目前絕大多數(shù)人工智能系統(tǒng)就無法完成圖一所示題目,因為測試者需要首先識別圖像中的問題,并與圖中的各個圖形特征關(guān)聯(lián)起來。做不到這一點,回答問題就無法進行下去。

    智能測試

    圖一:人類智力測試

      圖二所示的人類智商測試的題目需要測試者運用鉛筆,鋼筆等工具繪制圖形。用手操作物體完成任務,解決問題是人類普通的能力,但對大多數(shù)人工智能系統(tǒng)因為沒有相應輸出系統(tǒng)或操控設(shè)備,于是無法完成圖二所示的測試。

    智力測試

    圖二:智力測試

      (3)第三個困難是人工智能系統(tǒng)沒有形成智力發(fā)展水平測試的標準輸入輸出接口。例如如圖靈測試的問題問答,IBM深藍與國際象棋大師的比賽,沃森系統(tǒng)與人類選手進行知識比賽等時,研究人員就需要研發(fā)不同的輸入輸入接口以滿足測試需求。對于更多人工智能系統(tǒng),在設(shè)計時往往由于只考慮到滿足工作需求,而沒有設(shè)計和開發(fā)與測試系統(tǒng)進行完整交互的能力,如圖三所示。這個問題如果沒有得到解決,對于發(fā)展新的統(tǒng)一的人工智能測試也將帶來困難。

    人工智能系統(tǒng)測試接口示意圖

    圖三:人工智能系統(tǒng)測試接口示意圖

      (4)第四個困難是沒有關(guān)于人工智能智力發(fā)展水平的歷史測試統(tǒng)計數(shù)據(jù)。由于針對人工智能系統(tǒng)一直沒有產(chǎn)生定量分析方法,這個問題在今天依然存在。因為歷史數(shù)據(jù)的缺失,研究者就無法繪制類似圖四所示的人工智能系統(tǒng)智力水平的發(fā)展示意圖,也無法將人工智能系統(tǒng)與人類智力發(fā)展水平進行比較。因此很難定量的對未來發(fā)展趨勢進行預測。上文我們提到Facebook人工智能實驗室主任Yann LeCun在反駁人工智能威脅論時雖然給出了相關(guān)發(fā)展趨勢圖,但因為不是通過歷史數(shù)據(jù)預測得來,因此說服力大打折扣。

    人工智能和人類智力發(fā)展曲線示意圖

    圖四:人工智能和人類智力發(fā)展曲線示意圖

     

    (審核編輯: 滄海一土)

    聲明:除特別說明之外,新聞內(nèi)容及圖片均來自網(wǎng)絡及各大主流媒體。版權(quán)歸原作者所有。如認為內(nèi)容侵權(quán),請聯(lián)系我們刪除。