xxxxx日韩,夜夜躁很很躁日日躁麻豆,亚洲精品无人一区二区,www婷婷av久久久影片,色四月五月开心婷婷网

支持單位: 全國警用裝備標(biāo)準(zhǔn)化技術(shù)委員會 , 公安部安全與警用電子產(chǎn)品質(zhì)量檢測中心 , 公安部特種警用裝備質(zhì)量監(jiān)督檢驗中心 , 國家安全防范報警系統(tǒng)產(chǎn)品質(zhì)量監(jiān)督檢驗中心
jiangbei
歷屆評選

人工智能將對道德倫理問題提出重大挑戰(zhàn)

2017-03-21 10:21:00  來源 : 新浪科技
關(guān)鍵詞: 人工智能 道德


????????中國國際警用裝備網(wǎng)訊:?據(jù)國外媒體報道,人工智能如今無處不在。從決定購買哪本書、訂哪一班航班,到申請工作、獲取銀行貸款,我們生活的各個方面都與人工智能有著或多或少的聯(lián)系。



  如今,這類事情主要由復(fù)雜的軟件系統(tǒng)做決定。人工智能在過去幾年中取得了巨大進展,有望從許多方面改善我們的生活。



  幾年來,人工智能的崛起已成了必然趨勢。人工智能初創(chuàng)公司收到了大筆投資。許多現(xiàn)有的科技公司,如亞馬遜、Facebook和微軟等巨頭,都已創(chuàng)建了研究實驗室??梢院敛豢鋸埖卣f,軟件如今就代表著“人工智能”。



  有些人預(yù)言,人工智能將掀起一場比因特網(wǎng)更加猛烈的變革。而至于機器帶來的迅速變化將對人類產(chǎn)生怎樣的影響,幾乎所有科技人員都將道德倫理視為關(guān)注重點。



  對于谷歌研究帶頭人和機器學(xué)習(xí)的領(lǐng)軍人物皮特·諾維格(Peter Norvig)而言,雖然由數(shù)據(jù)驅(qū)動的人工智能技術(shù)近期取得了一系列成功,但關(guān)鍵問題在于,我們必須弄清如何使這些新系統(tǒng)造福整個社會,而不僅是該系統(tǒng)的控制者?!叭斯ぶ悄芸筛咝ч_展實際任務(wù),如給照片貼標(biāo)簽、理解口頭和書面自然語言、甚至幫助確診等?!彼赋觯岸覀儽仨毚_保所有人都能從中受益?!?/p>



  最大的問題在于,這些軟件往往極為復(fù)雜,無法參透人工智能系統(tǒng)采取某一行動的原因。如今的人工智能以機器學(xué)習(xí)技術(shù)為基礎(chǔ),導(dǎo)致我們無法透過表面、看個究竟。因此我們只能姑且信任它們。但我們必須找出新方法,有效監(jiān)控和審查人工智能參與的系統(tǒng)。



  哈佛法學(xué)院網(wǎng)絡(luò)法教授喬納森·齊特林(Jonathan Zittrain)認(rèn)為,隨著計算機系統(tǒng)日趨復(fù)雜,人們或許將難以對人工智能系統(tǒng)進行密切監(jiān)視。“隨著我們的計算機系統(tǒng)越來越復(fù)雜、聯(lián)系越來越緊密,人類的自主控制權(quán)也不斷減少,這使我很擔(dān)心?!彼硎荆叭绻覀儭攀植还?,忘到腦后”,不考慮道德倫理問題,計算機系統(tǒng)的演化或許會令我們懊悔不已。”



  其他人也表達了同樣的憂慮。“我們?nèi)绾闻袛噙@些系統(tǒng)是否安全呢?”美國杜克大學(xué)人類與自主實驗室主管米西·康明斯(Missy Cummings)指出。她曾是美國海軍首批戰(zhàn)斗機飛行員之一,如今是一名無人機專家。



  人工智能需要受到監(jiān)視,但具體做法尚不清楚。“目前我們還未就監(jiān)視方法達成統(tǒng)一意見,”康明斯表示,“在缺乏系統(tǒng)測試的行業(yè)標(biāo)準(zhǔn)的情況下,這些技術(shù)很難得到大規(guī)模應(yīng)用。”



20170321101926172.jpg

隨著人工智能的發(fā)展,機器人可以勝任更加復(fù)雜的工作。例如,日本的一家商店采用了機器人“導(dǎo)購”。



  但當(dāng)今世界日新月異,監(jiān)管機構(gòu)往往落后一步。在刑事司法系統(tǒng)和醫(yī)療保健等重要領(lǐng)域,許多公司已經(jīng)開始探索人工智能在假釋和診斷等問題上的決策能力。但如果將決策權(quán)交予機器,我們就面臨著失控的風(fēng)險——這些系統(tǒng)真能在每起案例中做出正確的判斷嗎?



  微軟研發(fā)部門的主要研究員丹娜·博伊德(Danah Boyd)稱,我們必須嚴(yán)肅考慮此類系統(tǒng)附含的價值,還要確定最終擔(dān)責(zé)方?!氨O(jiān)管機構(gòu)、公民社會和社會理論學(xué)家都強力要求這些技術(shù)公平公正、符合道義,但這些理念仍然含糊不清。”



  道德問題對就業(yè)影響頗深。隨著人工智能的發(fā)展,機器人可以勝任更加復(fù)雜的工作,能夠取代越來越多的人類工人。例如,中國富士康集團已經(jīng)宣布將用機器人取代六萬名工廠工人。福特汽車在德國科隆的工廠也啟用了機器人,與人類工人并肩工作。



  此外,如果不斷提升的自動化水平對就業(yè)產(chǎn)生了重大沖擊,便會影響人類心理健康。“人生的意義來自三個方面:有意義的人際關(guān)系,充滿激情的興趣愛好、以及有意義的工作。”美國前總統(tǒng)奧巴馬醫(yī)療顧問、生物倫理學(xué)家伊齊基爾·伊曼努爾(Ezekiel Emanuel)指出,“有意義的工作是自我認(rèn)同感的重要組成部分?!彼€表示,在工廠倒閉率和員工失業(yè)率較高的地區(qū),居民自殺、濫用藥物和患抑郁癥的概率也較高。



  因此,社會需要更多的倫理學(xué)家?!肮井?dāng)然會跟隨市場潮流行事,這不是壞事,但我們不能指望他們負(fù)倫理責(zé)任?!甭槭±砉W(xué)院法律與倫理專家凱特·達爾林(Kate Darling)指出,“我們應(yīng)當(dāng)將監(jiān)管措施落實到位。每當(dāng)有新技術(shù)出現(xiàn),我們都會開展這一討論,研究應(yīng)對策略?!?/p>



20170321101959643.jpg

許多工廠中,機器人已經(jīng)開始與人類并肩工作。有些人認(rèn)為這會使工人的心理健康受到影響。



  達爾林指出,谷歌等許多知名公司已經(jīng)成立了倫理委員會,監(jiān)控人工智能技術(shù)的研發(fā)和部署。但這一做法還應(yīng)進一步普及?!拔覀儫o意阻止創(chuàng)新,但眼下也許我們就該成立這樣的機構(gòu)?!?/p>



  有關(guān)谷歌倫理委員會的成員和工作細(xì)節(jié),我們還知之甚少。但去年九月,F(xiàn)acebook、谷歌和亞馬遜達成合作,旨在為人工智能為安全和隱私造成的挑戰(zhàn)提出解決方案。一家名為OpenAI的組織致力于研發(fā)和推廣造福全民的開源人工智能系統(tǒng)?!皺C器學(xué)習(xí)必須得到廣泛研究,并通過公開出版物和開源代碼傳播,這樣我們才能實現(xiàn)福利共享?!惫雀柩芯繂T諾維格指出。



  為制定行業(yè)與倫理標(biāo)準(zhǔn)、充分了解當(dāng)前面臨的風(fēng)險,需要倫理學(xué)家、科技人員和企業(yè)領(lǐng)導(dǎo)人共同參與。這一問題涉及如何駕馭人工智能、使人類更加擅長自己最拿手的領(lǐng)域。“我們更應(yīng)關(guān)注如何利用相應(yīng)技術(shù)幫助人類思考和決策、而非將人類取而代之?!饼R特林指出。




  新聞稿件歡迎直接聯(lián)系:QQ 34004818 微信公眾號:cpsjyzb

我要評論

表情 驗證碼 評論

0 條評論

  • 還沒有人評論過,趕快搶沙發(fā)吧!