国产精品免费无遮挡无码永久视频-国产高潮视频在线观看-精品久久国产字幕高潮-国产精品99精品无码视亚

霍金再發(fā)警告:機(jī)器人100年內(nèi)將控制人類

發(fā)布時(shí)間:2015-5-14 09:52    發(fā)布者:eechina
關(guān)鍵詞: 機(jī)器人 , 人工智能
在倫敦舉行的2015年Zeitgeist大會(huì)上,著名科學(xué)家史蒂芬·霍金(Stephen Hawking)再次發(fā)出警告——未來100年內(nèi),人工智能將比人類更為聰明,機(jī)器人將控制人類。

霍金宣稱,現(xiàn)在不是擔(dān)心誰控制人工智能的時(shí)候,而應(yīng)該擔(dān)心人工智能是否能被完全控制住。未來100年中,人類將面臨比人類更聰明的人工智能的挑戰(zhàn);艚鸫饲耙苍l(fā)出警告,他稱人工智能可能終結(jié)人類。

霍金說:“在未來100年內(nèi),結(jié)合人工智能的計(jì)算機(jī)將會(huì)變得比人類更聰明。屆時(shí),我們需要確保計(jì)算機(jī)與我們的目標(biāo)相一致。我們的未來取決于技術(shù)不斷增強(qiáng)的力量和我們使用技術(shù)的智慧之間的賽跑!

今年年初,霍金曾與特斯拉CEO伊隆·馬斯克(Elon Musk)共同發(fā)表公開信,他們認(rèn)為人工智能的發(fā)展應(yīng)該受到控制。信中稱,如果智能機(jī)器無法保障安全,人類可能陷入黑暗的未來。

信中警告科學(xué)家們警惕人工智能將抹殺人類?茖W(xué)家們稱:“我們已經(jīng)達(dá)成共識(shí),人工智能研究正取得很大進(jìn)展,將對(duì)社會(huì)產(chǎn)生越來越大的影響。潛在好處十分巨大,因?yàn)槲拿魈峁┑囊磺卸际侨祟愔腔鄣漠a(chǎn)物。但是當(dāng)這種智慧放大到人工智能工具都可提供的程度,我們無法預(yù)測(cè)結(jié)果,疾病和貧苦的消除并非不可能!

但科學(xué)家們也提出更嚴(yán)肅警告,人工智能研究必須避免潛在威脅。比如,從短期來看,人工智能可能導(dǎo)致數(shù)百萬人失業(yè)。從長(zhǎng)期來看,人工智能可能像科幻電影中一樣,比人類更聰明時(shí)違反自己的程序設(shè)定。為此,必須確保人工智能系統(tǒng)按照人類的意圖行事。

11月份,馬斯克也提出警告,最少只需5年,智能機(jī)器可能就會(huì)帶來極端危險(xiǎn)。他認(rèn)為,人工智能就像“召喚惡魔”。馬斯克在麻省理工學(xué)院發(fā)表演講時(shí),將人工智能描述為人類“最大的生存威脅”。他說:“我認(rèn)為我們對(duì)人工智能應(yīng)該保持高度警惕。如果讓我猜測(cè)人類生存的最大威脅,那可能就是人工智能!

--騰訊科技
本文地址:http://m.4huy16.com/thread-149359-1-1.html     【打印本頁】

本站部分文章為轉(zhuǎn)載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé);文章版權(quán)歸原作者及原出處所有,如涉及作品內(nèi)容、版權(quán)和其它問題,我們將根據(jù)著作權(quán)人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評(píng)論 登錄 | 立即注冊(cè)

廠商推薦

  • Microchip視頻專區(qū)
  • 常見深度學(xué)習(xí)模型介紹及應(yīng)用培訓(xùn)教程
  • 電動(dòng)兩輪車設(shè)計(jì)生態(tài)系統(tǒng)
  • Microchip第22屆中國(guó)技術(shù)精英年會(huì)上海首站開幕
  • Microchip第22屆中國(guó)技術(shù)精英年會(huì)——采訪篇
  • 貿(mào)澤電子(Mouser)專區(qū)

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權(quán)所有   京ICP備16069177號(hào) | 京公網(wǎng)安備11010502021702
快速回復(fù) 返回頂部 返回列表