http://www.kadhoai.com.cn 2026-04-08 00:14:37 來源:今日早報
不(bu)少(shao)科(ke)幻(huan)電(dian)影(ying)中(zhong),一(yi)些(xie)人(ren)工(gong)智(zhi)能(neng)機(ji)器(qi)拒(ju)絕(jue)服(fu)從(cong)人(ren)類(lei)指(zhi)揮(hui),甚(shen)至(zhi)殺(sha)死(si)或(huo)控(kong)製(zhi)人(ren)類(lei),最(zui)終(zhong)統(tong)治(zhi)世(shi)界(jie)。為(wei)避(bi)免(mian)這(zhe)類(lei)情(qing)況(kuang)出(chu)現(xian),包(bao)括(kuo)英(ying)國(guo)理(li)論(lun)物(wu)理(li)學(xue)家(jia)斯(si)蒂(di)芬(fen)·霍金在內,數百名科學家和企業家聯合發表一封公開信,敦促人們重視人工智能安全,確保這類研究對人類有益。
近(jin)年(nian)來(lai),人(ren)工(gong)智(zhi)能(neng)技(ji)術(shu)高(gao)速(su)發(fa)展(zhan),在(zai)給(gei)人(ren)們(men)生(sheng)活(huo)帶(dai)來(lai)便(bian)利(li)的(de)同(tong)時(shi),可(ke)能(neng)存(cun)在(zai)危(wei)險(xian)性(xing)。一(yi)些(xie)科(ke)學(xue)家(jia)認(ren)為(wei),人(ren)工(gong)智(zhi)能(neng)可(ke)能(neng)比(bi)核(he)武(wu)器(qi)更(geng)具(ju)威(wei)脅(xie)。
公開信說:
人工智能技術存在潛在危險
英、法等國媒體12日報道,這封信由非營利機構“未來生活研究所”發布。除霍金外,在信上簽名的還有美國機器人和智能機械研究中心主任盧克·米爾豪澤、2004年諾貝爾物理學獎獲得者弗蘭克·維爾切克、美國網絡通訊軟件Skype創始人之一揚·塔利英、美國太空探索技術公司和美國特斯拉汽車公司首席執行官埃隆·馬斯克,以及一些來自美國哈佛大學、斯坦福大學等知名高校的頂尖學者和一些來自穀歌公司、微軟公司等高科技企業的工作人員。
這封公開信說,人工智能技術穩定發展已獲“廣泛共識”,而且未來能夠給人類帶來巨大益處。信中說,人工智能已經為人類生活提供便利,包括語音識別技術、圖像分析技術、無人駕駛汽車和翻譯工具。
公開信說:“由於人工智能的巨大潛力,有必要研究如何在從其獲益的同時避免潛在的危險。”
霍金提醒:
防止人工智能科技失控
xinzhongxiedao,rengongzhinengjishufazhanlianghao,dangeishehuidailaidechongjizhujianzengjia。ruguomeiyouzhenduirengongzhinengdeanquanfanghucuoshi,kenengdaozhirenleideweilaibiandeandan,shenzhirangrenleimiewang。
短期而言,人工智能可能導致數以百萬計人失業;長期而言,可能出現一些科幻電影中的情況,人工智能的智力水平超過人類,開始“政變”。按(an)人(ren)工(gong)智(zhi)能(neng)的(de)發(fa)展(zhan)進(jin)度(du),在(zai)不(bu)久(jiu)的(de)將(jiang)來(lai),機(ji)器(qi)可(ke)能(neng)以(yi)不(bu)斷(duan)加(jia)快(kuai)的(de)速(su)度(du)重(zhong)新(xin)設(she)計(ji)自(zi)己(ji),超(chao)越(yue)受(shou)製(zhi)於(yu)生(sheng)物(wu)進(jin)化(hua)速(su)度(du)的(de)人(ren)類(lei),最(zui)終(zhong)擺(bai)脫(tuo)人(ren)類(lei)的(de)控(kong)製(zhi)。
這封公開信說:“我們的人工智能係統必須按照我們的要求工作。”
jinnianzaoxieshihou,huojintixing,xujingtirengongzhinengkejiguodufazhan,fangzhirengongzhinengkejishikongbingchaoyuerenleizhihui,zuizhongpohuaizhenggexingqiu。tashuo,chenggongchuangzaorengongzhinengkeji“將是人類曆史上最偉大的成就,但不幸的是,有可能也是最後一項(成就)”。
去年10月,太空探索技術公司和特斯拉汽車公司首席執行官馬斯克在美國麻省理工學院參加一場活動時說:“我認為對待人工智能我們必須非常謹慎。按照我的猜想,人工智能可能是我們麵臨的最大滅絕風險。”
馬斯克說,創造人工智能猶如“召喚一隻惡魔”,“在一些故事中,有人擁有五星陣法和聖水……他確信自己可以控製這隻惡魔,不過事實並非如此”。
為確保人工智能不被誤用,美國穀歌公司不久前成立一個倫理委員會,監督這家企業的人工智能技術研發。