問答題2008年,斯坦福大學(xué)的計(jì)算機(jī)科學(xué)家設(shè)計(jì)出了第一個(gè)專家系統(tǒng):1982年,加州理工學(xué)院物理學(xué)家提出了新的神經(jīng)網(wǎng)絡(luò)模型;1997年,IBM“深藍(lán)”電腦線路國(guó)際教程世界觀軍卡斯帕羅夫;2011年,IBM超級(jí)計(jì)算機(jī)“沃森”在美國(guó)電視答題節(jié)目中戰(zhàn)勝兩種人類冠軍;2013年,機(jī)器在人臉識(shí)別上超過人類;僅一年后,機(jī)器人在物體識(shí)別上也戰(zhàn)勝……未來人工智能繼續(xù)超越人類的可能性很高。在人工智能應(yīng)用前景充滿無限可能的情況下,其潛在風(fēng)險(xiǎn)也引發(fā)了廣泛討論。2016年2月,在美國(guó)加州發(fā)生了一起死人駕駛汽車因躲避路上障礙物而撞上公交車的交通事故。這凸顯出人中智能設(shè)備在應(yīng)對(duì)人類社會(huì)各種場(chǎng)景時(shí)面臨的挑戰(zhàn),人們還擔(dān)心人工智能技術(shù)成熟后的問題,比如將機(jī)器人用于戰(zhàn)爭(zhēng)是否會(huì)帶來像核武器一樣的后果。有學(xué)者表示,人機(jī)對(duì)弈是人類思考自身作用契機(jī)。人工智能的目的是幫助人類,創(chuàng)造出比李世石更優(yōu)秀的棋手應(yīng)該是人類的勝利,也有學(xué)者認(rèn)為,在面對(duì)復(fù)雜的倫理問題時(shí),人工智能技術(shù)可能會(huì)陷入不可預(yù)知的選擇困境,著名物理學(xué)家霍金也發(fā)出警告;“我不認(rèn)為人工智能的進(jìn)步一定會(huì)是良性的?!钡聡?guó)人工智能研究所柏林分析所長(zhǎng)漢斯·烏斯克萊特強(qiáng)調(diào)說,人工智能的研究方向不是要取代人類,而是要與人類互補(bǔ),增強(qiáng)人類的能力,人工智能不會(huì)取代人類,因?yàn)橹挥腥祟惒啪哂袆?chuàng)造力和目標(biāo),而機(jī)器只關(guān)注如何解決眼前遇到的問題。要讓人工智能避免犯下道德層面的錯(cuò)誤,關(guān)鍵在于人類自己,在美國(guó)《連線》雜志創(chuàng)始主編凱文·凱利看來,每個(gè)發(fā)明都不可避免帶來新問題,但同時(shí)也會(huì)帶來新的解決方案,解決
這些問題的方式不是減少技術(shù)的使用,而是通過改進(jìn)技術(shù)來提供解決方案,他認(rèn)為,即使新的技術(shù)發(fā)展帶來的49%是問題,但它首先帶來了51%的好處,這正是人類進(jìn)步的動(dòng)力。從這個(gè)意義上講,“阿爾法圍棋”和李世石無論誰(shuí)勝誰(shuí)敗,人類都是最后的贏家,總之,用好人工智能,關(guān)鍵還在人類自身。如何理解“用好人工智能,關(guān)鍵還在人類自身”?
您可能感興趣的試卷
你可能感興趣的試題
最新試題