有考網(wǎng)有考網(wǎng)合作機構>西安培訓學校>西安雁塔區(qū)英泰移動通信培訓
西安雁塔區(qū)英泰移動通信培訓
全國統(tǒng)一學習專線 8:30-21:00
位置:有考網(wǎng) > 計算機類 > 人工智能 > 人工智能會對社會造成什么樣的影響?  正文

人工智能會對社會造成什么樣的影響?

發(fā)布時間:2021-08-24 15:47:11來源:轉載

人工智能會對社會造成什么樣的影響?在可預見的未來中,人工智能的各種應用將會改變社會形式。自動駕駛汽車現(xiàn)在已經(jīng)在路上進行測試,隨著計算機視覺和機械腿設計的進化,機器人非結構化環(huán)境正在變得更為實用——可能的應用范圍包括農(nóng)業(yè)和服務領域(特別是對于老人和殘疾人而言)。

較后,隨著機器能夠理解人類語言,搜索引擎和手機上的「個人助理」將會改變現(xiàn)有的人機交互方式,它們可以回答問題,整合信息,提供建議,并促進交流。人工智能還可能會對科學領域(如系統(tǒng)生物學)產(chǎn)生重大影響,這些學科中信息的復雜性和數(shù)量一直令人望而卻步。

常見誤解

「機器人正在接管一切」。參見《人工智能的智力何時才能超過人類》,人工智能中的絕大多數(shù)進步是基于任務處理的改進。當然,從長遠來看,維持人類的控制很重要。

人工智能系統(tǒng)現(xiàn)在能做什么?

人工智能的應用范圍已經(jīng)比幾年前大很多了。從圍棋、紙牌、簡單的問答、從新聞中抓取信息、組合復雜的對象、翻譯文字、識別語音、識別圖像中的概念、到在「普通」交通條件下駕駛汽車,不一而足。在很多情況下,人工智能在你不知道的情況下發(fā)揮著作用,如檢測信用卡欺詐,評估信用,甚至在復雜的電子商務拍賣中投標。搜索引擎中的部分功能也是人工智能的簡單形式。

常見誤解

「像『下棋』這樣的任務對機器來說和對人類來說是一樣的」。這是一個錯誤的假設:機器「掌握」一項技能的程度超過了人類。人類通過閱讀和理解學會游戲規(guī)則,通過觀看棋局和下棋來提高水平。但典型的下棋程序沒有這樣的能力——將下棋規(guī)則編程,讓機器算法直接給出所有可能的下一步。機器無法「知道」人類所謂的規(guī)則(目前新興的強化學習方式改變了這一點)。DeepMind 的人工智能系統(tǒng)可以學會很多種游戲,它不知道自己在學習什么,看起來也不太可能學會這些游戲的規(guī)則。

「機器執(zhí)行任務的方式和人類一樣」。我們不知道人類思考問題的機制,但這種機制與人工智能系統(tǒng)處理任務的方式看起來大不相同。例如,下棋程序通過考慮當前棋局狀態(tài)和下一步可能的序列比較結果考慮下一步,而人類經(jīng)常是先發(fā)現(xiàn)可能獲得的優(yōu)勢,然后繼續(xù)考慮如何找到一系列方式來實現(xiàn)它。

「如果機器可以做到任務 X,那么它就可以做類似的所有任務了」。參見有關機器 IQ 的問題,機器目前還不能形成通用化的智能,它們的功能通常局限于某一領域。

人工智能系統(tǒng)何時才能超過人類智力?

這是一個難以回答的問題。因為首先它假定這件事必然發(fā)生,事實上它具有選擇性:假如人類選擇不去發(fā)展這樣的人工智能,這件事就不太可能發(fā)生。第二,「超過」假定智力是線性的,而這不是真實情況,機器在某些任務的處理上比人類更快,而在更多放面則很糟糕。第三,如果我們認為「通用的」智能是有用的,我們就可以開發(fā)這樣的機器,但目前我們不知道它是不是有用的。寬泛地說,實現(xiàn)這樣的人工智能還需要很多技術突破,而這些都是難以預測的,大多數(shù)科學家認為這件事會在本世紀內發(fā)生。

常見誤解

「它永遠不會發(fā)生」。對技術突破進行預測是很難的。1933 年 9 月 11 日,Rutherford,也許是那個時代較的核物理學家,在英國科學促進年會上向人們宣布:「任何想從原子變形過程中獲取能源的努力都是徒勞的。」(他在各種場合發(fā)表過許多類似言論,大意都是表達使用原子能是不可能的)結果第二天早上,Leo Szilard 發(fā)現(xiàn)了中子誘導鏈式反應,并很快對核反應堆申請了專利。

相關內容: 人工智能 人工智能的影響 英泰移動通信培訓

同類文章