人工智能正在向具有“高情商”發(fā)展

2021-02-10    分類: 網(wǎng)站建設(shè)

目前機器智能領(lǐng)域的成功主要依賴于計算能力,為了做出好決策可能搜索數(shù)十億次。如果決策成功的話,往往表明計算能力已經(jīng)趕上甚至超過人類的智力。人類智能是高度概括的、自適應(yīng)的和健壯的,即使當前先進的機器智能系統(tǒng)也無法產(chǎn)生這些特性。例如,即使存在許多未知的變量,人類也能夠根據(jù)預(yù)期的結(jié)果提前進行重要的計劃。人類的智慧還具有同情心、同理心、善良、有教養(yǎng),而且重要的是,它能夠為了更大的使命而放棄和重新定義一些目標。幾乎所有的機器智能研究都集中在“如何”上,但人類智能的特點是能夠問“什么”和“為什么”。

假設(shè)情商是開啟智能機器的關(guān)鍵,他們不僅更普遍、更強大、更高效,而且還符合人類的價值觀。人類的情感機制使我們能夠完成目前機器無法編程或訓練的任務(wù)。例如,我們的交感神經(jīng)和副交感神經(jīng)反應(yīng)使我們知道安全,并能意識到危險。我們能夠感受到他人的影響,并能設(shè)身處地的去想,這有助于我們做出正確的決定和駕馭復(fù)雜關(guān)系。饑餓、好奇、驚喜和快樂等情感因素使我們能夠規(guī)范自己的行為,并確定希望實現(xiàn)的目標集。最重要的能力是,我們能夠通過與他人溝通表達內(nèi)心狀態(tài),并可能影響他們的決策。

因此,有人假設(shè)將這種情商構(gòu)建到一個計算框架中,它至少需要具備以下能力:

  • 感受他人的情感
  • 對他人情感做出反應(yīng)
  • 表達情感
  • 在決策中管理和利用情感

從研究歷史上看,構(gòu)建高情商機器主要從人機協(xié)作的角度出發(fā),集中在前三項功能上。例如,最早關(guān)于情感識別的研究始于近30年前,當時人們使用生理傳感器、照相機、麥克風等來檢測一系列情感反應(yīng)。雖然人們對于是否一致和在臉上或其他感官上傳達信號,以及這些信號是否真實反映了他們內(nèi)心的感受,存在著很多爭論,但研究人員已經(jīng)成功地建立了算法來識別人類表達的信號,并證明這些信號符合社會文化規(guī)范。

根據(jù)人的內(nèi)在認知狀態(tài)采取適當行動的能力,是具有情商的基本體現(xiàn)。最近在順序決策方面的研究,如上下文賭博機,正逐步取得進展。例如,飲食情感管理系統(tǒng)如何幫助人們做出正確的決定。

幾十年來,情感表達一直處于計算的最前沿。即使是簡單的信號(例如,光、色、聲)也有能力傳達和激起豐富的情感。在將于2019年第七屆國際學習代表大會iclr上發(fā)表的“Neural TTS Stylization with Adversarial and Collaborative Games”論文中,我們提出了一種新的機器學習方法來合成具有表現(xiàn)力的逼真的人類語音。該體系結(jié)構(gòu)模型生成真實的語音,并通過一個易于控制的撥盤,以獨特的方式改變表達的情感。我們的模型在多個任務(wù)中達到了預(yù)期效果,包括內(nèi)容轉(zhuǎn)換、情感建模和身份轉(zhuǎn)換。本文提供了一個開源實現(xiàn)。

圖1神經(jīng)模型架構(gòu)

雖然人工智能系統(tǒng)的識別、表達和干預(yù)方面的研究在過去20年已經(jīng)深入,但還有一種更引人注目的智能形式——有效地利用情感機制的系統(tǒng)——為了更好地學習和更有效地做出選擇。我們希望探索建立這樣的情感機制,以幫助計算機實現(xiàn)比目前更多的決策。

最近人工智能在圍棋、Pac-Man和基于場景的角色扮演游戲等方面取得了成功,很大程度上依賴于強化學習。在強化學習中,好的行為會得到獎勵,壞的行為會受到懲罰。然而,要讓計算模型學習一個合理的策略,需要在這樣一個行動獎勵框架中進行大量的試驗。我們可以從人類和其他生物情感中獲得靈感——如何利用情感機制來更有效地學習。

當人類學會在世界上生存時,身體(神經(jīng)系統(tǒng))的反應(yīng)會對行為選擇提供潛在的持續(xù)反饋,例如,當接近懸崖邊緣或在拐彎處快速行駛時,會變得緊張。生理變化和心理反應(yīng)會保護自己免受危險。人類對危險情況的預(yù)感是心率加快,血液從四肢分流,汗腺擴張。這是身體的“戰(zhàn)斗或逃跑”反應(yīng)。人類已經(jīng)進化了數(shù)百萬年來建立這些復(fù)雜的系統(tǒng)。如果機器有類似的反饋系統(tǒng)呢?

圖2一種新的強化學習方法

在《Visceral Machines: Risk-Aversion in Reinforcement Learning with Intrinsic Physiological Rewards》一書中,我們提出了一種新的強化學習方法,它利用了人類“戰(zhàn)斗或逃跑”行為的內(nèi)在獎勵功能。

我們的假設(shè)是,這樣的獎勵函數(shù)可以規(guī)避強化學習環(huán)境中與稀疏和傾斜獎勵相關(guān)的挑戰(zhàn),并有助于提高樣本效率。我們在模擬駕駛環(huán)境中進行了測試,結(jié)果表明,該方法可以提高學習速度,減少學習過程中的碰撞次數(shù)。我們對訓練自主系統(tǒng)的潛力感到興奮,這種系統(tǒng)能夠模擬以情感方式感受和響應(yīng)刺激的能力。

圖3 人體在駕駛過程中所記錄的生理反應(yīng)

許多計算機科學家和機器人專家都渴望打造出類似于凱特(KITT)和R2D2等流行科幻小說中令人難忘的機器人形象。然而構(gòu)建情感計算機制,對我們構(gòu)建健壯、高效和更有遠見的人工智能,提供了大好時機。我們期待這項研究能讓人們重新審視情感在人工智能中的應(yīng)用。

當前題目:人工智能正在向具有“高情商”發(fā)展
轉(zhuǎn)載來源:http://www.bm7419.com/news9/100159.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、微信公眾號、服務(wù)器托管網(wǎng)頁設(shè)計公司、網(wǎng)站內(nèi)鏈、網(wǎng)站營銷

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都做網(wǎng)站