#本文僅代表作者觀點,不代表IPRdaily立場#
原標題:2018年人工智能領域研發(fā)熱點回眸
引言
從2006年加拿大Hinton教授提出深度學習技術開始[1],到2012年ImageNet競賽在圖像識別領域帶來的突破[2],如今,人工智能的第三次發(fā)展浪潮到來。不同于80年代隨著神經網絡而來的技術進步無法走進現(xiàn)實的困境,這一次的發(fā)展浪潮真正帶來了技術的落地,商業(yè)化道路也走得更加順暢。隨后的每一年,人工智能技術都在突飛猛進地發(fā)展,應用成果如雨后春筍般涌現(xiàn)。海量的數據,不斷優(yōu)化的算法,以及與之匹配發(fā)展的計算機運算能力,都為更多的發(fā)展可能性及應用可能性提供了廣闊的舞臺。而隨著人工智能在越來越多的方面落地,人們越來越多地感受到人工智能對于生活的改變,接受程度逐漸提升。
01 人機融合智能
除了技術產品化的道路拓寬以外,當下的人工智能還有許多亟待發(fā)展和研究的方向。它的以下特點推動它在第三次發(fā)展浪潮中前往更具突破性的階段,分別為:從人工知識表達技術到大數據驅動知識學習;從處理單一的數據到跨媒體認識、學習和推理;從追求“機器智能”到邁向人機混合的增強智能;從聚焦“個體智能”到基于互聯(lián)網絡的群體智能;從機器人到自主無人系統(tǒng)[3]。
其中,人機混合的增強智能即為將人類智能與人工智能進行結合,邁向新的智能階段,此為人機融合智能。近年來,人機融合越來越成為人工智能領域的熱詞。2018年10月11日,美國“防務一號”網站發(fā)表刊文表示美國軍方高級情報員越來越擔心中國在人工智能等“提升人類效率”方面的研究[4]。美國國防情報局(DIA)局長羅伯特?阿什利(Robert Ashley)在舉行的美國陸軍協(xié)會(Association of the U.S. Army)年度會議上表示,“人機融合”是顛覆性技術的一個“關鍵領域”,將會影響美國的國家安全。他認為“中國在研究神經網絡和人工智能方面所作的努力是一個分階段的過程,希望最終達到‘人與機器的融合’的程度”[5]。
圖1 機器人向著人機融合的方向發(fā)展[4]
Fig. 1 Robot is developing towards the direction of human-machine fusion
在人工智能研究的領域,更快的計算并不是我們希望達到的最終目的,而讓計算機變得越來越與人融合,最終達到人機融合智能,才是最終的發(fā)展方向。當前人工智能雖然普及了眾多的應用形式,但是依然以計算為中心、難以突破意識壁壘,而能夠融合意識與計算特性的人類智能和人工智能融合智能體,即為人機融合智能。
人機融合智能研究是智能技術發(fā)展到一定程度的產物,它既包括人工智能的技術研究,也包括機器與人、機器與環(huán)境及人、機、環(huán)境之間關系的探索。人機融合智能研究不僅僅要考慮機器技術的高速發(fā)展,更要考慮交互主體-人類的思維與認知方式,讓機器與人類各司其職,互相促進,這才是人工智能真正的前景與趨勢[6]。
02 群體智能
在上文中提到的人工智能發(fā)展的特點中,人工智能是從聚焦“個體智能”到基于互聯(lián)網絡的群體智能。群體智能是源于對螞蟻、蜜蜂等為代表的社會性昆蟲的群體行為的研究,最早被用在細胞機器人系統(tǒng)的描述中。它具有分布式無中心的控制,并且群體自組織性[7]。
在自然界中,集群的方式可以讓簡單的生物展現(xiàn)出驚人的復雜性、效率甚至創(chuàng)造力。在人工智能領域,可以通過這種方法產生一種新的智能,像超級專家一樣“共同思考”。通過隨機擴散搜索、蟻群優(yōu)化、粒子群優(yōu)化等算法,群體智能已應用在了無線通信、醫(yī)療、無人駕駛、藝術創(chuàng)作等方面[8]。
如今,Unanimous A.I.公司就在致力于研究群體智能,希望能夠將數百人的知識、智慧、洞察以及知覺通過算法連接起來。該公司研制的SWARM平臺等軟件可以通過實時閉環(huán)控制系統(tǒng)將分布式網絡組織成“人群”,能夠聚集人類參與者的集體智慧以得出意見。它成功預測了奧斯卡,超級碗比賽,以及法國大選的結果[9]。該系統(tǒng)對2017-2018賽季20周的NHL曲棍球比賽進行了預測,得到了85%的成功率,超過了維加斯博彩市場的22%[10]。除了比賽和票選等預測活動,該群體智能方法還應用到了醫(yī)療領域,其診斷肺炎的準確率比單獨工作的放射科醫(yī)生團隊高出22%[11]。
圖2 進行肺炎診斷的ASI(人工群體智能) [11]
Fig. 2 ASI(Artificial Swarm Intelligence) in the diagnosis of pneumonia
03 認知計算
認知是人與世界交互的重要過程,認知計算旨在模仿人類大腦的計算系統(tǒng),讓計算機像人一樣認知和思考。只有實現(xiàn)了認知計算,才能真正實現(xiàn)可以學習并與人類自然交互的系統(tǒng)。從20世紀開始,人們通過單一用途的機械系統(tǒng)指示機器的行動,此為“制表時代”;在20世紀50年代進入了“編程時代”,人們通過編程的方式控制計算設備;從2011年起,人們就將認知計算列為了人工智能發(fā)展的目標,開始進入“認知時代”。在群體智能方面,我們借鑒了螞蟻等生物的啟示,而在認知計算里,我們依然要聚焦于生物,研究認知的整個過程。在認知計算中,系統(tǒng)通過大規(guī)模的學習,有目的、理性、自然地與人類進行互動。認知計算讓機器不僅僅通過編程來執(zhí)行指令,而是通過與人類的互動以及它們對環(huán)境的體驗來學習和推理。它能夠模擬人類的思維過程,理解世界的模糊性和不確定性。通過權衡來自多個來源的信息和想法,進行推理并提供假設[12][13]。
IBM的Watson系統(tǒng)是其中最有名的認知系統(tǒng)。它通過篩選大量的數據庫獲取信息,以問答的形式幫助用戶回答對復雜問題的見解。通過認知計算的方式,它可以不斷地從用戶互動中獲取數據,變得更加聰明。它目前已經成為了一個具有認知計算能力的生態(tài)系統(tǒng),可不斷地衍生出各種行業(yè)解決方案,被應用于醫(yī)療、天氣預測法律顧問等方面。今年該平臺被用在了教育領域,瑞典的一個研究小組開發(fā)出了一個使用IBM Watson系統(tǒng)的學習并行編程的助手,在實際教學實驗中獲得了學生的好評[14]。
認知計算的發(fā)展需要我們不斷地對人的認知過程進行研究。其中,態(tài)勢感知的研究也屬于認知計算領域。態(tài)勢感知將人的認知過程分為三個獨立的層次,分別為:對環(huán)境中元素的感知,對當前形勢的理解,對未來狀況的預測[15]。通過建模和結構化的思想,可以將人的認知過程量化為態(tài)勢感知程度。除此之外,人們也在不斷的通過其他方式對人類的認知過程進行量化,試圖通過計算機來進行模擬和計算。認知學可能是人工智能下一步發(fā)展的突破口。
04 情感計算
在計算機的認知、學習、記憶和言語的水平都在逐漸提高的同時,我們也必須意識到,讓計算機具有能夠感知和理解人的情感,并且針對人的情感做出相應合適反應的能力,是讓計算機具有更高的、全面的智能的必經之路。早在2006年,在Minsky的著作《情感機器》中就提出“人工智能=認知智能+情感智能”的說法[16]。情感計算的加入能夠大大拓寬人工智能的應用領域。根據手段的不同,情感計算研究主要分為基于視覺,基于語音,基于文本及基于腦補信息和多模態(tài)信息的情感分析。
圖3 通過多種可穿戴運動傳感器捕捉微妙的心臟運動[18]
Fig. 3 Capture subtle cardiac motions by multiple
wearable motion sensors
許多研究機構及情感計算工具公司都在不斷對情感計算領域進行探索,例如:麻省理工學院媒體實驗室,Microsoft VIBE團隊,Emotient公司等。他們力求達到更精準的情緒識別,并且不斷開拓新的應用領域。從研究設備上,由于得到更多樣的可穿戴設備支持,今年有許多有關可穿戴設備進行情感測量的研究涌現(xiàn),例如:通過可穿戴設備獲取運動心率進行情感評估[17],或進行壓力和睡眠評估[18];還有在皮膚布置傳感器的表皮機器人作為新的可穿戴設備[19]。從技術上,深度學習也大量應用在了情感計算上。例如:將CaltureNet方法應用于對自閉癥兒童的面部情感識別[20];將深度卷積神經網絡應用于語音頻譜圖上進行語音情感分析[21]。從情緒的研究上,也有更多針對心理疾病的專門研究,例如:自殺沖動的數字化表征研究[22];能夠影響和參與自閉癥治療的機器人感知研究[23]。更加多元化的研究方向,以及更加專門的應用領域的研究,標志著情感計算的發(fā)展也在不斷走向成熟。
05 智能機器人
過去幾年,波士頓動力公司一直引領著機器人動作控制的發(fā)展。在2017年,該公司的人形機器人Atlas已經可以進行完美的后空翻,而今年它又展示了令人驚嘆的跑酷特技表演[24]。在該公司今年新公布的視頻中,Atlas可以跳上多層的平臺,將重心從右腳移到左腳,在上臺階時又將重心移回左腳。除此之外,Atlas今年還可以走出倉庫,在草坪上進行跑步動作,這證明了該機器人在不平坦地面上的平衡性,穩(wěn)定型以及導航能力。截止到目前,Atlas已經可以完成拿起和放下箱子,跳過障礙物,在人類的干擾推動中保持平衡等等高難度行為[25]。
圖4 波士頓動力公司Atlas機器人 [25]
Fig. 4 Atlas of Boston Dynamics
同樣產生于波士頓動力公司的SpotMini曾經是機器人領域最火的四足機器人,而今年,ANYbotics公司的ANYmal吸引了人們的眼球。它具有很強的自動移動和操作能力,能夠安全地與環(huán)境交互,適用于室內外場所的檢查操作,在自然地形等進行搜索或救援任務,還能進行舞臺娛樂活動[26]。今年ANYmal在位于大西洋東北部的北海的海上配電平臺進行了為期一周的檢查實驗,它能夠進行儀表、杠桿、油、水位,各種視覺和熱測量等檢查[27]。隨著機器人技術的發(fā)展,機器人的職業(yè)功能實現(xiàn)的越來越好,越來越多的人類工作可能會被機器人取代。同時,機器人也能夠更加準確地模擬人類的動作,我們可以預見,未來將有更多的仿生機器人能夠被創(chuàng)造出來。人類與機器人共存,與機器人進行合作甚至融合的時代,總有一天會來到。
圖5 ANYbotics公司的ANYmal機器人[26]
Fig. 5 ANYmal of ANYbotics
06 智慧城市
隨著城市體量變得越來越大,規(guī)劃和管理也變得越來越復雜,世界各地的許多城市規(guī)劃機構都已經開始將數字化作為解決城市問題的手段。因此人工智能技術也具有了更多的應用場景。智慧城市的普及和建設,能夠提升城市中資源運用的效率,優(yōu)化城市管理和服務,緩解“大城市病”,從整體上改善市民的生活質量。目前,智慧城市技術和規(guī)劃已經在新加坡,迪拜,阿姆斯特丹,巴塞羅那,紐約等各國家和城市實現(xiàn)。而在中國,從2017年黨的十九大報告中提出建設智慧社會以來,已有290個城市入選了國家智慧城市試點。17年底,雄安新區(qū)也與百度共同打造智能出行試點示范,希望共同將雄安新區(qū)打造為AI City智能城市新標桿[28]。
在迅速發(fā)展的浪潮中,智慧城市也存在著一些問題。根據文獻分析和調查顯示,在智慧城市的發(fā)展規(guī)劃討論中,人們更多關注于技術的使用和實施,對于城市居民的具體情況和他們如何參與智慧城市的發(fā)展過程等問題考慮不足[29]。在一些智慧城市的建設過程中,甚至會由于對傳統(tǒng)的破壞而遭到當地居民的反對,例如墨西哥的托蘭特辛特拉[30]。有一些問題可能會由于規(guī)劃者無視城市的實際發(fā)展造成,這可能導致發(fā)展計劃對公民缺少吸引力。在后續(xù)更多人工智能應用落地的過程中,需要更加腳踏實地,加強對居民的溝通和宣傳,更多的讓技術的實際惠及者——城市公民參與進智慧城市的規(guī)劃和設計中,打造更高滿意度,真正提升城市效率的智慧城市。
07 人工智能醫(yī)療
在醫(yī)療領域,不斷進步的模式識別技術和深度學習算法催生出了許多輔助醫(yī)療設備及技術。在很多醫(yī)療場景下,人工智能的加入都帶來了效果的提升。這些設備有一些能夠獨立進行判斷輸出結果,有一些能夠輔助醫(yī)生進行決策和操作。在人工智能醫(yī)療預測場景,加拿大的一項針對前列腺切除術后康復情況的預測實驗中,機器學習算法比傳統(tǒng)的統(tǒng)計模型表現(xiàn)出了很好的效果,預測更準確。在推行自動預測工具后,人工智能醫(yī)療可針對患者進行個性化的治療[31]。
人工智能的應用越來越優(yōu)化,人們開始思考和探討醫(yī)生職業(yè)的可替代性。在輔助設備的效果評價上,眾多的實驗開始將其與人類醫(yī)生的手法進行比較評價。不過在大部分的實驗結果中,人類醫(yī)生的表現(xiàn)依然優(yōu)于人工智能的表現(xiàn)。在德國的一項實驗中,針對皮膚鏡黑瘤識別任務,包括30名專家在內的58位皮膚科醫(yī)生中,大部分醫(yī)生的表現(xiàn)均優(yōu)于卷積神經網絡。但是無論醫(yī)生的經驗如何,他們均能從人工智能輔助圖像分類設備中受益[32]。
在診斷、治療、醫(yī)療流程輔助、健康管理、藥物研發(fā)等方面,人工智能均有很大發(fā)展?jié)摿?。人工智能的參與能夠減輕和優(yōu)化醫(yī)生的工作,讓更多的人可以享受到更高水平的醫(yī)療。
越來越多的人工智能應用的落地,在各個領域都在為人們的生活帶來可見的提升。人們對于新技術應用的意識提高,構建了一個更加以用戶創(chuàng)新、開放創(chuàng)新、大眾創(chuàng)新、協(xié)同創(chuàng)新為特征的創(chuàng)新生態(tài)。人工智能也依然處在飛速發(fā)展中,向著“可知”、“可控”、“可用”、“可靠”的方向發(fā)展[33]。通過未來地不斷研究,希望人與人工智能不斷融合,向著真正的強人工智能邁進一步。
參考文獻(References)
[1] Hinton G E, Osindero S, Teh Y W. A fast learning
algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527-1554.
[2] Krizhevsky A, Sutskever I, Hinton G E. Imagenet
classification with deep convolutional neural networks[C]//Advances in neural
information processing systems. 2012: 1097-1105.
[3] 吳飛, 陽春華, 蘭旭光, et al. 人工智能的回顧與展望[J]. 中國科學基金, 65535(3).
[4] Patrick Tucker. Defense Intel Chief Worried About
Chinese ‘Integration of Human and Machines’[EB/OL].2018/12/26].https://www.defenseone.com/technology/2018/10/defense-intel-chief-worried-about-chinese-integration-human-and-machines/151904/.
[5]Robert Ashley [EB/OL]. 2018-10-10 [2018/12/26]https://www.ausa.org/ausa2018.
[6] 劉偉. 人機智能融合:人工智能發(fā)展的未來方向[J]. 人民論壇·學術前沿, 2017(20):32-38.
[7] Beni G, Wang J. Swarm intelligence in cellular robotic
systems[M]//Robots and Biological Systems: Towards a New Bionics?. Springer,
Berlin, Heidelberg, 1993: 703-712.
[8] Kennedy J. Swarm intelligence[M]//Handbook of nature-inspired
and innovative computing. Springer, Boston, MA, 2006: 187-219.
[9][EB/OL][2018/12/26]https://unanimous.ai/publications/
[10] Louis Rosenberg, Gregg Willcox. Artificial Swarm
Intelligence vs Vegas Betting Markets[EB/OL][2018/12/26]. https://11s1ty2quyfy2qbmao3bwxzc-wpengine.netdna-ssl.com/wp-content/uploads/2018/08/Artificial-Swarm-Intelligence-vs-Vegas-Betting-Markets-DeSE2018-f3.pdf.
[11] Rosenberg L, Willcox G, Halabi S. Artificial Swarm
Intelligence employed to Amplify Diagnostic Accuracy in Radiology[J]. EMCON
2018, 2018: 6.
[12] Thorsten Schroeer, Cognitive computing: Hello Watson
on the shop floor [EB/OL] 2017-05-09 [2018/12/26]. https://www.ibm.com/blogs/internet-of-things/iot-cognitive-computing-watson/.
[13] Kelly J E. Computing, cognition and the future of
knowing[J]. Whitepaper, IBM Reseach, 2015: 2.
[14] Memeti S , Pllana S . PAPA: A Parallel Programming
Assistant Powered by IBM Watson Cognitive Computing Technology[J]. Journal of
Computational Science, 2018:S1877750317311493.
[15] Endsley M R. Toward a theory of situation awareness in
dynamic systems[J]. Human factors, 1995, 37(1): 32-64.
[16] Minsky M. The emotion machine[J]. New York: Pantheon,
2006, 56.
[17] Hernandez J, McDuff D, Quigley K S, et al. Wearable
Motion-based Heart-rate at Rest: A Workplace Evaluation[J]. IEEE journal of
biomedical and health informatics, 2018.
[18] Sano,A., Taylor,S., Jaques,N., Chen,W.,
Lopez-Martinez,D., Nosakhare,E., Rudovic,O., Umematsu,T., and Picard,R., Mood,
Stress and Sleep Sensing with Wearable Sensors and Mobile Phone[C]// The 40th
International Conference of the IEEE Engineering in Medicine and Biology
Society (EMBC), 2018.
[19] Dementyev A, Hernandez J, Choi I, et al. Epidermal
Robots: Wearable Sensors That Climb on the Skin[J]. Proceedings of the ACM on
Interactive, Mobile, Wearable and Ubiquitous Technologies, 2018, 2(3): 102.
[20] Ferrer E C, Schuller B, Picard R W. CultureNet: A Deep
Learning Approach for Engagement Intensity Estimation from Face Images of
Children with Autism[J].
[21] Zhang S, Zhang S, Huang T, et al. Speech Emotion Recognition Using Deep Convolutional
Neural Network and Discriminant Temporal Pyramid Matching[J]. IEEE Transactions
on Multimedia, 2018, 20(6): 1576-1590.
[22] Kleiman E M, Turner B J, Fedor S, et al. Digital phenotyping of suicidal thoughts[J].
Depression and anxiety, 2018. Rudovic O, Lee J, Dai M, et al.
[23] Personalized machine learning for robot perception of
affect and engagement in autism therapy[J]. arXiv preprint arXiv:1802.01186,
2018.
[24] Sam Blum, Boston Dynamics’ Atlas Can Now Chase You Up
the Stairs [EB/OL] 2018-10-12[2018/12/26]. https://www.popularmechanics.com/technology/robots/a23725726/boston-dynamics-atlas-parkour/.
[25][EB/OL][2018/12/26] https://www.bostondynamics.com/atlas.
[26][EB/OL][2018/12/26] https://www.anybotics.com/anymal/.
[27] Péter Fankhauser, World’s First Autonomous Offshore
Robot[EB/OL] 2018-10-25 [2018/12/26] https://www.anybotics.com/2018/10/25/worlds-first-autonomous-offshore-robot/
[28]魯暢,高博,雄安新區(qū)與百度將共同打造智能出行試點示范[EB/OL]2018/12/26. http://www.xinhuanet.com/fortune/2017-12/20/c_1122143193.htm.
[29] Marrone M , Hammerle M . Smart Cities: A Review and
Analysis of Stakeholders’ Literature[J]. Business & Information Systems
Engineering, 2018.
[30] Madeleine Wattenbarger, The Mexican town that refused
to become a smart city [EB/OL] 2018-10-16 [2018/12/26] https://www.theguardian.com/cities/2018/oct/16/the-mexican-town-that-refused-to-become-a-smart-city.
[31] Wong N C, Lam C, Patterson L, et al. Use of machine
learning to predict early biochemical recurrence after robot‐assisted prostatectomy[J]. BJU
international, 2018.
[32] Haenssle H A , Fink C , Schneiderbauer R , et al. Man
against machine: diagnostic performance of a deep learning convolutional neural
network for dermoscopic melanoma recognition in comparison to 58
dermatologists[J]. Annals of Oncology, 2018.
[33]周琳,胡喆,林小春,“中國智,世界能”[N].浙江日報,2018/12/26,http://society.people.com.cn/n1/2018/0920/c1008-30305072.html
來源:《科技導報》2019
作者:劉偉 倪桑
編輯:IPRdaily趙珍 校對:IPRdaily縱橫君
“投稿”請投郵箱“iprdaily@163.com”
「關于IPRdaily」
IPRdaily成立于2014年,是全球影響力的知識產權媒體+產業(yè)服務平臺,致力于連接全球知識產權人,用戶匯聚了中國、美國、德國、俄羅斯、以色列、澳大利亞、新加坡、日本、韓國等15個國家和地區(qū)的高科技公司、成長型科技企業(yè)IP高管、研發(fā)人員、法務、政府機構、律所、事務所、科研院校等全球近50多萬產業(yè)用戶(國內25萬+海外30萬);同時擁有近百萬條高質量的技術資源+專利資源,通過媒體構建全球知識產權資產信息第一入口。2016年獲啟賦資本領投和天使匯跟投的Pre-A輪融資。
(英文官網:iprdaily.com 中文官網:iprdaily.cn)
本文來自《科技導報》2019并經IPRdaily.cn中文網編輯。轉載此文章須經權利人同意,并附上出處與作者信息。文章不代表IPRdaily.cn立場,如若轉載,請注明出處:“http://jupyterflow.com/”
文章不錯,犒勞下辛苦的作者吧