因為真正的人工智能技術(shù)是成熟的,獨立于人類的智慧和期望風險大多集中在更多的上下文可以想象“強人工智能機器人具有智能化程度高;人工智能/網(wǎng)絡(luò)時代,“弱人工智能”一直是人類生活的第一滲透,這是單獨由機器產(chǎn)生的不確定性也開始在人類社會中發(fā)酵,我們必須檢查所有早期的風險類別和可能影響人工智能的生產(chǎn)。
資源的分配很不平衡:人工智能已經(jīng)開始改變我們的工作方式,預測世界經(jīng)濟論壇2016、人工智能和機器學習將創(chuàng)造約700萬個就業(yè)機會在未來的幾年內(nèi)消失,同時創(chuàng)造200萬個新的就業(yè)機會;英國物理學家霍金也認為,人工智能的崛起將打擊中產(chǎn)階級,離開特定的工作,造成了嚴重的經(jīng)濟失衡。推論是,人類的“專業(yè)”,很容易被快速復制機,導致經(jīng)濟結(jié)構(gòu)和技術(shù)性失業(yè)的階級結(jié)構(gòu)的調(diào)整,生產(chǎn)效率和利潤將集中在少數(shù)高度人工智能資源集團手中,所以窮人和富人之間的社會劇,高度暴露在資源配置環(huán)境的所有風險。
信息壟斷:人的思維不能跳出自己的經(jīng)驗范圍,機器也是一樣的。沒有數(shù)據(jù)的人工智能,即使是優(yōu)秀的計算硬件和演算,仍然無法在目標字段中工作。在接下來的相關(guān)軟硬件技術(shù)中,充分而有用的(海量的、有標記的)數(shù)據(jù)將成為“人工智能產(chǎn)業(yè)中最大的關(guān)鍵利基之一,領(lǐng)導者將大量的數(shù)據(jù)建立一個關(guān)鍵的屏障來產(chǎn)生細分,并使用戶獲得的數(shù)據(jù)成本越來越高。導致更多的智慧,更聰明的傻瓜愚弄了信息風險的壟斷。
隱私權(quán)的未來:麥肯錫預計有1種相位物體萬億互聯(lián)網(wǎng),2025的說,物聯(lián)網(wǎng)的發(fā)展趨勢,未來可能在我們周圍的信息收集,信息收集包括人工智能技術(shù)、獨立思考和自我判斷的時間函數(shù)打開傳感器。無論未來的隱私如何被阻止,人工智能和物聯(lián)網(wǎng)都會帶來隱私的高風險。
社會的異化:在網(wǎng)絡(luò)盛行的時代,依靠虛擬世界來滿足社會互動的數(shù)量顯著提高不同的是,現(xiàn)實世界中,人們交流的友好人士的虛擬世界充滿想象和機會,虛擬人格似乎已成為更大的勇氣和創(chuàng)造力,但這不是真的;世界將在很大程度上依賴于群體與現(xiàn)實世界有很大差距,造成風險的社會異化。而到了人工智能時代,虛擬世界得到了擴展,虛擬現(xiàn)實和人工智能技術(shù)向虛擬世界更加真實,產(chǎn)生了更多的集群依賴性,導致了人與人之間的交往與社會的異化。
沒有自主性:科學技術(shù)時代的人類智慧是自主的嗎?過濾氣泡的現(xiàn)象可能會給人們一個警告:人工智能已經(jīng)進化到識別我們?nèi)粘I钪薪?jīng)??吹胶拖胍吹降男畔?,然后用人們的內(nèi)容過濾它。這臺機器的到來有助于節(jié)省大量的時間,也使我們的信息越來越單一。它已經(jīng)成為網(wǎng)絡(luò)中常見的現(xiàn)象,如搜索引擎和社區(qū)群體。人工智能的對象在未來世界中越來越流行。人類對單一價值(或價值目標)過分依賴的現(xiàn)象會在升級的方向上惡化,從而導致人類思維在各個領(lǐng)域的風險和人類心理危機的滅絕。