讀心與芯:我們與機器人的無限未來06問題或方案

1. 機器人可以是問題本身,也可以是解決方案
1.1. 新冠疫情
-
1.1.1. 分子生物學、醫學、流行病學、公共衛生、設計、制造、供應鏈物流、金融等諸多領域在研發、批準以及向公眾分發疫苗方面發揮了作用
-
1.1.2. 公共衛生領導人、政策制定者和監管機構確保了科學觀點的有效運用,以及疫苗分配的公平公正
-
1.1.3. 傳播和公共關系專業人士積極傳播信息,極力糾正錯誤信息
-
1.1.4. 專業團隊及專家的工作與知識都得到了有效協調和應用
1.2. 機器人和智能機器的設計要獲得成功,為世界各地人們的生活帶來積極的影響,僅靠科學家和技術人員是無法做到的,需要學術界、工業界、政府和社會等各領域專家的共同努力
1.3. 人類的智慧決定我們如何使用芯片,未來幾年,我們的行動和決策將決定人工智能是福是禍
1.4. 2004年,世界上最先進的自動駕駛汽車只需在空曠的沙漠道路上行駛7英里就能在頂級研究團隊的競賽中奪冠
-
1.4.1. 15年后,Waymo開始為鳳凰城的乘客提供自動駕駛服務
-
1.4.2. 發展速度是驚人的,但并沒有完全出乎意料
1.5. 可能性1:沿著當前的路走下去
-
1.5.1. 一種可能性是沿著當前的路繼續前進,為我們無法完全理解的機器人大腦構建更高級的身體和規模更大的人工智能、機器學習模型以及解決方案
-
1.5.2. 如果這些學習模式繼續占據主導地位,就有可能培養出這樣一代人,他們在問題出現時要么無法對自己的工作做出解釋,要么無法識別問題
-
1.5.3. 出了問題我們只會采取權宜之計,而不是以長遠的眼光去設計系統
1.6. 可能性2:堆積如山的倉庫
-
1.6.1. 好萊塢電影里機器接管世界的噩夢是,它們突然有了某種奇怪的意識,決定消滅人類
-
1.6.2. 我們會依賴一個自己不理解的龐大而復雜的系統
-
1.6.3. 到處都是堆積如山的科技設備和電子垃圾
1.7. 可能性3:人與芯片合作
-
1.7.1. 智能機器作為更聰明的工具服務于人類
-
1.7.2. 未來的機器人是有保障的安全關鍵系統,其能力眾所周知,它們賦予我們超能力,協助我們完成各種認知和體力任務,大幅提升全人類的生活水平,讓我們的生活更加豐富多彩
-
1.7.3. 數字孿生
-
1.7.3.1. digital twin
-
1.7.3.2. 有可能是人與芯片融合的一個變革性概念
-
1.7.3.3. 通過數字孿生創建復雜系統、人、機器甚至城市的虛擬模型,這些模型近似于現實世界,可以在模擬中研究“假設”的場景
-
1.7.3.4. 數字孿生由真實數據定義、構建并持續更新,其存在或運行的模擬空間也是如此
-
1.7.3.5. 數字孿生的概念在各行各業扎根
> 1.7.3.5.1. 研究人員利用胰腺數字孿生幫助患者進行胰島素管理
> 1.7.3.5.2. 人類心臟數字孿生的使用也在增加
> 1.7.3.5.3. 模擬的飛機引擎有助于監控飛行性能
> 1.7.3.5.3.1. 將真實引擎運行時獲取的數據與其虛擬器預測的數據進行比較,如果真實引擎獲取的數據與數字孿生有差異,可能說明出了問題
> 1.7.3.5.4. 智能手表可以追蹤我們的運動和心率,提供大致的健康檢測
-
1.7.3.6. 個人數字孿生技術的風險是上傳了大量個人信息,因此需要非常強大的隱私保護和保障
-
1.7.3.7. 需要社會科學領域以及政策和傳播專家的參與,塑造技術對人們的影響方式
-
1.7.3.8. 在考慮使用更多智能機器時,我們必須做好防護,建立道德原則,確保它們造福人類
2. 機器人和人工智能系統應具備以下11個特點
2.1. 安全
-
2.1.1. 最簡單、最顯而易見的要求
-
2.1.2. 要確保操作者和周圍人的安全
-
2.1.3. 建造更柔和、更順從的機器人肯定有好處,更多機器人將走出工業牢籠,進入世界
-
2.1.4. 安全第一,我們必須在設計時確保系統是無害的
2.2. 放心
-
2.2.1. 如果開始使用智能系統,上傳和共享更多的個人信息(像數字孿生的例子那樣)?,就必須通過強大的安全控制來確保個人信息的私密性
-
2.2.2. 未經同意和批準,不得共享個人信息
-
2.2.3. 確保這些技術能抵御黑客的攻擊,采用先進的加密方法以及強大的安全措施與策略加以保護
2.3. 輔助性
-
2.3.1. 有關人工智能、機器學習和機器人技術的關鍵或重要決策應該由人類做出
-
2.3.2. 人與芯片協同工作時,人類合作者或操作者應該始終掌握最終決策權
2.4. 體現因果關系
-
2.4.1. 體現因果關系是略帶技術性的要求,但很重要
-
2.4.2. 因果關系是行為與后果之間的聯系
-
2.4.3. 在機器人技術和機器學習中,因果系統是可以解釋內部和外部干預的系統
-
2.4.4. 系統識別其輸出變化是否由某些干預措施造成,并關聯因果關系,做出調整
-
2.4.5. 基于相關模式識別的機器學習不足以做出穩健的預測和可靠的決策
-
2.4.6. 在生活的許多領域,相關性并不意味著因果關系,在機器學習中也一樣
-
2.4.7. 基于因果推理原則而非純相關性的機器學習新方法,會提高解決方案的性能及其可推廣性
-
2.4.8. 液態網絡解決方案體現了因果關系
-
2.4.9. 伯恩哈德·舍爾科普夫
-
2.4.9.1. 將因果推理與統計學習技術相結合,從數據中推斷因果關系
-
2.4.10. 需要更多可證明因果關系的解決方案,讓機器人理解所分配的任務,以可靠且可預測的方式執行任務
2.5. 可泛化性
-
2.5.1. 機器人總會遇到未經訓練的情況,我們要更好地了解系統應對陌生狀況的方式
-
2.5.2. 液態網絡可以將一種環境(夏季森林)中的訓練轉移到截然不同的環境(冬季森林或城市環境)中,不需要額外訓練
-
2.5.3. 無人機經過訓練可以搜索特定物體
-
2.5.4. 自動駕駛汽車,它如果在模擬中突然偏離道路,可以通過回溯了解程序哪里出了問題,然后修復故障,降低未來發生類似情況的可能性
2.6. 可解釋性
-
2.6.1. 其運作方式讓我們無從了解它們做出特定決策、產生特定結果的原因
-
2.6.2. 當模型生成我們不滿意的結果時,很難回溯模型內部的步驟
-
2.6.3. 沒有簡單、可靠的事后檢驗算法確定問題所在,因為這些系統的大腦是黑箱
-
2.6.4. 對機器人等安全關鍵系統來說,無法理解模型的決策是不利因素
-
2.6.5. 如果汽車機器人選擇做危險的事,我們希望能明確原因,糾正模型,消除它將來重蹈覆轍的可能性
-
2.6.6. 可以期待它正確行事,給出概率,但無法保證概率的正確性
-
2.6.6.1. 如果不了解決策過程的復雜性,要估計出概率都很難
2.7. 公平性
-
2.7.1. 深度機器學習系統容易受到普遍存在的算法偏差的影響,在訓練數據代表性不強的情況下尤為如此
-
2.7.2. 深度學習模型越來越多地應用于社會各個領域,已成為許多安全關鍵應用的核心,包括自動駕駛汽車、金融市場預測、醫療診斷和藥物發現渠道等
-
2.7.3. 算法的長期使用不僅取決于它們在訓練過程中的性能,還取決于其通用性、安全性和公平性,應用范圍和數量不斷增加時更是如此
-
2.7.4. 識別空間中缺失的數據并提出擴充數據的建議是有可能的
-
2.7.5. 去偏方法能確定數據集里哪些數據項的代表性過高,哪些數據項代表性不足
-
2.7.5.1. 利用這些信息提高數據質量和表現,構建平衡、公平、公正的模型
2.8. 經濟
-
2.8.1. 作為工程師、投資人、創新者和政策制定者,應該盡量確保人們能買得起所描述的機器人和人工智能系統
-
2.8.2. “機器人即服務”(robots-as-a-service)方法
-
2.8.3. 隨著時間的推移,機器人的租用和使用越來越頻繁,最終會達到一個臨界點,制造成本、企業或個人的購買成本開始下降
-
2.8.4. 確保機器人不僅僅是富豪的玩具
2.9. 經過認證
-
2.9.1. 沒有任何監管機構來認證我們在機器人領域的工作
-
2.9.2. 挑戰在于,如何在應用安全的使用流程和鼓勵創新之間取得適當的平衡
-
2.9.3. 如果執行恰當,監管機構、監督機構和認證將促進而不是扼殺創造力
2.10. 可持續性
-
2.10.1. 當今的人工智能和機器學習模型建立在幾十年前的思想和方法之上
-
2.10.2. 計算是有成本的,處理器的運行也需要電力
-
2.10.2.1. 如果電力來自傳統的使用化石燃料的發電廠,可能會對環境造成嚴重的破壞
-
2.10.3. 鼓勵開發商和用戶僅從可再生能源中獲取能量
-
2.10.4. 如果能以同樣的創新思維開發可持續的機器學習解決方案,為深度神經網絡設計應用程序,我們就應該能設計出可持續性更強、更緊湊的模型
2.11. 有影響力
-
2.11.1. 應用程序的開發不必局限于最初的設想
-
2.11.2. 可以將機器人和人工智能的突破性進展用于其他高產且無害的領域
-
2.11.3. 將構建某種機器人的全部知識用于新型機器的快速開發和調用,解決了一個截然不同但真實緊迫的問題
-
2.11.3.1. 同樣的原理和經驗可用于制造自動駕駛輪椅、港口的自動搬運車等
-
2.11.4. 進一步擴大解決問題的思維范圍,超越想象,創造性地思考正在開發的機器人和人工智能解決方案如何應用于其他領域,重新調整其用途,為更多人帶來福祉
浙公網安備 33010602011771號