讀心與芯:我們與機器人的無限未來07機器人的風險

1. 機器人的風險與容錯機制
1.1. 白帽黑客
- 1.1.1. 發現網絡安全漏洞的專家,幫助制造商和供應商修復缺陷并提高防御能力
1.2. 隨著更先進的汽車和半自動駕駛汽車以及各種機器人的普及,一些風險也會出現
-
1.2.1. 計算機遭受的網絡攻擊,機器人也容易遭受,甚至會遭受得更多,因為它們在物理世界中活動
-
1.2.2. 在傳統網絡安全中,不存在完美的或萬無一失的解決方案,計算機或網絡沒有堅不可摧的安全邊界,同樣的規則也適用于機器人內部的計算機
-
1.2.3. 2019年,網絡安全成為價值1500億美元的全球產業,主要涵蓋靜態或移動計算機和網絡計算機
1.3. 機器人更智能、更快、更強、更有能力,因此我們要更努力地工作,想象所有可能出現的危險、風險和問題,在大型項目或機器人及其能力開發項目的整個生命周期中持續關注這些隱患
1.4. 機器人會犯錯
- 1.4.1. 機器會精準地執行程序,但如果程序有缺陷,或遇到某種未被編程的情況,存在感知錯誤,或控制系統有很小的誤差,機器就會表現出我們認為的錯誤舉動
1.5. 問題是機器犯的錯與人類不同
-
1.5.1. 即使特斯拉已經將艾薩克·阿西莫夫機器人三定律中的第一條(即機器人不得傷害人類)改編并編碼到汽車中,也無法保證悲劇不會發生
-
1.5.2. 機器人的大腦犯了一個錯,那是人類永遠都不會犯的錯
-
1.5.3. 特斯拉永遠不會在開車時睡著,永遠不會在開車前去酒吧貪杯,也不會在發短信時將注意力從路上轉移開
1.6. 將更多智能機器人帶入世界需要平衡、揭示和識別人機差異,確定我們對機器人錯誤和缺陷的容忍度
1.7. 必須確保人類在設計機器人的決策模塊時發揮積極的作用,這樣,當機器犯錯或執行我們不喜歡的操作時,我們就可以用人類的語言解釋其邏輯
- 1.7.1. 需要確保芯片有心
1.8. 電車難題
-
1.8.1. 機器人如果有強大的感知和控制能力,就不需要選擇,因為它會提前感知到老人和兒童,并且有能力停下來
-
1.8.2. 可能會考慮制定道德準則來影響自動駕駛汽車的決策,甚至將這一道德準則傳達給所有車輛用戶
-
1.8.3. 機器人就不會“像機器人一樣”做決定,而會表現得更像有深度思考能力的倫理學家和在其人工大腦中編寫推理模塊的人類
-
1.8.4. 殺人永遠不會是一種選擇
1.9. 總會有一些問題、危險和錯誤是我們無法預見的,因而無法提前計劃和防范,但我們仍需盡最大努力,富有創造性地通盤考慮所有可能出錯的問題
1.10. 政策明確了技術應遵守的商業和社會契約,只有在配套政策的支持下,技術才能成功地融入社會
1.11. 機器人是工具,本質上沒有好壞之分,重要的是我們選擇如何使用這個工具
-
1.11.1. 任何人都可以購買無人機,但不同國家的無人機使用規定各不相同
-
1.11.2. 管理方式還取決于無人機飛行是為了娛樂還是出于商業目的
1.12. 在戰爭中,一方想掌控和影響有關沖突的敘述,因而限制公民獲得公正的新聞和信息,入侵的真實故事就會被掩蓋
-
1.12.1. 一群飛行數字投影儀在建筑物和墻壁的側面播放視頻,讓所有人都能看到
-
1.12.2. 如果我們安排的飛行器足夠多,就無法被全部關閉
1.13. 不能等待所有技術人員忍受改變生活的痛苦經歷,也不能期待所有人從善良的目的出發利用研發成功、進入市場的智能機器
-
1.13.1. 能做的是更審慎地思考各種后果,制定防范措施,確保它產生積極的作用
-
1.13.2. 不一定能控制智能機器的使用方式,但可以做更多的事情來影響其制造者
1.14. 幫助領導者了解機器人和其他人工智能增強的物理系統的局限、優勢和可能性,即它們能做什么、不能做什么,應該做什么、不該做什么,以及我認為它們必須做的事
2. 聆聽來自社會和世界各領域的聲音和思想
2.1. 學術界
2.2. 技術專家:他們了解基礎科學和工程學,了解機器人當前的能力和未來的潛力
2.3. 安全專家:他們了解網絡安全的最佳做法和方法,以及如何將其應用于機器人技術
2.4. 白帽子:他們擁有黑客技能和創造力,能發現可能存在的漏洞
2.5. 政策制定者:他們能想象地方政府、州政府、聯邦政府及機構如何看待構想中的新技術
2.6. 犯罪學家或心理學家:他們受過訓練且經驗豐富,可以想到惡意者如何利用機器人為非作歹
2.7. 科幻小說作家、電影制片人、藝術家和其他創意人士:他們的預測富有想象力,能夠想象出各種不同的未來,以及技術可能對世界產生的影響
2.8. 倫理學家:他們能引導和塑造智能機器及其制造者的行動和決策
2.9. 經濟學家:他們擁有技能和知識,能預測哪些措施可確保技術長期惠及普羅大眾,而不僅僅是富人
2.10. 投資者:他們愿意提供反饋信息,說明項目開發能否籌集并維持足夠的資金,或者如何在早期階段做到這一點
-
2.10.1. 機器人項目的成本可能很高
-
2.10.2. 有前途的機器人項目會因資金不足陷入停滯
2.11. 考慮律師、保險專家和其他人的意見
3. 希波克拉底誓言
3.1. 出自早期的希臘醫學課本,可能是哲學家希波克拉底所寫,也可能不是,它經歷了幾個世紀的演變
3.2. 從根本上講,它是醫生應遵守的醫療道德標準
- 3.2.1. 其中最著名的承諾是不傷害病人,或避免有意的不道德行為
3.3. 科學從根本上講是對知識的追求,從這個意義上說,它是純粹的
3.4. 在機器人和人工智能領域,我們正在構建對世界、對人類和其他生命形式產生影響的事物
-
3.4.1. 在某種程度上,該領域與醫學相似,因為醫生是利用訓練得來的知識直接影響病人的生活
-
3.4.2. 要求技術人員背誦機器人領域的“希波克拉底誓言”可能是推動該領域朝正確方向發展的一種方式,也許可以作為一種方法,阻止那些出于邪惡目的開發機器人或人工智能的個人
3.5. 機器人使用方式的好壞取決于你的立場
-
3.5.1. 堅決反對賦予武裝機器人或武器化機器人自主權
-
3.5.2. 希望機器人永遠不會被用來傷害任何人
4. 機器人改變的工作格局
4.1. 新的人機合作提高了工作效率,公司將流程的部分控制權還給了工人
4.2. 機器人會產生積極的影響,但很多人仍擔心它們會對人類勞動力構成威脅
4.3. 更多的機器人帶來了更多而非更少的就業機會
- 4.3.1. 很多孩子將來可能從事的是尚未發明的工作
4.4. 自動化的影響取決于工作類型
-
4.4.1. 技術并不能使工作自動化
-
4.4.2. 技術使任務自動化
4.5. 技術解決方案最適合自動化數據任務和可預測的體力工作任務
4.6. 對機器人和崗位的擔憂并不完全涉及未來的工作,因為我們并不是在問工作是否有未來
4.7. 機器人可以填補勞動力市場的特定缺口,增強人們的能力
-
4.7.1. 機器人可以填補勞動力市場的特定缺口,增強人們的能力
-
4.7.2. 從技術上講,機器代替人類是不可能的,也不是機器人專家想要的
-
4.7.3. 完成的是一項由于勞動力短缺而擱置的任務
4.8. 人機分工的依據是二者的優勢和劣勢
-
4.8.1. 機器擅長在大數據集里快速處理和發現模式,移動的精確性比人高,力量也比人大
-
4.8.2. 由于數據量非常大,機器學習引擎可以生成人類難以發現的洞見
-
4.8.3. 與機器人合作,工作和生活的許多方面都能得以完善和增強
-
4.8.4. 未來應該由人與芯片共同塑造,二者的優劣勢可以互補
-
4.8.5. 人類特有的技能在工作中變得越來越有價值
4.9. 誤解
-
4.9.1. 電影中充斥著對機器人神奇能力的想象,媒體進行過度宣傳,人們相信公司對機器人前景的夸夸其談和預測
-
4.9.2. 將人與芯片視為對立而非互補的力量
-
4.9.2.1. 錯誤地將機器人視為競爭對手,而不是將它們視為隊友,視為一種提高人類的生產力和能力的工具
4.10. 改變的不是人類的需求,而是我們謀生的方式
4.11. 挑戰
-
4.11.1. 轉行不易
-
4.11.1.1. 新工作所需的技能可能需要大量培訓
-
4.11.1.2. 技術導致勞動力的重大重組并非首次,但與過去不同的是,數字技術正在引發勞動力市場的兩極分化
4.12. 機器應該能幫助所有人找到更好的工作,充分利用人類的獨特優勢
4.13. 必須有人領導這項工作,還要有人出資
4.14. 找到人類利用機器人和機器智能的優勢提高生產力的方法,是推進工作的最佳途徑
- 4.14.1. 人機協作需要更智能的機器,還需要會用機器的人
浙公網安備 33010602011771號