AI「終結者」?應該加強對人工智慧的管理

手離不開機 發佈 2020-01-04T17:54:11+00:00

管理人工智慧答案並不在於為AI制定一套特定的法案目前還沒有殺手機器人,但湯姆·斯坦德吉說,監管機構現在必須對人工智慧做出反應提到人工智慧這個詞,人們可能會聯想到狂暴的殺手機器人,比如《終結者》系列電影中的機器人,或者擔心機器取代人類而造成大規模失業。



管理人工智慧


答案並不在於為AI制定一套特定的法案


目前還沒有殺手機器人,但湯姆·斯坦德吉說,監管機構現在必須對人工智慧做出反應


提到人工智慧(AI)這個詞,人們可能會聯想到狂暴的殺手機器人,比如《終結者》(Terminator)系列電影中的機器人,或者擔心機器取代人類而造成大規模失業。進入新的一年,現實卻變得更加平淡無奇(並沒有殺手機器人存在):人工智慧可以讓人們口述文本信息,而不是打字,也能使得人們能夠從廚房櫃檯上的智能音箱中調出音樂。然而,這並不意味著政策制定者可以忽視人工智慧。隨著它在越來越多的領域得到應用,人們有理由擔心它可能會產生意想不到的後果。監管機構應如何應對?

目前人們最擔心的是,為訓練人工智慧系統而搜集數據的做法正在侵犯人們的隱私。監控人們在網上做的每一件事,從購物到閱讀,再到在社交媒體上發帖,讓網際網路巨頭建立詳細的個人資料,可以用來定位廣告或推薦感興趣的項目。最好的應對辦法不是直接監管人工智慧的使用,而是把重點放在如何收集、處理和存儲個人數據的規則上。

歐盟與2018年5月提出一組針對數據和隱私保護的條例,即《通用數據保護條例》 是一次正確的嘗試,因為它使得歐盟公民能夠更好地控制他們的數據(並促使一些網際網路公司類似的權利擴展到全球所有用戶)。歐盟將在新的一年通過其電子隱私條例進一步澄清和收緊這些規則。批評人士會認為,這些規定阻礙了創新,並增強了網際網路巨頭的實力,而網際網路巨頭能夠承擔監管合規的成本,而初創企業則無法承擔。他們說的有道理。但歐洲的做法似乎比美國的不干涉態度更可取。


隨著人工智慧系統開始應用於預測警務、監獄判決、工作招聘或信用評分等領域,人們擔心的第二個方面是「算法偏見」——擔心當使用歷史數據對系統進行培訓時,它們會學習並延續現有的偏見。提倡在人事部門使用人工智慧(例如,掃描求職者的簡歷)的人表示,使用公正的機器可以減少偏見。為了確保公平,人工智慧系統需要更好地解釋它們如何做出決定(這是一個研究較多的領域);它們應該幫助人類做出更好的決定,而不是替他們做決定。


人工智慧引發擔憂的第三個方面是在自動駕駛汽領域。許多公司現在正在測試自動駕駛汽車,並在公共道路上試運行「機器人計程車」服務。但這樣的系統並不完善,2018年3月,一名行人在亞利桑那州坦佩被一輛自動駕駛汽車撞死,這是同類事故中首例。正確的應對措施是,要求自動駕駛汽車製造商定期發布安全報告,在測試期間讓安全駕駛員駕駛汽車,並安裝「黑匣子」數據記錄器,以便調查人員在出現問題時能夠查明情況。


簡而言之,考慮到人工智慧如電力或網際網路的廣泛適用性,它幾乎可以應用於任何領域——答案不是為它制定一套特定的法律,或建立一個類似於美國食品和藥物管理局的專門監管機構。相反,現有的隱私、歧視、車輛安全等規則必須加以調整,以將人工智慧考慮在內。那些殺手機器人呢?它們仍然只是存在於是科幻小說里,但未來的自主武器系統是否應該像化學武器一樣被禁止的問題,正在提上地緣政治議程。在2018年8月的一次聯合國會議上,有關該問題的正式討論被美國和俄羅斯阻撓,但就一項國際條約展開談判的努力將持續到新的一年。


在就業方面,與人工智慧相關的失業比例和範圍仍然是商界最具爭議和不確定性的話題之一。在未來,工人們肯定需要比現在更經常地學習新的技能,無論是應付現有工作的變化還是轉換到新的工作。正如在工業革命中一樣,自動化將要求對教育進行改革,以應對工作性質的變化。然而,幾乎沒有跡象表明政客們正在認真對待這一問題,相反,許多人更傾向於妖魔化移民和全球化。在新的一年,政策制定者需要開始認真思考人工智慧領域內的這一問題。


【這裡是手離不開機,如果想獲取更多有趣科技資訊,記得點擊關注哦】

關鍵字: