摘要:昨天我們發布了值得信賴的人工智能的最終道德準則。它們是以歐洲聯盟基本權利憲章歐盟憲章所載的國際人權和基本權利為基礎,為實現值得信賴的人工智能提供必要的核心價值觀和原則。道德和值得信賴的人工智能需要成為一種無可爭辯的國際規范。
九個月前,我很榮幸被選為唯一的非歐洲專家,從加拿大和行業的角度,向歐盟委員會的人工智能專家組(AI HLEG)提供意見。昨天,我們發布了值得信賴的人工智能的最終道德準則。
在這些準則中,我們追求“以人為本的方法”,以尊嚴,自由,平等和正義等人權和基本權利為依據。人工智能不受國界的限制,道德原則和要求必須根植于促進所有人的內在價值的概念,無論其地理位置在哪兒。
AI HLEG由來自學術界、民間社會,研究和更多領域的52位學科專家組成。我們在12月份發布了我們的初稿,我們的小組從收到的500多份提交的意見書中獲得得的意見和見解受益。反饋不僅來自國際人工智能實驗室,也有民間社會的積極參與者。您將看到我們的最終指南中反映的這種多樣化的思想,我希望在其他地區將其作為人工智能政策的參考點時,能夠繼續得到應用。
值得信賴的人工智能
昨天關于值得信賴的人工智能的道德準則發布非常及時。
我們今天使用的大多數產品都有一定的使用保證和責任。但是,人工智能在價值鏈上的表現是高度動態的。該領域的問責制度很復雜,對系統行為的控制并不總是明確可歸因的,并且需要更清晰地定義利益相關者(如研究人員,數據供應商,設計人員,用戶和更廣泛的環境)之間的期望。
如果對技術,開發人員,政府框架和利益相關者之間缺乏信任,我們就有可能拒絕可以賦予我們權力的技術風險。作為一名企業主,我的職責之一是更加努力地調整預期,并為所有相關人員提供充分的解釋。
但普遍接受的基本規則也很重要。問責制的解釋和談判過程是巨大的交易成本,而行業目前的自我監管最終受到自身利益的限制。一套明確的游戲規則對于人們灌輸對技術的信任并確保其用于最佳效果的影響至關重要。
準則
我很自豪地說,我們的指南不僅僅是一系列的價值觀和抽象的原則來指導人工智能。它們是以“歐洲聯盟基本權利憲章”(歐盟憲章)所載的國際人權和基本權利為基礎,為實現值得信賴的人工智能提供必要的核心價值觀和原則。這種情境化很重要。我們需要將值得信賴和合乎道德的人工智能從概念層面轉變為實際層面。
我們意識到,沒有必要把人工智能與其他技術區別對待,也沒有必要重新發明輪子。對于我們來說,我們最初的過程是將自適應性的人工智能系統嵌入到已經建立起來的人權系統中,該系統將于復雜的利益相關者價值鏈相關聯。
從此基礎上,我們轉向關注當前最熱門的爭論焦點并結束:如何將核心價值觀和原則嵌入到人工智能中?這類似于我們已經從各種面向技術的組織和中心(如IBM和Microsoft)中看到的框架。在我們的指南中,我們重點關注來自人權的四項原則:
尊重人的自治
預防危害
公平
可以解釋
接下來,我們確定了七個面向利益相關者的要求,可通過技術和非技術方法(例如,測試和驗證或標準化)可實現。
人類代理和監督是第一項要求,其基礎是堅持基本人權以及人工智能實現人類代理的必要性。
技術穩健性和安全性與人工智能系統的發展密切相關,并側重于系統抵御外部攻擊(例如,對抗性攻擊)和內部故障(例如系統可靠性的錯誤通信)的恢復能力。
隱私和數據治理將系統開發人員和部署人員之間架起了橋梁。它解決了一些突出的問題,例如用于開發人工智能系統所使用的數據質量和完整性,以及在整個系統生命周期內保證隱私的必要性。
透明度要求可以理解和追蹤技術與執行人類的決策。
多樣性,非歧視和公平是確保人人都可以訪問人工智能系統的要求。這些包括例如:避免偏見、考慮通用設計原則和避免一刀切的方法
社會和環境福利是最廣泛的要求,包括最大的利益相關者:我們的全球社會和環境。它解決了對可持續和環境友好型的人工智能的需求,以及對民主進程的影響。
問責制補充了以前的所有要求,因為它在AI系統的開發和部署之前,期間和之后都是相關的。
這七個關鍵要求和標準都是由政府監管的。
下一個合乎邏輯的步驟是將需求轉化為實際的國際行業標準,但是一個完整的標準體系可能需要花費數年時間。
這些指導方針所依據的人權框架有助于確定現有的適用法律和政策,這些法律和政策是可以適用于人工智能快速發展的游戲規則。
“以人為本”的人工智能的全球標準
到目前全球的討論取得了長足的進展。關于受益人工智能的Asilomar會議是最早提出人工智能原則的會議之一,隨后,從“ 蒙特利爾宣言”到IEEE 自主和智能系統倫理全球倡議等大型多利益相關方倡議的補充運動迅速增加。
這些“準則”通過討論編織了人權的連接線,這是國際辯論的主要方向。你可以通過最近的倡議看到這一點,例如“多倫多宣言”或經合組織在其社會人工智能專家組及其人工智能政策觀察站開展的工作。
各國政府也正在發布更加精細的人工智能戰略,加拿大在2017年率先發布。所有這些都是領先的行業標準,例如IEEE和國際標準化組織(ISO)(ISO甚至還有一個關于可信度的工作組)。澳大利亞人權委員正在進行開創性的工作,從根本上連接我們的指導方針,深入探討人權與技術之間的關系。我期待他們在2019年末發布的調查結果,并希望更多的政府可以效仿。監管機構有必要就人工智能對人權和自由的影響進行多方相關者磋商以了解如何通過具有法律約束力、可執行的保護來補充準則。
下一步
現在是時候努力實施準則中列出的需求了。這些要求包括一份指示性評估清單,用于實施這些要求,并為未來的行業標準創建第一個框架實例。該清單將在2019年全年進行試點和修訂。
反過來,各國政府應該將這些準則作作為制定和實施新的立法和監管機制的基準,以保障數字時代的人權和自由得到保護和促進。
《指南》和歐盟委員會關于建立對以人為本的人工智能信任的溝通,鼓勵利益相關方和歐盟成員國參與《指南》中的關鍵要求,并利用這些要求就以人為本的人工智能達成共識。雙方還提到與加拿大,日本和新加坡等志同道合的國際合作伙伴加強合作。
加拿大已在人工智能領域與歐盟的多在人工智能領域進行了多次合作,以及從政府角度出發,成立的法國和加拿大的國際人工智能小組。鑒于該小組的任務是“ 促進以人為本的人工智能愿景”,在推動我們的指導方針朝著國際標準邁進的背景下,我尤其感到興奮。
我們有指導方針。我們有國際平臺。現在,世界各國政府都應該實施和發展它們,利益相關者應該推動和支持它們,公民需要它們,組織應該采納它們。
道德和值得信賴的人工智能需要成為一種無可爭辯的國際規范。
從作者的描述中可以發現,歐盟目前已經編寫好了有關人工智能道德標準的白皮書,并已經敲定了最終稿并進行了發布,可以了解到歐盟對于人工智能道德標準的條件,從這些條件中可以看出歐盟對于未來人工智能發展的一些期望,同時全世界有關人工智能的標準都在如火如荼的進行著,可以預測到的是未來有關人工智能的崗位將會不斷的增加,我們將在這場風波中處在什么位置將取決于我們現在對待人工智能的態度,不管未來人工智能對我們是一個好事還是一個壞事,我們在現在都應該積極的去應對它和了解它,以防未來被這股人工智能的浪潮掀翻在地。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/19996.html
摘要:另一方面,人工智能管理更廣泛地關注數據中的信號及其驅動的結果。指導指導就是在人工智能不采取行動的情況下提出建議。這意味著許多任務都是由人工智能完成的,而人類則處于任務中進行處理和分析其他的任務。適應性這是人工智能處理不斷變化的情況的能力。 showImg(https://segmentfault.com/img/remote/1460000019039614); 權力意味著新的責任 過...
摘要:于年在意大利北部帕維亞的監獄中死亡。的死亡促使了現代犯罪學的誕生。寫道,犯罪分子生下來就是罪犯。最近的一個例子便是,上海交通大學和在年月傳到上的論文使用臉部圖像自動推斷罪犯。 任何關心如何確保 AI 技術朝著有利于人類發展的人都是本文的讀者1844 年,意大利南部一個小城鎮舉辦了一場審判會,一個名叫 Giuseppe Villella 的勞工因涉嫌竊取了5 個里考塔(注釋:意大利奶制品,類似...
摘要:區塊鏈技術比傳統互聯網技術好在哪里它的實現原理優是什么呢筆者希望通過本文,解答大家心中的疑問。也就是說區塊鏈記賬機器完成記賬功能的基本原理是狀態機。總結區塊鏈技術的本質是通過公開的加密的不可篡改的技術手段,為解決多方信任問題提供了一個方案。 隨著比特幣、以太坊等數字貨幣的暴漲,數字貨幣的底層技術,區塊鏈技術,開始進入大眾的視野。姚勁波說:區塊鏈有可能和互聯網一樣偉大。區塊鏈技術比傳統互...
摘要:全新的華為云品牌廣告一組三張,承接了今年月全新品牌口號華為云有技術,有未來,值得信賴,并對其展開進一步延展和深入解讀。而華為云始終致力于與客戶及合作伙伴風雨同舟,攜手共贏未來。華為云,真正關心你的未來。4月27日,華為云全新品牌廣告在北京、上海、廣州、深圳等16所城市機場同時上線。全新的華為云品牌廣告一組三張,承接了今年3月全新品牌口號華為云 有技術,有未來,值得信賴,并對其展開進一步延展和...
摘要:為什么未來可能是我們最糟糕的噩夢我想要了解人工智能的原因之一是壞機器人的主題總是讓我感到困惑。沒有那個人工智能系統會像電影描述的那樣變的邪惡。意識盒子他還觸及了另一個與人工智能意識相關的大話題。這并不是說人工智能不可能發生。 為什么未來可能是我們最糟糕的噩夢 我想要了解人工智能的原因之一是壞機器人的主題總是讓我感到困惑。關于邪惡機器人的所有電影看起來都是不切實際的,我無法真正理解人工智...
閱讀 1808·2019-08-30 13:54
閱讀 2724·2019-08-29 17:27
閱讀 1108·2019-08-29 17:23
閱讀 3350·2019-08-29 15:20
閱讀 1224·2019-08-29 11:28
閱讀 1565·2019-08-26 10:39
閱讀 1314·2019-08-26 10:29
閱讀 638·2019-08-26 10:13