微軟谷歌研究團隊:在完全理解AI之前別濫用它,否則會有潛在風險

儘管人們對快速發展的人工智能抱有很大的預期,但報告也指出了這一領域正面臨巨大的挑戰。正如我們的大腦的信號太過複雜,難以解釋一樣,深度學習算法的機制也是如此。而若是將這種尚不能完全解釋的決策機制引入公共管理領域,則會帶來大量的潛在風險。

微軟谷歌研究團隊:在完全理解AI之前別濫用它,否則會有潛在風險

近日,由紐約大學、谷歌、微軟等組織與機構的公共政策研究者組成的研究組織 AI Now 發佈了其第二份人工智能年度研究報告。這份報告是 AI Now 人工智能研討會的一部分,該研討會邀請了近百名相關領域內的研究人員,討論人工智能對社會經濟的影響。報告指出,刑事司法、醫療、福利和教育等高風險領域內的核心公共機構不應再使用具有“黑箱“特性的 AI 技術及算法系統。

這裡所謂的“黑箱”特性的 AI 技術及算法系統主要是指深入學習系統(Deep Learning),這是一個在Google、Facebook(170.63, 0.03, 0.02%)、Microsoft和Amazon等科技巨頭之間流行的AI研究的子領域,它通過彙集數百萬次的微小的計算來做出單一決策,例如在圖像中識別一張人臉。

微軟谷歌研究團隊:在完全理解AI之前別濫用它,否則會有潛在風險

 而針對那些大力推崇人工智能算法的科技巨頭也存在著同樣的擔憂。谷歌和Facebook,都在使用人工智能算法來決定用戶在他們的網頁上看到何種內容,鑑於這些網站龐大的訪問量和用戶基數,這使得它們也免不了的捲入了有關信息誤導和媒介洗腦的社會論戰。