掃碼下載APP
及時接收最新考試資訊及
備考信息
人工智能(AI)正在迅速普及,然而相關倫理治理框架的創(chuàng)建速度卻跟不上其技術能力的發(fā)展。隨著人工智能的運用場景變得越來越清晰,這種情況也許會逐步改變。
用搜索引擎搜索信息已然成為數(shù)百萬人幾乎每天都要做的事情,但很少有人會在按下搜索按鈕之后,思考其背后的算法是如何執(zhí)行的。
舉例來說,如果搜索“大學教授”(university professor),在谷歌上的大部分搜索結果都是白人男性。作為全世界至熱門的搜索引擎,谷歌的算法非但不是中立的,而且長期以來就存在著明顯的偏見,這種情況早已根深蒂固。
當然,谷歌并非是唯一的負面案例。另一家科技巨頭亞馬遜(Amazon)也因其開發(fā)的招聘軟件會降低女性的錄取比率,而不得不停運整改。微軟也曾因其人工智能聊天機器人Tay在社交網絡上發(fā)送帶有種族主義的言論,而不得不接受調查。
隨著科技的進步,人工智能技術在聊天機器人等領域的應用已經變得越來越普遍,但確保人工智能技術能夠安全、正確地應用的管治機制尚有待進一步完善。
人工智能的“自帶”偏見
隨著人工智能越來越普及并逐漸成為現(xiàn)代生活中不可或缺的一部分,對于人工智能可能會存在偏見的擔心,促使人們呼吁建立一個道德、公正、透明的管治框架。
Kriti Sharma是英國跨國會計軟件公司賽捷(Sage)的機器人自動化和人工智能業(yè)務副總裁(Vice-president of bots and AI).
她表示,由于人工智能是人類發(fā)明的,天生會帶有在人類身上普遍存在的某些偏見,而如果這些偏見不受監(jiān)管且機器本身還在不斷重復學習,很可能會使這種偏差越來越嚴重。
Sharma曾在世界會計師大會(WCOA)上就人工智能對金融行業(yè)的影響發(fā)表演講,她表示,“然而值得慶幸的是我們是可以糾正這些偏見的?!?/span>
除了數(shù)據隱私、保護以及使用外,要打造符合道德標準的人工智能的難關往往就是道德本身。我們必須加以正確的指引,才能真正滿懷信心地挖掘并釋放第四次工業(yè)革命的全部潛力,并依靠技術突破推進信息物理融合的系統(tǒng)發(fā)展。
Sharma說道:你必須確保為算法設定正確的目標、價值觀以及意圖。重要的不只是完成任務,還必須要采取正確的方式。對于會計等工作來說,這一點非常重要,因為這類工作在很大程度上依賴于信任。
在英國工作和生活的Sharma已經成為推動這項被稱為“負責任的”人工智能運動的主要積極分子,她的不懈努力獲得了聯(lián)合國大使以及奧巴馬基金會的認可。
她說:當我剛開始宣傳時,許多人甚至從未聽聞過人工智能。他們通常會說,‘你是在為機器人爭取權利嗎?’,現(xiàn)在人們越來越意識到它的重要性。
政府政策如何協(xié)助降低偏見
為了創(chuàng)建倫理框架,Sharma認為,重要的是不能讓開發(fā)者根據具體項目來選擇是否采取治理標準。恰恰相反,開發(fā)者要認識到倫理標準是其工作的重要組成部分,這需要組織機構的高層以及政府主動承擔責任。
一些國家已經開始采取行動。英國政府就建立了數(shù)據倫理和創(chuàng)新中心。Sharma在其中擔任理事,近期還招納了牛津大學哲學和信息倫理學教授Luciano Floridi,而該中心的核心任務是為英國創(chuàng)建人工智能倫理框架。
中心的工作基于英國上議院委員會為負責任的人工智能制定的五項原則,其中借鑒了著名科幻作家艾薩克·阿西莫夫(Isaac Asimov)在1942年提出的“機器人三定律”。
根據委員會制定的第五項原則,人工智能不能擁有“毀滅”人類的力量,這項原則在新南威爾士大學杰出教授Toby Walsh有關禁止殺傷性人工智能全自動武器的請愿書中也有所反映。
無獨有偶,新加坡金融管理局近期公布了一系列準則,促使金融行業(yè)以公平、道德、負責以及透明(FEAT)的方式應用人工智能和數(shù)據分析技術。
澳大利亞也正在向這一方向發(fā)展,聯(lián)邦政府強制要求聯(lián)邦科學與工業(yè)研究組織(CSIRO)的Data61與澳大利亞國立大學自主、機構和保障創(chuàng)新研究所(3A研究所)聯(lián)合開發(fā)倫理框架。在英特爾公司前高管Genevieve Bell教授的領導下,3A研究所以及Data61將在2022年之前為認證的AI從業(yè)人員創(chuàng)建一門課程。
澳大利亞還有一家致力于開發(fā)人工智能的機構就是澳大利亞機器人視覺中心(Australian Centre for Robotic Vision),這是一個由多所知名大學組成的協(xié)作中心。該中心的首席運營官Sue Keay博士認為,有兩個關鍵領域可以糾正人工智能的偏見并更好地解決倫理問題:數(shù)據的質量和數(shù)量;以及共同參與開發(fā)AI算法的研發(fā)人員的多樣性。
數(shù)據多樣性或許是解藥
Keay表示,人工智能的應用依靠所提供的數(shù)據集,因此只有使用的數(shù)據沒有偏見,算法才會不帶偏見。開發(fā)算法的人必須確保數(shù)據的完整性,并且數(shù)據應該足夠豐富并能夠真正做到代表任何樣本。
舉例來說,麻省理工學院的研究人員調查了某個收入預測系統(tǒng),發(fā)現(xiàn)其將女性列為低收入者的可能性是男性的兩倍。如果數(shù)據集增加十倍,分類錯誤的發(fā)生率就會下降40%。
Keay說:另一個常見案例就是,如果通過機器人來判斷服刑人員能否獲得假釋,有色人種很可能會遭到嚴重歧視。這或許是因為我們的歷史數(shù)據中存在很多這樣的情況,過去確實有這方面的偏見
“還有一點就是,我們要意識到偏見是確實存在的,然后設法找到一種編程方式,可以在不受這些偏見影響的情況下完成目標任務?!?/span>
Keay引用模擬世界的案例來闡述自己的其他觀點:AI開發(fā)團隊成員的多元化有助于消除偏見并實現(xiàn)更好的設計。
她說道:很長一段時間以來,汽車的安全性能一直都是通過碰撞試驗假人來檢測的,幾十年后,研究人員注意到女性和兒童在汽車事故中的受傷幾率偏高。
后來人們了解到,碰撞試驗假人的原型是標準美國男性的體形,而負責進行這些檢測的工作人員正屬于這類人群。我認為在人工智能方面,相比規(guī)范性框架,更重要的是組建更加多元化的團隊來開發(fā)這些人工智能技術。
商業(yè)性與透明度的兩難境地
在商業(yè)環(huán)境中,Keay確實看到了大眾對透明度的要求與科技型企業(yè)保護知識產權的愿望之間存在潛在的對立沖突。
她表示,隨著人工智能的蓬勃發(fā)展,這些企業(yè)傾向于保護自己的知識產權,并不愿意公布算法的具體內容。
不過,算法確實需要具有可測試性并應該向受其決策影響的人員保持透明,這方面正是需要政府可以發(fā)揮重要作用的領域,因為他們可以制定這類框架。
Sharma認為,對黑箱運作方式持反對態(tài)度是不容置疑的。
她說:科技行業(yè)總有非常聰明的人,他們其中一些可能會說自己的算法非常智能,以至于自己也無法解釋??晌也⒉贿@樣認為。我知道有些算法很難解釋,但卻依然需要具有可審核性和可追溯性,這是基本原則。
作為人工智能的倡導者,Sharma認為在人工智能已經無縫融入到日常生活的現(xiàn)代社會,人們不會注意到算法,也不會質疑算法。為此,我們首先需要建立一個符合倫理道德且相互信任的基礎。
她堅持認為:“人應當有權調查和置疑人工智能,而且這個框架應適用于所有人,我們不應該對其感到畏懼?!?/span>
Sharma正在針對人工智能應用程序開發(fā)一種被她稱為“偏見檢測”的測試,用于人工智能產品發(fā)布之前。
我們已經在做網絡測試,為什么不能在發(fā)布之前進行一項偏見測試呢?
Sharma認為,就像商業(yè)和政府在其他領域設立道德規(guī)范,符合倫理道德的人工智能將成為取得更好結果的關鍵因素,包括企業(yè)盈利方面。
她說道:“符合倫理道德的技術不僅僅是錦上添花,更是重要的業(yè)務驅動因素。人們總是傾向于向自己信賴的公司購買產品,這同樣適用于人工智能,因為它會成為我們生活的一部分。”
使用人工智能的五項原則
人工智能應為人類共同利益和福祉服務。
人工智能應遵循可被理解和公平性原則。
人工智能不應用于削弱個人、家庭乃至社區(qū)的數(shù)據權利或隱私。
所有公民都有權接受相關教育,以便能在精神、情感和經濟上適應人工智能的發(fā)展。
人工智能絕不應被賦予任何傷害、毀滅或欺騙人類的自主能力。
以上就是“澳洲CPA人工智能 ”相關信息,更多CPA Australia資訊請關注正保會計網校澳洲cpa欄目。 2020正保會計網校澳洲cpa課程助您備考,點擊了解課程詳情>> 立即試聽>>
更多推薦:
上一篇:認可雇主招聘 | 簡柏特中國
下一篇:澳洲受CPA認證的院校課程有哪些
Copyright © 2000 - m.yinshua168.com.cn All Rights Reserved. 北京正保會計科技有限公司 版權所有
京B2-20200959 京ICP備20012371號-7 出版物經營許可證 京公網安備 11010802044457號