翻譯|行業資訊|編輯:況魚杰|2020-11-02 15:36:16.123|閱讀 963 次
概述:現在算法已成為日常生活中不可或缺的一部分。算法會為我們提供建議,這些建議是我們的GPS建議我們開車去的路線,我們選擇的音樂流媒體服務為我們播放的播放列表,我們的社交媒體帳戶認為我們希望與之成為朋友的人。
# 界面/圖表報表/文檔/IDE等千款熱門軟控件火熱銷售中 >>
現在算法已成為日常生活中不可或缺的一部分。算法會為我們提供建議,這些建議是我們的GPS建議我們開車去的路線,我們選擇的音樂流媒體服務為我們播放的播放列表,我們的社交媒體帳戶認為我們希望與之成為朋友的人。
但是,諸如2018年Cambridge Analytica和Facebook丑聞之類的爭議使我們對與數據捕獲,分析和利用方式有關的道德準則進行了三思。
數據和可用于挖掘它們的算法不是敵人。每天與自己選擇的智能家居設備對話的任何人都可以證明,負責任地收集和挖掘數據可以改善我們的生活。但是一切都應該在確保隱私得到保護的情況下,應該是符合道德的開發,想要實現這一目標的關鍵是透明度機制。
在2016年,研究安德魯·塔特(Andrew Tutt)呼吁采用“ FDA演算法”,
“日益復雜的算法的興起要求人們對如何最好地預防,阻止和補償其造成的危害進行批判性思考。算法監管將需要聯邦統一性,專家判斷,政治獨立性和上市前審查來預防-而不扼殺創新 –將不可接受的危險算法引入市場”。
代替現有的權威,可以看一下機器學習的公平性,問責制和透明度所創建的開發原則,以幫助開發人員和產品經理以公開負責的方式設計和實現算法系統:
為算法決策系統對個人或社會的不利影響提供外部可見的補救途徑,并為負責及時解決此類問題的人員指定內部角色。
確??梢砸苑羌夹g性的方式向最終用戶和其他利益相關者解釋算法決策以及驅動這些決策的任何數據。
在整個算法及其數據源中識別,記錄和闡明錯誤和不確定性的來源,以便可以理解預期和最壞情況的影響并為緩解程序提供信息。
通過提供可進行監視,檢查或批評的信息,包括提供詳細的文檔,技術上合適的API和允許的使用條款,使感興趣的第三方能夠探查,理解和審查算法的行為。
在跨不同受眾特征(例如種族,性別等)進行比較時,請確保算法決策不會產生歧視性或不公正的影響。
可以肯定地說,算法并不會像人類一樣會出現例如疲勞這一類的錯誤,但是使用算法進行決策存在局限性,這進一步強調了負責任的開發的重要性。透明度和“黑匣子”效應通常被認為是算法的局限性,對于研究人員來說,了解他們打算使用的任何算法的工作原理,了解其是否適合目的尤其重要。
機器學習算法經過訓練,可以根據并非總是具有代表性的數據提出建議,因此,系統性偏差可能會被忽略,并且會隨著時間的流逝而擴散。在研究環境中控制所有數據的要素至關重要。出于同樣的原因,當計算機崩潰或我們生活中的另一臺設備出現故障時,我們常常會感到驚訝-我們傾向于將算法視為無懈可擊。但是,重要的是要了解它們的平均性能,并且只能進一步強調研究環境中對透明度和控制的需求。
表面上部署好算法的恐怖故事不乏其人,只是產生了相當負面的結果。例如,2016年,Microsoft的工程師創建了一個名為“ Tay”的Twitter機器人,該機器人由算法驅動,使其能夠根據發布的推文對“千禧一代”做出回應。然而,在數小時之內,Tay在推特上發布了種族主義,性別歧視和否認大屠殺的推文,證明了這項技術是容易犯錯的,它只是學習了然后反映了目標受眾的性別歧視和種族主義偏見。
2017年初,亞馬遜的Alexa智能家居設備成為頭條新聞,當時達拉斯的一名6歲女孩在與該設備進行了關于她對這些東西的愛的交談之后,能夠為自己訂購160美元的玩具屋和一罐餅干。隨著這個故事在全國范圍內引起了人們的關注,據報道,基于收聽電視新聞報道,Alexa設備為其他家庭下了同樣的訂單。
這些示例說明了需要特別注意針對機器學習開發的算法,以及開發負責人在確保限制意外后果方面所起的作用。
對于在工作中使用該技術的研究人員,人工智能提出了“黑匣子”的概念。但是,只要開發人員將透明性和研究人員的控制原則結合起來,軟件就可以成為盟友并被視為研究助手。而在QSR,也將繼續以我們的研究基礎開發這些工具,以使其更加準確,透明,并最終改善研究人員的工作壽命。
慧都為您傾情推薦算法專題>>,更多有關算法的軟件和資訊,請點擊在線客服
本站文章除注明轉載外,均為本站原創或翻譯。歡迎任何形式的轉載,但請務必注明出處、不得修改原文相關鏈接,如果存在內容上的異議請郵件反饋至chenjj@fc6vip.cn
文章轉載自: