摘要: 在過去的幾年裡,機器學習和人工智能在準確性方面取得了巨大的進步。然而,受監管的行業(如銀行)仍然猶豫不決,往往優先考慮法規遵從性和算法解釋的準確性和效率。有些企業甚至認為這項技術不可信,或者說是危險的。

 


火爆的機器學習和人工智能,為何在金融業四處碰壁?

作者:靜態不靜芷

在過去的幾年裡,機器學習和人工智能在準確性方面取得了巨大的進步。然而,受監管的行業(如銀行)仍然猶豫不決,往往優先考慮法規遵從性和算法解釋的準確性和效率。有些企業甚至認為這項技術不可信,或者說是危險的。

在2008年金融危機期間,銀行業認識到,他們的機器學習算法是基於有缺陷的假設。因此,金融體系監管機構決定需要額外的控制措施,並引入了對銀行和保險公司進行“模式風險”管理的監管要求。

銀行也必須證明他們理解他們所使用的模型,所以,令人遺憾但是可以理解的是,他們有意地限制了他們技術的複雜性,採用了簡單和可解釋性高於一切的廣義線性模型。

如果你想建立對機器學習的信任,可以嘗試像人一樣對待它,問它同樣的問題。

為了信任AI和機器學習提供的建議,來自所有行業的企業需要努力更好地理解它。數據科學家和博士不應該是唯一能夠清楚地解釋機器學習模型的人,因為正如AI理論家Eliezer Yudkowsky所說的那樣:“到目前為止,人工智能的最大危險在於人們過早地認為他們了解這項技術。

信任需要人為的方法

當數據科學家被問及機器學習模型是如何作出決定的時候,他們傾向於使用複雜的數學方程式去解答,使得外行人目瞪口呆,也不知道可以如何信任這個模型。以與人類決策相同的方式來處理機器學習決策,會不會更有成效?正如Udacity聯合創始人塞巴斯蒂安·特倫(Sebastian Thrun)曾經說的:“人工智能幾乎算得上是一門人文學科。 這實際上是一種理解人類智力和人類認知的嘗試。”

所以,不要用複​​雜的數學方程來確定信貸員員如何做出決定,而只是簡單地問:“貸款申請表上哪些信息對您的決定最重要?或者,“什麼值表示風險的高低,以及您是如何決定接受或者拒絕一些特定的貸款申請的?

可以採用同樣的人為方法去確定算法如何做出類似的決定的。例如,通過使用稱為特性影響的機器學習技術,可以確定循環效用餘額,申請人的收入以及貸款目的是信貸員算法的前三個最重要的信息。

通過使用稱為原因代碼的能力,人們可以看出每個貸款申請人的詳細資料的估計中最重要的因素,並且通過利用稱為部分依賴的技術,可以看到該算法將較高收入貸款申請的風險等級評為較低。

客觀性,可擴展性和可預測性的價值

通過分析機器如何像人類一樣做出決策可以使人類更好地理解人工智能和機器學習,此外,人類還可以通過認識到技術的獨特能力來獲得對人工智能和機器學習信任,包括:

  • 解決可信度和數據異常值的問題:傳統統計模型通常需要假設數據是如何創建的,數據的背後的過程以及數據的可信度。然而,機器學習通過使用高度靈活的算法來消除這些限制性的假設,這些算法不會給予比它應得的更多的可信度。

  • 支持現代計算機和海量數據集:與手工流程不同,機器學習不假設世界充滿了直線。相反,它會自動調整方程式以查明最佳模式,並測試哪些算法和模式最適合獨立驗證數據(而不是僅測試所訓練的數據)。
  • 利用缺少的值預測未來:高級機器學習不是要求數小時的數據清理,而是可以構建一個藍圖,優化特定算法的數據,自動檢測缺失值,確定哪些算法不適用缺失值,尋找取代缺失值的最佳值,並使用缺失值的存在來預測不同的結果。

不要懷疑AI或機器學習的建議,讓我們通過詢問我們要求人類的相同推理問題來更好地理解它們。讓我們認識到技術在降低數據異常可信度方面的客觀能力,以及為當今海量數據提供可擴展的靈活性的能力。

也許最重要的是,讓我們承認AI和機器學習的能力,通過利用缺少的信息來更好地預測未來的結果。因為雖然技術確實足夠強大以至於需要警惕和正式的監管,但如果能夠建立一個正確的理解和信任水平,消費者和企業都只會受益。

 

End.

 

轉貼自: 36大數據


留下你的回應

以訪客張貼回應

0

在此對話中的人們

Popular Tags

每月文章