時間:2023-07-15|瀏覽:291
2021年9月3日,中國證監會科技監管局局長姚前在2021年服貿會金融服務專題展期間舉行的“2021中國國際金融科技論壇”上表示。
姚前稱,首先是算法濫用。算法規則的背后是商業利益。為了追求利益最大化,算法有可能違背社會公平、道德和人性,比如大數據殺熟,同樣的商品或服務,老客戶的價格反而比新客戶要貴。只推薦給人們能潛在帶來商業利益的東西,而不是最適合、最恰當的東西。可能濫用人性弱點,過度激發、勸服、誘導客戶,使人習慣于被喂養,不自覺地對算法投放的產品沉迷上癮。只有算法邏輯,沒有考慮人性,將人“異化”為簡單的數據、商品和工具。算法的具體原理和參數只有運營企業的少部分人才能知道,有可能產生利益侵占問題。有的企業可能利用算法作惡,比如為了擴大流量,推送聳人聽聞的虛假信息;推薦虛假產品。
其次是算法偏見。算法的數據可能不一定全面,片面的數據得到的結果必然導致某種偏見。算法的設計者是人,算法設計師乃至企業管理者、價值觀的偏見可能被嵌入算法。算法的“技術光環”容易讓人盲從所謂的“科學”,但實質上有些算法卻存在很大程度的不可解釋性,比如類似“黑箱子”的機器學習算法;機器學習算法側重于相關性分析,而不是因果分析,可能產生錯誤的勾連與判斷;基于歷史數據的機器學習算法隱含著“過去決定未來”邏輯,以歷史宿命論定義和標簽每個人,某種程度上也是一種偏見。
另外,算法鴻溝也值得重視。算法通常是隱秘的,或是專利,或是商業秘密。即便公開,也因技術門檻,也不是每個人都能看懂。這就形成新的數字鴻溝。不懂算法的人群在利益受損時有可能并不知情,即便知情,也可能無力舉證和對抗。
姚前還表示,在特定領域,算法還可能引致特定風險。比如在金融領域,智能算法給出的資產配置建議有可能是推薦了與金融機構自身利益高度攸關的產品,涉嫌利益侵占;智能算法形成信息繭房,強化投資者偏見,容易掩蓋金融風險復雜性,引誘過度消費和負債,甚至誤導投資者;智能算法若存在歧視,則損害投資者公平性;智能算法趨同導致“羊群效應”,加大金融順周期風險等。
因算法背后有一些風險,各國的監管部門高度關注算法隱含的風險。例如,歐盟《一般數據保護條例》(GDPR)第22條對自動化決策加以限制,如果某種包括數據分析在內的自動化決策會對數據主體產生法律效力或對其造成類似的重大影響,數據主體有權不受上述決策的限制。又例如,針對智能算法在投資顧問中的應用,美國證券交易委員會(SEC)、英國金融業監管局(FINRA)、澳大利亞證券和投資委員會(ASIC)出臺了具體的智能投顧監管指引。
對于中國而言,也采取也一些措施。2018年發布的《關于規范金融機構資產管理業務的指導意見》也提出,要避免智能算法順周期性風險、羊群效應等相關規定。2020年12月,中共中央印發《法治社會建設實施綱要(2020-2025年)》,提出要制定完善算法推薦、深度偽造等新技術應用的規范管理辦法,要加強對大數據、云計算和人工智能等新技術研發應用的規范引導。網信辦就《互聯網信息服務算法推薦管理規定》向社會公開征求意見指出,