近日,互聯網安全領域的活躍分子向英國通信監管機構Ofcom發出了一份緊急呼吁,要求該機構對人工智能(AI)在關鍵風險評估中的使用進行嚴格限制。這一呼吁的背景是,社交媒體巨頭meta公司宣布計劃將風險評估流程自動化,這一消息引發了廣泛的關注和擔憂。
Ofcom在收到呼吁后表示,他們正在密切關注此事。此前,一份報告指出,meta公司旗下的Facebook、Instagram和WhatsApp等平臺,預計將有高達90%的風險評估工作由AI系統完成。這一消息引發了Ofcom對于AI在關鍵安全領域應用的深入思考。
根據英國的《在線安全法案》,社交媒體平臺有責任評估平臺上可能出現的傷害風險,并采取相應的緩解措施,特別是要保護兒童用戶免受傷害,并防止非法內容的傳播。風險評估流程被視為該法案的重要組成部分,對于維護網絡環境的健康和安全至關重要。
莫莉?羅斯基金會、國家防止虐待兒童協會和互聯網觀察基金會等多個組織,聯合向Ofcom的首席執行官梅蘭妮?道斯致信,表達了對AI驅動風險評估的擔憂。他們在信中稱,這種自動化風險評估是一種“倒退且令人高度擔憂的舉措”,并敦促Ofcom公開聲明,完全或主要通過自動化生成的風險評估通常不應被視為符合法案要求的“合適且充分”標準。
這些組織還要求Ofcom對平臺可能試圖簡化風險評估流程的假設提出質疑,以確保網絡環境的持續安全和穩定。
Ofcom的一位發言人回應稱,他們已明確要求相關服務提供方告知風險評估的完成、審查和批準情況。他們正在認真考慮這封信中提出的關切,并將在適當的時候作出回應。
然而,meta公司對此呼吁表示了不同意見。他們回應稱,這封信故意歪曲了公司在安全方面的立場。meta表示,他們一直致力于遵守法規并保持高標準的安全措施。他們強調,公司并沒有使用AI來做出風險決策,而是開發了一種工具來幫助團隊識別特定產品是否符合法律和政策要求。
meta的發言人指出,他們在人類監督下使用技術,以提高管理有害內容的能力,并強調公司的技術進步顯著改善了安全結果。然而,一些業內人士對此表示懷疑,認為AI自動化風險評估可能會降低識別的準確性,從而給用戶帶來更高的風險。
值得注意的是,此前美國國家公共廣播電臺曾報道,meta計劃通過AI系統審批其算法更新和新的安全功能,而不再由員工進行審查。這一消息引發了更多的擔憂和爭議。一位匿名的meta前高管表示,這種改變將使公司能夠更快地推出應用更新和新功能,但可能會增加潛在問題的風險。
NPR還報道稱,meta正在考慮將青少年風險和虛假信息傳播監測等敏感領域的審查流程自動化。這一消息進一步加劇了公眾對于AI在關鍵安全領域應用的擔憂和質疑。
在當前的互聯網環境下,如何確保網絡環境的健康和安全是一個備受關注的問題。AI自動化風險評估雖然可以提高效率,但也可能帶來潛在的風險和挑戰。因此,監管機構、企業和公眾需要共同努力,尋求更加安全、有效的風險評估方式,以確保網絡環境的持續穩定和健康發展。