人民日報點名WPS:辦公軟件濫用隱私?AI訓練要守住底線
-
收藏
0
來源:人民日報評論
“我們將對您主動上傳的文檔材料,在采取脫敏處理后作為AI訓練的基礎材料使用”……近日,辦公軟件WPS在其隱私政策中的表述被質疑濫用用戶隱私,引發關注。隨后,其官方向用戶致歉,并承諾用戶文檔不會被用于人工智能訓練目的。
類似現象不是孤例,今年早些時候,一款基于生成式人工智能的攝影軟件“妙鴨相機”,也因存在濫用用戶信息的嫌疑而引發用戶批評。如今,隨著以大語言模型為代表的生成式人工智能技術的快速發展,相關應用層出不窮。一邊是“嗷嗷待大量數據以哺”的人工智能,另一邊是越發重視個人信息保護的用戶,如何善用數據,考驗全社會數據治理的能力和成效,事關萬千網民的切身利益。
必須將保護用戶隱私和信息安全置于更重要的位置。不少人經歷過:生活中說了句話、搜索了個關鍵詞、開了一會兒“位置”,手機里的各種APP就會精準推送廣告、“熟悉的人”,自己仿佛瞬間成了透明人。大數據時代,我們越發真切感受到,日常生活的“智能”越來越突出,“安全”有時卻成為稀缺品。
越是一切都可以數字化、被收集、能分析,越要劃出底線,筑起信息安全的堤壩,給用戶選擇甚至說“不”的權利。生成式人工智能也不例外,其發展初衷就是為了造福民眾。倘若在一開始的數據收集和訓練階段就濫用用戶隱私,豈非與目的背道而馳?今年7月,我國出臺《生成式人工智能服務管理暫行辦法》,明確“不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益”,強調開展訓練數據處理活動“涉及個人信息的,應當取得個人同意或者符合法律、行政法規規定的其他情形”。原則已經明確,紅線已經劃出,需要相關從業者嚴格遵守、自覺踐行。
當然,嚴格保護并不意味著“一刀切”地禁止。有人把數據比作信息時代的“石油”,把算力比作最重要的“基礎設施”,足以說明其重要性。特別是對于生成式人工智能來說,海量的數據“投喂”,才能培養出更聰明、更先進的版本。特別是,在網絡世界,中文數據特別是高質量中文數據,與英文等其它語言的數據相比,仍有差距,這可能成為發展生成式人工智能的一個先天劣勢。也只有在依法、科學的前提下,充分挖掘各類中文數據資源的價值,補短板、鍛長板,才能確保我國在生成式人工智能等前沿領域,無論是研究還是應用層面,取得領先。
發展和安全,從來不必然是矛盾的、對立的。當前,全球不少科學家、企業家都呼吁在生成式人工智能領域“慢下來”,這不是為了停滯技術進步,而是希望與之相關的隱私保護、科學倫理、法律制度等能夠盡快“趕上來”。在我國,更好統籌發展和安全,一直是處理這類問題的一個基本遵循。無論是監管者還是從業者,更好把握發展與安全的辯證法,平衡好各方面利益,才能推動生成式人工智能健康可持續發展。相信在人類智慧的把控下,我們一定能用好技術這把“雙刃劍”,趨利避害,讓“甘蔗”實現“兩頭甜”。
免責聲明:本網站所有文章僅作為資訊傳播使用,既不代表任何觀點導向,也不構成任何投資建議。】
猜你喜歡
人民日報點名WPS:辦公軟件濫用隱私?AI訓練要守住底線
“我們將對您主動上傳的文檔材料,在采取脫敏處理后作為AI訓練的基礎材料使用”……近日,辦公軟件WPS在其隱私政策中的表述被質疑濫用用戶隱私,引發關注。隨后,其官方向用戶致歉,并承諾用戶文檔不會被用于人工智能訓練目的。
派財經
共980篇文章
聚焦數字經濟融媒體平臺。