近日,科技新聞平臺404Media披露了一則關(guān)于維基媒體基金會(Wikimedia Foundation)的決策變動。據(jù)悉,該基金會已決定暫停一項(xiàng)旨在測試人工智能(AI)文章摘要功能的試驗(yàn),此舉是在遭遇維基百科編輯群體的強(qiáng)烈反對后作出的。
原本,維基媒體基金會計(jì)劃在移動版維基百科應(yīng)用中,開展一項(xiàng)為期兩周的自愿試驗(yàn),意在檢驗(yàn)基于Cohere開源AI模型Aya開發(fā)的文章摘要功能。然而,這一提議在編輯社區(qū)內(nèi)引發(fā)了廣泛爭議。
編輯們紛紛在相關(guān)討論頁面上表達(dá)不滿,言辭之激烈,不乏“惡心”、“最強(qiáng)烈的反對”及“絕對不行”等直接批評。一位編輯甚至警告稱,引入AI摘要可能會對讀者體驗(yàn)和維基百科的公信力造成“即時(shí)且難以挽回的損害”。
面對如此強(qiáng)烈的反對聲浪,維基媒體基金會最終決定暫停該項(xiàng)目。基金會高級總監(jiān)Marshall Miller在技術(shù)討論頁面上承認(rèn),團(tuán)隊(duì)在提出這一想法時(shí)溝通不足,并對社區(qū)的反饋表示充分理解。
編輯們的擔(dān)憂并非沒有依據(jù)。有編輯指出,維基百科之所以廣受信賴,正是因?yàn)槠鋬?nèi)容的冷靜與可靠性,而非追求表面的華麗效果。AI摘要的引入,可能會破壞這一核心特質(zhì)。
還有編輯擔(dān)心AI會破壞維基百科的協(xié)作模式。他們強(qiáng)調(diào),維基百科的內(nèi)容之所以優(yōu)質(zhì),得益于人類編輯的“集體智慧”。而AI,作為一個(gè)“單一編輯”,存在可靠性和中立性問題,這些問題可能會對讀者的信任產(chǎn)生負(fù)面影響。
此次事件再次凸顯了維基百科作為開放編輯平臺的獨(dú)特性,以及編輯群體在維護(hù)平臺內(nèi)容質(zhì)量和公信力方面的重要作用。