自GPT-4上線之后,各國對于AI帶來的安全問題愈發(fā)重視,紛紛進行調(diào)查或出臺政策?;驗榫徑馔饨鐡鷳n,4月6日,ChatGPT的開發(fā)公司OpenAI在其官網(wǎng)發(fā)布《Our approach to AI safety》(《我們保障AI安全的方法》)一文,表示未來將通過多種方式確保AI的安全使用。
該文涵蓋了保障AI安全的六個舉措,包括構(gòu)建日益安全的系統(tǒng)、根據(jù)實踐經(jīng)驗改善AI、保護兒童、尊重隱私、提高事實準確性及持續(xù)地研究與參與。
文章在“保護兒童”一項中提到,OpenAI的用戶必須“年滿18周歲”或者“年滿13周歲且在父母同意的情況下”才能使用公司的AI工具,具體的驗證方式正在研究中。
(相關(guān)資料圖)
OpenAI不允許其技術(shù)被用于生成仇恨、騷擾、暴力或成人內(nèi)容,相比GPT-3.5,GPT-4響應(yīng)禁止內(nèi)容請求的可能性降低了82%。同時,OpenAI將做出最大努力,減少有害兒童內(nèi)容的生成:如當用戶試圖將兒童性虐待材料上傳到圖像工具時,OpenAI會阻止并向美國國家失蹤與受虐兒童援助中心報告。
隱私方面,OpenAI承諾將不會使用數(shù)據(jù)來銷售服務(wù)、投放廣告或建立用戶數(shù)據(jù)庫,并致力于在可行情況下從訓練數(shù)據(jù)集中刪除個人信息,微調(diào)模型以拒絕對私人信息的請求,響應(yīng)用戶從OpenAI系統(tǒng)中刪除個人信息的請求。
在“提高事實準確性”方面,OpenAI表示,通過用戶的錯誤報告反饋,GPT-4的事實內(nèi)容準確性較GPT-3.5提高40%。OpenAI將盡可能做到透明,讓公眾知道ChatGPT給出的答案不是百分百準確的,了解AI工具的局限性。
自ChatGPT發(fā)布以來,在全世界范圍內(nèi)引發(fā)了一場人工智能狂熱,全球科技巨頭爭相布局。而僅僅四個月后,功能更強大的GPT-4就宣布問世,其迭代速度之快令人咋舌,對技術(shù)安全問題的擔憂也隨之出現(xiàn)。
事實上,ChatGPT帶來的數(shù)據(jù)泄露問題已經(jīng)開始顯現(xiàn)。此前有用戶反映,自己的聊天歷史欄中出現(xiàn)了別人的聊天歷史;據(jù)媒體報道,三星半導(dǎo)體業(yè)務(wù)部門在引入ChatGPT后的20天內(nèi)出現(xiàn)3起機密文件外泄事故。
3月31日,意大利成為第一個“封殺”ChatGPT的國家,該國將全面禁止使用ChatGPT并開始立案調(diào)查。意大利方面指出,ChatGPT沒有就收集處理用戶信息進行告知,沒有任何年齡核實系統(tǒng),可能導(dǎo)致未成年人接觸到非法信息。
隨后,德國聯(lián)邦數(shù)據(jù)保護專員發(fā)言人也表示,暫時禁止在德國使用ChatGPT原則上是可能的。加拿大隱私專員辦公室官網(wǎng)也宣布開始調(diào)查有關(guān)“OpenAI未經(jīng)同意收集、使用和披露個人信息”的指控。
除了信息泄露、非法信息等問題,AI發(fā)展是否會對人類發(fā)展構(gòu)成威脅的爭論也已開始。
3月29日,特斯拉CEO馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克在內(nèi)的上千名各界知名人士簽署聯(lián)名信,呼吁全球所有機構(gòu)暫停訓練比GPT-4更強大的AI至少六個月。他們認為近幾個月AI的數(shù)字思維開發(fā)得越來越強大,競爭逐漸失序,但管理和規(guī)劃仍然缺位,包括創(chuàng)造者在內(nèi),沒有人可以理解、預(yù)測或控制它們。
公開信建議稱,AI實驗室和獨立學者應(yīng)針對高級AI的設(shè)計和開發(fā)共同制定實施一套共享安全協(xié)議,確保AI的安全性。與此同時,AI開發(fā)人員必須與決策者合作,大力推進強有力的AI治理系統(tǒng)的發(fā)展。
不過亦有人工智能領(lǐng)域?qū)<抑肛熉?lián)名信把AI的威脅夸大了,“將想象中的‘世界末日’情景強加于人工智能”。360創(chuàng)始人周鴻祎也聲稱,“GPT將引領(lǐng)一場新的工業(yè)革命,帶來生產(chǎn)力的大幅提升,現(xiàn)在擔心風險為時尚早?!?/p>(責任編輯:冀文超 )
關(guān)鍵詞: