AIGC“堵漏洞”通信

                  北京商報 2023-05-10 10:23
                  分享到:
                  導讀

                  ChatGPT打開了人工智能的新大門,也打開了潘多拉的魔盒,一段時間以來,關于人工智能生成內容以假亂真、數據泄露以及侵權的風險被進一步放大。5月9日,作為內容平臺方的抖音開出了自己的藥方――貼“水印”,明確發布者應對人工智能生成內容進行顯著標識。

                  ChatGPT打開了人工智能的新大門,也打開了潘多拉的魔盒,一段時間以來,關于人工智能生成內容以假亂真、數據泄露以及侵權的風險被進一步放大。5月9日,作為內容平臺方的抖音開出了自己的藥方――貼“水印”,明確發布者應對人工智能生成內容進行顯著標識。而這份倡議也成為一個月前國家互聯網信息辦公室發布的《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》)更為落地的版本。

                  顯著標識

                  人工智能是一把雙刃劍,ChatGPT的出現與爆火,更強化了AIGC的這一屬性。對此,面向創作者、主播、用戶、商家、廣告主等平臺生態參與者,抖音發出了一份關于人工智能生成內容的平臺規范暨行業倡議。

                  抖音要求,在抖音應用生成式人工智能技術時,發布者應對人工智能生成內容進行顯著標識,幫助其他用戶區分虛擬與現實,特別是易混淆場景。同時,發布者需對人工智能生成內容產生的相應后果負責,無論內容是如何生成的。

                  虛擬人也被囊括在內。抖音提到,虛擬人需在平臺進行注冊,虛擬人技術使用者需實名認證。抖音表示,禁止利用生成式人工智能技術創作、發布侵權內容,包括但不限于肖像權、知識產權等。同時,禁止利用生成式人工智能技術創作、發布違背科學常識、弄虛作假、造謠傳謠的內容。

                  “各生成式人工智能技術的提供者,均應對生成內容進行顯著標識,以便公眾判斷。同時使用統一的人工智能生成內容數據標準或元數據標準,便于其他內容平臺進行識別。”倡議提到。

                  為配合倡議,當天,抖音還發布了人工智能生成內容標識的水印與元數據規范。據悉,標識元數據規范即通過規范人工智能生成內容的元數據格式,在相關圖片和視頻元數據中寫入信息,達到行業通用識別的效果。

                  大約一個月以前,國家互聯網信息辦公室起草了《管理辦法》,明確表示,利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息。

                  值得一提的是,5月10日及為意見反饋的截止時間。如果《管理辦法》獲得通過,這也意味著中國將正式開啟對AIGC的專門監管。

                  北京社科院研究員王鵬分析稱,比起此前的《管理辦法》,抖音的這份倡議更為落地,讓更多相關人員參與其中,尤其是針對平臺上的大量創作者和使用者,督促大家能夠遵守相關的規定,提前防范化解可能存在的風險。

                  真假難辨

                  AIGC伴隨著風險,幾乎已經成了全球共識。5月的第一天,全球人工智能的“高光”聚焦在了號稱“人工智能教父”的杰弗里?辛頓身上。當天,《紐約時報》率先曝出辛頓從谷歌離職。辛頓坦言,他之所以離開谷歌,就是為了完全自由地說出人工智能所帶來的危險。

                  蘋果公司聯合創始人史蒂夫?沃茲尼亞克也曾表達過他對人工智能散布虛假信息的關切,“如果有人想騙你,利用人工智能技術,欺騙就會變得簡單得多”。

                  鬧劇早有預演。此前,喬治華盛頓大學一名法學院教授就莫名成了“性騷擾者”,原因在于ChatGPT生成的一份“有性騷擾歷史的法學學者”名單中,這位教授就在其中。而在今年2月,一則關于“杭州市政府將于3月1日取消機動車尾號限行政策”的消息也在網絡瘋傳。但隨后杭州警方證實,該消息為ChatGPT寫的假新聞。

                  王鵬表示,生成式人工智能依托于大模型訓練,在某些應用領域中發揮了重要的作用,甚至在一些情況下能夠達到相對專業人員的水平,足以以假亂真。因此從傳播、社交及娛樂等角度出發,尤其是在內容平臺上,就容易產生一定的問題。

                  瑞萊智慧深耕于AI安全領域,針對生成式人工智能內容的虛實難辨,瑞萊智慧聯合創始人蕭子豪以ChatGPT舉例稱,技術方面,有一些方法被提出,比如針對合成文本的鑒別、數字水印等,但還存在難點。

                  機器與人類撰寫的文本差異性特征較少,機器合成文本的結果無論從結構和語義角度都能較好地遵循人類書寫的規則,同時一個真人說話的方式也可能是多變的、結構有誤的,因此很難單純從文本本身就鑒別出是否由ChatGPT生成。另外,數字水印需要ChatGPT在生成內容時即添加水印,需要考慮到技術實現問題。

                  “從這一點來說,生成式人工智能,無論是音頻、視頻還是與虛擬人、數字人技術的結合,都可能帶來一定的風險,需要有關部門、平臺方加強監管,讓生成式人工智能更好地服務人類社會的相關產業,提質降本增效。”王鵬稱。

                  監管在追

                  眼下,監管對生成式人工智能的關注已經在全球范圍蔓延。幾天前,美國白宮剛剛重磅宣布首個AI監管計劃,美國國家科學基金會計劃撥款1.4億美元,用于啟動7所新的國家人工智能研究院。

                  緊接著,美國總統拜登就出席了在白宮舉行的一個人工智能會議,會見包括谷歌、微軟和OpenAI在內的頂級AI公司的首席執行官。

                  會后,美國副總統哈里斯在一份聲明中表示,AI技術有可能改善生活,但也可能會帶來安全、隱私和公民權利方面的擔憂。她告訴這些科技公司的高管,他們有責任確保其AI產品的安全,政府對AI方面的立法持開放態度。

                  英國競爭與市場管理局也確認,該部門正在對人工智能市場展開評審,其中也包括大語言模型、生成式人工智能在內的基礎模型。而在上個月,歐洲議會成員也就《人工智能法案》達成提案,對AI模型提出更嚴格監管要求。

                  天使投資人、知名互聯網專家郭濤認為,當前,AIGC產業監管方面存在相關法律法規與標準體系不健全、缺乏多部門協同的自上而下的監管體系、監管技術手段落后等突出問題,政府有關部門需要盡快建立健全AIGC研發與應用相關法律法規和標準體系,建立或完善倫理審查制度和監管體系,加強對科技企業、應用場景、使用者的監管,搭建多方參與協同治理平臺,推動AIGC產業健康可持續發展。

                  “生成式人工智能的監管也存在一些難點問題,比如平臺方如何進行責任界定,內容如何確定到底出自真實的人類還是人工智能,以及取證難等。”不過王鵬補充稱,監管和創新技術、創新模式之間永遠都是一個跟和被跟的關系,一定是先有技術,然后產生風險,再去規范。有了監管,有了倡議,也就能更有利于行業的發展。

                  (文章為作者獨立觀點,不代表艾瑞網立場)
                  人工智能 生成 內容 監管 技術
                  分享到:

                  1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
                  2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
                  3.作者投稿可能會經TMT觀察網編輯修改或補充。