您的位置:首頁 > 資訊 >

全球今日報丨在意大利恢復上線,但 OpenAI 的麻煩才剛剛開始

5 月 7 日消息,在剛剛過去的一周,OpenAI 已經成功安撫了意大利監(jiān)管機構,促使其解除了對聊天機器人 ChatGPT 的臨時禁令,但這家人工智能研究公司與歐洲監(jiān)管機構的斗爭仍未結束,更多挑戰(zhàn)才剛剛開始。

今年早些時候,OpenAI 廣受歡迎但備受爭議的聊天機器人 ChatGPT 在意大利遭遇了一個重大的法律障礙,意大利數據保護局 (GPDP) 指控 OpenAI 違反歐盟數據保護規(guī)則。為了試圖解決問題,該公司同意限制在意大利使用該服務。


(資料圖片僅供參考)

4 月 28 日,ChatGPT 重新在意大利上線,OpenAI 輕松解決了意大利數據保護局的擔憂,而沒有對其服務做出重大改變。這對 OpenAI 來說是一次明顯的勝利。

雖然意大利數據保護局對 ChatGPT 所做的改變表示“歡迎”,但 OpenAI 以及其他開發(fā)聊天機器人公司所面臨的法律挑戰(zhàn)可能才剛剛開始。多個國家的監(jiān)管機構正在調查這些人工智能工具收集數據和生成信息的方式,理由包括收集未經許可的培訓數據、聊天機器人傾向于發(fā)出錯誤信息等。

歐盟已經開始執(zhí)行《通用數據保護條例》(GDPR),這是世界上最強大的隱私法律框架之一,其影響可能會遠遠超出歐洲。與此同時,歐盟立法者正在制定一項專門針對人工智能的法律,這也很可能會開啟對 ChatGPT 等系統(tǒng)進行監(jiān)管的新時代。

ChatGPT 成為多方關注目標

ChatGPT 是生成式人工智能(AIGC)中備受關注的應用之一,涵蓋了根據用戶提示生成文本、圖像、視頻和音頻等多種工具。據報道,ChatGPT 在 2022 年 11 月推出僅兩個月后,月活躍用戶就達到了 1 億人,成為歷史上增長最快的消費者應用之一。

借助 ChatGPT,人們可以將文本翻譯成不同的語言、撰寫大學論文,甚至生成代碼。但一些批評者,包括監(jiān)管機構在內,指出 ChatGPT 輸出的信息并不可靠,存在版權問題,并且在保護數據方面有缺陷。

意大利是第一個對 ChatGPT 采取行動的國家。3 月 31 日,意大利數據保護局指控 OpenAI 違反了《通用數據保護條例》:允許 ChatGPT 提供不準確或誤導性信息、未向用戶通知數據收集做法、未遵守個人數據處理的法規(guī),以及未能充分防止 13 歲以下兒童使用該服務。意大利數據保護局命令 OpenAI 立即停止在 ChatGPT 的訓練數據中使用從意大利公民那里收集的個人信息。

目前,其他國家尚未采取類似的大動作。但自 3 月份以來,至少有三個歐盟國家 —— 德國、法國和西班牙,對 ChatGPT 展開了自己的調查。與此同時,在大西洋彼岸,加拿大正在根據其《個人信息保護和電子文件法案》(PIPEDA) 評估 ChatGPT 的隱私問題。歐洲數據保護委員會 (EDPB) 甚至成立了專門的工作組來協(xié)調調查。如果這些機構要求 OpenAI 做出改變,可能會影響該公司為全球用戶提供服務的方式。

監(jiān)管機構有兩大擔憂

監(jiān)管機構對 ChatGPT 的最大擔憂主要分為兩類:訓練數據從何而來?OpenAI 如何向用戶傳遞信息?

為了支持 ChatGPT,OpenAI 需要使用 GPT-3.5 和 GPT-4 大型語言模型 (LLM),這些模型是針對大量人工生成的文本進行訓練的。OpenAI 對究竟使用了哪些訓練文本始終保持謹慎,但表示利用了“各種授權的、公開可用的數據源,其中可能包括公開可用的個人信息”。

根據《通用數據保護條例》的規(guī)定,這可能會帶來巨大問題。該法律于 2018 年頒布,涵蓋了收集或處理歐盟公民數據的所有服務,無論提供服務的組織總部設在哪里?!锻ㄓ脭祿Wo條例》要求公司在收集個人數據之前必須獲得用戶的明確同意,收集這些數據必須有法律上的正當理由,并對這些數據的使用和存儲方式保持透明。

歐洲監(jiān)管機構聲稱,OpenAI 訓練數據的保密性意味著他們無法確認其使用的個人信息是否最初獲得了用戶的同意。意大利數據保護局辯稱,OpenAI 從一開始就沒有收集這些信息的“法律依據”。到目前為止,OpenAI 和其他公司幾乎沒有受到審查。

另一個問題是《通用數據保護條例》的“被遺忘權”,它允許用戶要求公司更正他們的個人信息或將其完全刪除。OpenAI 提前更新了其隱私政策,以方便回應這些請求。但考慮到一旦將特定數據輸入到這些大型語言模型中,分離可能會非常復雜,是否在技術上可行始終存在爭議。

OpenAI 還直接從用戶那里收集信息。就像其他互聯網平臺一樣,它會收集一系列標準的用戶數據,例如姓名、聯系方式和信用卡詳細信息等。但更重要的是,OpenAI 會記錄用戶與 ChatGPT 的互動。正如官網所述,OpenAI 的員工可以查看這些數據,并將其用于培訓其模型??紤]到人們向 ChatGPT 提出的私人問題,例如將該機器人視為治療師或醫(yī)生,這意味著該公司正在收集各種敏感數據。

在這些數據中,可能包括未成年人的信息。盡管 OpenAI 的政策規(guī)定,它“不會故意從 13 歲以下的兒童那里收集個人信息”,但沒有嚴格的年齡驗證門檻。這不符合歐盟的規(guī)定,該規(guī)定禁止從 13 歲以下未成年人那里收集數據,并且在某些國家要求搜集 16 歲以下未成年人的信息需獲得其父母的同意。在輸出方面,意大利數據保護局聲稱,ChatGPT 缺乏年齡過濾器,使未成年人“在他們的發(fā)育程度和自我意識方面得到了絕對不合適的回應”。

OpenAI 在使用這些數據方面擁有很大的自由度,這讓許多監(jiān)管機構感到擔憂,而且存儲這些數據存在安全風險。三星和摩根大通等公司已經禁止員工使用 AIGC 工具,因為擔心他們會上傳敏感數據。實際上,在意大利發(fā)布禁令前,ChatGPT 曾遭遇嚴重數據泄露事件,導致大量用戶的聊天歷史和電子郵件地址曝光。

此外,ChatGPT 提供虛假信息的傾向也可能帶來問題?!锻ㄓ脭祿Wo條例》規(guī)定,所有個人數據必須準確,意大利數據保護局在公告中強調了這一點。這可能會給大多數人工智能文本生成器帶來麻煩,因為這些工具很容易出現“幻覺”,即對查詢給出事實不正確或無關的回應。這在其他地方已經引起了一些現實問題,例如澳大利亞一名市長威脅要起訴 OpenAI 誹謗,因為 ChatGPT 謊稱他曾因賄賂入獄。

專門的監(jiān)管規(guī)則即將出臺

ChatGPT 因其受歡迎程度和人工智能市場的主導地位,特別容易成為監(jiān)管目標。但與谷歌的 Bard 和微軟與 OpenAI 支持的 Azure AI 等競爭對手和合作伙伴一樣,它沒有理由不接受審查。在 ChatGPT 之前,意大利已禁止聊天機器人平臺 Replika 收集未成年人信息。到目前為止,該平臺仍被禁止。

雖然《通用數據保護條例》是一套強大的法律,但它并不是為了解決人工智能特有的問題而制定的。然而,專門的監(jiān)管規(guī)則可能即將出臺。2021 年,歐盟提交了其《人工智能法案》(AIA) 首個版本的草案,該法案將與《通用數據保護條例》一起實施。《人工智能法案》將根據人工智能工具的風險大小對其進行監(jiān)管,從“最小風險”(如垃圾郵件過濾器) 到“高風險”(用于執(zhí)法或教育的人工智能工具) 再到“不可接受風險”(如社會信用體系)。

在像 ChatGPT 這樣的大型語言模型出現爆炸式增長后,立法者現在正爭先恐后地為“基礎模型”和“通用人工智能系統(tǒng) (GPAI)”增加規(guī)則。這兩個術語指的是包括 LLM 在內的大規(guī)模人工智能系統(tǒng),并可能將它們歸類為“高風險”服務。

《人工智能法案》的規(guī)定超出了數據保護的范疇。最近提出的一項修正案將迫使公司披露用于開發(fā) AIGC 工具的任何受版權保護的材料。這可能會暴露曾被保密的數據集,并讓更多公司容易受到侵權訴訟的影響,這些訴訟已經對部分服務造成影響。

專門 AI 法律或到 2024 年底通過

目前來看,實施這項法案可能還需要一段時間。歐盟立法者已于 4 月 27 日達成了一項臨時人工智能法案協(xié)議,但還需要一個委員會在 5 月 11 日對草案進行投票,最終提案預計將于 6 月中旬公布。然后,歐洲理事會、歐盟議會和歐盟委員會將不得不在實施該法律之前解決任何剩余的爭端。如果一切順利,它可能會在 2024 年下半年通過。

就目前而言,意大利和 OpenAI 之間的爭執(zhí)讓我們初步了解了監(jiān)管機構和人工智能公司可能會如何談判。意大利數據保護局表示,如果 OpenAI 在 4 月 30 日之前滿足幾項提議的決議,它就會解除禁令。

這些決議包括告知用戶 ChatGPT 如何存儲和使用他們的數據,要求征得用戶明確同意才能使用這些數據,為糾正或刪除 ChatGPT 生成的虛假個人信息提供便利,并要求意大利用戶在注冊賬戶時確認自己已超過 18 歲。盡管 OpenAI 沒有達到這些規(guī)定,但它已經滿足了意大利監(jiān)管機構的要求,并恢復了在意大利的訪問權限。

OpenAI 仍需滿足其他條件,包括在 9 月 30 日之前建立更嚴格的年齡門檻,過濾掉 13 歲以下的未成年人,并要求年齡較大的未成年青少年獲得父母同意。如果失敗,OpenAI 可能會再次被封禁。不過,OpenAI 似乎已經做出了榜樣,表明歐洲認為人工智能公司的行為是可以接受的,至少在新法律出臺之前是這樣的。

標簽:

相關閱讀