您的位置:首頁(yè) > 資訊 >

中外青年熱議生成式AI的局限

近日,國(guó)家網(wǎng)信辦發(fā)布了《生成式人工智能(AI)服務(wù)管理辦法(征求意見(jiàn)稿)》,針對(duì)面向中國(guó)境內(nèi)公眾提供服務(wù)的生成式人工智能產(chǎn)品,包括其研發(fā)及服務(wù),向社會(huì)公開征求管理意見(jiàn)。


(資料圖)

生成式AI正是當(dāng)前以ChatGPT等智能聊天機(jī)器人為代表的技術(shù)。自去年11月ChatGPT發(fā)布以來(lái),其展示的與人類高度相似的對(duì)話能力引發(fā)全球關(guān)注。然而,在人們樂(lè)此不疲地實(shí)驗(yàn)和討論ChatGPT的強(qiáng)大功能,并由此感嘆其是否可能取代人類勞動(dòng)時(shí),人們是否思考過(guò)AI生成內(nèi)容的可靠性?

亦真亦假的“AI幻覺(jué)”

美國(guó)OpenAI公司發(fā)布ChatGPT時(shí)聲明,由于所使用的訓(xùn)練數(shù)據(jù)及訓(xùn)練方法的原因,ChatGPT有時(shí)會(huì)寫出聽起來(lái)很有道理但不正確或毫無(wú)意義的回答。

對(duì)此,南京大學(xué)AI學(xué)院越南籍副教授阮錦繡提到了“AI幻覺(jué)”的概念:“目前最突出的問(wèn)題之一,是我們很難控制ChatGPT的輸出,它不能被完全信任。AI提供的答案可能聽起來(lái)很正確,很流暢,但實(shí)際上是不正確的。”

AI幻覺(jué)指的是AI的一種自信反應(yīng)。當(dāng)模型有“幻覺(jué)”(輸出欺騙性數(shù)據(jù)的傾向)時(shí),其使用的訓(xùn)練數(shù)據(jù)并不能證明輸出的合理性。AI幻覺(jué)的一個(gè)危險(xiǎn)之處在于,模型的輸出看起來(lái)是正確的,而本質(zhì)上是錯(cuò)誤的。

“長(zhǎng)此以往,這種微妙的錯(cuò)誤信息可能會(huì)導(dǎo)致很多社會(huì)影響,比如改變對(duì)是非的看法。”阮錦繡表示。

AI應(yīng)用前景非常廣闊

盡管今天的AI存在諸多問(wèn)題,但在應(yīng)用領(lǐng)域,其仍具備巨大的發(fā)展?jié)摿Α?/p>

天津大學(xué)生物工程教授劉秀云表示,該校早在2018年就已經(jīng)開設(shè)了我國(guó)第一個(gè)智能醫(yī)學(xué)專業(yè)。5年之后,中國(guó)開設(shè)智能醫(yī)學(xué)專業(yè)的院校數(shù)量已經(jīng)達(dá)到幾十個(gè)。“我相信新專業(yè)的設(shè)立會(huì)推動(dòng)AI技術(shù)的發(fā)展……在過(guò)去的幾十年里,AI在醫(yī)藥領(lǐng)域獲得了廣泛的應(yīng)用。有些人正在使用虛擬現(xiàn)實(shí)和增強(qiáng)現(xiàn)實(shí)技術(shù)來(lái)改善醫(yī)生和病人之間的溝通。AI也可用于藥物研發(fā),由此節(jié)省大量的資金成本。”

北京科技大學(xué)智能科學(xué)與技術(shù)學(xué)院巴基斯坦籍教師阿力夫表示,AI已融入生活的方方面面,如人臉識(shí)別、智能家居或語(yǔ)音助手等。AI是未來(lái),因?yàn)楝F(xiàn)在這個(gè)專業(yè)以及這項(xiàng)技術(shù)是每個(gè)人都想了解的,每個(gè)人都想使用這項(xiàng)技術(shù)。

談及AI在教育領(lǐng)域的應(yīng)用,阮錦繡表示,人工智能可當(dāng)成寫作助手來(lái)使用,“我們或許沒(méi)有辦法完全禁用ChatGPT,因?yàn)閷W(xué)生總會(huì)找到一些方法去訪問(wèn)它。我們可以此設(shè)計(jì)一些測(cè)試,讓學(xué)生與ChatGPT就某些話題進(jìn)行辯論。學(xué)生必須找出ChatGPT提供答案的錯(cuò)誤之處。在這樣的練習(xí)過(guò)程中,他們可培養(yǎng)批判性思維,質(zhì)疑機(jī)器的回答是對(duì)還是錯(cuò),學(xué)生們由此可意識(shí)到,不是所有看到的信息都值得相信。”

AI難以取代人類

“人類對(duì)這個(gè)世界擁有大量的常識(shí)性知識(shí),包括物體的物理屬性、社會(huì)規(guī)范和文化背景知識(shí),這對(duì)推理和決策至關(guān)重要,開發(fā)能夠積累并使用常識(shí)性知識(shí)的AI仍是一個(gè)重大挑戰(zhàn)。”阿力夫說(shuō),目前的AI系統(tǒng)可能是不透明的,了解它們?nèi)绾巫鞒鎏囟Q定,或如何診斷它們?cè)谕评磉^(guò)程中的錯(cuò)誤十分困難。

浙江大學(xué)計(jì)算機(jī)輔助設(shè)計(jì)和計(jì)算機(jī)圖像專業(yè)博士生李志男對(duì)此表達(dá)了類似觀點(diǎn),“我不相信ChatGPT是一場(chǎng)技術(shù)上的革命,或是自然語(yǔ)言處理領(lǐng)域的技術(shù)革命……很多技術(shù)和算法在此之前就已被發(fā)明和應(yīng)用了,如各類語(yǔ)言模型、神經(jīng)機(jī)器翻譯和命名實(shí)體識(shí)別等。”

“ChatGPT的創(chuàng)新之處在于其大規(guī)模和效率。它采用了大規(guī)模的預(yù)訓(xùn)練語(yǔ)言模型并結(jié)合多類型技術(shù)和算法來(lái)達(dá)到比之前更好的效果。”李志男說(shuō),他希望未來(lái)的人工智能有推理的能力,“我不知道它是否能達(dá)到這個(gè)水平,但這是一個(gè)令人興奮的研究領(lǐng)域,它有可能徹底改變我們生活。”

劉秀云則指出,在醫(yī)藥領(lǐng)域,使用AI取代人類的工作會(huì)引發(fā)一系列的倫理問(wèn)題:比如,在醫(yī)藥領(lǐng)域,如果出現(xiàn)了事故,誰(shuí)應(yīng)該承擔(dān)責(zé)任?是AI還是醫(yī)生?另外,也存在數(shù)據(jù)安全問(wèn)題,如何確保AI保存并安全地使用數(shù)據(jù)?人們?nèi)绾问褂肁I技術(shù)提高醫(yī)療和診斷的準(zhǔn)確性?這些都是AI在醫(yī)療領(lǐng)域的應(yīng)用中所面臨的問(wèn)題。

AI可能在很多領(lǐng)域比人類都強(qiáng),但它永遠(yuǎn)不可能擁有像人類一樣的文明。阿力夫表示,人類的情感系統(tǒng)有一些獨(dú)特的東西,如想象力、同理心、善良、勇氣和團(tuán)隊(duì)精神,這些比人類的知識(shí)和技能以及科學(xué)技術(shù)更加重要,這些是AI無(wú)法企及的。

標(biāo)簽:

相關(guān)閱讀