您的位置:首頁 > 快訊 >

焦點(diǎn)要聞:人工智能向善發(fā)展需要倫理指引


(資料圖片僅供參考)

原標(biāo)題:人工智能向善發(fā)展需要倫理指引

近日,深圳通過了《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》,上海也正在制定本市的人工智能產(chǎn)業(yè)促進(jìn)條例。這兩部地方性立法雖以促進(jìn)技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展為主要目的,但都將倫理原則內(nèi)置于其中,創(chuàng)設(shè)了倫理委員會(huì),引入了倫理風(fēng)險(xiǎn)評估、倫理審查、倫理安全標(biāo)準(zhǔn)管理、倫理指引和倫理教育等制度,以追求向善的創(chuàng)新,以人為本的發(fā)展。

人們常說“技術(shù)是一把雙刃劍”,的確,技術(shù)體現(xiàn)的是工具理性,它旨在幫助人類找到實(shí)現(xiàn)任何給定目的的最優(yōu)方案,但它本身并不能告訴我們什么樣的目的是值得追求的。因此,需要給技術(shù)套上法律和倫理的韁繩,使之服務(wù)于幫助人類實(shí)現(xiàn)美善生活的目的。為了前瞻研判科技發(fā)展帶來的規(guī)則沖突、社會(huì)風(fēng)險(xiǎn)、倫理挑戰(zhàn),我國成立了國家科技倫理委員會(huì),發(fā)布了《關(guān)于加強(qiáng)科技倫理治理的意見》,在科技倫理治理體制、制度保障以及審查和監(jiān)管等方面邁出了重要步伐。

人工智能是數(shù)字科技時(shí)代最重要的技術(shù)之一,而且與傳統(tǒng)的被動(dòng)型技術(shù)相比,其具有自我演化、快速迭代、難以預(yù)測的特點(diǎn)。如何讓人工智能技術(shù)及相關(guān)產(chǎn)業(yè)在“以人為本,科技向善,安全可控”的倫理原則指引下健康發(fā)展,是擺在我們面前的緊迫問題。目前,我國尚未出臺(tái)國家層面的人工智能專門立法或倫理指導(dǎo)意見,但深圳、上海在地方性的制度試驗(yàn)中均規(guī)定了人工智能倫理方面的內(nèi)容,這將為全國性的制度建設(shè)提煉經(jīng)驗(yàn),試錯(cuò)避雷。

那么,人工智能領(lǐng)域?yàn)槭裁葱枰⒔∪珎惱硐嚓P(guān)制度?倫理和法律的關(guān)系又是什么?首先,法律是社會(huì)的底線倫理,如果突破了法律,人與人之間的和平共處就無法實(shí)現(xiàn),基本的社會(huì)秩序就無法得到維持。但只有法律還不夠,因?yàn)槲覀儾粌H要活著,還要活得好,活得有尊嚴(yán)感和幸福感,這時(shí)候就需要倫理出場了,倫理原則指引人們?nèi)プ霾恢褂谑刈〉拙€的、對社會(huì)有益的事情。在日常社會(huì)交往中,倫理是內(nèi)生的,依靠社會(huì)評價(jià)、同儕壓力和親情友情來“執(zhí)行”。但在人工智能等科技領(lǐng)域,由于信息不對稱和專業(yè)能力不對稱,普通社會(huì)公眾很難對某種技術(shù)支撐的產(chǎn)品或服務(wù)的善惡利弊作出評價(jià),因此需要專業(yè)化和制度化的倫理評價(jià)和倫理審查機(jī)制。

其次,法律是回應(yīng)性的,它只能在特定損害結(jié)果發(fā)生后,對特定法律關(guān)系中的主體進(jìn)行判斷、評價(jià)和提供救濟(jì)。而在人工智能技術(shù)遍布于我們?nèi)粘J褂玫母鞣N手機(jī)應(yīng)用、購物平臺(tái)和社交媒體的當(dāng)下,很多損害結(jié)果往往難以察覺,但卻像溫水煮青蛙那樣惡化著我們的總體生存環(huán)境,比如大數(shù)據(jù)殺熟、過度獲取和濫用個(gè)人信息、利用算法誘導(dǎo)青少年上癮,等等。在這種資本通過技術(shù)肆意利用人性弱點(diǎn)的背景下,個(gè)人覺察損害結(jié)果本已不易,證明平臺(tái)有過錯(cuò)或違反法定義務(wù)更難,而證明因果關(guān)系則是難上加難。倫理在此時(shí)可以作為法律的補(bǔ)充,事前的倫理指引和倫理審查,可以確保算法設(shè)計(jì)者知曉什么樣的設(shè)計(jì)是向善的,是能夠被公眾接受的,從而確保有可持續(xù)商業(yè)追求的企業(yè)和工程師在進(jìn)行相關(guān)設(shè)計(jì)時(shí)就遵循倫理原則。而法律則在出現(xiàn)可見的嚴(yán)重?fù)p害結(jié)果時(shí)強(qiáng)力介入,懲處那些觸碰規(guī)則底線的行為主體。

最后,法律是一般性的,是剛性的,它更像是柵欄或圍墻,界分出合法與非法的邊界。它天然缺乏敏捷性、靈活性和場景適配性。如果法律規(guī)則過嚴(yán)過密,必然會(huì)遏制技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展;如果過寬過疏,則又會(huì)留下巨大的漏洞,使大量模糊而又圓滑的危害民生福祉的行為成為漏網(wǎng)之魚。這對于有人工智能助力的法律主體來說尤其如此。而倫理則具有更強(qiáng)的場景適配性和行業(yè)特定性,它更像是量身定制的合體衣服,由技術(shù)專家、人文社會(huì)科學(xué)家、行業(yè)組織和特定用戶群體通過行為互動(dòng)和協(xié)商溝通發(fā)展出來,約束從業(yè)者的行為,因此能夠與法律配合營造出既有利于企業(yè)和創(chuàng)新者追求正當(dāng)利益,又有助于維護(hù)個(gè)人尊嚴(yán)和權(quán)利的良好制度環(huán)境。

(作者:鄭戈?系上海交通大學(xué)凱原法學(xué)院教授,上海交通大學(xué)涉及人的科學(xué)研究倫理委員會(huì)委員)


標(biāo)簽: 人工智能 倫理原則 倫理委員會(huì)

相關(guān)閱讀