2023年2月,歐洲議會(huì) AI倫理領(lǐng)域的顧問(wèn)Anna Fell?nder在歐盟委員會(huì)官網(wǎng)發(fā)表了《ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI》,提出了關(guān)于為什么要對(duì)生成式AI進(jìn)行監(jiān)管的背景、原因和解釋。筆者認(rèn)為,這篇文章很有可能代表了未來(lái)歐盟委員會(huì)對(duì)生成式人工智能的監(jiān)管方向之一,我們看這篇,也主要是作為一個(gè)國(guó)際動(dòng)向進(jìn)行關(guān)注。

免責(zé)聲明:本文內(nèi)容僅用于信息展示和分享和教育意義。轉(zhuǎn)載請(qǐng)按照相關(guān)規(guī)則,注明來(lái)源,且附上本文的所有參考文獻(xiàn)鏈接。

背景

備注:本文作者Anna Fell?nder,目前是anch.AI的創(chuàng)始人,也是ETHICAL AI GOVERNANCE GROUP的委員會(huì)成員,同時(shí)也是歐洲議會(huì) AI倫理領(lǐng)域的顧問(wèn)。

全文如下:

最近新發(fā)布的人工智能方案ChatGPT,以一種全新的方式挑戰(zhàn)著所有人。隨著生成式AI系統(tǒng)創(chuàng)造的機(jī)會(huì),我們同時(shí)也面臨著具有歷史意義的十字路口:

也就是,究竟是人工智能來(lái)控制人類(lèi),還是人類(lèi)來(lái)控制人工智能。

瑞典的企業(yè)和當(dāng)局(因?yàn)?em>Anna Fell?nder在瑞典),需要對(duì)人工智能采取 Ethical approach ,也就是倫理學(xué)上的考量,但最重要的是,需要建立風(fēng)險(xiǎn)評(píng)估框架,來(lái)支撐這種發(fā)展,從而指導(dǎo)符合人類(lèi)價(jià)值觀(guān)的人工智能解決方案的發(fā)展。

此外,歐盟人工智能立法,對(duì)發(fā)展負(fù)責(zé)任的人工智能來(lái)說(shuō),指日可待,而政府迫切需要組建發(fā)展負(fù)責(zé)任的人工智能機(jī)構(gòu)。

ChatGPT和其他生成式人工智能系統(tǒng)

(1)首先,創(chuàng)造了人們內(nèi)心期待已久的人工智能民主化,更多的人可以參與進(jìn)來(lái)這次技術(shù)帶來(lái)的迭代,自己去創(chuàng)造由算法在歷史數(shù)據(jù)上生成的新內(nèi)容。各個(gè)組織實(shí)現(xiàn)AI技術(shù)價(jià)值的門(mén)檻顯著降低,新的創(chuàng)新商業(yè)模式也層出不窮,能夠有效地加強(qiáng)客戶(hù)和人們的關(guān)系。

(2)同時(shí),所有個(gè)體和社會(huì),每天都面臨著由于不受監(jiān)管的人工智能解決方案,從而導(dǎo)致的道德和法律問(wèn)題。其中一個(gè)原因是,人工智能模型的學(xué)習(xí)是基于歷史數(shù)據(jù),而其中,很可能存在不必要的偏見(jiàn),這種偏見(jiàn),可能導(dǎo)致社會(huì)排斥和歧視,包括其他的違規(guī)行為。

比如說(shuō),當(dāng)我們這些個(gè)體,批準(zhǔn)自己數(shù)據(jù)在某種情況下被使用時(shí),可能并不會(huì)意識(shí)到,當(dāng)我們自己的數(shù)據(jù)與其他數(shù)據(jù)結(jié)合時(shí),算法如何創(chuàng)造出侵犯?jìng)€(gè)人隱私的見(jiàn)解。

注意:這對(duì)公司和各國(guó)政府來(lái)說(shuō),代價(jià)都很高,例如可能會(huì)撤回投資,或者導(dǎo)致聲譽(yù)受到損失。最近的案例表明,2021年,由于人工智能解決方案錯(cuò)誤地指責(zé)接受父母保險(xiǎn)的父母是欺詐。此外,還有個(gè)基于OpenAI的GPT-3的醫(yī)療聊天機(jī)器人被發(fā)出測(cè)試,其結(jié)果是建議病人自殺。

參考資料:GPT-3 medical chatbot tells suicidal test patient to kill themselves | Boing Boing

生成式人工智能系統(tǒng),比其他人工智能解決方案具備更高程度的道德風(fēng)險(xiǎn)暴露。其中一個(gè)原因是,生成式人工智能系統(tǒng)的使用往往是通過(guò)API進(jìn)行的,這使得解決方案的透明度很低,并且,對(duì)它的發(fā)展難以控制。

同時(shí),道德和法律方面的違規(guī)行為,通常發(fā)生得很微妙,也很突然,雖然這些違規(guī)行為可能會(huì)小到無(wú)法察覺(jué),但是極有可能造成指數(shù)級(jí)的損失。

其中一個(gè)例子是深度造假,比如說(shuō),被用來(lái)操縱視頻或照片中的面孔和聲音。而要注意到的是,生成式人工智能模型通常以API的形式提供,這就可以使用戶(hù)更容易獲得和使用該技術(shù),這可能會(huì)增加濫用的風(fēng)險(xiǎn)。

需要承認(rèn)的是,基于A(yíng)PI的生成性人工智能模型本身并沒(méi)有風(fēng)險(xiǎn),但它們的使用方式和訓(xùn)練的數(shù)據(jù)會(huì)使他們具備風(fēng)險(xiǎn)。

歐盟的人工智能立法,即《人工智能法案》,將于2024年正式生效。

《人工智能法案》的目標(biāo),是讓公民和消費(fèi)者感到信任,并維護(hù)歐盟包括人權(quán)在內(nèi)的價(jià)值基礎(chǔ)。歐盟委員會(huì)在《人工智能法》中提議,成員國(guó)必須任命或建立至少一個(gè)監(jiān)督機(jī)構(gòu),負(fù)責(zé)確保 "必要的程序得到遵循"。

隨著生成式人工智能系統(tǒng)逐步出現(xiàn)的巨大潛力,尤其是在醫(yī)療保健方面,例如正確診斷和優(yōu)化疾病的治療,關(guān)鍵是,要有可用的風(fēng)險(xiǎn)評(píng)估框架,并任命一個(gè)負(fù)責(zé)任的機(jī)構(gòu)。

人工智能的倫理框架,為所有部門(mén)創(chuàng)造了一個(gè)高度的創(chuàng)新環(huán)境。因此,有關(guān)機(jī)構(gòu)迫切需要任命這一負(fù)責(zé)機(jī)構(gòu),并提供風(fēng)險(xiǎn)評(píng)估框架,以便瑞典企業(yè)和瑞典當(dāng)局不會(huì)像GDPR那樣對(duì)人工智能法案缺乏警惕性。

【參考文獻(xiàn)】

1.https://futurium.ec.europa.eu/en/european-ai-alliance/blog/chatgpts-rapid-entry-urgent-government-appoint-authority-responsible-ai

2.Artificial intelligence: huge potential if ethical risks are addressed | News | European Parliament (europa.eu)

3,Welcome to anch.AI - AI and Equality in Public Administration- a report by anch.AI and the Swedish Gender Equality Authority.

歡迎研究法律/監(jiān)管的朋友提出自己的意見(jiàn)和觀(guān)點(diǎn):)

聲明:本文來(lái)自阿法兔研究筆記,版權(quán)歸作者所有。