Omdia觀察:人工智能如何監(jiān)管需要得到政策明確

10月7日消息(艾斯)2023年8月18日,美國(guó)聯(lián)邦法院裁定,人工智能(AI)生成的藝術(shù)作品不受版權(quán)保護(hù),因?yàn)檫@些作品不是由人類生成的。隨著AI繼續(xù)以前所未有的速度發(fā)展,版權(quán)和知識(shí)產(chǎn)權(quán)保護(hù)法等現(xiàn)有法規(guī)、規(guī)定正日益受到質(zhì)疑。因此,規(guī)范人工智能使用的舉措變得越來(lái)越重要。

鑒于此,Omdia發(fā)布了兩份從監(jiān)管角度審視AI的報(bào)告:《人工智能法規(guī)、政策和戰(zhàn)略:分析- 2023》和《人工智能法規(guī)、政策和戰(zhàn)略:案例研究- 2023》。報(bào)告指出,除了版權(quán)和知識(shí)產(chǎn)權(quán)法之外,安全、隱私、道德、透明度和安全都是監(jiān)管需要首先解決的挑戰(zhàn)。由于行業(yè)本身呼吁加強(qiáng)監(jiān)管和某種形式的直接監(jiān)管,監(jiān)管機(jī)構(gòu)將必須盡快正式制定一個(gè)框架,從而為該行業(yè)提供清晰信息。

監(jiān)管機(jī)構(gòu)必須盡快正式制定人工智能監(jiān)管框架

2023年8月18日,美國(guó)聯(lián)邦法院裁定AI生成的藝術(shù)作品不受版權(quán)保護(hù),因?yàn)槿祟悇?chuàng)造力仍然是版權(quán)資格的重要組成部分。受保護(hù)的作品必須“有一個(gè)具有智力、創(chuàng)造性或藝術(shù)勞動(dòng)能力的原創(chuàng)者”,因此AI系統(tǒng)生成的內(nèi)容不符合條件。一般來(lái)說(shuō),AI系統(tǒng)應(yīng)該被視為人類創(chuàng)造內(nèi)容的推動(dòng)者,而不是生產(chǎn)受保護(hù)作品的工具。版權(quán)和保護(hù)知識(shí)產(chǎn)權(quán)的話題在AI領(lǐng)域仍然是有爭(zhēng)議的,無(wú)論是從AI系統(tǒng)產(chǎn)生的版權(quán)材料的角度來(lái)看,還是從AI系統(tǒng)利用現(xiàn)有受版權(quán)保護(hù)的材料產(chǎn)生新輸出的能力的角度來(lái)看,這一過(guò)程引發(fā)了AI系統(tǒng)是否可能侵犯版權(quán)的問(wèn)題。很明顯,生成式AI的日益廣泛使用引發(fā)了新的問(wèn)題,即著作權(quán)、侵權(quán)和合理使用等版權(quán)法原則將如何適用于AI系統(tǒng)創(chuàng)造或使用的內(nèi)容。因此,行業(yè)迫切需要這些問(wèn)題的答案。

Omdia資深分析師Sarah McBride表示,無(wú)論如何,討論的范圍遠(yuǎn)遠(yuǎn)超出了版權(quán)法。AI正在快速發(fā)展,并進(jìn)入各個(gè)行業(yè)的廣泛用例。該技術(shù)的廣泛性在監(jiān)管和保護(hù)最終用戶免受傷害方面提出了問(wèn)題。這也給監(jiān)管機(jī)構(gòu)帶來(lái)了挑戰(zhàn),監(jiān)管機(jī)構(gòu)現(xiàn)在必須嘗試預(yù)測(cè)AI服務(wù)的特定結(jié)果何時(shí)會(huì)是惡意的。這引起了全球各國(guó)政府和監(jiān)管機(jī)構(gòu)的極大關(guān)注,它們一直在加緊努力評(píng)估需要多大程度的監(jiān)管參與。

根據(jù)Omdia報(bào)告《人工智能法規(guī)、政策和戰(zhàn)略:分析- 2023》,一種選擇是政府和政策制定者考慮修改現(xiàn)有政策和監(jiān)管框架以適應(yīng)技術(shù)發(fā)展,而另一種選擇是制定全新的框架,甚至選擇自我監(jiān)管。Omdia報(bào)告中指出的一些關(guān)鍵挑戰(zhàn)包括安全、隱私、道德、透明度和安全,以及版權(quán)和知識(shí)產(chǎn)權(quán)法。任何監(jiān)管都必須首先解決這些基本問(wèn)題。到目前為止,發(fā)布的大多數(shù)指導(dǎo)方針都集中在與AI實(shí)施相關(guān)的道德和法律問(wèn)題上。對(duì)于需要管制高風(fēng)險(xiǎn)情況(例如醫(yī)療保健環(huán)境)的必要性也開(kāi)始出現(xiàn)某種形式的共識(shí)。與此同時(shí),最近生成式AI的發(fā)展速度加快,引發(fā)了一個(gè)問(wèn)題,即AI大語(yǔ)言模型本身是否也需要受到監(jiān)管。至少,人們一直在推動(dòng)提高透明度,以便對(duì)這些模型進(jìn)行更多的審查。然而,這也可能涉及制定標(biāo)準(zhǔn),以減輕對(duì)不可預(yù)見(jiàn)結(jié)果的擔(dān)憂。

根據(jù)Omdia報(bào)告《人工智能法規(guī)、政策和戰(zhàn)略:案例研究- 2023》,一些國(guó)家已經(jīng)宣布了國(guó)家AI戰(zhàn)略,還有一些國(guó)家正處于最后起草階段。許多國(guó)家AI戰(zhàn)略優(yōu)先考慮成為AI全球市場(chǎng)領(lǐng)導(dǎo)者,重點(diǎn)關(guān)注支持AI研發(fā)、發(fā)展AI技能和AI勞動(dòng)力、加速AI在公共和私營(yíng)部門的應(yīng)用,以及建立強(qiáng)大的數(shù)據(jù)生態(tài)系統(tǒng)和ICT基礎(chǔ)設(shè)施。與此同時(shí),在監(jiān)管方面,許多監(jiān)管機(jī)構(gòu)截至目前采取了事后(ex-post)態(tài)度,確保采取技術(shù)中立的方法,或者優(yōu)先制定道德、隱私和安全指導(dǎo)方針。

特別是歐盟委員會(huì),一直在積極推動(dòng)AI監(jiān)管政策,并發(fā)布了有史以來(lái)首個(gè)AI監(jiān)管框架草案。它采用基于風(fēng)險(xiǎn)的方法,根據(jù)安全風(fēng)險(xiǎn)級(jí)別對(duì)AI系統(tǒng)實(shí)施禁令。然而,并不是只有歐盟在探索如何最好地應(yīng)對(duì)AI的發(fā)展。包括美國(guó)(專注于特定的AI用例)、中國(guó)(推進(jìn)深度合成技術(shù)和生成式AI的監(jiān)管框架)和英國(guó)(采取針對(duì)特定行業(yè)的方法)等其他國(guó)家也在積極探索相關(guān)監(jiān)管政策。它們都為未來(lái)樹(shù)立了強(qiáng)有力的先例。

由于行業(yè)本身現(xiàn)在呼吁加強(qiáng)監(jiān)督和某種形式的直接監(jiān)管,監(jiān)管機(jī)構(gòu)必須制定一個(gè)框架來(lái)指導(dǎo)企業(yè)和保護(hù)社會(huì)。毫無(wú)疑問(wèn),在2023年的剩余時(shí)間里,AI領(lǐng)域?qū)⑹艿矫芮嘘P(guān)注,尤其是在潛在的監(jiān)管方面,因此,企業(yè)明智的的做法是主動(dòng)開(kāi)始在其系統(tǒng)內(nèi)實(shí)施風(fēng)險(xiǎn)管理框架。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2023-10-07
Omdia觀察:人工智能如何監(jiān)管需要得到政策明確
Omdia觀察:人工智能如何監(jiān)管需要得到政策明確,C114訊 10月7日消息(艾斯)2023年8月18日,美國(guó)聯(lián)邦法院裁定,人工智能(AI)生成的藝術(shù)

長(zhǎng)按掃碼 閱讀全文