網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 中國品牌 > 品牌智庫 > 正文

人工智能“創(chuàng)作”提出哪些法律問題

從導(dǎo)航軟件中的“數(shù)字人”指路,到直播電商中的“虛擬主播”,再到最近爆火的ChatGPT,隨著深度學習技術(shù)的快速演進和數(shù)據(jù)規(guī)模的快速增長,人工智能的應(yīng)用已經(jīng)滲入了我們?nèi)粘I畹姆椒矫婷妫绕涫遣粩啾贿\用于寫作、繪畫、編曲和視頻制作等創(chuàng)造性生產(chǎn)領(lǐng)域。這些人工智能“創(chuàng)作”物,極大地提高了行業(yè)生產(chǎn)效率,但也隱藏著法律與倫理的挑戰(zhàn)。

人工智能生成的畫面、文字等內(nèi)容有版權(quán)嗎?這是我們需要首先思考和回答的問題。能否享有版權(quán),取決于“創(chuàng)作”物是否構(gòu)成著作權(quán)法意義上的“作品”,即是否具有獨創(chuàng)性。如果人工智能“創(chuàng)作”物符合著作權(quán)法的規(guī)定而享有版權(quán),那么權(quán)利主體是誰?根據(jù)法律規(guī)定,一般作品的著作權(quán)歸屬于作者,但人工智能本身、人工智能的設(shè)計者、研發(fā)者、投資者、管理者、實際操控者等在作品的創(chuàng)作過程中均發(fā)揮著重要作用,權(quán)利的歸屬如何確定或分配,目前也尚無明確規(guī)定。

分析人工智能“創(chuàng)作”的過程可知,部分人工智能“創(chuàng)作”物的確涉及人類思想表達,如果具有獨創(chuàng)性和可復(fù)制性,就可以滿足成為“作品”的要求,應(yīng)當享有版權(quán)。目前已有許多國家將人工智能創(chuàng)作的內(nèi)容納入版權(quán)法的保護范圍,而版權(quán)的歸屬應(yīng)當屬于自然人。這是因為,人工智能“創(chuàng)作”物看似機器生成而非人類直接完成,但其實質(zhì)卻是應(yīng)用算法、規(guī)則和模板的結(jié)果,當前人工智能創(chuàng)作主要包括訓(xùn)練數(shù)據(jù)輸入、算法模型構(gòu)建和最終結(jié)果生成階段,無論是訓(xùn)練數(shù)據(jù)外部調(diào)整還是算法模型人工糾偏,人工智能創(chuàng)作依舊處于自然人的控制之下,人工智能創(chuàng)作無法脫離自然人的智慧支持,可以被視為自然人先前智力成果的延伸,體現(xiàn)的是開發(fā)者的思想與腦力勞動。而權(quán)利主體的確定可以考慮合同約定優(yōu)先,以使用主體為中心和以投資主體為補充。

人工智能“創(chuàng)作”過程產(chǎn)生權(quán)利侵犯問題怎么辦?人工智能的創(chuàng)作行為嚴重依賴于數(shù)據(jù)源,智能機器人要通過一定的程序進行“深度學習”“深度思維”,在這個過程中有可能收集、儲存大量的他人已享有著作權(quán)的信息或個人隱私信息,這就有可能構(gòu)成對他人著作權(quán)或隱私權(quán)的侵害。那么,誰需要為人工智能創(chuàng)作的權(quán)利侵犯問題承擔責任?是為人工智能創(chuàng)作算法編程的技術(shù)人員,還是為人工智能創(chuàng)作注入資金的投資主體,抑或?qū)嶋H使用人工智能創(chuàng)作的用戶群體?這是相關(guān)領(lǐng)域立法需要充分考量的問題。另一方面,技術(shù)的誤用或濫用也可能滋生違法犯罪行為。如今,有的人工智能學習生成的內(nèi)容在形式和邏輯上足以“以假亂真”,倘若技術(shù)被誤用、濫用,比如被用于抄襲、詐騙等,甚至可能被用于危害個人生命財產(chǎn)安全、國家安全和社會公共利益。因此,有必要構(gòu)建人工智能“創(chuàng)作”的規(guī)范標準,對相關(guān)技術(shù)使用者的行為形成有效約束,有效規(guī)制減少、防范智能內(nèi)容科技應(yīng)用可能帶來的負面影響。

具體來說,一是明確人工智能創(chuàng)作的合理使用范疇,打破人工智能創(chuàng)作的算法黑箱,并實行差異化歸責原則。著作權(quán)法規(guī)定的合理使用是指在特定情況下使用作品,可以不經(jīng)著作權(quán)人許可,不向其支付報酬,但應(yīng)當指明作者姓名或者名稱、作品名稱,并且不得影響該作品的正常使用,也不得不合理地損害著作權(quán)人的合法權(quán)益。人工智能“創(chuàng)作”必然需要學習海量的關(guān)聯(lián)性知識,方能組織、推理和生成最終的輸入結(jié)果。為促進人工智能創(chuàng)作的良性發(fā)展,可以將人工智能的創(chuàng)作過程納入著作權(quán)法的合理使用范疇,但要將人工智能創(chuàng)作故意復(fù)制、惡意使用等情形排除在外。二是數(shù)據(jù)隱私、平等權(quán)的保護需要堅持算法透明原則。目前,我國個人信息保護法明確了依法使用個人信息的情形,個人有權(quán)要求個人信息處理者對其個人信息處理規(guī)則進行解釋說明。在這些規(guī)定的基礎(chǔ)上,人工智能創(chuàng)作主體應(yīng)當公開個人數(shù)據(jù)處理規(guī)則,明示處理的目的、方式和范圍。三是人工智能創(chuàng)作如果發(fā)生侵權(quán)行為,需要相關(guān)的自然人主體承擔責任。人工智能創(chuàng)作各個階段對應(yīng)著不同的責任主體,基于技術(shù)責任承擔與內(nèi)部追責視角的分立,需要實行差異化歸責原則,技術(shù)主體偏重于算法設(shè)計和數(shù)據(jù)處理責任,使用主體和投資主體偏重于核驗檢查和終端更正責任。

人工智能進行“創(chuàng)作”,會影響自然人的法律主體地位嗎?面對人工智能日益頻繁和廣泛的“創(chuàng)作”活動,有人擔憂這是否會壓制甚至取代自然人的法律主體地位。針對這一問題,我們需要回歸“法律主體”的內(nèi)涵和價值來分析。法律主體地位是法律意義上人的抽象和虛擬,是指法律賦予自然人和社會組織依法承擔責任、享有權(quán)利的資格,因此,法律的建構(gòu)始終要以人為中心。在關(guān)于人工智能“創(chuàng)作”物的法律規(guī)制問題上,需要圍繞保障個人權(quán)利進行,注重維護自然人的主體地位。2022年,深圳制定實施了我國第一部人工智能產(chǎn)業(yè)專項立法——《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》,其他地方的有關(guān)條例也正在制定過程中,這些地方立法均強調(diào)了“以人為本”的原則,通過法律規(guī)則盡可能削弱人工智能可能帶來的風險。隨著人工智能技術(shù)的不斷快速發(fā)展和更新迭代,新問題也會隨之而來,這需要法律與時俱進,并與技術(shù)、倫理等專業(yè)層面協(xié)同互補,在擁抱人工智能變革、大力發(fā)展產(chǎn)業(yè)的同時,著力平衡產(chǎn)業(yè)發(fā)展與社會安全,確保其安全、可靠、可控。

[責任編輯:潘旺旺]
標簽: 人工智能   ChatGPT