人工智能在法律上是否應該賦予其主體地位?回答這個問題,應該從人類發(fā)展人工智能的初衷,即為何要發(fā)展人工智能的角度去考慮。在此基礎上,再來探討如何發(fā)展人工智能的問題。
毫無疑問,發(fā)展人工智能的首要動機在于提高生產(chǎn)力,實現(xiàn)人類自身的解放,使人類獲得更大、更多的自由,而不是取代人類,使人類成為被驅(qū)使的對象。因此,安全可控應該是整個人類社會發(fā)展人工智能的基本準則;不安全、不可控的人工智能不應當被發(fā)展,應該受到控制乃至禁止。為此目的,必須要從兩個方面入手:一是強制性要求人工智能的算法必須公開,接受整個人類社會的監(jiān)督;同時對人工智能有關的產(chǎn)品實行市場準入管理,只有軟硬件都符合技術標準的人工智能產(chǎn)品才能進入市場;二是法律上拒絕承認人工智能的主體地位。
要求人工智能算法公開,這顯然會遭到一些業(yè)界公司和技術先進國家的反對?,F(xiàn)實情況下,技術先進的人工智能公司和國家,往往會以商業(yè)秘密或技術秘密為借口拒絕公開其算法,從而實現(xiàn)保持競爭優(yōu)勢的目的。而在學術界,尤其是主流法學界,要么是沒有看到安全可控是整個人類發(fā)展人工智能的基本準則,要么是出于優(yōu)先發(fā)展本國技術的想法,因而繼續(xù)秉持傳統(tǒng)的思維,將人工智能算法視為商業(yè)秘密。這種觀念及其產(chǎn)業(yè)政策和立法的后果,將有悖于安全可控這一基本準則的落實,最終極可能導致人類發(fā)展人工智能事與愿違。
當下,之所以很多人對人工智能生成物的法律屬性存在分歧和認識偏差,其主要原因在于對人工智能的技術原理缺乏應有的認知。實際上,目前的人工智能往往功能單一,不同類型(功能)的人工智能,其工作原理可能存在差異。因此,我們不能以對一種功能(類型)的人工智能工作原理的認知來代替對其他類型的人工智能的工作原理的認知。目前的人工智能,不僅在其算法設計出來后需要用大量的數(shù)據(jù)對其進行訓練,即使在人工智能的后續(xù)使用過程中,仍然需要不斷地給予新的數(shù)據(jù)來訓練它,以實現(xiàn)其不斷適應新形勢的需要。同時,也有的人工智能還可以自主學習,從而獲得新的智能。因此,那種認為人工智能一旦設計出來后,無需再用數(shù)據(jù)訓練,或者不會自主學習,從而“相同的輸入,必將產(chǎn)生相同的輸出”是片面的。也就是說,一些學者“人工智能生成物一定不符合版權法上的獨創(chuàng)性要件”的見解是不成立的。
那么,利用人工智能所產(chǎn)生的內(nèi)容或成果(生成物)是否應該享有版權呢?我們還應從人工智能所產(chǎn)生的內(nèi)容本身是否符合版權法對作品的獨創(chuàng)性要求來衡量,如果符合,它就是作品,就應該受版權法保護,其權利主體屬于人工智能的所有者或使用者所有。版權法規(guī)范的作品創(chuàng)作行為是自然人的創(chuàng)作行為,如果是人工智能(而非自然人)完成的生成物,就不是版權法意義上的作品、不受版權法保護。至于認為人工智能的所有者或使用者不是人工智能生成物的版權人的觀點,是違背了人類發(fā)展人工智能的初衷的,因此是不合理的。由此筆者認為,有關法院在近期的判例中,沒有將所涉人工智能生成物認定為版權法上作品的做法有待商榷。如果按照法官判決中所遵循的邏輯,對于相同的“生成物”,如果原告不標明是利用人工智能產(chǎn)生的,它符合作品的要件,就應該被認定為作品,原告成為版權人就是毋庸置疑的。(劉德良)
(作者系北京師范大學法學院教授、亞太人工智能法治研究院院長)中國知識產(chǎn)權報