• <menu id="equuk"><tt id="equuk"></tt></menu>
    <menu id="equuk"><tt id="equuk"></tt></menu><menu id="equuk"><menu id="equuk"></menu></menu>
    <tt id="equuk"><strong id="equuk"></strong></tt><menu id="equuk"><strong id="equuk"></strong></menu>
  • <xmp id="equuk">
    容易發表/成功率高的期刊
    在線客服

    咨詢客服 咨詢客服

    咨詢郵箱:hz2326495849@163.com

    經濟論文

    賦予強人工智能法律主體地位的路徑與限度

    時間:2021年09月03日 所屬分類:經濟論文 點擊次數:

    [摘要]人工智能是否具有法律主體地位是所有人工智能法律關系的先決問題。人工智能的法律主體地位不明確,將會導致人工智能的行為邊界與道德邊界無法甄別、人工智能生成物知識產權的歸屬不明、人工智能侵權以及刑事犯罪的責任無法認定。強人工智能擁有自主意

      [摘要]人工智能是否具有法律主體地位是所有人工智能法律關系的先決問題。人工智能的法律主體地位不明確,將會導致人工智能的行為邊界與道德邊界無法甄別、人工智能生成物知識產權的歸屬不明、人工智能侵權以及刑事犯罪的責任無法認定。強人工智能擁有自主意識、具備深度學習能力,可以作出獨立的意思表示。參照法人制度、設立人工智能賠償基金與保險,可以為人工智能財產權的賦予及民事責任的承擔覓得可能路徑。類比刑法上的財產罰、單位犯罪,可以明確人工智能的刑事責任承擔。確立法律人格“有限說”、明確“穿透人工智能面紗”的首要歸責原則,可以實現人工智能技術與社會正向發展目標。賦予人工智能主體地位的同時,也應對人工智能擬制權利設置權利邊界和權利保留,明確人工智能道德權利和行為效力的限度。

      [關鍵詞]強人工智能法律主體責任承擔權利限度法律擬制法律保留

    人工智能論文

      一、問題的提出:人工智能與法律主體的張力

      人工智能技術的席卷而來,導致傳統法律體系中的人、物二分法受到了極大的挑戰,人類的生活方式、經濟結構和社會形態均會隨之發生翻天覆地的變化。人工智能不同于一般的物,那么人類該如何迎接這個“新大腦”的問世?面對人工智能技術的沖擊,立法應不應該作出回應?隨著人工智能參與人類生活的比重增加,可發現在法規范適用上即會產生不少現行法難以處理的議題,現行法律體系對于人工智能的法律主體地位規制缺位,更影響了相應問題的解決。以人工智能進行創作的過程為例,首先涉及“人工智能的行為是否屬于創作”“人工智能的行為是否為表達”“是否具備自主性、原創性”等問題。

      人工智能評職知識:人工智能和自動駕駛相關的論文發表期刊

      因此,在人工智能科技不斷發展的情況下,我們可以預見未來無論是人工智能的程序設計者、訓練者還是使用者,均會逐漸逸脫其創作人的地位,原先著作權法上“創作人即為權利人”的原則受到沖擊,若在法律上欲將著作權利歸屬于人工智能,則不得不先探究其是否得具備法律上主體的地位。未來,諸如人工智能的責任承擔、人工智能與法治的深度融合、人工智能法律法規體系的完善等問題均是人工智能實際應用中不可回避的關鍵問題。而明確是否應賦予人工智能法律主體地位,以及在何種限度內賦予其法律主體地位,對于上述問題的厘清具有基石性、根本性的決定作用。梳理國內現有研究可發現,目前我國法學界對該問題的研究尚無定論,不同學科學者們也意見不一。

      總結歸納來看,“肯定說”一般從人工智能權利和責任確定的現實必要性的角度,論證需要賦予人工智能法律人格。“肯定說”從功利主義、行為理論、目的理論等角度論述人工智能可以實施“人類”意義上的行為,原因在于其具有自由意志、情感構成,尤其是在主客體相對論的普遍哲學觀的影響下,人工智能已經可以突破傳統對于法律主體的二元認定。“否定說”則從人工智能天然不具備生物學上的“人”及“人類心智”的角度,旗幟鮮明地提出人工智能不應當、也不可能具備法律主體資格。“否定說”立足于現行法框架,認為人工智能難以逃脫人類的控制,亦無法超越人類理性,尤其是無法享有“權利”與承擔“責任”;而當人工智能遭遇某些法律困境時,“否定說”著眼于從實踐層面尋求人工智能法律難題的可替代方案,而非打破現有的法律框架。

      “有限說”或“折衷說”的觀點則是客觀考量人工智能行為與人類行為的差異性,從支持人工智能技術進步、保障人類法律制度基本結構穩定的角度,進行一種“擬制法律主體”可行性的探索嘗試。不過,折中的法律人格“有限說”并沒有對“擬制主體”的理論基礎予以充分回應,也未對賦予人工智能法律主體地位的路徑,尤其是對于如何實現該限度這一焦點問題,現有理論體系稍顯薄弱。學者的上述研究對厘定人工智能法律主體地位有著重要意義。

      不過,仍然存在以下不足:其一,“肯定說”對于將人工智能擬制為法律主體有無迫切的現實需要性這一基本出發點關注不足,也未充分闡述將人工智能擬制為法律主體對自然人的價值會造成哪些現實危險,導致研究體系的自說自話;從人工智能長遠的發展來看,“否定說”的觀點可能會大大限制人工智能科技的創造力,因而這種主張有失偏頗;其二,在研究人工智能的主體地位時,未能區分不同人工智能行為情形下的主體地位確定的差異性,導致對于該問題研究的精細化程度不足;其三,賦予人工智能主體地位,應有其擬制路徑與限度,不過對于在何種情形、何種范圍、何種限度內賦予人工智能的法律主體地位,理論與實踐尚欠缺應有的回應。

      因此,應當從人工智能能否作出獨立的意思表示、是否有獨立的財產、能否獨立承擔法律責任等三個維度論證人工智能主體地位的擬制路徑;同時,還有必要從人工智能擬制權利的法律保留、道德權利的限度、行為效力的限度等方面分析賦予人工智能主體地位的限度問題。

      二、將強人工智能擬制為法律主體的現實必要性

      目前人工智能相關法律問題的焦點是落腳在人工智能系統上,而非實際制造而生成的智能機械(機器),機械只是載體,實質上影響法律制度的乃是人工智能系統。人類具有控制身體與思辨的靈魂,人工智能猶如靈魂,賦予機械生命,因而使得現行法律秩序產生變動并引發反思。

      法律人格為適用現行多數法律的前提,人工智能影響各個法律領域,不論民法、刑法或其他法律均面臨人工智能法律人格的爭議,例如人工智能系統能對外作出締約的意思表示,那么在合同法上是否成立權利義務關系;若人工智能操控機械實施犯罪,那么刑法能否制裁其行為;人工智能造成的侵權損害行為應當如何承擔民事責任;人工智能進行的創作是否受著作權法保護等等。誠如學者所言,法律主體的確定對解決任何爭議都至關重要,因為只有先確定法律主體,才能接下來討論法律責任的分配問題。對人工智能應否被承認為法律主體的討論也因此而起。①

      可以看出,是否賦予人工智能法律主體地位是所有人工智能法律關系的先決問題,如果人工智能的法律主體地位不明確,將會導致以下問題無法界定。需要說明的是,由于法律上的“人”是一種具有自由意志、能承擔責任的主體。換言之“主體”主要就是指涉道德與倫理的主體,②法律上之人最根本的概念就是權利主體以及責任能力。③同時,基于法律上的“權利主體”通常意指主體的行為、道德,故在探討將強人工智能擬制為法律主體是否具備現實必要性時,就需要對人工智能的權利主體性,尤其是其行為邊界與道德邊界進行反思,同時對其責任能力(主要是民事責任能力及刑事責任能力)進行探討。

      三、賦予強人工智能法律主體地位的路徑

      從上文的討論可以看出,如果不賦予人工智能的法律主體地位,將會導致人工智能的行為邊界與道德邊界無法甄別、人工智能生成物知識產權的歸屬不明、人工智能侵權以及刑事犯罪的責任無法認定等問題。因此賦予人工智能民事主體資格已成必要,那么進而應當思考賦予人工智能法律主體資格是否現實可行,賦予人工智能法律主體地位的路徑為何。在探討賦予人工智能法律主體地位的路徑之前,仍需先闡明人工智能取得法律主體地位的影響因素有哪些。

      從法理學上來看,判斷主體是否為法律主體需要從三個層面入手:能否做出獨立的意思表示、是否擁有獨立的財產、能否獨立承擔責任。因此賦予人工智能法律主體地位的路徑也應當從人工智能是否能作出獨立的意思表示、人工智能是否有獨立的財產、人工智能是否能夠獨立承擔法律責任等三個維度進行。

      四、強人工智能擬制法律主體地位的限度

      比較現有的人格擬制體系當中胎兒的人格擬制和法人的人格擬制,根據現實需要,人工智能也可以通過人格擬制技術,獲得有限的法律人格和法律主體地位。為了實現法律背后的制度目的,人格擬制技術的運用有利于構建法律關系,并且推動人們做出正確的價值判斷。

      運用人格擬制的法律技術,在特定情形下認定人工智能具有法律主體地位。不過,盡管本文主張須賦予人工智能主體地位,并在上文論述其擬制路徑,但在何種情形、何種范圍、何種限度內賦予人工智能的法律主體地位,理論與實踐尚欠缺應有的回應。本文認為賦予人工智能主體地位的同時,也應對人工智能擬制權利設置權利邊界和權利保留,明確人工智能道德權利和行為效力的限度。

      結論與展望

      人工智能的法律人格化向來為學理上熱烈討論的議題。賦予人工智能法律主體的地位,雖然頗需跳躍性的想象力,但有鑒于法人的設計本來也是以功能性為考量,因此當條件具備、社會上有所需求之時,創設人工智能法律人格是必要的,并且在實現路徑上亦無不可。事實上,人工智能的法律人格具有多維度的需求,其中前文所討論的侵權責任的明確、權利能力的塑造等具體需求就是如此。

      隨著科技的發展,強人工智能將具有較強的學習能力、思維能力和創造能力,在一定程度上還能體現人性,甚至在很多方面都可以優于人類。強人工智能本質上不再只是機器,其具有神經和情感,能夠自主意識、自主行為并享有權利需求,也會全面參與社會活動,其相關的人格利益在現有的權利體系中并不能找到歸屬,所以人工智能應當具有主體人格、法律應當賦予其人格權。以法律對人工智能的人格權進行確認,有利于保護其應有的人格利益。

      人工智能的很多產品,例如搭載人工智能的自動駕駛汽車、智能機器人等,在未來可能處于似人非人的狀態,并且其處于持續進化的過程,無人能斷言人工智能發展的極限,介于物與人之間的人工智能,就產生是否應賦予其法律人格的問題。不過,應否賦予人工智能人格權并非單純以人格性高低來判斷,應取決于社會需求與立法設計,必須從經濟、社會、法律等多個維度的目的進行思考。在目的論意義上,人工智能能夠推動積極向善,助力美好生活,實現顯著的經濟社會價值,作為法律主體具有合目的性。

      同時,人工智能可以將法律價值設定成算法程式,不斷通過決策樹實現價值的選擇,F有關于人工智能法律人格存在“否定說”“肯定說”,對于其法律地位完全證成或證否均不符合現實需要,應采取折中的法律人格“有限說”,并建立“穿透人工智能面紗”的首要歸責原則,通過法律系統性調整實現人工智能技術與社會正向發展目標。面對人工智能技術的逐漸成熟,人類社會不能故步自封無視科技翻天覆地的改變與進步,更不能因數據安全等問題而因噎廢食。將人工智能視為自然人、法人、非法人組織以外的新型法律主體,在一定范圍內為其擬制特殊法律主體地位,符合未來人工智能發展趨勢。

      這不僅能夠防范人工智能給人類帶來的利益沖擊,同時也能促進人類社會的進步與人類自身的健康發展。最后,應當發揮法律社會管理、行為調控等職能,增強人工智能領域的風險抵御能力,強化風險意識,通過立法來預防和規避風險。在立法上應當軟硬兼施,在國家安全、違法犯罪以及倫理道德方面,要有剛性的邊界,同時也要有柔性的限度,謹慎、包容地來發展?萍贾挥斜恢匾,才談得上進步,立法要與人工智能技術齊頭并進,才能保證人工智能發展體系的良性創新。

      作者:朱凌珂

    亚洲AV片劲爆在线观看