人工智慧語言模式所生的法律爭端和責任

2021-03-11

在本文中,作者將討論貴公司在發展人工智慧語言模式時,可能產生的法律責任。就我們所知,本所是率先就此議題提出討論的法律事務所。隨者自然語言處理已為廣泛的採用,公司內部從事訓練及佈局應注意因此所生的法律責任。您的技術團隊應關注有關的法律議題,而法律團隊也應準備未來可能的法律挑戰。

資料竊取在人工智慧領域中已多年為人所知。Carlini及他人也在其研究中就此表達類似觀點。這顯示出公司內部機密的人工智慧訓練資料有可能外流其中不乏受著作權保護的公司資訊。

在建立語言模式的過程中,過度培訓會產生模式的過度導入,致系統能記憶其中若干培訓資訊。這使得外部人士有機會從系統中接觸並取得有關資訊。

公司無論自行或外包訓練人工智慧,必須對相關教材能充分了解,這樣才能降低洩密的風險。否則就像軟體產業中的工程師不了解其所開發的軟體程式會產生安全隱患一樣,這是其在開發過程缺乏安全意識所致。同樣情況也會導致公司的人工智慧系統洩漏機密資料,而法律後果也可能隨之產生。重點在於公司是否已行使注意義務,以防止相關資料外洩。

如果您的技術團隊就此尚未就此與法務團隊進行合作,公司人工智慧系統就可能產生洩密風險,導致法律隱患。

即便公司將人工智慧的訓練和開發委託外包廠商負責,仍不能完全免除洩密所生的法律責任,故在與外包廠商議約時,應注意轉嫁法律責任。例如:當第三人提出索賠要求時,外包廠商出面解決,並使委託人無害的合約規定,就很重要。就此,沒有處理過人工智慧法律問題經驗的法律事務所對此議題可能就不會特別關注。

另外,有關法律問題不僅限於機密資料外洩。因系統產出導致的”重製”行為或其他不當行為,可能會有著作權的問題,也應重視。如果有關資料的產出或傳遞牽涉不同國家或地區,法律規定也應以不同國家的法律為準。

publication.get_previous_by_post_date.title 刑事大法庭就《個資法》第41條「利益」作成裁定
機密資訊與專有資訊的區別以及殘存條款的涵義