2021-03-11
В данной статье мы обсудим возможные юридические обязательства при разработке компанией языковых моделей для искусственного интеллекта. Соответствующие вопросы входят в нашу компетенцию, и, по последним данным, мы являемся первой юридической фирмой, расширившей правовую осведомленность о последствиях, связанных с языковыми моделями искусственного интеллекта. По мере того, как обработка естественного языка получает все большее распространение, компании, осуществляющие машинное обучение и внедряющие системы, должны расширять знания о юридических проблемах, связанными с этими процессами. В эпоху искусственного интеллекта и цифровой трансформации техническая команда компании обязана знать о возможных юридических последствиях, а адвокаты должны уметь предвидеть потенциальные проблемы в данной сфере.
Атаки с целью извлечения данных уже несколько лет известны в области искусственного интеллекта. Недавняя публикация Carlini et al. доказывает, что они становятся все более легко осуществимы на практике. Это означает появление больших рисков утечки персональных, конфиденциальных или защищенных авторским правом материалов системы, используемых во время обучения.
Чрезмерная тренировка может привести к проблеме переобучения модели. В таких случаях система «запоминает» данные, на основе которых она была построена. Даже без переобучения есть вероятность «запоминания» некоторых тренировочных данных, поэтому злоумышленник, имеющий доступ к системе, способен извлечь информацию из модели машинного обучения.
Компании, самостоятельно разрабатывающие или передающие построение систем искусственного интеллекта стороннему подрядчику, должны хорошо понимать содержание обучающих данных. Специалисты по машинному обучению обязаны уметь предотвратить утечку данных. Однако, как и программисты, не все они осведомлены о возможных угрозах информационной безопасности. Некачественно написанный код рождает уязвимости системы и в дальнейшем может повлечь за собой юридическую ответственность в зависимости от обстоятельств ситуации. Однако утечка данных из неправильно построенной системы искусственного интеллекта непременно приведет к таким последствиям, поэтому необходимо проявить должное внимание к защите набора обучающих данных от взлома.
Без тесного взаимодействия с юристами, работающими в сфере искусственного интеллекта, ваша техническая команда, вероятно, не будет иметь представления о возможных последствиях и юридических проблемах в случае внедрения неверно построенных систем.
Компании, которые не обучают свои системы напрямую и передают их разработку на аутсорсинг, также могут быть привлечены к ответственности за утечку данных. Если компания делегирует подрядчику разработку системы машинного обучения, должны быть приняты во внимание положения, защищающие от возможных нежелательных последствий. В таком случае включение условия о возмещении потерь третьей стороне является преимуществом. Традиционные юридические фирмы часто упускают из виду данные положения, так как не специализируются на работе в этой области и не знают о последних технических разработках.
Потенциальные юридические проблемы не ограничиваются защитой конфиденциальной информации. Утечка авторского материала, используемого в наборе обучающих данных, может привести к воспроизведению материалов или любой другой форме нарушения авторских прав. Это может привести к серьезным юридическим последствиям для компаний, которые небрежно подходят к построению систем искусственного интеллекта.
Юридическая фирма Kingdom's специализируется на юридических консультациях для передовых технологических компаний. Наша основательна на протяжении более 10 лет была рекомендована The Legal 500 для работы в области рынков капитала, интеллектуальной собственности и TMT (Телекоммуникации, медиа и технологии). Если у вас есть какие-либо вопросы или проблемы, или вы считаете, что произошла утечка принадлежащей вам информации из сторонней компании, свяжитесь с нами.
Разделяйте ключевые слова с помощью " " или "&".
Предоставлено юридической фирмой Kingdom's