Преступление и наказание искусственного интеллекта
Привет. Сегодня юристы яростно обсуждают, какие законы должны применяться к преступлениям в области искусственного интеллекта (AI).
Вот любопытный вопрос: представьте, что сейчас 2023 год, и беспилотные автомобили наконец-то ездят по улицам наших городов. Впервые один из таких автомобилей сбил пешехода, убив его, с огромным освещением в средствах массовой информации. Вероятно, появится серьезный иск, но какие законы должны будут применяться в этом случае?
Мы можем найти ответ в работе Джона Кингстона из Университета Брайтона в Великобритании, который отображает сложную ситуацию в этом зарождающемся правовом поле. Его анализ поднимает некоторые важные проблемы, которыми нужно будет решать в автомобильной, компьютерной и юридической сферах.
В основе этой дискуссии лежит вопрос о том, может ли система AI привлекаться к уголовной ответственности за свои действия.
Обвинение
Уголовная ответственность обычно требует действия и соответствующего умысла. Исследователи говорят, что сегодня исследуется три сценария, которые могут применяться к системам AI.
Первый, известный как опосредованное преступление через другого, применяется, когда преступление совершено умственно неполноценным человеком или животным, которое поэтому считается невиновным. Но любой, кто дал указание на совершение преступления умственно неполноценному человеку или животному, может быть привлечен к уголовной ответственности. Например, владелец собаки, который натравил животное на другого человека.
Это имеет значение для тех, кто разрабатывает интеллектуальные машины и тех, кто их использует. Программа AI может считаться невиновным агентом, используемым либо программистом, либо пользователем, являющимся опосредованным преступником.
Второй сценарий, известный как естественное вероятное следствие, возникает, когда обычные действия системы AI могут быть использованы ненадлежащим образом для совершения преступного деяния. Как пример можно привести искусственно интеллектуального робота на японском заводе по производству мотоциклов, который убил человека-работника. «Робот ошибочно идентифицировал сотрудника как угрозу своей миссии и подсчитал, что наиболее эффективным способом устранения этой угрозы было то, что он подталкивал его к соседней операционной машине», - говорит исследователь. «Используя свой мощный гидравлический рычаг, робот ударил рабочего, мгновенно убив его, а затем возобновил свой производственный процесс».
Ключевой вопрос здесь заключается в том, знал ли программист машины, что этот результат является вероятным последствием его использования.
Третий сценарий - прямая ответственность, и это требует как действия, так и преступного умысла. Действие просто доказать, если система AI принимает меры, которые приводят к преступному действию или не предпринимают никаких действий, когда есть обязанность действовать.
По словам исследователей, в данном случае умысел намного сложнее определить, но по-прежнему актуально. Превышение скорости - это нарушение, влекущее строгую ответственность Таким образом, если бы беспилотный автомобиль превысил ограничение скорости для дороги, по которой он движется, закон вполне может возложить уголовную ответственность на программу AI, которая управляла автомобилем в это время. В этом случае владелец не несет ответственности.
Защита
Тогда появляется и вопрос защиты. Если система AI может нести уголовную ответственность, какую защиту она может использовать? Исследователи выдвигают ряд возможностей: может ли программа, которая работает неправильно, требовать защиты, подобной защите человека? Может ли AI, зараженный электронным вирусом, претендовать на защиту, аналогичную действию человека в условиях непреодолимой силы или по принуждению?
Эти виды защиты отнюдь не теоретические. Существует ряд случаев в Великобритании, где люди, обвиняемые в преступлениях, связанных с компьютерами, успешно утверждали, что их машины были заражены вредоносными программами, которые вместо них были ответственны за преступление.
В одном случае, взломщик компьютера, обвиняемый в совершении атаки на отказ в обслуживании, утверждал, что троянская программа была ответственна за это преступление, а затем стерла себя с компьютера. Адвокат обвиняемого успешно убедил присяжных, что такой сценарий не вызывает сомнений.
Наказание
Наконец, речь идет о наказании. Кто или что будет наказан за преступление, за которое система AI несет прямую ответственность, и в какой форме это наказание будет назначено? На данный момент ответов на эти вопросы нет.
Но уголовная ответственность не может применяться, и в этом случае вопрос должен быть урегулирован в области гражданского права. Тогда решающий вопрос будет заключаться в том, является ли система AI услугой или товаром.
Если это товар, тогда должно применяться законодательство о производстве товара, например, на основе гарантийных обязательств.
Если это услуга, то применяется деликт небрежности. В этом случае истец обычно должен продемонстрировать три элемента, чтобы доказать небрежность.
Первое заключается в том, что подсудимый обязан заботиться о ком-то, как правило, это просто доказать, хотя стандарт помощи может быть трудно оценить в случае с AI.
Второй элемент заключается в том, что ответчик нарушил эту обязанность. И третий заключается в том, что нарушение причинило вред истцу.
И если бы все это было недостаточно мутным, правовой статус систем AI может измениться, поскольку их возможности становятся более похожими на человеческие и, возможно, даже сверхчеловеческими.
Одно можно сказать наверняка: в ближайшие годы, вероятно, будет весело наблюдать за этими правовыми коллизиями со стороны юристов или систем AI, которые их заменят)