» » Что делать, если разумная машина совершит преступление?

Что делать, если разумная машина совершит преступление?

Что делать, если разумная машина совершит преступление?
Страх перед мощным искусственным интеллектом и технологиями — довольно популярная тема, которую активно поддерживают фильмы вроде «Из машины», «Чаппи» и «Терминатора». В скором времени мы можем вообще столкнуться с полностью автономными технологиями, которые могут причинять вред. И хотя, вероятнее всего, это будет некая форма военного дроида или полицейского робота, он может причинить вред даже не по заранее запрограммированной программе, а случайно. Что тогда? Кто будет нести ответственность за искусственный интеллект, который выйдет из строя? Очевидно, этот курс развития технологий не особо вписывается в устоявшиеся рамки повинности и справедливости.

Хотя многие отмахиваются от этой темы, мол, она не имеет ничего общего с реальностью, не будем забывать, что роботов уже арестовывали за покупки наркотиков. Также не будем забывать, как быстро развиваются технологии. Мы хорошо усвоили уроки прошлого — многие из нас все еще помнят мир без Интернета, социальных медиа, мобильных технологий, GPS, широко доступных телефонов и компьютеров. Инновации в мире повседневных технологий создали много юридических проблем.

Виновен ли робот?

Мы быстро принимаем технологии как должное и так же быстро обязаны создавать правовые ограничения для них. Одна из функций нашей правовой системы — это урегулирование поведения граждан, наказание и сдерживание правонарушителей. Также она предоставляет компенсации тем, кто пострадал или может пострадать.

Юридические лица — люди, компании и организации — обладают правами и обязанностями. Те, кто строят, проектируют, продают и управляют разумными машинами, обладают правами — а как насчет самих машин? Ваш мобильный телефон вместе с Siri или Cortana не считается юридическим лицом. Но что, если автономно принятые решения их будущих потомков станут причиной серьезного ущерба?

Уголовное право имеет два важных понятия. Во-первых, ответственность возникает тогда, когда в процессе любого действия или бездействия может быть нанесен вред. Физические устройства вроде самоуправляемых автомобилей Google, к примеру, очевидным образом могут навредить, убить или уничтожить имущество. Программное обеспечение также обладает потенциалом нанесения вреда, но эти риски можно свести к менее явным формам ущерба, вроде потери финансовых средств.

Во-вторых, уголовное законодательство часто требует признания вины преступника, признания его виновным законом или по собственной воле — с тем, чтобы последующее наказание отражало состояние ума преступника и его роль в разбирательствах. Как правило, преднамеренные и злоумышленные действия наказываются жестче, чем непреднамеренные. В случае с машинами возникает проблема: как мы можем узнать намерения нечеловеческого существа? Как вписать отсутствие у него каких-либо намерений, кроме запрограммированных, в правовые рамки?

Робопреступление?

Эта проблема не нова — подобные соображения возникают постоянно в корпоративной среде. Сложно понять, когда и при каких обстоятельствах мы должны перекладывать вину с пользователя на производителя или дизайнера. Многие из наших современных и международных законов подразумевают участие оператора.

К примеру, в случае с дорогами режим регулирования предполагает, что есть человек-водитель, хотя бы в некоторой степени. Когда появятся полностью автономные автомобили, эти рамки потребуют внесения существенных изменений с учетом новых взаимодействий между человеком и машиной на дороге.

По мере того как разумные технологии, которые обходят прямое человеческое управление, становятся более продвинутыми и получают широкое распространение, вопросы риска, вины и наказания становятся более актуальными. Кино и телевидение до конца могут представлять нам крайние случаи, но уголовное право и в общем нормы лучше не предоставлять самим себе или фантастике.

07 июль 2015 /
  • Не нравится
  • 0
  • Нравится

Похожие новости

Распространённые лекарства могут заставить человека вредить себе и другим

Исследователи из Университетского колледжа Лондона провели эксперимент, который должен был зафиксировать влияние приёма антидепрессантов на процесс принятия решений.Здоровые люди, которые принимали

ООН наложила запрет на использование боевых роботов

ООН наложила запрет на использование боевых роботов, объяснив это тем, что они могут быть запрограммированы как на уничтожение целей, так и на убийство людей. В отличие от БПЛА на поле боя эти

Каковы будут последствия контакта человечества с инопланетной цивилизацией

Что, если мы все-таки не одни во Вселенной, вопреки парадоксу Ферми? Что, если мы, согласно нашим планам, все же услышим их, увидим, свяжемся с ними, с нами свяжутся, к нам прилетят «гости» с далеких

ИИ должен уметь сочувствовать, чтобы не навредить человеку

Идея того, что компьютер может обладать сознанием, все больше и больше тревожит людей. Кажется неестественным, что человекоподобная машина может чувствовать боль, понимать глубину сожаления или

Стивен Хокинг: человечество обречено, если не покинет Землю

Если человечество хочет выжить в долгосрочной перспективе, ему нужно найти способ покинуть планету Земля. Знакомые слова? В этот раз они прозвучали из уст известного астрофизика Стивена Хокинга.

Человечество обречено, если не покинет Землю

Если человечество хочет выжить в долгосрочной перспективе, ему нужно найти способ покинуть планету Земля. Знакомые слова? В этот раз они прозвучали из уст известного астрофизика Стивена Хокинга.
Комментарии

НАПИСАТЬ КОММЕНТАРИЙ

Ваше Имя:
Ваш E-Mail:
Код:
Кликните на изображение чтобы обновить код, если он неразборчив
Введите код:
Популярные новости
Как правильно выбрать турагентствоКак начать бизнес без раскрутки рекламыПланета X: научные фактыУченые не могут объяснить просихождение Мистической дороги в КорееЧто дают клиентам сервис бронирования отелейТкани для зимней одежды: какие, как выбратьПять правил компьютерной безопасностиРасстоечный шкаф: устройство