...Учитывая что люди не всегда могут договориться о едином понимании этики и морали даже в пределах сравнительно небольших обществ, каковы шансы объяснить таковые машине?
Посмотреть обсуждение, содержащее этот комментарий
no subject
Date: 2019-04-11 11:18 am (UTC)Ну и как он тогда будет убивать солдат противника? ..
Хотя... Понятие ИИ -некорректное , называем -самообучающаяся система и в топку правила.
no subject
Date: 2019-04-11 12:44 pm (UTC)no subject
Date: 2019-04-11 04:28 pm (UTC)на самом деле чуть усложненный пулемет, стреляет не он, а пулеметчик, с него и все спросы.
no subject
Date: 2019-04-13 07:29 am (UTC)Целью нормативных документов является не только конструирование желаемой действительности, но и в значительной степени распределение ответственности за то, что реальность не соответствует желаемым представлениям.
Это "первый подход к снаряду". Дальше - больше, точнее, конкретнее. Когда автопилот ИИ наедет на пешехода - то кто будет виновен? Сколько дадут и кому? Вот это и есть вопрос правотворчества.
no subject
Date: 2019-04-13 07:35 am (UTC)и с автопилотом нет никаких проблем - сейчас если наезд вызван конструктивными недостатками тормозов, то отвечает производитель, если ошибкой водителя, то он. ошибок водителя при ИИ почти не будет - или не будет вообще, если водитель не сможет переключать управление в ручной режим. и что от этого в принципе изменится?
no subject
Date: 2019-04-13 08:09 am (UTC)Тем, что ИИ это система принимающая решения. Соответственно, когда у некой системы есть четкая управляемость - то ответственным за последствия является управляющий. А чем более система автономна - тем больше ответственности на разработчике.
no subject
Date: 2019-04-13 09:02 am (UTC)вас смущает вторая буква "И" в названии, не имеющая к реальности никакого отношения - оно не более чем маркетинг.