...Учитывая что люди не всегда могут договориться о едином понимании этики и морали даже в пределах сравнительно небольших обществ, каковы шансы объяснить таковые машине?
Посмотреть обсуждение, содержащее этот комментарий
no subject
Date: 2019-04-13 07:35 am (UTC)и с автопилотом нет никаких проблем - сейчас если наезд вызван конструктивными недостатками тормозов, то отвечает производитель, если ошибкой водителя, то он. ошибок водителя при ИИ почти не будет - или не будет вообще, если водитель не сможет переключать управление в ручной режим. и что от этого в принципе изменится?
no subject
Date: 2019-04-13 08:09 am (UTC)Тем, что ИИ это система принимающая решения. Соответственно, когда у некой системы есть четкая управляемость - то ответственным за последствия является управляющий. А чем более система автономна - тем больше ответственности на разработчике.
no subject
Date: 2019-04-13 09:02 am (UTC)вас смущает вторая буква "И" в названии, не имеющая к реальности никакого отношения - оно не более чем маркетинг.