fonzeppelin: (Default)
[personal profile] fonzeppelin
...Учитывая что люди не всегда могут договориться о едином понимании этики и морали даже в пределах сравнительно небольших обществ, каковы шансы объяснить таковые машине?



Посмотреть обсуждение, содержащее этот комментарий




Date: 2019-04-11 11:18 am (UTC)
From: [identity profile] spellinger.livejournal.com
Что за бред..
Ну и как он тогда будет убивать солдат противника? ..
Хотя... Понятие ИИ -некорректное , называем -самообучающаяся система и в топку правила.

Date: 2019-04-11 12:44 pm (UTC)
From: [identity profile] comes-smolny.livejournal.com
Минутка конспирологии: а может смысл как раз и состоит в том, чтобы нельзя было объяснить машине, как она должна действовать и, соответственно, не дать ей действовать вообще? Понятно, что за такие слова на меня укоризненно посмотрит тов. Хэнлон со своей бритвой, но всё-таки сколько можно списывать стремление бюрократов впихивать мораль и этику везде, где только можно и нельзя только на их глупость?
Edited Date: 2019-04-11 12:45 pm (UTC)

Date: 2019-04-11 04:28 pm (UTC)
From: [identity profile] reader59.livejournal.com
для них это шайтан-машина, да.
на самом деле чуть усложненный пулемет, стреляет не он, а пулеметчик, с него и все спросы.

Date: 2019-04-13 07:29 am (UTC)
From: [identity profile] flover3.livejournal.com
Ну дык "пулеметчиком" здесь является разработчик ИИ. Соответственно - с него и спрос.
Целью нормативных документов является не только конструирование желаемой действительности, но и в значительной степени распределение ответственности за то, что реальность не соответствует желаемым представлениям.
Это "первый подход к снаряду". Дальше - больше, точнее, конкретнее. Когда автопилот ИИ наедет на пешехода - то кто будет виновен? Сколько дадут и кому? Вот это и есть вопрос правотворчества.

Date: 2019-04-13 07:35 am (UTC)
From: [identity profile] reader59.livejournal.com
чем разработчик ИИ отличается от разработчика пулемета? отвечает тот, кто нажал на кнопку.
и с автопилотом нет никаких проблем - сейчас если наезд вызван конструктивными недостатками тормозов, то отвечает производитель, если ошибкой водителя, то он. ошибок водителя при ИИ почти не будет - или не будет вообще, если водитель не сможет переключать управление в ручной режим. и что от этого в принципе изменится?

Date: 2019-04-13 08:09 am (UTC)
From: [identity profile] flover3.livejournal.com
чем разработчик ИИ отличается от разработчика пулемета?
Тем, что ИИ это система принимающая решения. Соответственно, когда у некой системы есть четкая управляемость - то ответственным за последствия является управляющий. А чем более система автономна - тем больше ответственности на разработчике.
Edited Date: 2019-04-13 08:09 am (UTC)

Date: 2019-04-13 09:02 am (UTC)
From: [identity profile] reader59.livejournal.com
это система, по определению не обладающая свободой воли: на что и как нейросеть натренировали, то и так она и делает, не более и не менее, и только пока человек ей это приказал. натренировали уничтожать "абрамсы" - она после запуска будет уничтожать "абрамсы". от всех прочих пушек юридически оно не отличается ничем.
вас смущает вторая буква "И" в названии, не имеющая к реальности никакого отношения - оно не более чем маркетинг.

Profile

fonzeppelin: (Default)
fonzeppelin

January 2026

S M T W T F S
     12 3
4 56 78910
1112131415 1617
18192021222324
25262728293031

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 18th, 2026 02:34 pm
Powered by Dreamwidth Studios