fonzeppelin: (Default)
[personal profile] fonzeppelin

Представьте солдата в окопе на поле боя. Он напуган. Он истощен бессонными ночами, отсутствием самого минимального комфорта и непрерывной опасностью. Его чувства притуплены постоянным страхом за свою жизнь, и жизни товарищей. Вполне вероятно, он ранен и мучается от боли. Он ненавидит врага постоянной, слепой и нерассуждающей ненавистью. Он, вполне возможно, не слишком хорошо образован, и видит конфликт только как его показывает пропаганда: «мы — хорошие, а они — плохие». Он усвоил на собственном опыте, что война, это очень во многом «убей или тебя убьют». Он, скорее всего, молод — вчерашний подросток с нестабильной, разбалансированной гормональными бурями психикой. На него постоянно давят приказы и распоряжения командиров, смысл которых ему далеко не всегда очевиден — очень часто ему кажется, что эти приказы не имеют никакого отношения к реальности. И иногда он в этом прав.


И каким же образом этот солдат сумеет принимать более беспристрастные, точные и моральные решения на поле боя, чем робот?





Справа - бездушная, аморальная машина смерти, слева - высокоинтеллектуальный, душевный индивидуум, всегда принимающий исключительно правильные, морально безупречные решения в любой обстановке. Не перепутайте.

Справа - бездушная, аморальная машина смерти, слева - высокоинтеллектуальный, душевный индивидуум, всегда принимающий исключительно правильные, морально безупречные решения в любой обстановке. Не перепутайте.




Мое личное ИМХО — все эти идеи, что «решение о применении оружия должно обязательно оставаться за людьми» и «машины не должны сами принимать смертельное решение», строятся на совершенно абсурдной идеализации человека, и демонизации машины. Сформированной замшелой фантастикой 50-ых, когда представление о роботах и компьютерах было самым наивным и сводилось к «железный человек с блестящими интеллектуальными способностями но априори аморальный». Даже если опустить сомнительный вопрос о моральности войны как таковой, эти взгляды явно исходят из совершенно анахроничных представлений о роботе как непременно самоосознающей, способной к формированию собственного представления о мире машине. 


Такая позиция имела определенный смысл в 1950-1960-ых — когда ввиду чисто технических ограничений, полностью автоматизированными могли быть лишь системы стратегического значения. То есть те, для которых «цена ошибки» была априори неприемлемо велика — и которые, как правило, управлялись высококвалифицированным персоналом, находящимся в существенно более безопасной позиции. Однако, к 2020-ым ситуация переменилась и изрядно. Вопрос «о праве робота на убийство» сейчас уже сводится не к «запуску атомных ракет по ложной тревоге» а к «выстрелу с дрона по подозрительной цели».


Суммируя плюсы и минусы:


+ Робот озабочен собственной безопасностью лишь в той мере, в которой это практично для выполнения боевого задания. Робот не испытывает никаких принципиальных проблем с тем, чтобы высунуться из укрытия для точной идентификации цели или сознательно подставиться под первый выстрел возможного противника. Для живого солдата, это неприемлемо. Для робота — это лишь вопрос «будет ли это эффективно решать проблему».


+ Робот не испытывает эмоциональной нагрузки, не беспокоится за товарищей, не устает и не испытывает ненависти к противнику. Робот совершенно точно не будет принимать решение в стиле «расстрелять в отместку».


+ Робот всегда будет скрупулезен в следовании всем протоколам и алгоритмам применения оружия. Он не начнет стрелять по неудачно высунувшимся гражданским потому, что «да ясно же, что с той стороны только враг!»


— Робот может «тупить» необъяснимо для человека. Имеется в виду, что самообучающиеся программы в ходе, собственно, самообучения, могут временами приходить к совершенно парадоксальным (с человеческой точки зрения) выводам и решениям, слабо коррелирующим с реальностью.


— Робот может быть более уязвим в том плане, что его скрупулезное следование протоколам позволяет противнику — предполагая, что тот знает об этих протоколах — найти способы эффективно обмануть робота на «формальностях». Живые солдаты менее восприимчивы к такого рода обманам ввиду наличия эмоциональных реакций (т.е. подозрительности). 



Date: 2021-01-07 06:02 am (UTC)
From: [identity profile] alexsh25.livejournal.com
Если Вы про 737е - то падали исключительно по причине криворукости подготовленных по-дешевке поточным методом летунов, с которых, кстати, уже не спросишь....Потому как решения принимал не компьютер, а человек за штурвалом, который просто не знал, что делать в случае если комп явно сбоит.

Date: 2021-01-07 12:45 pm (UTC)
From: [identity profile] john-jack.livejournal.com
Как бэ человеку там забыли объяснить, что комп так не сбоит, а лучше знает как спасать машину. И что критично важные датчики работают без резервирования. И толку знать что делать, если в это "что" входит моментально вырубать комп нафиг и крутить вручную ручки с громадным усилием.

Profile

fonzeppelin: (Default)
fonzeppelin

January 2026

S M T W T F S
     12 3
4 56 78910
1112131415 1617
18192021222324
25262728293031

Style Credit

Expand Cut Tags

No cut tags
Page generated Jan. 18th, 2026 03:03 pm
Powered by Dreamwidth Studios