taki_net: (gagarin)
taki_net ([personal profile] taki_net) wrote2016-11-30 09:41 am

Как так случилось, что атеизм оказался кровавее инквизиции

Как, как. Ну вот почитайте звезду русского сциентизма и атеизма:
http://scinquisitor.livejournal.com/100512.html

Коротко пересказываю: ура, ура, появление роботизированных бесшоферных авто на дорогах позволяет наконец-то исследовать и практически применить аксиомы настоящей, научной морали, без поповщины и розовых слюней сентиментальности ("Три закона Робототехники" - нет, не слышали).

1. Внезапно, дилемма вагонетки: оказывается, роботизированной машине так и так придется решать вопрос: задавить ребенка в коляске, выкатившейся на проезжую, или принять правее и сбить дядьку с пивным пузом, или левее и сбить бабульку с собачкой на поводке. Шах и мат, сентиментальные моралисты! Математика рулит! Главное - это минимизировать количество убитых, согласно формул! Собака не считается!

Угу. Вам не приходит в голову, что с этой математикой проблемка: кто-то стер часть уравнения, даже с некоторыми переменными, и дядя у доски ИМИТИРУЕТ работу математика? Поясняю.

Дело в том, что при движении машины со скоростью, скажем, 5 км/час гарантированно останутся живы и ребенок, и старушка, и дядька с пузом. Даже собачка. Даже пиво у дядьки не разольется. То есть, у уравнения, включающего жизни этих людей - есть сверхоптимальное решение, и строго говоря, в постановке автора ("минимизация числа смертей") - вопрос закрыт. Но он явно имел в виду другое, он стер вот какую часть уравнения: "как минимизировать число смертей ПРИ КАТЕГОРИЧЕСКОМ УСЛОВИИ моего прибытия в пункт назначения в строго указанное время, то есть движения со скоростью НЕ МЕНЬШЕ указанной".

То есть, предлагается решать дилемму вагонетки, ИГНОРИРУЯ то, что само возникновение угрозы жизни тем или иным ее участникам вызвано (1) самым фактом выезда Сцинквизитора на дорогу; (2) присвоением его удобству (продолжительности поездки) высшего приоритета перед жизнью любого участника ситуации и любого числа жизней участников.

1а. В реальности, Роботу не придется решать уравнения Сцинквизитора, потому что их решение содержится в ПДД, в статьях, которые предписывают безальтернативно выбирать скорость движения не выше, чем обеспечивающую гарантированную остановку при появлении неожиданного препятствия, и интервал между машинами, обеспечивающий остановку без столкновения при внезапном торможении впереди идущей машины. Иными словами, закон уже постановил, что это уравнение следует решать за счет интересов сидящего в машине Сцинквизитора. А Робот, он не такой, он не будет уговаривать, что "мало ли что 40 на знаке, тут все всегда едут 70", или "мы в 3-м ряду тормозим, только если 2 ряд стоит, а так нам пешеходя не видно".

2. "ГУЛАГ не средство наказания, а средство воспитания". Особенно доставляет идея, что в "уравнении" было бы полезно учесть, кто из участников "вагонетки" действовал правомерно, а кто нарушил ПДД, и его и давить.

Вот и ответ. Вот так это и работает. Вместо очевидного ответа - что Робот должен ездить небыстро (с умеренной скоростью), сбавлять ее в сложных ситуациях, тормозить при помехе - русский интеллектуал мечтает воспользоваться изобретением (инженерным или социальным) для ВОСПИТАНИЯ ЛУЧШЕГО ЧЕЛОВЕКА. Точно так же в начале 20 века интеллектуалы вместо двух сложившихся реакций на девиантное поведение (игнорировать или изолировать) решили людей ПЕРЕДЕЛЫВАТЬ, перевоспитывать. И устлали тундру человеческими костями.

ЗЫ. Особенно доставляет, что Сцинквизитор, суда по комментам, машину не водит. То есть да, это он из "чисто научных соображений". Ну что, ответ на заглавный вопрос получен?

[identity profile] taki-net.livejournal.com 2016-11-30 09:40 am (UTC)(link)
Но в правилах написано так, а значит, робот будет ездить именно так.

И да, дорога, на которую "выскакивают" люди, должна иметь ограничение 10.

[identity profile] oude-rus.livejournal.com 2016-11-30 09:40 am (UTC)(link)
//а пешеход, и не знаю что там в правилах.//
Это не очень рациональный подход, поскольку пешеходы в ПДД тоже прописаны. Полезно знать свои (как минимум) права и обязанности.

[identity profile] oude-rus.livejournal.com 2016-11-30 09:42 am (UTC)(link)
такая дорога называется "двор".
текущее ограничение в 20 км/ч представляется мне совершенно необоснованным.

[identity profile] warlen.livejournal.com 2016-11-30 09:50 am (UTC)(link)
Может и найду время изучить, но пока не нашел. На свете много полезных вещей, которых я не знаю, все изучить - жизни не хватит.

[identity profile] warlen.livejournal.com 2016-11-30 10:00 am (UTC)(link)
Что значит "выскакивают"? Я так понял, что там обсуждается гипотетическая ситуация, а не типичная. А в принципе человек может выскочить на любую дорогу. Только на автостраде робот издалека заметит, как человек подбегает к дороге и перелезает через забор, а в городе люди постоянно находятся в метре от проезжей части. Для того, чтобы броситься под машину, им достаточно долей секунды.

[identity profile] arhiloh.livejournal.com 2016-11-30 10:07 am (UTC)(link)
Она допустим стремится к нулю, но не равна ни теоретически, ни практически (бодро прыгающих по мкаду пешеходов видел не раз и не 20 раз, например), и роботу видимо надо будет это "не равна" учитывать, если он категорически не хочет решать кого давить. ну или да, ехать со скоростью примерно пешехода всегда, ибо вероятность заведомо есть, хоть какая-то.

[identity profile] taki-net.livejournal.com 2016-11-30 10:19 am (UTC)(link)
Ну так МКАД и не автострада ни разу.

Сравните с любым Интерстейтом в США.

[identity profile] vsvor.livejournal.com 2016-11-30 10:35 am (UTC)(link)
>Где в посте Панчина про ОТКАЗ тормозов?

"Впрочем, если пешеходы переходят дорогу по правилам, а машина слетела с тормозов..."

В посте Панчина обсуждается тест MIT. Если бы Вы ознакомились с данным тестом, то увидели бы, что во всех 13 ситуациях фигурирует машина с отказавшими тормозами.

Рассуждения могут относиться и к другой ситуации, но только к такой, когда гибели человека нельзя избежать, и от поведения автопилота зависит, кто именно погибнет. Очевидно, что такие ситуации возможны при любых ограничениях на скорость беспилотной машины.
Edited 2016-11-30 11:15 (UTC)

[identity profile] gena-t.livejournal.com 2016-11-30 10:39 am (UTC)(link)
Вроде бы где-то я читал (или по телевизору слышал), что все-таки сворачивают. Когда на встречу со страшной скоростью несется какой-нибудь Камаз , люди все-таки пытаются увернуться.

[identity profile] oude-rus.livejournal.com 2016-11-30 11:15 am (UTC)(link)
вот так бабушки-с-кошелками превращаются в камазы.

[identity profile] oude-rus.livejournal.com 2016-11-30 11:16 am (UTC)(link)
это из тех полезных вещей, незнание которых может сильно сократить жизнь.

[identity profile] oude-rus.livejournal.com 2016-11-30 11:17 am (UTC)(link)
вот это бы напрасно, насчет интерстейтов.

[identity profile] i-ddragon.livejournal.com 2016-11-30 11:46 am (UTC)(link)
> Ученые из MIT придумали тест под названием «Моральная машина». В ходе тестирования вы должны решить за беспилотную машину ряд этических дилемм. Как ей вести себя на дороге, если катастрофа неизбежна и кто-нибудь должен погибнуть?

Судя по цитате, вариант "притормозить, никого не задавить" исключён условием задачи. Насколько задача приложима к практике - другой вопрос, и начнёт ли кто-то злоупотреблять результатами - ещё один вопрос, но внутри самой задачи опции "затормозить" просто нет.

[identity profile] taki-net.livejournal.com 2016-11-30 11:48 am (UTC)(link)
Я не понял, что Вы хотите сказать.

[identity profile] taki-net.livejournal.com 2016-11-30 11:49 am (UTC)(link)
Я не обсуждаю тест МИТ, я обсуждаю пост Панчина.

+++ но только к такой, когда гибели человека нельзя избежать, и от поведения автопилота зависит, кто именно погибнет. Очевидно, что такие ситуации возможны при любых ограничениях на скорость беспилотной машины.

Давайте без демагогии.

[identity profile] vsvor.livejournal.com 2016-11-30 12:05 pm (UTC)(link)
>Я не обсуждаю тест МИТ, я обсуждаю пост Панчина.

... в котором обсуждается тест MIT.

>Давайте без демагогии.

Так весь Ваш пост - демагогия. Вы говорите, что при соблюдении правил и жестких ограничениях на скорость будет меньше проблем, Панчин - о дилеммах, возникающих в том, случае, когда жертв нельзя избежать. Т.е. Вы приписываете оппоненту заведомо ошибочные взгляды, которые Вы же сами и придумали.

[identity profile] taki-net.livejournal.com 2016-11-30 12:11 pm (UTC)(link)
+++ Предложенные мной правила кое-что подсказывают об адекватных мерах наказания.

Это Панчин пишет. И ниже:

+++ Я считаю, что автоматическая машина просто обязана появиться на дорогах

Так что давай досвидание.

[identity profile] xgrbml.livejournal.com 2016-11-30 12:45 pm (UTC)(link)
Автострада вполне. По знакам и по факту.

[identity profile] profpr.livejournal.com 2016-11-30 01:26 pm (UTC)(link)
Я полагаю, ваш комментатор хочет сказать, что в ваших рассуждениях straw man fallacy (извините, не знаю русского эквивалента).

[identity profile] andreype.livejournal.com 2016-11-30 01:55 pm (UTC)(link)
Причем по своему опыту (три аварии) могу сказать, что сворачивают влево, подставляя под удар переднее пассажирское сидение. Ну, и сидящего на нем пассажира. Инстинктивно.

[identity profile] lepestriny.livejournal.com 2016-11-30 02:26 pm (UTC)(link)
Толково подмечено.

[identity profile] i-ddragon.livejournal.com 2016-11-30 02:59 pm (UTC)(link)
Ник Бостром ужесточал условия подобных моральных упражнений, вводя в них во-первых, вероятности, во-вторых, возможность бесконечно больших благ и несчастий, причём физически правдоподобные возможности. Правда итогом его рассуждений был вывод, что наивная теория принятия решений (та, которая в том числе предлагает всегда быть готовым причинить меньшие жертвы ради предотвращения больших, если их иначе нельзя предотвратить) не пригодна к практическому применению.
Edited 2016-11-30 15:02 (UTC)

[identity profile] i-ddragon.livejournal.com 2016-11-30 03:01 pm (UTC)(link)
Ошибка "Соломенного чучела"?

[identity profile] taki-net.livejournal.com 2016-11-30 03:17 pm (UTC)(link)
ОК, теперь остается понять, чо он ГОВОРИТ.

[identity profile] geralt.livejournal.com 2016-11-30 03:49 pm (UTC)(link)
"Очевидно, что такие ситуации возможны при любых ограничениях на скорость беспилотной машины"

Ну вообще говоря - нет. Если машина всегда будет двигаться со скоростью 5 км/час, то у неё может отказывать что угодно, человека она не убьёт.

Page 2 of 3