taki_net: (gagarin)
taki_net ([personal profile] taki_net) wrote2016-11-30 09:41 am

Как так случилось, что атеизм оказался кровавее инквизиции

Как, как. Ну вот почитайте звезду русского сциентизма и атеизма:
http://scinquisitor.livejournal.com/100512.html

Коротко пересказываю: ура, ура, появление роботизированных бесшоферных авто на дорогах позволяет наконец-то исследовать и практически применить аксиомы настоящей, научной морали, без поповщины и розовых слюней сентиментальности ("Три закона Робототехники" - нет, не слышали).

1. Внезапно, дилемма вагонетки: оказывается, роботизированной машине так и так придется решать вопрос: задавить ребенка в коляске, выкатившейся на проезжую, или принять правее и сбить дядьку с пивным пузом, или левее и сбить бабульку с собачкой на поводке. Шах и мат, сентиментальные моралисты! Математика рулит! Главное - это минимизировать количество убитых, согласно формул! Собака не считается!

Угу. Вам не приходит в голову, что с этой математикой проблемка: кто-то стер часть уравнения, даже с некоторыми переменными, и дядя у доски ИМИТИРУЕТ работу математика? Поясняю.

Дело в том, что при движении машины со скоростью, скажем, 5 км/час гарантированно останутся живы и ребенок, и старушка, и дядька с пузом. Даже собачка. Даже пиво у дядьки не разольется. То есть, у уравнения, включающего жизни этих людей - есть сверхоптимальное решение, и строго говоря, в постановке автора ("минимизация числа смертей") - вопрос закрыт. Но он явно имел в виду другое, он стер вот какую часть уравнения: "как минимизировать число смертей ПРИ КАТЕГОРИЧЕСКОМ УСЛОВИИ моего прибытия в пункт назначения в строго указанное время, то есть движения со скоростью НЕ МЕНЬШЕ указанной".

То есть, предлагается решать дилемму вагонетки, ИГНОРИРУЯ то, что само возникновение угрозы жизни тем или иным ее участникам вызвано (1) самым фактом выезда Сцинквизитора на дорогу; (2) присвоением его удобству (продолжительности поездки) высшего приоритета перед жизнью любого участника ситуации и любого числа жизней участников.

1а. В реальности, Роботу не придется решать уравнения Сцинквизитора, потому что их решение содержится в ПДД, в статьях, которые предписывают безальтернативно выбирать скорость движения не выше, чем обеспечивающую гарантированную остановку при появлении неожиданного препятствия, и интервал между машинами, обеспечивающий остановку без столкновения при внезапном торможении впереди идущей машины. Иными словами, закон уже постановил, что это уравнение следует решать за счет интересов сидящего в машине Сцинквизитора. А Робот, он не такой, он не будет уговаривать, что "мало ли что 40 на знаке, тут все всегда едут 70", или "мы в 3-м ряду тормозим, только если 2 ряд стоит, а так нам пешеходя не видно".

2. "ГУЛАГ не средство наказания, а средство воспитания". Особенно доставляет идея, что в "уравнении" было бы полезно учесть, кто из участников "вагонетки" действовал правомерно, а кто нарушил ПДД, и его и давить.

Вот и ответ. Вот так это и работает. Вместо очевидного ответа - что Робот должен ездить небыстро (с умеренной скоростью), сбавлять ее в сложных ситуациях, тормозить при помехе - русский интеллектуал мечтает воспользоваться изобретением (инженерным или социальным) для ВОСПИТАНИЯ ЛУЧШЕГО ЧЕЛОВЕКА. Точно так же в начале 20 века интеллектуалы вместо двух сложившихся реакций на девиантное поведение (игнорировать или изолировать) решили людей ПЕРЕДЕЛЫВАТЬ, перевоспитывать. И устлали тундру человеческими костями.

ЗЫ. Особенно доставляет, что Сцинквизитор, суда по комментам, машину не водит. То есть да, это он из "чисто научных соображений". Ну что, ответ на заглавный вопрос получен?

[identity profile] vsvor.livejournal.com 2016-11-30 08:18 am (UTC)(link)
Вы задаете вопрос: почему в заметке по ссылке не рассматривается вариант соблюдения скоростного режима. Ответ: потому что дело не в опасной скорости беспилотной машины, а в том, что у машины внезапно отказали тормоза. Тест MIT так составлен, и выбор именно в такой ситуации обсуждает Панчин. Обвинять его в том, что он рассматривает задачу, предложенную интеллектуалами из MIT, а не какую-то другую, по меньшей мере странно.


[identity profile] taki-net.livejournal.com 2016-11-30 08:27 am (UTC)(link)
+++ Ответ: потому что дело не в опасной скорости беспилотной машины, а в том, что у машины внезапно отказали тормоза.

Как интересно все что вы говорите. Где в посте Панчина про ОТКАЗ тормозов? Не бессмысленно ли обсуждать ВОСПИТАТЕЛЬНУЮ роль действий машины при отказе тормозов? А если у машины "мозги" (процессор) откажет?

[identity profile] vsvor.livejournal.com 2016-11-30 10:35 am (UTC)(link)
>Где в посте Панчина про ОТКАЗ тормозов?

"Впрочем, если пешеходы переходят дорогу по правилам, а машина слетела с тормозов..."

В посте Панчина обсуждается тест MIT. Если бы Вы ознакомились с данным тестом, то увидели бы, что во всех 13 ситуациях фигурирует машина с отказавшими тормозами.

Рассуждения могут относиться и к другой ситуации, но только к такой, когда гибели человека нельзя избежать, и от поведения автопилота зависит, кто именно погибнет. Очевидно, что такие ситуации возможны при любых ограничениях на скорость беспилотной машины.
Edited 2016-11-30 11:15 (UTC)

[identity profile] taki-net.livejournal.com 2016-11-30 11:49 am (UTC)(link)
Я не обсуждаю тест МИТ, я обсуждаю пост Панчина.

+++ но только к такой, когда гибели человека нельзя избежать, и от поведения автопилота зависит, кто именно погибнет. Очевидно, что такие ситуации возможны при любых ограничениях на скорость беспилотной машины.

Давайте без демагогии.

[identity profile] vsvor.livejournal.com 2016-11-30 12:05 pm (UTC)(link)
>Я не обсуждаю тест МИТ, я обсуждаю пост Панчина.

... в котором обсуждается тест MIT.

>Давайте без демагогии.

Так весь Ваш пост - демагогия. Вы говорите, что при соблюдении правил и жестких ограничениях на скорость будет меньше проблем, Панчин - о дилеммах, возникающих в том, случае, когда жертв нельзя избежать. Т.е. Вы приписываете оппоненту заведомо ошибочные взгляды, которые Вы же сами и придумали.

[identity profile] taki-net.livejournal.com 2016-11-30 12:11 pm (UTC)(link)
+++ Предложенные мной правила кое-что подсказывают об адекватных мерах наказания.

Это Панчин пишет. И ниже:

+++ Я считаю, что автоматическая машина просто обязана появиться на дорогах

Так что давай досвидание.

[identity profile] Илья Цыгвинцев (from livejournal.com) 2016-12-16 06:54 pm (UTC)(link)
+1

[identity profile] taki-net.livejournal.com 2016-12-16 06:57 pm (UTC)(link)
Плюсодинщик хуже анонима, а аноним хуже гомофоба.

[identity profile] Илья Цыгвинцев (from livejournal.com) 2016-12-17 07:09 am (UTC)(link)
А вот здесь, внезапно, соглашусь. А то меня уже неравнодушные товарищи тыкали цитатами из Бродского по схожему поводу.

[identity profile] geralt.livejournal.com 2016-11-30 03:49 pm (UTC)(link)
"Очевидно, что такие ситуации возможны при любых ограничениях на скорость беспилотной машины"

Ну вообще говоря - нет. Если машина всегда будет двигаться со скоростью 5 км/час, то у неё может отказывать что угодно, человека она не убьёт.