taki_net: (gagarin)
taki_net ([personal profile] taki_net) wrote2016-11-30 09:41 am

Как так случилось, что атеизм оказался кровавее инквизиции

Как, как. Ну вот почитайте звезду русского сциентизма и атеизма:
http://scinquisitor.livejournal.com/100512.html

Коротко пересказываю: ура, ура, появление роботизированных бесшоферных авто на дорогах позволяет наконец-то исследовать и практически применить аксиомы настоящей, научной морали, без поповщины и розовых слюней сентиментальности ("Три закона Робототехники" - нет, не слышали).

1. Внезапно, дилемма вагонетки: оказывается, роботизированной машине так и так придется решать вопрос: задавить ребенка в коляске, выкатившейся на проезжую, или принять правее и сбить дядьку с пивным пузом, или левее и сбить бабульку с собачкой на поводке. Шах и мат, сентиментальные моралисты! Математика рулит! Главное - это минимизировать количество убитых, согласно формул! Собака не считается!

Угу. Вам не приходит в голову, что с этой математикой проблемка: кто-то стер часть уравнения, даже с некоторыми переменными, и дядя у доски ИМИТИРУЕТ работу математика? Поясняю.

Дело в том, что при движении машины со скоростью, скажем, 5 км/час гарантированно останутся живы и ребенок, и старушка, и дядька с пузом. Даже собачка. Даже пиво у дядьки не разольется. То есть, у уравнения, включающего жизни этих людей - есть сверхоптимальное решение, и строго говоря, в постановке автора ("минимизация числа смертей") - вопрос закрыт. Но он явно имел в виду другое, он стер вот какую часть уравнения: "как минимизировать число смертей ПРИ КАТЕГОРИЧЕСКОМ УСЛОВИИ моего прибытия в пункт назначения в строго указанное время, то есть движения со скоростью НЕ МЕНЬШЕ указанной".

То есть, предлагается решать дилемму вагонетки, ИГНОРИРУЯ то, что само возникновение угрозы жизни тем или иным ее участникам вызвано (1) самым фактом выезда Сцинквизитора на дорогу; (2) присвоением его удобству (продолжительности поездки) высшего приоритета перед жизнью любого участника ситуации и любого числа жизней участников.

1а. В реальности, Роботу не придется решать уравнения Сцинквизитора, потому что их решение содержится в ПДД, в статьях, которые предписывают безальтернативно выбирать скорость движения не выше, чем обеспечивающую гарантированную остановку при появлении неожиданного препятствия, и интервал между машинами, обеспечивающий остановку без столкновения при внезапном торможении впереди идущей машины. Иными словами, закон уже постановил, что это уравнение следует решать за счет интересов сидящего в машине Сцинквизитора. А Робот, он не такой, он не будет уговаривать, что "мало ли что 40 на знаке, тут все всегда едут 70", или "мы в 3-м ряду тормозим, только если 2 ряд стоит, а так нам пешеходя не видно".

2. "ГУЛАГ не средство наказания, а средство воспитания". Особенно доставляет идея, что в "уравнении" было бы полезно учесть, кто из участников "вагонетки" действовал правомерно, а кто нарушил ПДД, и его и давить.

Вот и ответ. Вот так это и работает. Вместо очевидного ответа - что Робот должен ездить небыстро (с умеренной скоростью), сбавлять ее в сложных ситуациях, тормозить при помехе - русский интеллектуал мечтает воспользоваться изобретением (инженерным или социальным) для ВОСПИТАНИЯ ЛУЧШЕГО ЧЕЛОВЕКА. Точно так же в начале 20 века интеллектуалы вместо двух сложившихся реакций на девиантное поведение (игнорировать или изолировать) решили людей ПЕРЕДЕЛЫВАТЬ, перевоспитывать. И устлали тундру человеческими костями.

ЗЫ. Особенно доставляет, что Сцинквизитор, суда по комментам, машину не водит. То есть да, это он из "чисто научных соображений". Ну что, ответ на заглавный вопрос получен?

[identity profile] dodoche.livejournal.com 2016-11-30 06:59 am (UTC)(link)
Знакомый типаж - на реддите такие называются STEM lords

(в сторону: и мы еще удивляемся, почему они выбрали Трампа).

[identity profile] xgrbml.livejournal.com 2016-11-30 07:07 am (UTC)(link)
У меня только один вопрос: а наукой-то товарищ занимается или только такой вот популяризацией очень умных мыслей? Первая из альтернатив всяко лучше второй.

[identity profile] tmu-1971.livejournal.com 2016-11-30 07:14 am (UTC)(link)
В реальности, Роботу не придется решать уравнения Сцинквизитора, потому что их решение содержится в ПДД, в статьях, которые предписывают безальтернативно выбирать скорость движения не выше, чем обеспечивающую гарантированную остановку при появлении неожиданного препятствия, и интервал между машинами, обеспечивающий остановку без столкновения при внезапном торможении впереди идущей машины.



Буквальное соблюдение этих правил приведет к параличу движения. Никакой робот не будет двигаться по автостраде со скоростью 40-50 км/ч (скорость, обеспечивающая гарантированную остановку) на случай появления альтернативно одаренного пешехода. Так что частота ситуаций "выбираем, куда/в кого врезаться" несомненно уменьшится по сравнению с водителем-человеком, но не в ноль.

[identity profile] taki-net.livejournal.com 2016-11-30 07:15 am (UTC)(link)
кбн, снс ИПИ РАН.

С другой стороны, про науку в биографии кратко и скороговоркой, очень много про "просветительство" и популяризацию:

Член экспертного совета Премии имени Гарри Гудини[13].

С 2016 года является членом Комиссии РАН по борьбе с лженаукой и фальсификацией научных исследований[14].

[identity profile] taki-net.livejournal.com 2016-11-30 07:17 am (UTC)(link)
Подумайте еще. Вы совершаете ту же ошибку (точнее, те же две ошибки), что Сцинквизитор.

[identity profile] xgrbml.livejournal.com 2016-11-30 07:18 am (UTC)(link)
Viss ir skaidrs.

[identity profile] taki-net.livejournal.com 2016-11-30 07:19 am (UTC)(link)
+++ Никакой робот не будет двигаться по автостраде со скоростью 40-50 км/ч (скорость, обеспечивающая гарантированную остановку) на случай появления альтернативно одаренного пешехода.

Дорога, на которой вероятность появления "альтернативно одаренного пешехода" не стремится к нулю, не заслуживает звания "автострады".

[identity profile] idelsong.livejournal.com 2016-11-30 07:23 am (UTC)(link)
ЧП бывают все равно. Все равно может найтись пешеход, который выскочит на автостраду, хотя она огорожена и выход на нее запрещен. Другое дело, что не только робот, но и мы решаем в таких ситуациях на основании инстинкта, а не моральных принципов.

[identity profile] taki-net.livejournal.com 2016-11-30 07:25 am (UTC)(link)
Пожалуй, да.

[identity profile] tmu-1971.livejournal.com 2016-11-30 07:28 am (UTC)(link)
Ну так у робота нет ни инстинкта, ни моральных принципов. Речь и идет о том, какие принципы, точнее, правила принятия решений, следует в него вложить.

[identity profile] taki-net.livejournal.com 2016-11-30 07:29 am (UTC)(link)
Я скорее вот о чем. Понятно, что любое усложнение алгоритма за пределы "препятствие-тормози", и уж точно наделение алгоритма правом/обязанностью решать ЮРИДИЧЕСКИЕ вопросы - заведомо снизит качество основного процесса (остановки машины при ЧП). Но интеллектуалу все равно хочется использовать инструмент торможения автомобиля - как инструмент моральной революции.

[identity profile] lord-matthews.livejournal.com 2016-11-30 07:32 am (UTC)(link)
Сегодняшний smbc в тему

[identity profile] idelsong.livejournal.com 2016-11-30 07:38 am (UTC)(link)
Главная моральная проблема - не кого давить, старушку или бомжа, а рисковать ли жизнью пассажира ради спасения жизни пешехода. Помимо прочего, у этой моральной проблемы есть денежное выражение: покупатель предпочтет покупать алгоритм, более безопасный для него. И, возвращаясь к тезису автора поста, предпочтет покупать автомобиль, который ездит быстрее.

[identity profile] idelsong.livejournal.com 2016-11-30 07:44 am (UTC)(link)
В Талмуде много такого рода моральных упражнений. Типа, двое в пустыне, у одного из них осталось воды на один день. Делиться (и тогда погибнут оба) или выпить самому?

Или совсем другая ситуация: злодеи окружили группу людей и требуют выдать одного на казнь (или даже одну на изнасилование), а то убьют всех. В этом случае однозначный ответ "не выдавать" - твоя кровь ничуть не краснее, чем его.

[identity profile] vsvor.livejournal.com 2016-11-30 07:58 am (UTC)(link)
Не вполне понятно, при чем здесь именно _русский_ интеллектуал, если тест, в котором машина с отказавшими тормозами пересекает пешеходный переход, предложили интеллектуалы из MIT. Вашего решения (если его можно назвать решением) в этой постановке вообще нет.

[identity profile] taki-net.livejournal.com 2016-11-30 08:10 am (UTC)(link)
Обсуждаются рассуждения вполне конкретного человека по этому поводу.

[identity profile] vsvor.livejournal.com 2016-11-30 08:18 am (UTC)(link)
Вы задаете вопрос: почему в заметке по ссылке не рассматривается вариант соблюдения скоростного режима. Ответ: потому что дело не в опасной скорости беспилотной машины, а в том, что у машины внезапно отказали тормоза. Тест MIT так составлен, и выбор именно в такой ситуации обсуждает Панчин. Обвинять его в том, что он рассматривает задачу, предложенную интеллектуалами из MIT, а не какую-то другую, по меньшей мере странно.


[identity profile] taki-net.livejournal.com 2016-11-30 08:27 am (UTC)(link)
+++ Ответ: потому что дело не в опасной скорости беспилотной машины, а в том, что у машины внезапно отказали тормоза.

Как интересно все что вы говорите. Где в посте Панчина про ОТКАЗ тормозов? Не бессмысленно ли обсуждать ВОСПИТАТЕЛЬНУЮ роль действий машины при отказе тормозов? А если у машины "мозги" (процессор) откажет?

[identity profile] oude-rus.livejournal.com 2016-11-30 08:43 am (UTC)(link)
Вам непременно надо сходить на ru_chp и почитать мегасрачи "коробочник против кегли".
У вас коробочник уже наверху нарисовался.
Edited 2016-11-30 08:48 (UTC)

[identity profile] oude-rus.livejournal.com 2016-11-30 08:44 am (UTC)(link)
простите, но какой инстинкт за рулем?
разве только тот, что уже прописан в ПДД: "тормози не сворачивая!"

[identity profile] taki-net.livejournal.com 2016-11-30 08:52 am (UTC)(link)
Угу. Я эту тему имел в виду, но решил не усложнять изложение.

[identity profile] oude-rus.livejournal.com 2016-11-30 09:09 am (UTC)(link)
У меня тут крайне жесткая позиция: за наезд на пешехода на пешеходном переходе надо е.ать телеграфным столбом. К сожалению, российское законодательство очень мягко в этом вопросе.
В Гейропе, к слову, это тоже относится.

Что же касается обсуждаемой проблемы, то ее решение однозначно прописано в ПДД "тормози не сворачивая!" и будь что будет.

[identity profile] taki-net.livejournal.com 2016-11-30 09:15 am (UTC)(link)
Разумеется. Я именно о попытках отступить от этого правила и придумать что-то "поумнее".

[identity profile] warlen.livejournal.com 2016-11-30 09:27 am (UTC)(link)
Я не водитель, а пешеход, и не знаю что там в правилах. Но если рядом с дорогой тротуар, по которому ходят люди, среди них может найтись такой, который выскочит на дорогу прямо перед машиной, и машина не успеет затормозить даже при 40 км/ч. Поэтому мне непонятно, какая тут может быть "гарантированная остановка при появлении неожиданного препятствия". Разве что всегда ездить со скоростью 5 км/ч. Но это почти равносильно тому, чтобы вообще запретить личные автомобили. Тоже вариант, конечно, но до сих пор почему-то так не сделали, хотя опасность не вчера появилась.

[identity profile] aka-author.livejournal.com 2016-11-30 09:37 am (UTC)(link)
*** решили людей ПЕРЕДЕЛЫВАТЬ, перевоспитывать ***

Они действительно решили из перевоспитывать? По-моему, им просто нравилось их убивать.

Page 1 of 3