Subject: because what these people want self-driving cars to be like isn’t what they would want themselves. tech. Здравствуйте! Нужна помощь с переводом последнего предложения: So, there is a bit of an issue here, because what these people want self-driving cars to be like isn’t what they would want themselves.Контекст: Но данная технология не безупречна и, разумеется, будут возникать ситуации, когда предотвратить аварию будет невозможно. Иногда автомобилю придётся выбирать одно из двух зол – например, врезаться в пешеходов или подвергнуть риску пассажиров. Как «железному коню» поступить в таком случае? Буду очень благодарна за помощь. |
Мой вариант: То, чего люди хотят от самоуправляемых автомобилей, отличается от того, чего хотят они сами. Кажется мне нескладным немного :) |
what these people want { self-driving cars to be like } isn’t what they would want themselves [to have as a car] они хотят чтобы self-driving cars работали бы таким образом, что сами бы не хотели ездить в такой машине |
Спасибо огромное, выручаете в очередной раз) |
"они хотят чтобы self-driving cars работали бы таким образом, что сами бы не хотели ездить в такой машине" ничего не поняла сами self-driving cars не хотели бы ездить в такой машине? или куда? |
2:20- да, именно "сами self-driving cars не хотели бы ездить в такой машине"!!! или, еще вариант, что те некие контекстные люди не захотели бы сами ездить в автомобиле, который бы сответствовал выдвигаемым ими требованиям или, еще вариант, купите напильник и пилите сами ;) |
если вот эту конструкцию подпилить what these people want { self-driving cars to be like } isn’t what they would want themselves [to have as a car] примерно так: то, чего эти люди хотят от беспилотников, отличается от того, чего они хотели бы от собственной машины? если что - так это напильник некачественный! :-) |
да уж, на напильнике явно сэкономили ... такое впечатление, будто все пилкой для когтей делано |
Их требования к беспилотнику, несколько отличаются от их желания самим ездить на такой машине. |
Кажись, лишнюю зпт поставил. |
Думаю, автор пытался сказать, что эти люди не хотели бы сами оказаться в автомобиле, который был запрограммирован в соответствии с их же пожеланиями. |
А можно оригинал весь не на русском увидеть, а на английском? |
00002, по ссылке выше, очень близко к вопросу: "New research has found that people generally approve of autonomous vehicles (AV) governed by so-called utilitarian ethics, which would seek to minimize the total number of deaths in a crash, even if it means harming people in the vehicle. But it gets more complicated than that. The study, based on surveys of U.S. residents, found that most respondents would not want to ride in these vehicles themselves, and were not in favor of regulations enforcing utilitarian algorithms on driverless cars." |
Спасибо, конечно, но смысл уже был пересказан, да, собственно, понятен и так, не бином Ньютона. Интересен был бы сам оригинальны текст. |
Ясно. Не так вас понял. Прошу прощения. Хотел помочь, как всегда. |
В ожидании, пока ТС решит эту моральную дилемму (приводить контекст или нет), в порядке офтопа: Интересно, что всех интересует, что в этой ситуации решит компьютер, как его программировать, но никого не интересует, что в такой ситуации решит человек. А ведь человеков за рулями несчетные миллионы, что же они делают в таких ситуациях, какие решения принимают? Жертвуют собой чтобы спасти окружающих, или массакрируют окружающих, чтобы спасти себя? Или, например, садясь в такси никто не задается дилеммой: а вот что будет, если водитель на полной скорости будет ехать в бетонный столб или опору моста, какой стороной он предпочтет в нее ударится – той, где он сидит, или той, где я сижу? Я ведь должен знать, какая у него политика по данному вопросу до того, как сяду в его машину и заключу с ним тем самым договор о перевозке. Напомнило старый детский анекдот (рассказывался с сильным грузинским акцентом, из грамматических соображений): – Едешь по дороге, дорогу переходит бабушка и девушка, объехать нельзя, что давить будишь? |
о принятии решений http://www.partner-inform.de/partner/detail/2016/7/241/8063 и телефильм был http://www.bbc.com/russian/features-37696292 |
И что там интересного, самое главное коротенько можете резюмировать (просто чтоб не смотреть то не знаю что)? |
ну в жизни редко бывает, что ты ничего не можешь сделать, скорее ты до последнего пытаешься уйти от столкновения. Я в в своем случае, думал о том, как бы никого не задеть. Не задел, сам вписался в столб. Видно в рубашке родился. Это немного странно, что для робота вообще возникает такая проблема выбора. Если ответственность перекладывается на механизм, то он должен поступать в соответствии с моралью в обществе. А уж человек, управляя авто сам, будет нести ответственность за свое решение. Вообще это как в самолете. Раз ты уже сел, ты согласился с шансом умереть по независимым от тебя причинам. |
Речь же о том, что сами люди не хотят садиться в такую машину? Тогда зачем она нужна? |
ссылка не на фильм, а на не очень длинную статью "Это немного странно, что для робота вообще возникает такая проблема выбора." читали А. Азимова? http://ru.wikipedia.org/wiki/Три_закона_роботехники |
Вообще-то на данном этапе развития робот поступит в соответствии с программой, написанной человеком. Выбор возникает не у робота. Это человек не может принять решение, какую программу заложить в машину. |
Простите, весь тред не осилила. Но, строго IMHO, из русского контекста, автопилоты тут не причем. То, что они хотят, управляя автомобилями (на водительском месте), не соответствует их ожиданиям... (тут лучше бы почитать оригинал). |
Причем мне кажется, что людей, которые непосредственно закладывают программу в машину, этот вопрос интересует не в самую первую очередь, для них я думаю главное – это заложить такую программу, чтобы автомобиль никогда не попадал в ситуации, в которых придется решать, кого лишать, чтобы он их избегал за шаг вперед. Или за два. Что для компьютера должно быть намного проще, чем для человека. |
Да, я тоже думаю, что предотвращение ситуаций, в которых придется решать, их интересует больше. Но все же полностью исключить такие ситуации не удастся и алгоритм выхода из них должен быть написан. А общественное мнение тут как тут. Хотя мне кажется гораздо более серьезная проблема, как отловить все ошибки, допущенные при программировании, и что делать в случае отказа системы. |
Общественное мнение – вот это да, вот это та плоскость, в которой эта проблема лежит. Потому что общественное мнение может устраивать серьезные возмущения, гнать вполне реальную, в том числе и экономически реальную волну на практически пустом месте. Или даже на полностью пустом месте. Отловить все ошибки и сделать систему абсолютно надежной, конечно, невозможно в принципе. Но такая задача и не стоит. Как это было в другом анекдоте – а мне и не надо бежать быстрее медведя, достаточно быстрее тебя. Вполне достаточно, если автоматические автомобили будут, скажем, на порядок (еще лучше – на порядки) безопаснее автомобилей с обычными, живыми водителями. Что не представляется слишком уж сложной задачей, учитывая все многочисленные неустранимые несовершенства этих самых живых водителей. Несовершенства, разумеется, в смысле управления источниками повышенной опасности, в других сферах жизни они могут рассматриваться как раз как достоинства :-) |
Мне казалось, после моего идеального перевода обсуждать нечего. |
|
link 1.12.2016 20:37 |
Рома прав. |
Рома, иногда идет перевод, а иногда просто обсуждение на тему. Ничего страшного. |
Извиняюсь, не было возможности зайти на форум. Вот ссылка на оригинальное видео, для тех, кто просил https://www.youtube.com/watch?v=6k9gb2elXvo |
You need to be logged in to post in the forum |