404 error (Gallifrey Not Found)

Вопрос: Don't worry, be happy
1. Понравилось | 46 | (13.07%) | |
2. Не понравилось | 14 | (3.98%) | |
3. НИАДНАЗНАЧНА!!!11 | 27 | (7.67%) | |
4. Не все наноботы полезны для вашего здоровья | 28 | (7.95%) | |
5. Мама Нардол не дает кататься с девочками | 40 | (11.36%) | |
6. Кнопочка поглаживания Билл | 36 | (10.23%) | |
7. Пейте, дети, молоко, ваш кальций нам пригодится! | 32 | (9.09%) | |
8. Улыбайтесь, господа. Улыбайтесь. | 39 | (11.08%) | |
9. Позвоните в космическую полицию Доктора Кто - мы пришлем за вами будку | 39 | (11.08%) | |
10. Планета красивая, а люди как всегда | 51 | (14.49%) | |
Всего: | 352 Всего проголосовало: 114 |
То есть ты исходишь из того, что Доктор ошибся и боты неразумны?
Если убийства были не багом, а осознанным решением неопытного разума -
Чтобы бедненькие не страдали из-за того, что совершили? Это неуважение к личности получается, ах, давайте будем скрывать от них правду, они же расстроятся. Это их право - знать о своем прошлом, почему доктор за них решил, что их нежная психика способна выдержать, а что нет?
Если это был программный баг, а осознали себя они после этого -
Тем более, в произошедшем нет их вины, зачем это от них скрывать?
Если это не из-за эмоций роботов, а все для того, чтобы наладить мирные переговоры итд -
Доктор стирает разумным существам память, чтобы с ними было проще договориться. Тогда логично стереть память и людям, чтобы вообще никто не помнил о конфликте. Зачем тогда стирать память одной стороне и оставлять другой, каким образом это может упростить коммуникацию?
Вообще такое впечатление, что стирание памяти тут работает как кнопка "отмена". Стер память, ничего и не было. Но трупы-то остались, и люди все помнят.
А для упрощения переговоров намного логичнее было бы не стереть память, а убрать у роботов возможность убивать людей. Люди-то наноботов и зпистолетов убить не смогут, так, в воздух пострелять.
Доктор не ошибся. Доктор их выключил и снова включил. Разве так можно поступить с разумными существами? Вот-вот. Или ты хочешь сказать, что Доктор на голубом глазу устроил геноцид, стерев личности куче разумных существ, заменив на другие и сделав вид, что так и было?
Почему нельзя включить и выключить разумное существо? С3РО выключали кучу раз, он не стал от этого менее разумным. И он не стёр им личности, он их подправил. Неприятно, но что поделать. Они ж кучу народа поубивали. Там анон выше предлагал вообще их уничтожить, как 10 любил делать.
Ну с таким аргументом и сериал про далека в главной роли снять можно, как он путешествует и уничтожает людей. Но доктор во-первых внутри сериале ведет себя так, как будто его мораль самая продвинутая, лучше и чем у далкеов, и у людей с питослетами. и потом не соответствует своим же заверениям. Это фи. А во-вторых, сериал семейный, обучает, как еще можно решать конфликты, кроме как насилием. И тут ответ получился - стереть память обидчику, а жертва пусть молчит и не смеет вякать про старое, чтобы обидчик не расстроился и/или не начал дальше драться. Это тоже фи.
Всякие одинокие проповедники христианства в Японии тоже для японцев никем были. Однако, получалось.
Судя по первой сцене, где женщина ходила опылять цветы вместе с варди, для нормальной работы варди по поддержанию колонии люди нужны.
нет ну должны же быть хоть какие-то рамки) Доктор не человек, он другой, но он похож на человека и у него как бы не ущербная мораль "убить всех органиков" и всё в таком духе
А потом при слове "опыление" нам показывали, как интерфейс обсыпает чем-то желтым маленький саженец, который еще физически не может цвести.
По-моему, у сценариста к растениями что-то личное.
Доктор не ошибся. Доктор их выключил и снова включил. Разве так можно поступить с разумными существами? Вот-вот. Или ты хочешь сказать, что Доктор на голубом глазу устроил геноцид, стерев личности куче разумных существ, заменив на другие и сделав вид, что так и было?
Я?! Да я с самого начала ставлю под вопрос разумность ботов. Просто для этой дискуссии мы в какой-то момент решили допустить, что боты разумны. Просто если допустить, что сознания у них нет, то Доктор заставил людей договариваться с взбесившимися микроволновками. Это совсем уже дно и тут нечего обсуждать.
они были микроволновками. но эволюционировали в отдельную разумную расу. неужели не понятно?
Не знаю, стоит ли тебе сообщать, но C3PO - вымышленное существо. Аргументировать вымышленных существ вымышленными существами из другого сеттинга - дурацкая затея. А то чо они Бэтмена на помощь не позвали.
В нашем с тобой реальном мире выключить и включить - это боянная шуточка про компьютеры, разумными существами не являющиеся. Никто не заставлял её произносить.
То есть ты исходишь из того, что Доктор ошибся и боты неразумны?
Доктор не ошибся. Доктор их выключил и снова включил. Разве так можно поступить с разумными существами? Вот-вот. Или ты хочешь сказать, что Доктор на голубом глазу устроил геноцид, стерев личности куче разумных существ, заменив на другие и сделав вид, что так и было?
Я?! Да я с самого начала ставлю под вопрос разумность ботов. Просто для этой дискуссии мы в какой-то момент решили допустить, что боты разумны. Просто если допустить, что сознания у них нет, то Доктор заставил людей договариваться с взбесившимися микроволновками. Это совсем уже дно и тут нечего обсуждать.
Ну извини, под маской не видно, допускаешь ты или нет. У меня не получается это допустить. Но почему обсуждать нечего? В принципе, в фантастике нередко говорят об общении с роботами. Не с ИИ, а именно с роботами. Особенно в фантастике постарше.
Я считаю, что в рамках НФ-канона является абсолютно нормальным включать и выключать роботов - разумных существ. Так постоянно делают, в тех же ЗВ, например. Из твоего поста выше, я поняла, что по твоему мнению разумное существо включить и выключить нельзя. Возможно, я поняла тебя не правильно.
Я считаю, что в рамках НФ-канона является абсолютно нормальным включать и выключать роботов - разумных существ. Так постоянно делают, в тех же ЗВ, например. Из твоего поста выше, я поняла, что по твоему мнению разумное существо включить и выключить нельзя. Возможно, я поняла тебя не правильно.
Нет никакого общего НФ-канона и никаких одинаковых для него разумных роботов. Мы в треде Доктора кто, в серии про как бы будущую Землю.
Я другой анон.
В смысле, не с ИИ, а именно с роботами? То есть, просто с программой, даже не умеющей думать и отступать от того, что в ней запрограммировано? Это тогда называется не договориться а вычисли алгоритм и следуй ему, альтернатив нет.
Предположим, что все-таки ИИ, самообучающийся, с зачатками морали итд. И в НФ это обычно плохая ситуация - люди под контролем ИИ. Он их сильнее, наноботы физически способны убить людей, а люди их нет - роботы только интерфейс, наноботов из пистолета не перестреляешь.
Это не переговоры, это упование на то, что ИИ окажется достаточно "добрым" и не станет убивать, имея такую возможность. При этом мораль у него зачаточная, сам он пока глючный. Это небезопасно и люди оставлены в позиции слабого, вынужденного подстраиваться, уступать и не замечать ущерба, уже нанесенного этим ИИ, чтобы хуже не стало.
Без Доктора было бы так же, но Доктор глобально ничего не изменил, людей от возможной беды не спас. Да, текущий кризис с уже начавшими убивать ИИ он предотвратил, но на этом все, ситуация вполне может повториться.
Ты сравнивал ботов с детьми, которые якобы будут брать мораль у взлрослых-людей... Почему они это сделают и откуда у людей возьмется нужный авторитет, ты не ответил.
А японцы в эту аналогию не вписываются. Если они и инкорпорировали часть культуры европейцев, то потому что посчитали это выгодным для себя. Культурный обмен и все такое.
Присоединяюсь к вопросу другого анона: что люди могут предложить ботам?
Судя по первой сцене, где женщина ходила опылять цветы вместе с варди, для нормальной работы варди по поддержанию колонии люди нужны.
Цветы нужны людям.
Похоже, люди будут просто функциями в социальной системе ботов. Люди будут жить, чтобы потреблять то, что приготовили и вырастили боты. Не производство для поддержания жизни, а поддержание жизни для скармливания произведенного. Недовольных — на подкормку. Вполне себе в духе "Дивного нового мира". Слова доктора про "секрет счастья" вполне вписываются в такую картину. Правда, раньше такие сюжеты считались АНТИутопией.
Вроде бы отсюда логично предположить, что люди будут платить варди хорошим настроением, all you need is love
На самом деле уже современные программы умеют самообучаться, подстраивать поведение под пользователя и, хм, защищаться от угроз себе, так что с вычислением алгоритмов будут проблемы. Нет, современные проги неразумны. А уж как решать конфликт с такими прогами - дело авторов. Да, это не переговоры. Так они не только по этому критерию не переговоры, у колонистов нет альтернатив со всех сторон, я тут и не говорю, что мне это нравится.
Насколько я поняла из, роботы до того, как дали йобу или в процессе, были озабочены всё более лучшим исполнением своих обязанностей, и критерием этого "более лучшего" они выбрали удовлетворенность реципиента. Поэтому неудовлетворенные рецепиенты и вызвали их собственное недовольство -стараешься, трудишься, улучшаешь, а они губы надули и рыдают, да еще и других заражают. Роботы были оскорблены в лучших чувствах, можно сказать, им в кашу плюнули своим непонятно откуда взявшемся горем.
Э-э-э...надеюсь, читающие понимают, что слова, относящиеся к эмоциям, должны быть взяты в скобки, потому что нет у роботов человеческих эмоций, есть составленная кем-то программа.
А на кой фиг им еще и детекторы, на которых постфактум высвечивалось то, что уже известно роботам, мне не понятно, конечно, ну да ладно.
И отсюда логично предположить, что лафа очень быстро закончится и всё вернется на круги своя. С заслуженной смертью за негатив.
И отсюда логично предположить, что лафа очень быстро закончится и всё вернется на круги своя. С заслуженной смертью за негатив.
читать дальше
Наказание за горе/отсутствие улыбки было багом — стало фичей:
... Now, since they have absolute power over this city, and since I'm assuming you all don't want to sleep rough tonight, I have a suggestion for you... Smile.
сорян, тред целиком не осилила, может, про это уже говорили, но вот чего я не поняла, так это решения всего конфликта. даже не потому, что оно тупое или взялось из не пойми откуда, а потому, что на поверхности лежало гораздо лучшее решение, и я не понимаю, как сценарист мог его так проебать (это я о том, что почему бы не сделать так, что самообучающийся разумный робот, у которого на глазах люди застрелили его "товарища", осознал наконец концепцию горя от потери близких)
Эти ходячие смайлороботы - не роботы, это просто переносные интерфейсы для общения с людьми, а настоящие роботы - рой микророботов, они единое целое, по сути, для них нормально терять отдельные единицы в штатном режиме, потому никаких "близких" там у них нет. В общем, мы тут до неправильно обсуждали, никаких "они" там нет, есть он - рой.
А тут есть смотревшие Orange is the new black? Вам Билл ту сумасшедшую негритянку Сьюзен не напоминает? А то я пару минут посмотрела и что-то жесты и мимика местами так совпадают, что мне прямо не по себе, так и ожидаю сумасшедшего поведения.