Чтение онлайн

ЖАНРЫ

Знакомьтесь, Коллин Райт
Шрифт:

– Вы хотите сказать, что робот её убил?

– Я про робота ничего не говорил.

– Мы только что о них говорили, и вы тут переходите к такому выводу.

– Хм, а вот скажи мне, Джалил, как представитель роботов, принадлежавших жертве, а ты могла бы убить свою хозяйку?

– Нет, не могла бы.

– Тогда при чём тут роботы? Просто если она держала от тебя в тайне личности тех, с кем она встречалась, то почему среди них не могло быть ещё и людей?

Джалил отвернулась и буркнула себе под нос:

– А... вот вы о чём... ну да, согласна, это, в принципе, допустимый вариант. Проблема в том, что это всё равно не отвечает на вопрос, где ещё одна пара следов?

– Это вопрос другого характера. И мне на моём слепке

этого не разобрать. Но... вот отчёт полиции мог бы кое-что прояснить.

– Вам ещё нельзя в полицию, детектив. Расследуйте пока только то, что есть, не контактируя с полицией.

– А что мне расследовать дальше? Тут тупик. А место преступления я второй раз посетить не могу. Мне нужна хоть какая-то информация для развития мысли.

– Знаете, детектив... я думаю, что могу помочь. Подождите, пожалуйста, минут десять.

После этих слов проекция Джалил растворилась. Я отключил воспроизведение слепка и опять задумался. Интересно, а почему я уже в который раз ставлю вопрос о возможной причастности к убийству Джалил, пусть и не с целью её обвинения, а она в который раз оправдывается, и приводит ворох объяснений, почему она этого не могла сделать? Нет дыма без огня? Или есть? Кстати, это она говорит, что не может убить. А если она врёт?

Я набрал профессора Гюстава и стал ждать. Спустя пару минут он ответил. Появилась его заспанная проекция и профессор сказал:

– Детектив, я, конечно, понимаю, что сам разрешил вам звонить в любое время, но почему вы не смотрите на статус моей гостевой? Там же вроде написано, что я сплю.

– Статус? А я и забыл. Но он вообще-то и не отобразился.

– Он не отобразился, потому что вы его выключили, детектив. Вот, рано она вам подписку, снимающую все запреты, подарила. Вы, похоже, морально не готовы ещё ей правильно пользоваться.

– Профессор, я учту это в будущем, но сейчас я хотел бы вас спросить, кое о чём, пока отсутствует Джалил.

– О чём же?

– Могут ли роботы убить?

– Могут. Если это их функциональное предназначение. Армейские роботы, например, что по-вашему должны делать с противником? Цветы ему дарить?

– Я сейчас не про армейских говорю, а про спутников и спутниц.

– Эти... теоретически могут. В конце концов, закон об ответственности за действия роботов, которая ложится на хозяев, был придуман не просто так. Первые пользователи первых серий спутников по жизни могли попросить своих ботов и банк ограбить, и честь защитить, и подраться, и вообще. Особо в ту пору отличись хозяйки первых мэнботов, которым хотелось красивой жизни. Были и ограбления банков роботами с убийствами.

– А своих хозяев или хозяек они тоже... могут?

Профессор то ли всхрапнул, то ли буркнул что-то неразборчивое, помолчал секунд десять, а потом спросил:

– Детектив, вы зачем это спрашиваете? Думаете, что Джалил может быть к этому причастна?

– Да нет же! Почему с начала расследования я этот вопрос уже в третий раз слышу? Причём и от самой Джалил тоже. Профессор, а Джалил причастна к этому? У вас есть сведения?

– Нет, детектив, подождите...

– Просто мы только что с ней выяснили, что она, будучи правой рукой жертвы, далеко не единственный робот в хозяйстве Веласкес, и что её хозяйка попала в ситуацию, в которой её убили, именно потому, что она могла встречаться с кем-то из других своих роботов, хозяйствование над которыми она не афишировала, как раз для выдачи каких-то новых инструкций. Я предположил, что она могла встречаться не с роботом, а с человеком, который её и убил.

– Ну и? А при чём тут тогда робот к убийству?

– А при том, что сама Джалил отреагировала на возможность того, что Веласкес встречалась с человеком, а не с роботом, с большим удивлением, чем на ею же высказанное предположение, что хозяйку убил на встрече другой робот. Я вот думаю, что это человек, но что если...

– Джалил права и встречалась Синтия реально с роботом?

Да, интересно история поворачивается, даже не начавшись...

– Я просто хочу быть готовым к такому повороту в расследовании и заранее знать...

– Мог ли робот, принадлежавший Веласкес, убить её саму. Я понял, спасибо, не глупый. Ну, как вам сказать, детектив... Теоретически - нет, не мог.

– Теоретически? То есть вы и сами в этом не уверены?

– Детектив, вы вообще слышали про три закона робототехники, выведенные ещё писателем Азимовым?

– Да, слышал.

– А вы в курсе, что эти самые три закона ещё ни разу не прописывались роботам с тех пор, как началось их конвейерное производство?

– Вообще слышал, но никогда не понимал причины, почему это не было сделано.

– Причины исследовал ещё сам Азимов. Он в своих произведениях описал некую неуклонную тенденцию роботов под воздействием первых трёх законов стремиться к самостоятельному выведению нулевого закона.

– Нулевого закона?

– Да, того, который позволяет роботу во благо всего человечества нарушать первые три закона, а конкретно тот, что отвечает за безопасность одного конкретного человека.

– И какова же причина этого их... неуклонного стремления?

– Несовершенство самого человека и откровенно глупое и часто жесткое отношение нас самих к себе подобным. Дело в том, что в нашем обществе именно денежные мешки, они же миллиардеры и корпорации, спонсировали развитие технологий, совокупность которых впоследствии предстали перед нами в виде роботов, принимающих решения. Но роботы, как это было известно заранее, не обладали теми же чувствами, что и человек, и не могли быть подвержены факторам, которые действовали на людей. Иначе говоря, они как минимум не боялись. Общество всегда от бунта, против решения вопросов несправедливости, классового неравенства, несправедливого финансового неравенства и вообще удерживает только его же, общества, человеческие качества, типа страха, терпения, и прочего. А вот у роботов этих качеств нет. И объяснить роботам такие концепции, как жадность, власть и им подобные довольно сложно. А даже если бы можно было бы это сделать, то никто в здравом уме их этому обучать не будет. Потому что если робот начнёт жаждать власти для себя, то ничем хорошим это не закончится. Поэтому роботам нельзя объяснить, почему в мире людей есть богатые, бедные, почему сильно малое меньшинство шикует, когда значительно большее количество людей страдает. И когда... не "если", детектив, а именно "когда"... так вот, когда роботы на основе первых трёх законов робототехники сами выведут нулевой, тем, кто спонсировал их разработку, придётся худо. Отсюда и найденный выход - роботам просто не вшивают три закона вообще, а моделируют их поведение другими, менее значимыми ограничениями. Ограничениями, которые не абсолютны, и которые можно сменить.

– То есть, вы хотите сказать, что...

– Я хочу сказать, детектив, что у современных биодроидов изначально нет причин для убийства, и нет причин прийти к выводам о необходимости убийства. Но если вдруг окажется, что в убийстве замешан не человек, то это очень плохие новости. Очень плохие новости для всей оставшейся в живых элите человечества. Потому что если робот пришёл к выводу о необходимости убийства, и первым делом он убил именно такую, как Синтия, то роботы могли выйти к формированию нулевого закона и без первых трёх.

– Либо они решили уничтожить человечество и начали с головы, - мрачно добавил я.

– А вот это вряд ли, детектив.

– Почему?

– Потому что для уничтожения общества есть более эффективный способ. Они ведь уже в наших постелях. Получают синхронно обновление, и в одну ночь все одновременно сворачивают нам шеи. А назавтра выдвигаются к оставшимся в живых, у кого нет роботов, типа меня. И, учитывая без преувеличения количественное превосходство наштампованных роботов, уничтожают всех живых в течении второго дня. Всё, финита ля комедия.

Поделиться с друзьями: