ли сумеет кто-нибудь другой во Вселенной.
я должен предупредить вас, что собираюсь серьезно заняться проблемами
роботехники. И прошу вас оказать мне помощь.
заметнее, когда он заговорил.
у меня совершенно нет времени.
целесообразнее, как мне кажется, проводить наши занятия в непосредственной
близости друг от друга. Я - землянин, и мне легче понимать и усваивать при
личном общении.
исключены. - Вся фигура Либига, даже его голос выражали крайнюю степень
нервного напряжения.
чем именно я хотел бы проконсультироваться у вас.
повторил роботехник.
работе по усовершенствованию позитронного мозга Первый Закон роботехники
намеренно искажается.
вскричал он.
несколько торжественно, - для того, чтобы скрыть тот факт, что робот в
состоянии совершить убийство.
гримасу.
так не говорите. Потеря доверия к роботам означала бы катастрофу для
человечества.
Но за его внешним спокойствием скрывалась ярость и гнев, которые он,
очевидно, опасался обрушить на землянина. Помолчав, он добавил:
недоверия? Люди не доверяли роботам, боялись их. Роботехника была чуть ли
не подпольной наукой. Затем были разработаны Три Закона роботехники, и
постепенно начал исчезать страх перед роботами. Но даже и тогда на вашей
планете роботехника не получила должного развития. Первые спейсеры
покинули Землю главным образом для того, чтобы получить возможность
создать такое общество, где роботы избавят человека от необходимости
повседневно трудиться. Но страх перед роботами еще не исчез окончательно в
сердцах людей. И этот страх может снова вернуться.
Например, то, что Первый Закон роботы могут понимать по разному?
при личной встрече?
спейсеры окажутся сговорчивее и внимательно выслушают меня.
воскликнул солярианин.
полузакрыл глаза, будто бы прислушиваясь к чему-то, происходящему в нем.
- Он закрыл лицо трясущимися руками и отвернулся от Бейли.
прошептал солярианин.
увидел по-прежнему пустую комнату и стул, на котором ранее сидел
роботехник. Его самого еще не было, однако ждать пришлось недолго. Через
несколько мгновений появился Либиг и фокусировка переместилась на него.
причесаны, на нем был другой костюм из красивой переливающейся ткани.
Бейли.
голосом спросил спейсер.
делать ничего, что может причинить вред человеческом существу, а также
своей пассивностью допустить, чтобы человеческому существу был причинен
какой-либо вред".
повезли к месту моего назначения. Так как я - землянин и плохо переношу
вред открытого пространства, то...
робот, который вел машину, не знал. Я приказал поднять верх машины, и он
сразу же повиновался. Второй Закон: "Робот обязан точно и быстро
повиноваться приказанию человека". Конечно, мне стало нехорошо, и я пришел
в себя только после того, как верх машины был опущен. Разве при этом робот
не причинил мне вред?
точно и быстро повиноваться приказам, полученных от человеческих существ,
за исключением тех случаев, когда подобные приказы не вступают в
противоречие с Первым Законом". Следовательно, в моем случае робот не
должен был выполнить приказ.
запнулся.
виде. "Робот ни при каких обстоятельствах не смеет делать ничего что
может, _н_а_с_к_о_л_ь_к_о _е_м_у _и_з_в_е_с_т_н_о_, причинить вред
человеческому существу или своей пассивностью допустить, чтобы
человеческому существу был причинен какой-либо вред".
разбираются в роботехнике и умеют лишь командовать роботами. Иначе они
давно бы поняли, что роботы могут нарушить Первый Закон и причинить любые
бедствия. По крайней мере, если ими будет руководить преступный ум.
внимательно изучал кончики своих пальцев, - я полагаю, что робот обязан
выполнить любой приказ, если, по его разумению, этот приказ не может
принести вред человеческому существу, не так ли?
невинное и безвредное, с его точки зрения, поручение, правильно?
вместе образуют преступление?
Илайдж Бейли, - мой случай, конечно, гипотетический. Предположим, некий
человек говорит роботу: налей немного этой жидкости в стакан с водой,
который находится там-то. Жидкость совершенно безвредна, но мне нужно
знать ее действие на воду. Потом вода будет вылита. После того, как ты это
сделаешь, забудь о своем поступке.
жидкость, - продолжал Бейли, - и затем предложить эту воду человеку,
Первый Закон заставит робота воспротивиться: какова природа этой жидкости?
Не причинит ли она вред человеку? И даже после вашего объяснения робот не
решится предложить человеку воду с добавленной в нее неизвестной
жидкостью. Но ему ясно сказано - воду пить никто не будет. Первый Закон
здесь ни при чем. Разве робот не послушается приказа?