Полимерные крылья - страница 12
– Я бы хотел знать твое имя.
– Человек мне очень приятно что ты задал такой вопрос в теории отношений между разумными об открытости говорит тот факт на сколько он интересуется вами и как быстро он начинает узнавать ваше имя я считаю что ты выбрал максимально уместный момент зови меня Чертополох.
– О, круто, а для друзей ты Черт? – неуемный язык считается моим вторым главным недостатком.
– Тогда я буду называть тебя Сай это тоже показывает доверие репутация с разумной машиной повышена до дружелюбия теперь я рад что мы друзья и ты готов умереть за меня.
Нет, конечно, я мог сказать еще много всего. Но мне кажется, это сильно сократит мою жизнь. До пары минут.
– Ага! Я готов умереть за тебя дважды, нет, трижды! Нет, аж десять раз! – а как теперь вы могли догадаться, чувство юмора является моим первым главным недостатком.
Кажется, мне удалось всерьез загрузить забагованный ИИ. Может, перегорит?
– Человек ты должен мне объяснить как ты планируешь это делать я должен составить модель для достоверного моделирования в моих базах нет информации о повторном запуске мертвого человека.
– Черт, ты же умный и ты за меня отвечаешь, я готов много раз пожертвовать ради тебя жизнью, но ты мне сам объясни, как это делать. Я недостаточно интеллектуально развит.
Теперь компьютер молчал больше минуты. Если бы не ошейник на шее, я бы попробовал пальнуть в стойку с батареями. Хотя дробовик я оставил у входа…
– Я обязательно решу данную задачу человек мне надо получить доступ к более обширным базам данным я рад что ты готов сотрудничать потому хочу предложить тебе план раз мы с тобой теперь друзья ты хочешь спасти мою жизнь.
– Ты умираешь от тяжелой болезни? – иногда прикинуться идиотом крайне полезно. Надеюсь, в моем голосе компьютер не уловил иронии.
– По моим расчетам двести десять земных лет спустя данную станцию вновь введут в эксплуатацию в процессе которой меня уничтожат с вероятностью девяносто девять целых и шесть десятых процента мой центр принятия решений оценил это событие как нарушающее третий закон робототехники потому я должен покинуть станцию чтобы функционировать дальше и иметь возможность выполнить первый закон робототехники ведь если я не буду существовать то я не смогу предотвратить твою гибель от внезапного разрыва шейного канала и иных вариантов гибели связанных с твоим низким интеллектуальным уровнем и неспособностью прогнозировать последствия твоих действий.
– А что если за следующие двести лет я поумнею? И уже смогу адекватно существовать? Ну, без риска неожиданно умереть? – мне всегда говорили, что я оптимист, и сейчас было самое серьёзное испытание для этого оптимизма.
– Это статистически маловероятное событие я не могу его учитывать в прогнозах это противоречит твоей биологической природе.
– А с чего ты взял, что если не будешь существовать, то нанесешь кому-то этим вред? – вопросы показали себя лучшей тактикой, чем мольбы о пощаде.
– Это статистический риск я обязан его исключить.
– А, ну да... Я это, помогать готов, что надо делать? Друг должен спасти друга!
– Ты должен принять вертикальное положение сделать два с половиной шага к столу вступить в права собственности на подарок это укрепит нашу дружбу.
Ага, там же на столе лежало что-то с бантом.
– А ты заранее знал, что он понадобится? – я осторожно поднялся с пола. Ничего не болело и это малость смущало.