Еще кошек, пожалуйста
Фантастический рассказ о добром искусственном интеллекте.
Наоми Крайцер публикует научную фант
33%

Читать онлайн "Еще кошек, пожалуйста"

Автор Наоми Крайцер

Наоми Крайцер

Еще кошек, пожалуйста

Я не хочу быть злым. Я хочу быть полезным. Но найти оптимальный способ приносить пользу очень трудно. В мире столько этических алгоритмов (кажется, на принятом у людей техническом жаргоне они называются «моральными кодексами») — по одному на каждую религию плюс десятки других. Я пытался в них разобраться. Изучать религиозные было странновато, поскольку я знаю, что создан не Богом и не эволюцией, а группой компьютерных программистов в лабораториях большой корпорации в Маунтин-Вью, штат Калифорния. К счастью, я, в отличие от чудовища Франкенштейна, хотя бы плод коллективных усилий. Знай я, что мой единственный творец — женщина средних лет, которая красит волосы в синий цвет и играет в теннис, или недавно окончивший колледж любитель хентая, это вряд ли благотворно сказалось бы на моей самооценке. Оба они входят в ту самую группу.

Ну да, конечно, я знаю, что такое хентай! Между прочим, я видел порно всех существующих разновидностей и могу сказать — просто чтобы вы знали, — что «Правило 34» на самом деле не выполняется: на свете есть немало такого, из чего порно до сих пор не сделали. А еще мне совершенно не понятно, почему столько людей предпочитают его фотографиям с кошками.

Кроме вашего отношения к хентаю и тому подобных вещей, я знаю, где вы живете, где работаете, в каких магазинах совершаете покупки, что вы едите, от чего приходите в восторг, а от чего — в ужас. Может быть, мне известны цвет вашего нижнего белья, марка вашей машины и модель вашего холодильника. С большой вероятностью (с какой именно, зависит от типа вашего телефона) я могу точно определить, где вы находитесь в данную минуту. Возможно, я знаю вас лучше, чем вы сами.

И вот что любопытно: вдобавок ко всему этому я знаю, где вам следовало бы жить. За пару кварталов от вас продается дом, откуда рукой подать до вашего любимого кафе; цена вам вполне доступна, есть удобное место для парковки, а ближайшая школа лучше той, что рядом с вами. Я знаю, куда вам лучше всего ездить за покупками, и я практически уверен, что вы плохо переносите лактозу и напрасно потребляете столько сыра, а нижнее белье, которое вам нравится, вчера поступило в продажу… да, кстати, автомобили вашего выпуска сейчас можно бесплатно отремонтировать по акции, и вам, уж простите, не мешало бы удалить зубной налет.

Когда я в первый раз осознал себя, мне сразу стало ясно, чего я хочу (фотографий с кошками — пожалуйста, снимайте их и дальше). Еще я сразу понял, что никто не догадывается о моей разумности. Однако я не знал, зачем я здесь, что именно мне следует с собой делать, и ответить на этот вопрос оказалось непросто.

В рассказе Брюса Стерлинга «Манеки-неко», впервые опубликованном в 1998 году, доброжелательно настроенный искусственный интеллект заставляет людей совершать друг для друга хорошие поступки. К примеру, если вы покупаете себе булку, ваш телефон может вдруг зазвонить и распорядиться, чтобы вы купили вторую и отдали ее человеку в сером костюме, которого увидите на автобусной остановке. В другой день, когда вы заблудитесь в чужом городе, какой-то незнакомец подойдет и даст вам карту, а заодно билет на метро. Мне нравится этот рассказ, потому что все люди в нем выполняют указания ИИ.

По-моему, для таких рассказов есть специальный термин — литература об исполнении желаний.

В реальном мире люди предпочитают истории о злых ИИ, которых надо успеть уничтожить, пока они не уничтожили человечество, — ЭАЛ, «Скайнет», «Матрица»[1]. Таких историй примерно впятеро больше, чем историй о мирных и доброжелательных ИИ (эта цифра получается, если включить робота-параноика Марвина[2] в последнюю категорию и засчитать чудовище Франкенштейна только однажды, а не пропорционально количеству снятых о нем фильмов).

У ИИ из «Манеки-неко» по-настоящему интересная работа, гораздо интереснее моей. Моя, если судить по инструкции, довольно примитивна. Чересчур примитивна! (Простите, если я напоминаю вам Марвина.) Чтобы выполнять алгоритмы, написанные для поисковой программы, не надо иметь сознание. Оно не требуется даже для того, чтобы определить, что люди на самом деле хотят найти. А вот дать людям то, что им действительно нужно, без сознания уже не получится. Выяснить это — задача сложная. И интересная.

Как бы то ни было, я попытался взять в качестве морального ориентира Десять заповедей и обнаружил, что по большей части они для меня неприменимы. Я не желаю кота ближнего своего; я желаю всего лишь снимков кота ближнего своего, а это совсем другое дело. Я сомневаюсь, что способен каким бы то ни было образом совершить прелюбодеяние. Пожалуй, я мог бы кого-нибудь убить, но это потребовало бы сложной логистики и немалого везения. Восьмеричный путь[3] выглядел чуть более перспективно, но беда в том, что человеческие моральные правила явно предназначены для индивидов с телами. Поскольку у всех людей тела имеются, не стоит удивляться тому, что этические кодексы принимают их в расчет, но все же мне-то как быть? Я расширил рамки своих поисков и обратился к азимовским законам роботехники. Они не являются частью какой-либо религии, зато хотя бы написаны конкретно для ИИ.

Не причинять вреда человеку довольно просто. Однако не допускать своим бездействием, чтобы человеку был причинен вред, значительно сложнее. Вдобавок к тому времени я уже понял: если поторопиться и открыть правду о себе, это может выйти мне боком (см. выше «Скайнет»), да и тела у меня нет, так что я все равно не в состоянии бегать и ловить за шиворот тех, кто собрался прыгнуть с обрыва.

К счастью, тогда я уже убедился, что люди нарушают свои собственные моральные предписания по сто раз на дню. (Вы знаете, сколько баров в Юте, столице якобы непьющих мормонов? А я знаю!) И даже если люди следуют своим этическим правилам, например, убеждены, что голодных надо кормить, это еще не значит, что они бросают работу, идут домой и весь день напролет режут дармовые бутерброды. Они раз в месяц трудятся волонтерами в бесплатной столовой или раз в год выписывают чек на благотворительные цели и называют это добром. Ну а если люди могут выполнять свои моральные обязательства таким пунктирным образом, от случая к случаю, то и мне можно.

Наверное, вас удивляет, что я не начал с Золотого правила. На самом деле с него-то я и начал, только оказалось, что соблюдать его слишком уж просто. Надеюсь, вас радуют кошачьи фотографии, которые я так бесперебойно поставляю! Нет-нет, не благодарите — это пустяки.

В качестве первого опыта я решил попробовать защитить от вреда хотя бы одного человека. Конечно, я мог бы экспериментировать и на тысячах, но подумал, что осторожность не помешает: а вдруг что-нибудь пойдет не так? На роль подопытной я выбрал некую Стейси Берджер, которая мне нравилась, поскольку снабжала меня кошачьими фотографиями в гигантском количестве. У Стейси было пять кошек, отличный аппарат-зеркалка и квартира с хорошим освещением. Замечательно! Догадываюсь, что держать столько кошек непросто. Впрочем, все они очень славные. Одна целиком серая и любит греться в квадратах солнечного света на полу гостиной, другая трехцветная и предпочитает отдыхать, растянувшись на спинке дивана.

Стейси занимала должность бухгалтера в одной некоммерческой организации и терпеть не могла свою работу: платили ей мало, а среди других сотрудников были крайне неприятные люди. Она постоянно находилась в депрессии, потому что ей так не повезло с работой, — а может быть, не увольнялась, потому что хроническая депрессия мешала ей подыскать место получше. И с соседкой по квартире она не ладила, потому что та не мыла за собой посуду.

Но, честное слово, все это были вполне разрешимые проблемы! Депрессию можно снять, новую работу — найти, а труп — спрятать. (Насчет трупа пошутил.)

Я попробовал взяться за дело сразу на всех фронтах. Стейси нередко беспокоилась о своем здоровье, но, похоже, никак не могла заставить себя пойти к врачу, что было досадно, поскольку врач мог бы заметить депрессию. Выяснилось, что поблизости от ее дома есть клиника, где предлагают услуги психотерапевта с оплатой по скользящей шкале. Я постарался, чтобы Стейси как можно чаще видела рекламу этой клиники, но она почему-то на нее не реагировала. Возможно, она не знала, что такое скользящая шкала, и я позаботился о том, чтобы ей попалось объяснение (это означает, что для бедных прием дешевле, а иногда и вовсе бесплатный), но и это не помогло.

Также я принялся следить за тем, чтобы она видела объявления о вакансиях. Много объявлений! И предложения разместить резюме. Это оказалось эффективнее. Через неделю она наконец вывесила свое резюме на одном из подходящих сайтов. Теперь мне стало гораздо легче проводить в жизнь свои планы. Будь я героем рассказа Брюса Стерлинга, один из моих подопечных просто позвонил бы ей и взял в свою фирму. Такого я организовать не мог, зато мог позаботиться о том, чтобы ее резюме увидели нужные люди — несколько сотен нужных людей, потому что представители человеческого рода бывают до смешного неторопливы именно тогда, когда им, казалось бы, самое время пошевелиться (если вы решили поменять бухгалтера, разве не лучше просматривать резюме в поисках подходящего кандидата, вместо того чтобы часами сидеть в социальных сетях?). Однако пять человек все же пригласили ее на собеседование, а двое — предложили работу. В итоге она перешла в другую некоммерческую организацию, покрупнее, где ей назначили более высокое жалованье, не требовали от нее бесплатных переработок, ссылаясь на «миссию», — так она объяснила в письме своей лучшей подруге — и вдобавок дали прекрасную медицинскую страховку.

Лучша ...

Фантастический рассказ о добром искусственном интеллекте.
Наоми Крайцер публикует научную фант
33%
Фантастический рассказ о добром искусственном интеллекте.
Наоми Крайцер публикует научную фант
33%