Могут ли машины мыслить? Мыслят ли «думающие» машины

Классический искусственный интеллект едва ли будет воплощен в мыслящих машинах; предел человеческой изобретательности в этой области, по-видимому, ограничится созданием систем, имитирующих работу мозга.

В науке об искусственном интеллекте (ИИ) происходит революция. Чтобы объяснить ее причины и смысл и представить в перспективе, мы прежде должны обратиться к истории.

В начале 50-х годов традиционный, несколько расплывчатый вопрос о том, может ли машина мыслить, уступил более доступному вопросу: может ли мыслить машина, манипулирующая физическими символами в соответствии с правилами, учитывающими их структуру. Этот вопрос сформулирован точнее, потому что за предшествовавшие полвека формальная логика и теория вычислений существенно продвинулись вперед. Теоретики стали высоко оценивать возможности абстрактных систем символов, которые претерпевают преобразования в соответствии с определенными правилами. Казалось, что если эти системы удалось бы автоматизировать, то их абстрактная вычислительная мощь проявилась бы в реальной физической системе. Подобные взгляды способствовали рождению вполне определенной программы исследований на достаточно глубокой теоретической основе.

Может ли машина мыслить?

Было много причин для того, чтобы ответить да. Исторически одна из первых и наиболее глубоких причин заключалась в двух важных результатах теории вычислений. Первый результат был тезисом Черча, согласно которому каждая эффективно вычислимая функция является рекурсивно вычислимой. Термин «эффективно вычислимая» означает, что существует некая «механическая» процедура, с помощью которой можно за конечное время вычислить результат при заданных входных данных. «Рекурсивно вычислимая» означает, что существует конечное множество операций, которые можно применить к заданному входу, а затем последовательно и многократно применять к вновь получаемым результатам, чтобы вычислить функцию за конечное время. Понятие механической процедуры не формальное, а скорее интуитивное, и потому тезис Черча не имеет формального доказательства. Однако он проникает в самую суть того, чем является вычисление, и множество различных свидетельств сходится в его подтверждение.

Второй важный результат был получен Аланом М. Тьюрингом, продемонстрировавшим, что любая рекурсивно вычислимая функция может быть вычислена за конечное время с помощью максимально упрощенной машины, манипулирующей символами, которую позднее стали называть универсальной машиной Тьюринга. Эта машина управляется рекурсивно применимыми правилами, чувствительными к идентичности, порядку и расположению элементарных символов, которые играют роль входных данных.

Из этих двух результатов вытекает очень важное следствие, а именно что стандартный цифровой компьютер, снабженный правильной программой, достаточно большой памятью и располагающий достаточным временем, может вычислить любую управляемую правилами функцию с входом и выходом. Другими словами, он может продемонстрировать любую систематическую совокупность ответов на произвольные воздействия со стороны внешней среды.

Конкретизируем это следующим образом: рассмотренные выше результаты означают, что соответственно запрограммированная машина, манипулирующая символами (в дальнейшем будем называть ее МС-машиной), должна удовлетворять тесту Тьюринга на наличие сознательного разума. Тест Тьюринга - это чисто бихевиористский тест, тем не менее его требования очень сильны. (Насколько состоятелен этот тест, мы рассмотрим ниже, там где встретимся со вторым, принципиально отличным «тестом» на наличие сознательного разума.) Согласно первоначальной версии теста Тьюринга, входом для МС-машины должны быть вопросы и фразы на естественном разговорном языке, которые мы набираем на клавиатуре устройства ввода, а выходом являются ответы МС-машины, напечатанные устройством вывода. Считается, что машина выдержала этот тест на присутствие сознательного разума, если ее ответы невозможно отличить от ответов, напечатанных реальным, разумным человеком. Конечно, в настоящее время никому не известна та функция, с помощью которой можно было бы получить выход, не отличающийся от поведения разумного человека. Но результаты Черча и Тьюринга гарантируют нам, что какова бы ни была эта (предположительно эффективная) функция, МС-машина соответствующей конструкции сможет ее вычислить.

Это очень важный вывод, особенно если учесть, что тьюринговское описание взаимодействия с машиной при помощи печатающей машинки представляет собой несущественное ограничение. То же заключение остается в силе, даже если МС-машина взаимодействует с миром более сложными способами: с помощью аппарата непосредственного зрения, естественной речи и т. д. В конце концов более сложная рекурсивная функция все же остается вычислимой по Тьюрингу. Остается лишь одна проблема: найти ту несомненно сложную функцию, которая управляет ответными реакциями человека на воздействия со стороны внешней среды, а затем написать программу (множество рекурсивно применимых правил), с помощью которой МС-машина вычислит эту функцию. Вот эти цели и легли в основу научной программы классического искусственного интеллекта.

Первые результаты были обнадеживающими

МС-машины с остроумно составленными программами продемонстрировали целый ряд действий, которые как будто относятся к проявлениям разума. Они реагировали на сложные команды, решали трудные арифметические, алгебраические и тактические задачи, играли в шашки и шахматы, доказывали теоремы и поддерживали простой диалог. Результаты продолжали улучшатьсгя с появлением более емких запоминающих устройств, более быстродействующих машин, а также с разработгюй более мощных и изощренных программ. Классический, или «построенный на программировании», ИИ представлял собой очень живое и успешное научное направление почти со всех точек зрения. Периодически высказывавшееся отрицание того, что МС-машины в конечном итоге будут способны мыслить, казалось проявлением необъективности и неинформированности. Свидетельства в пользу положительного ответа на вопрос, вынесенный в заголовок статьи, казались более чем убедительными.

Конечно, оставались кое-какие неясности. Прежде всего МС-машины не очень-то напоминали человеческий мозг. Однако и здесь у классического ИИ был наготове убедительный ответ. Во-первых, физический материал, из которого сделана МС-машина, по существу не имеет никакого отношения к вычисляемой ею функции. Последняя зафиксирована в программе. Во-вторых, техничекие подробности функциональной архитектуры машины также не имеют значения, поскольку совершенно различные архитектуры, рассчитанные на работу с совершенно различными программами, могут тем не менее выполнять одну и ту же функцию по входу-выходу.

Поэтому целью ИИ было найти функцию, по входу и выходу характерную для разума, а также создать наиболее эффективную из многих возможных программ для того, чтобы вычислить эту функцию. При этом говорили, что тот специфичный способ, с помощью которого функция вычисляется человеческим мозгом, не имеет значения. Этим и завершается описание сущности классического ИИ и оснований для положительного ответа на вопрос, поставленный в заголовке статьи.

Может ли машина мыслить? Были также кое-какие доводы и в пользу отрицательного ответа. На протяжении 60-х годов заслуживающие внимания отрицательные аргументы встречались относительно редко. Иногда высказывалось возражение, заключающееся в том, что мышление - это не физический процесс и протекает он в нематериальной душе. Однако подобное дуалистическое воззрение не выглядело достаточно убедительным ни с эволюционной, ни с логической точки зрения. Оно не оказало сдерживающего влияния на исследования в области ИИ.

Гораздо большее внимание специалистов по ИИ привлекли соображения иного характера. В 1972 г. Хьюберт Л. Дрейфус опубликовал книгу, в которой резко критиковались парадные демонстрации проявлений разума у систем ИИ. Он указывал на то, что эти системы не адекватно моделировали подлинное мышление, и вскрыл закономерность, присущую всем этим неудачным попыткам. По его мнению, в моделях отсутствовал тот огромный запас неформализованных общих знаний о мире, которым располагает любой человек, а также способность, присущая здравому рассудку, опираться на те или иные составляющие этих знаний,в зависимости от требований изменяющейся обстановки. Дрейфус не отрицал принципиальной возможности создания искусственной физичесгсой системы, способной мыслить, но он весьма критически отнесся к идее о том, что это может быть достигнуто только за счет манипулирования символами с помощью рекурсивно применяемых правил.

В кругах специалистов по искусственному интеллекту, а также философов рассуждения Дрейфуса были восприняты главным образом как недальновидные и необъективные, базирующиеся на неизбежных упрощениях, присущих этой еще очень молодой области исследований. Возможно, указанные недостатки действительно имели место, но они, конечно, были временными. Настанет время, когда более мощные машины и более качественные программы позволят избавиться от этих недостатков. Казалось, что время работает на искусственный интеллект. Таким образом, и эти возражения не оказали сколько-нибудь заметного влияния на дальнейшие исследования в области ИИ.

Однако оказалось, что время работало и на Дрейфуса : в конце 70-х - начале 80-х годов увеличение быстродействия и объема памяти компьютеров повышало их «умственные способности» ненамного. Выяснилось, например, что распознавание образов в системах машинного зрения требует неожиданно большого объема вычислений. Для получения практически достоверных результатов нужно было затрачивать все больше и больше машинного времени, намного превосходя время, требуемое для выполнения тех же задач биологической системе зрения. Столь медленный процесс моделирования настораживал: ведь в компьютере сигналы распространяются приблизительно в миллион раз быстрее, чем в мозге, а тактовая частота центрального процессорного устройства компьютера примерно во столько же раз выше частоты любых колебаний, обнаруженных в мозге. И все же на реалистических задачах черепаха легко обгоняет зайца.

Кроме того, для решения реалистических задач необходимо, чтобы компьютерная программа обладала доступом к чрезвычайно обширной базе данных. Построение такой базы данных уже само по себе представляет довольно сложную проблему, но она усугубляется еще одним обстоятельством: каким образом обеспечить доступ к конкретным, зависящим от контекста фрагментам этой базы данных в реальном масштабе времени. По мере того как базы данных становились все более емкими, проблема доступа осложнялась. Исчерпывающий поиск занимал слишком много времени, а эвристические методы не всегда приводили к успеху. Опасения, подобные тем, что высказывал Дрейфус, начали разделять даже некоторые специалисты, работающие в области искусственного интеллекта.

Приблизительно в это время (1980 г.) Джон Сирл высказал принципиально новую критическую концепцию, ставившую под сомнение само фундаментальное предположение классической программы исследований по ИИ, а именно - идею о том, что правильное манипулирование структурированными символами путем рекурсивного применения правил, учитывающих их структуру, может составлять сущность сознательного разума.

Основной аргумент Сирла базировался на мысленном эксперименте, в котором он демонстрирует два очень важных обстоятельства. Во-первых, он описывает МС-машину, которая (как мы должны понимать) реализует функцию, по входу и выходу способную выдержать тест Тьюринга в виде беседы, протекающей исключительно на китайском языке. Во-вторых, внутренняя структура машины такова, что независимо от того, какое поведение она демонстрирует, у наблюдателя не возникает сомнений в том, что ни машина в целом, ни любая ее часть не понимают китайского языка. Все, что она в себе содержит, - это говорящий только по-английски человек, выполняющий записанные в инструкции правила, с помощью которых следует манипулировать символами, входящими и выходящими через окошко для почтовой корреспонденции в двери. Короче говоря, система положительно удовлетворяет тесту Тьюринга, несмотря на то что не обладает подлинным пониманием китайского языка и реального семантического содержания сообщений (см. статью Дж. Сирла «Разум мозга - компьютерная программа?»).

Отсюда делается общий вывод, что любая система, просто манипулирующая физическими символами согласно чувствительным к структуре правилам, будет в лучшем случае лишь жалкой пародией настоящего сознательного разума, поскольку невозможно породить «реальную семантику», просто крутя ручку «пустого синтаксиса». Здесь следует заметить, что Сирл выдвигает не бихевиористский (не поведенческий) тест на наличие сознания: элементы сознательного разума должны обладать реальным семантическим содержанием.

Возникает соблазн упрекнуть Сирла в том, что его мысленный эксперимент не адекватен, поскольку предлагаемая им система, действующая по типу «кубика-рубика», будет работать до абсурда медленно. Однако Сирл настаивает, что быстродействие в данном случае не играет никакой роли. Думающий медленно все же думает верно. Все необходимое для воспроизведения мышления, согласно концепции классического ИИ, по его мнению, присутствует в «китайской комнате».

Статья Сирла вызвала оживленные отклики специалистов по ИИ, психологов и философов. Однако в общем и целом она была встречена еще более враждебно, чем книга Дрейфуса. В своей статье, которая одновременно публикуется в этом номере журнала, Сирл приводит ряд критических доводов, высказываемых против его концепции. По нашему мнению, многие из них правомерны, в особенности те, авторы которых жадно «кидаются на приманку», утверждая, что, хотя система, состоящая из комнаты и ее содержимого, работает ужасно медленно, она все же понимает китайский язык.

Нам нравятся эти ответы, но не потому, что мы считаем, будто китайская комната понимает китайский язык. Мы согласны с Сирлом, что она его не понимает. Привлекательность этих аргументов в том, что они отражают отказ воспринять важнейшую третью аксиому в рассуждении Сирла: « Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики». Возможно, эта аксиома и справедлива, но Сирл не может с полным основанием утверждать, что ему это точно известно. Более того, предположить, что она справедлива, - значит напрашиваться на вопрос о том, состоятельна ли программа исследований классического ИИ, поскольку эта программа базируется на очень интересном предположении, что если нам только удастся привести в движение соответствующим образом структурированный процесс, своеобразный внутренний танец синтаксических элементов, правильно связанный со входами и выходами, то мы можем получить те же состояния и проявления разума, которые присущи человеку.

То, что третья аксиома Сирла действительно напрашивается на этот вопрос, становится очевидно, когда мы непосредственно сопоставляем ее с его же первым выводом: «Программы появляются сущностью разума и их наличия не достаточно для наличия разума». Не трудно видеть, что его третья аксиома уже несет в себе 90% почти идентичного ей заключения. Вот почему мысленный эксперимент Сирла специально придуман для того, чтобы подкрепить третью аксиому. В этом вся суть китайской комнаты.

Хотя пример с китайской комнатой делает аксиому 3 привлекательной для непосвященного, мы не думаем, что он доказывает справедливость этой аксиомы, и чтобы продемонстрировать несостоятельность этого примера, мы предлагаем в качестве иллюстрации свой параллельный пример. Часто один удачный пример, опровергающий оспариваемое утверждение, значительно лучше проясняет ситуацию, чем целая книга, полная логического жонглирования.

В истории науки было много примеров скепсиса, подобного тому, который мы видим в рассуждениях Сирла. В XVIII в. ирландский епископ Джордж Беркли считал немыслимым, чтобы волны сжатия в воздухе сами по себе могли быть сущностью звуковых явлений или фактором, достаточным для их существования. Английский поэт и художник Уильям Блейк и немецкий поэт-естествоиспытатель Иоган Гете считали немыслимым, чтобы маленькие частички материи сами по себе могли быть сущностью или фактором, достаточным для объективного существования света. Даже в нынешнем столетии находились люди, которые не могли себе вообразить, чтобы неодушевленная материя сама по себе, независимо от того, насколько сложна ее организация, могла быть органической сущностью или достаточным условием жизни. Совершенно очевидно то, что люди могут или не могут себе представить, зачастую никак не связано с тем, что на самом деле существует или не существует в действительности. Это справедливо, даже когда речь идет о людях с очень высоким уровнем интеллекта.

Чтобы увидеть, каким образом эти исторические уроки можно применить к рассуждениям Сирла, применим искусственно придуманную параллель к его логике и подкрепим эту параллель мысленным экспериментом.

Аксиома 1. Электричество и магнетизм - это физические силы.

Аксиома 2. Существенное свойство света - это свечение.

Аксиома 3. Силы сами по себе появляются сущностью эффекта свечения и не достаточны для его наличия.

Заключение 1. Электричество и магнетизм не являются сущностью света и не достаточны для его наличия.

Предположим, что это рассуждение было опубликовано вскоре после того, как Джеймс К. Максвелл в 1864 г. высказал предположение, что свет и электромагнитные волны идентичны, но до того как в мире были полностью осознаны систематические параллели между свойствами света и свойствами электромагнитных волн. Приведенное выше логическое рассуждение могло показаться убедительным возражением против смелой гипотезы Максвелла, в особенности если бы оно сопровождалось следующим комментарием в поддержку аксиомы 3.

Рассмотрим темную комнату, в которой находится человек, держащий в руках постоянный магнит или заряженный предмет. Если человек начнет перемещать магнит вверх-вниз, то, согласно теории Максвелла об искусственном освещении (ИО), от магнита будет исходить распространяющаяся сфера электромагнитных волн и в комнате станет светлее. Но, как хорошо известно всем, кто пробовал играть с магнитами или заряженными шарами, их силы (а если на то пошло, то и любые другие силы), даже когда эти объекты приходят в движение, не создают никакого свечения. Поэтому представляется немыслимым, чтобы мы могли добиться реального эффекта свечения просто за счет манипулирования силами!

Колебания электромагнитных сил представляют собой свет, хотя магнит, который перемещает человек, не производит никакого свечения. Аналогично манипулирование символами в соответствии с определенными правилами может представлять собой разум, хотя у основанной на применении правил системы, находящейся в «китайской комнате» Дж. Сирла, настоящее понимание как будто отсутствует.

Что же мог ответить Максвелл, если бы ему был брошен этот вызов?

Во-первых, он, возможно, стал бы настаивать на том, что эксперимент со «светящейся комнатой» вводит нас в заблуждение относительно свойств видимого света, потому что частота колебаний магнита крайне мала, меньше, чем нужно, приблизительно в 1015 раз. На это может последовать нетерпеливый ответ, что частота здесь не играет никакой роли, что комната с колеблющимся магнитом уже содержит все необходимое для проявления эффекта свечения в полном соответствии с теорией самого Максвелла.

В свою очередь Максвелл мог бы «проглотить приманку», заявив совершенно обоснованно, что комната уже полна свечения, но природа и сила этого свечения таковы, что человек не способен его видеть. (Из-за низкой частоты, с которой человек двигает магнитом, длина порождаемых электромагнитных волн слишком велика, а интенсивность слишком мала, чтобы глаз человека мог на них среагировать.) Однако, учитывая уровень понимания этих явлений в рассматриваемый период времени (60-е годы прошлого века), такое объяснение, вероятно, вызвало бы смех и издевательские реплики. «Светящаяся комната! Но позвольте, мистер Максвелл, там же совершенно темно!»

Итак, мы видим, что бедному Максвеллу приходится туго. Все, что он может сделать, это настаивать на следующих трех положениях. Во-первых, аксиома 3 в приведенном выше рассуждении не верна. В самом деле, несмотря на то что интуитивно она выглядит достаточно правдоподобной, по ее поводу у нас невольно возникает вопрос. Во-вторых, эксперимент со светящейся комнатой не демонстрирует нам ничего интересного относительно физической природы света. И в-третьих, чтобы на самом деле решить проблему света и возможности искусственного свечения, нам необходима программа исследований, которая позволит установить, действительно ли при соответствующих условиях поведение электромагнитных волн полностью идентично поведению света. Такой же ответ должен дать классический искусственный интеллект на рассуждение Сирла. Хотя китайская комната Сирла и может показаться «в семантическом смысле темной», у него нет достаточных оснований настаивать, что совершаемое по определенным правилам манипулирование символами никогда не сможет породить семантических явлений, в особенности если учесть, что люди еще плохо информированы и ограничены лишь пониманием на уровне здравого смысла тех семантических и мыслительных явлений, которые нуждаются в объяснении. Вместо того чтобы воспользоваться пониманием этих вещей, Сирл в своих рассуждениях свободно пользуется отсутствием у людей такого понимания.

Высказав свои критические замечания по поводу рассуждений Сирла, вернемся к вопросу о том, имеет ли программа классического ИИ реальный шанс решить проблему сознательного разума и создать мыслящую машину. Мы считаем, что перспективы здесь не блестящие, однако наше мнение основано на причинах, в корне отличающихся от тех аргументов, которыми пользуется Сирл. Мы основываемся на конкретных неудачах исследовательской программы классического ИИ и на ряде уроков, преподанных нам биологическим мозгом на примере нового класса вычислительных моделей, в которых воплощены некоторые свойства его структуры. Мы уже упоминали о неудачах классического ИИ при решении тех задач, которые быстро и эффективно решаются мозгом. Ученые постепенно приходят к общему мнению о том, что эти неудачи объясняются свойствами функциональной архитектуры МС-машин, которая просто непригодна для решения стоящих перед ней сложных задач.

Что нам нужно знать, так это каким образом мозг достигает эффекта мышления? Обратное конструирование является широко распространенным приемом в технике. Когда в продажу поступает какое-то новое техническое устройство, конкуренты выясняют, каким образом оно работает, разбирая его на части и пытаясь угадать принцип, на котором оно основано. В случае мозга реализация такого подхода оказывается необычайно трудной, поскольку мозг представляет собой самую сложную вещь на планете. Тем не менее нейрофизиологам удалось раскрыть многие свойства мозга на различных структурных уровнях. Три анатомические особенности принципиально отличают его от архитектуры традиционных электронных компьютеров.

Во-первых , нервная система - это параллельная машина, в том смысле, что сигналы обрабатываются одновременно на миллионах различных путей. Например, сетчатка глаза передает сложный входной сигнал мозгу не порциями по 8,16 или 32 элемента, как настольный компьютер, а в виде сигнала, состоящего почти из миллиона отдельных элементов, прибывающих одновременно к окончанию зрительного нерва (наружному коленчатому телу), после чего они также одновременно, в один прием, обрабатываются мозгом. Во-вторых, элементарное «процессорное устройство» мозга, нейрон, отличается относительной простотой. Кроме того, его ответ на входной сигнал - аналоговый, а не цифровой, в том смысле, что частота выходного сигнала изменяется непрерывным образом в зависимости от входных сигналов.

В-третьих, в мозге, кроме аксонов, ведущих от одной группы нейронов к другой, мы часто находим аксоны, ведущие в обратном направлении. Эти возвращающиеся отростки позволяют мозгу модулировать характер обработки сенсорной информации. Еще важнее то обстоятельство, что благодаря их существованию мозг является подлинно динамической системой, у которой непрерывно поддерживаемое поведение отличается как очень высокой сложностью, так и относительной независимостью от периферийных стимулов. Полезную роль в изучении механизмов работы реальных нейронных сетей и вычислительных свойств параллельных архитектур в значительной мере сыграли упрощенные модели сетей. Рассмотрим, например, трехслойную модель, состоящую из нейроноподобных элементов, имеющих аксоноподобные связи с элементами следующего уровня. Входной стимул достигает порога активации данного входного элемента, который посылает сигнал пропорциональной силы по своему «аксону» к многочисленным «синаптическим» окончаниям элементов скрытого слоя. Общий эффект заключается в том, что та или иная конфигурация активирующих сигналов на множестве входных элементов порождает определенную конфигурацию сигналов на множестве скрытых элементов.

То же самое можно сказать и о выходных элементах. Аналогичным образом конфигурация активирующих сигналов на срезе скрытого слоя приводит к определенной картине активации на срезе выходных элементов. Подводя итог, можно сказать, что рассматриваемая сеть является устройством для преобразования любого большого количества возможных входных векторов (конфигураций активирующих сигналов) в однозначно соответствующий ему выходной вектор. Это устройство предназначено для вычисления специфической функции. То, какую именно функцию оно вычисляет, зависит от глобальной конфигурации синаптической весовой структуры.

Нейронные сети моделируют главное свойство микроструктуры мозга. В этой трехслойной сети входные нейроны (слева внизу) обрабатывают конфигурацию активирующих сигналов {справа внизу) и передают их по взвешенным связям скрытому слою. Элементы скрытого слоя суммируют свои многочисленные входы, образуя новую конфигурацию сигналов. Она передается внешнему слою, выполняющему дальнейшие преобразования. В целом сеть преобразует любой входной набор сигналов в соответствующий выход, в зависимости от расположения и сравнительной силы связей между нейронами.

Существуют разнообразные процедуры для подбора весов, благодаря которым можно сделать сеть, способную вычислить почти любую функцию (т. е. любое преобразование между векторами). Фактически в сети можно реализовать функцию, которую даже нельзя сформулировать, достаточно лишь дать ей набор примеров, показывающих, какие лары входа и выхода мы хотели бы иметь. Этот процесс, называемый «обучением сети», осуществляется путем последовательного подбора весов, присваиваемых связям, который продолжается до тех пор, пока сеть не начнет выполнять желаемые преобразования с входом, чтобы получить нужный выход.

Хотя эта модель сети чрезвычайно упрощает структуру мозга, она все же иллюстрирует несколько важных аспектов. Во-первых, параллельная архитектура обеспечивает колоссальное преимущество в быстродействии по сравнению с традиционным компьютером, поскольку многочисленные синапсы на каждом уровне выполняют множество мелких вычислительных операций одновременно, вместо того чтобы действовать в очень трудоемком последовательном режиме. Это преимущество становится все более значительным, по мере того как возрастает количество нейронов на каждом уровне. Поразительно, но скорость обработки информации, совершенно не зависит ни от числа элементов, участвующих в процессе на каждом уровне, ни от сложности функции, которую они вычисляют. Каждый уровень может иметь четыре элемента или сотню миллионов; конфигурация синаптических весов может вычислять простые одноразрядные суммы или решать дифференциальные уравнения второго порядка. Это не имеет значения. Время вычислений будет абсолютно одним и тем же.

Во-вторых, параллельный характер системы делает ее нечувствительной к мелким ошибкам и придает ей функциональную устойчивость; потеря нескольких связей, даже заметного их количества, оказывает пренебрежимо малое влияние на общий ход преобразования, выполняемого оставшейся частью сети.

В-третьих, параллельная система запоминает большое количество информации в распределенном виде, при этом обеспечивается доступ к любому фрагменту этой информации за время, измеряющееся несколькими миллисекундами. Информация хранится в виде определенных конфигураций весов отдельных синаптических связей, сформировавшихся в процессе предшествовавшего обучения. Нужная информация «высвобождается» по мере того, как входной вектор проходит через (и преобразуется) эту конфигурацию связей.

Параллельная обработка данных не является идеальным средством для всех видов вычислений. При решении задач с небольшим входным вектором, но требующих многих миллионов быстро повторяющихся рекурсивных вычислений, мозг оказывается совершенно беспомощным, в то время как классические МС-машины демонстрируют свои самые лучшие возможности. Это очень большой и важный класс вычислений, так что классические машины будут всегда нужны и даже необходимы. Однако существует не менее широкий класс вычислений, для которых архитектура мозга представляет собой наилучшее техническое решение. Это главным образом те вычисления, с которыми обычно сталкиваются живые организмы: распознавание контуров хищника в «шумной» среде; мгновенное вспоминание правильной реакции на его пристальный взгляд, способ бегства при его приближении или защиты при его нападении; проведение различий между съедобными и несъедобными вещами, между половыми партнерами и другими животными; выбор поведения в сложной и постоянно изменяющейся физической или социальной среде; и т. д.

Наконец, очень важно заметить, что описанная параллельная система не манипулирует символами в соответствии со структурными правилами. Скорее манипулирование символами является лишь одним из многих других «интеллектуальных» навыков, которым сеть может научиться или не научиться. Управляемое правилами манипулирование символами не является основным способом функционирования сети. Рассуждение Сирла направлено против управляемых правилами МС-машин; системы преобразования векторов того типа, который мы описали, таким образом, выпадают из сферы применимости его аргумента с китайской комнатой, даже если бы он был состоятелен, в чем мы имеем другие, независимые причины сомневаться.

Сирлу известно о параллельных процессорах, но, по его мнению, они будут также лишены реального семантического содержания. Чтобы проиллюстрировать их неизбежную неполноценность в этом отношении, он описывает второй мысленный эксперимент, на сей раз с китайским спортивным залом, который наполнен людьми, организованным в параллельную сеть. Дальнейший ход его рассуждений аналогичен рассуждениям в случае с китайской комнатой.

На наш взгляд, этот второй пример не так удачен и убедителен, как первый. Прежде всего то обстоятельство, что ни один элемент в системе не понимает китайского языка, не играет никакой роли, потому что то же самое справедливо и по отношению к нервной системе человека: ни один нейрон моего мозга не понимает английского языка, хотя мозг как целое понимает. Далее Сирл не упоминает о том, что его модель (по одному человеку на каждый нейрон плюс по быстроногому мальчишке на каждую синаптическую связь) потребовала бы по крайней мере 1014 человек, так как человеческий мозг содержит 1011 нейронов, каждый из которых имеет в среднем 103 связей. Таким образом, его система потребует населения 10 000 миров, таких как наша Земля. Очевидно, что спортивный зал далеко не в состоянии вместить более или менее адекватную модель.

С другой стороны, если такую систему все же удалось бы собрать, в соответствующих космических масштабах, со всеми точно смоделированными связями, у нас получился бы огромный, медленный, странной конструкции, но все же функционирующий мозг. В этом случае, конечно, естественно ожидать, что при правильном входе он будет мыслить, а не наоборот, что он на это не способен. Нельзя гарантировать, что работа такой системы будет представлять собой настоящее мышление, поскольку теория векторной обработки может неадекватно отражать работу мозга. Но точно так же у нас нет никакой априорной гарантии, что она не будет мыслить. Сирл еще раз ошибочно отождествляет сегодняшние пределы своего собственного (или читательского) воображения с пределами объективной реальности.

Мозг

Мозг является своеобразным компьютером, хотя большинство его свойств пока остается непознанным. Охарактеризовать мозг как компьютер далеко не просто, и такие попытки не следует считать излишней вольностью. Мозг дейтствительно вычисляет функции, но не такие, как в прикладных задачах, решаемых классическим искусственным интеллектом. Когда мы говорим о машине как о компьютере, мы не имеем в виду последовательный цифровой компьютер, который нужно запрограммировать и которому свойственно четкое разделение на программную часть и аппаратную; мы не имеем также в виду, что этот компьютер манипулирует символами или следует определенным правилам. Мозг - это компьютер принципиально другого вида.

Каким образом мозг улавливает смысловое содержание информации, пока не известно, однако ясно, что проблема эта выходит далеко за рамки лингвистики и не ограничивается человеком как видом. Маленькая кучка свежей земли означает, как для человека, так и для кайота, что где-то поблизости находится суслик; эхо с определенными спектральными характеристиками означает для летучей мыши присутствие мотылька. Чтобы разработать теорию формирования смыслового содержания, мы должны больше знать о том, как нейроны кодируют и преобразуют сенсорные сигналы, о нейронной основе памяти, об обучении и эмоциях и о связи между этими факторами и моторной системой. Основанная на нейрофизиологии теория понимания смысла может потребовать даже наших интуитивных представлений, которые сейчас кажутся нам такими незыблемыми и которыми так свободно пользуется Сирл в своих рассуждениях. Подобные пересмотры - не редкость в истории науки.

Способна ли наука создать искусственный интеллект, воспользовавшись тем, что известно о нервной системе? Мы не видим на этом пути принципиальных препятствий. Сирл будто бы соглашается, но с оговоркой: «Любая другая система, способная порождать разум, должна обладать каузальными свойствами (по крайне мере), эквивалентными соответствующим свойствам мозга». В завершение статьи мы и рассмотрим это утверждение. Полагаем, что Сирл не утверждает, будто успешная система искусственного интеллекта должна непременно обладать всеми каузальными свойствами мозга, такими как способность чувствовать запах гниющего, способность быть носителем вирусов, способность окрашиваться в желтый цвет под действием пероксидазы хрена обыкновенного и т. д. Требовать полного соответствия будет все равно, что требовать от искусственного летательного аппарата способности нести яйца.

Вероятно, он имел в виду лишь требование, чтобы искусственный разум обладал всеми каузальными свойствами, относящимися, как он выразился, к сознательному разуму. Однако какими именно? И вот мы опять возвращаемся к спору о том, что относится к сознательному разуму, а что не относится. Здесь как раз самое место поспорить, однако истину в данном случае следует выяснять эмпирическим путем - попробовать и посмотреть, что получится. Поскольку нам так мало известно о том, в чем именно состоит процесс мышления и семантика, то всякая уверенность по поводу того, какие свойства здесь существенны, была бы преждевременной. Сирл несколько раз намекает, что каждый уровень, включая биохимический, должен быть представлен в любой машине, претендующей на искусственный интеллект. Очевидно, это слишком сильное требование. Искусственный мозг может и не пользуясь биохимическими механизмами, достичь того же эффекта.

Эта возможность была продемонстрирована в исследованиях К.Мида в Калифорнийском технологическом институте. Мид и его коллеги воспользовались аналоговыми микроэлектронными устройствами для создания искусственной сетчатки и искусственной улитки уха. (У животных сетчатка и улитка не являются просто преобразователями: в обеих системах происходит сложная параллельная обработка данных.) Эти устройства уже не простые модели в миникомпьютере, над которым посмеивается Сирл; они представляют собой реальные элементы обработки информации, реагирующие в реальное время на реальные сигналы: свет - в случае сетчатки и звук - в случае улитки уха. Схемы устройств основаны на известных анатомических и физиологических свойствах сетчатки кошки и ушной улитки сипухи, и их выход чрезвычайно близок к известным выходам органов, которые они моделируют.

В этих микросхемах не используются никакие нейромедиаторы, следовательно, нейромедиаторы, судя по всему, не являются необходимыми для достижения желаемых результатов. Конечно, мы не можем сказать, что искусственная сетчатка видит что-то, поскольку ее выход не поступает на искусственный таламус или кору мозга и т. д. Возможно ли по программе Мида построить целый искусственный мозг, пока не известно, однако в настоящее время у нас нет свидетельств, что отсутствие в системе биохимических механизмов делает этот подход нереалистичным.

Нервная система охватывает ыного масштабов организации, от молекул нейромедиаторов (внизу) до всего головного и спинного мозга. На промежуточных у ровнях находятся отдельные нейроны и нейронные цепи, подобные тем, что реализуют избирательность восприятия зрительных стимулов (в центре), и системы, состоящие из многих цепей, подобных тем, что обслуживают функции речи (справа вверху). Только путем исследований можно установить, насколько близко искусственная система способна воспроизводить биологические системы, обладающие разумом.

Так же как и Сирл, мы отвергаем тест Тьюринга как достаточный критерий наличия сознательного разума. На одном уровне основания для этого у нас сходные: мы согласны, что очень важно, каким образом реализуется функция, определенная по входу-выходу; важно, чтобы в машине происходили правильные процессы. На другом уровне мы руководствуемся совершенно иными соображениями. Свою позицию относительно присутствия или отсутствия семантического содержания Сирл основывает на интуитивных представлениях здравого смысла. Наша точка зрения основана на конкретных неудачах классических МС-машин и конкретных достоинствах машин, архитектура которых ближе к устройству мозга. Сопоставление этих различных типов машин показывает, что одни вычислительные стратегии имеют огромное и решающее преимущество над другими в том, что касается типичных задач умственной деятельности. Эти преимущества, установленные эмпирически, не вызывают никаких сомнений. Очевидно, мозг систематически пользуется этими вычислительными преимуществами. Однако он совершенно не обязательно является единственной физической системой, способной ими воспользоваться. Идея создания искусственного интеллекта в небиологической, но существенно параллельной машине остается очень заманчивой и в достаточной мере перспективной.

Генрих Саулович Альтов

Может ли машина мыслить?

Я собираюсь рассмотреть вопрос: «Может ли машина мыслить?» Но для этого нужно сначала определить смысл термина «мыслить»…

А. Тьюринг.

Триггерная цепочка

Дважды в неделю, по вечерам, гроссмейстер приходил в Институт кибернетики и играл с электронной машиной.

В просторном и безлюдном зале стоял невысокий столик с шахматной доской, часами и кнопочным пультом управления. Гроссмейстер садился в кресло, расставлял фигуры и нажимал кнопку «Пуск». На передней панели электронной машины загоралась подвижная мозаика индикаторных ламп. Объектив следящей системы нацеливался на шахматную доску. Потом на матовом табло вспыхивала короткая надпись. Машина делала свой первый ход.

Она была совсем небольшая, эта машина. Гроссмейстеру иногда казалось, что против него стоит самый обыкновенный холодильник. Но этот «холодильник» неизменно выигрывал. За полтора года гроссмейстеру с трудом удалось свести вничью только четыре партии.

Машина никогда не ошибалась. Над ней никогда не нависала угроза цейтнота.

Гроссмейстер не раз пытался сбить машину, делая заведомо нелепый ход или жертвуя фигуру. В результате ему приходилось поспешно нажимать кнопку «Сдаюсь».

Гроссмейстер был инженером и экспериментировал с машиной для уточнения теории самоорганизующихся автоматов. Но временами его бесила абсолютная невозмутимость «холодильника». Даже в критические моменты игры машина не думала больше пяти-шести секунд. Спокойно поморгав разноцветными огнями индикаторных ламп, она записывала самый сильный из возможных ходов. Машина умела вносить поправки на стиль игры своего противника. Иногда она поднимала объектив и подолгу рассматривала человека. Гроссмейстер волновался и делал ошибки…

Днем в зал приходил молчаливый лаборант. Хмуро, не глядя на машину, он воспроизводил на шахматной доске партии, сыгранные в разное время выдающимися шахматистами. Объектив «холодильника» выдвигался до отказа и нависал над доской.

На лаборанта машина не смотрела. Она бесстрастно регистрировала информацию.

Эксперимент, для которого создали шахматный автомат, приближался к концу. Было решено организовать публичный матч между человеком и машиной. Перед матчем гроссмейстер стал еще чаше появляться в институте. Гроссмейстер понимал, что проигрыш почти неизбежен. И все-таки он упорно искал слабые места в игре «холодильника». Машина же, словно догадываясь о предстоящем поединке, с каждым днем играла все сильнее и сильнее. Она молниеносно разгадывала самые хитроумные планы гроссмейстера. Она громила его фигуры внезапными и исключительными по силе атаками…

Незадолго до начала матча машину перевезли в шахматный клуб и установили на сцене. Гроссмейстер приехал в самую последнюю минуту. Он уже жалел, что дал согласие на матч. Было неприятно проигрывать «холодильнику» на глазах у всех.

Гроссмейстер вложил в игру весь свой талант и всю свою волю к победе. Он избрал начало, которое ему еще не приходилось играть с машиной, и игра сразу же обострилась.

На двенадцатом ходу гроссмейстер предложил машине слона за пешку. С жертвой слона связывалась тонкая, заранее подготовленная комбинация. Машина думала девять секунд - и отклонила жертву. С этого момента гроссмейстер знал, что неизбежно проиграет. Однако он продолжал игру - уверенно, дерзко, рискованно.

Никто из присутствовавших в зале еще не видел такой игры. Это было сверхискусство. Все знали, что машина постоянно выигрывает. Но на этот раз положение на доске менялось так быстро и так резко, что невозможно было сказать, кому достанется победа.

После двадцать девятого хода на табло машины вспыхнула надпись: «Ничья».

Гроссмейстер изумленно посмотрел на «холодильник» и заставил себя нажать кнопку «Нет». Взметнулись, перестраивая световой узор, индикаторные огни - и замерли настороженно.

На одиннадцатой минуте она сделала ход, которого больше всего опасался гроссмейстер. Последовал стремительный размен фигур. Положение у гроссмейстера ухудшилось. Однако на сигнальном табло машины вновь появилось слово «Ничья».

Гроссмейстер упрямо нажал кнопку «Нет» и повел ферзя в почти безнадежную контратаку.

Следящая система машины тотчас пришла в движение. Стеклянный глаз объектива уставился на человека. Гроссмейстер старался не смотреть на машину.

Постепенно в световой мозаике индикаторных ламп начали преобладать желтые тона.

Они становились насыщеннее, ярче - и наконец погасли все лампы, кроме желтых. На шахматную доску упал золотистый сноп лучей, удивительно похожих на теплый солнечный свет.

В напряженной тишине пощелкивала, перескакивая с деления на деление, стрелка больших контрольных часов. Машина думала. Она думала сорок три минуты, хотя большинство сидящих в зале шахматистов считали, что думать особенно нечего и можно смело атаковать конем.

Внезапно желтые огни погасли. Объектив, неуверенно вздрагивая, занял обычное положение. На табло появилась запись сделанного хода: машина осторожно передвинула пешку. В зале зашумели; многим казалось, что это был не лучший ход.

Через четыре хода машина признала свое поражение.

Гроссмейстер, оттолкнув стул, подбежал к машине и рывком приподнял боковой щиток. Под щитком вспыхивала и гасла красная лампочка контрольного механизма.

На сцену, которую сразу заполнили шахматисты, с трудом пробился молодой человек, корреспондент спортивной газеты.

Похоже, она просто уступила, - неуверенно сказал кто-то. - Так потрясающе играла - и вдруг…

Ну, знаете ли, - возразил один из известных шахматистов, - случается, что и человек не замечает выигрышной комбинации. Машина играла в полную силу, но возможности ее ограниченны. Только и всего.

Гроссмейстер медленно опустил щиток машины и обернулся к корреспонденту.

Итак, - нетерпеливо повторил тот, раскрывая записную книжку, - каково ваше мнение?

Мое мнение? - переспросил гроссмейстер. - Вот оно: вышла из строя триггерная цепочка в сто девятом блоке. Конечно, ход пешкой не самый сильный. Но сейчас трудно сказать, где причина и где следствие. Может быть, из-за этой триггерной цепочки машина не заметила лучшего хода. А может быть, она действительно решила не выигрывать - и это стоило ей пробитых током триггеров. Ведь и человеку не так легко переломить себя…

Но зачем этот слабый ход, зачем проигрывать? - удивился корреспондент. - Умей машина мыслить, она стремилась бы к выигрышу.

Гроссмейстер пожал плечами и улыбнулся:

Как сказать… Иногда намного человечнее сделать именно слабый ход.

К взлету готов!

Маяк стоял на высокой, далеко выдвинутой в море скале. Люди появлялись на маяке лишь изредка, чтобы проверить автоматическое оборудование. Метрах в двухстах от маяка из воды поднимался островок. Много лет начал на островке, как на постаменте, установили космический корабль, который вернулся на Землю после дальнего рейса. Такие корабли не имело смысла снова отправлять в Космос.

Я приехал сюда с инженером, ведавшим маяками на всем Черноморском побережье.

Когда мы поднялись на верхнюю площадку маяка, инженер передал мне бинокль и сказал:

Будет шторм. Очень удачно: перед непогодой он всегда оживает.

Красноватое солнце тускло отсвечивало на серых гребнях волн. Скала резала волны, они огибали ее и с шумом карабкались на скользкие, ржавые камни. Потом, гулко вздохнув, растекались вспененными ручьями, открывая дорогу новым волнам. Так наступали римские легионеры: передний ряд, нанеся удар, уходил назад сквозь разомкнутый строй, который затем смыкался и с новой силой шел на приступ.

В бинокль я мог хорошо разглядеть корабль. Это был очень старый двухместный звездолет типа «Дальний разведчик». В носовой части выделялись две аккуратно заделанные пробоины. Вдоль корпуса проходила глубокая вмятина. Кольцо гравитационного ускорителя было расколото на две части и сплющено. Над рубкой медленно вращались конусообразные искатели давно устаревшей системы и ифразвукового метеонаблюдения.

Видите, - сказал инженер, - он чувствует, что будет шторм.

Где-то тревожно закричала чайка, и море отозвалось глухими ударами волн. Серая дымка, поднятая над морем, постепенно заволакивала горизонт. Ветер тянул к облакам посветлевшие гребни волн, а облака, перегруженные непогодой, опускались к воде. От соприкосновения неба и моря должен был вспыхнуть шторм.

Ну это я еще понимаю,-продолжал инженер: - солнечные батареи питают аккумуляторы, и электронный мозг управляет приборами. Но все остальное… Иногда он словно забывает о земле, о море, о штормах и начинает интересоваться только небом. Выдвигается радиотелескоп, антенны локаторов вращаются днем и ночью… Или другое. Вдруг поднимается какая-то труба и начинает разглядывать людей. Зимой здесь бывают холодные ветры, корабль покрывается льдом, но стоит на маяке появиться людям, и лед моментально исчезает… Между прочим, на нем и водоросли не нарастают…

Море наступало на островок. Волны шли одна за другой - и каждая следующая была выше и сильнее предыдущей. Насколько видел глаз, все было заполнено серыми волнами. На корабле зажглись штормовые огни.

Вот-вот, видите! - торжествующе произнес инженер. - Сейчас он включит свой прожектор. Временами мне кажется, что он улетит. Возьмет и улетит… Был я здесь как-то ночью, так до сих пор… Понимаете, Луна поднималась над морем, и корабль… он прямо-таки тянулся к ней. Эта груба, антенны и еще какие-то штуки вот там, позади рубки,-все было устремлено к Луне. Мистика!..

Я объяснил инженеру, что никакой мистики здесь нет. На кораблях, поставленных на вечную стоянку, не выключают электронную аппаратуру. Это нужно, чтобы корабль сам о себе заботился: принимал меры против коррозии, обледенения, не допускал скопления пыли и грязи, сигнализировал при непредвиденной опасности. Случается, что электронный мозг делает и то, что совершенно не нужно: ведет наблюдение за Луной и звездами, регистрирует космическое излучение, магнитные бури… Но улететь в Космос корабль не может: на нем нет экипажа, нет горючего, нет основных агрегатов гравитационного ускорителя.

Инженер с сомнением покачал головой и спросил:

А труба? Зачем он наводит ее на маяк?

Я не успел ответить.

Над каплевидной рубкой корабля выдвинулся прожектор. Синеватый луч легко пробил нависшую над морем предштормовую дымку. Скользнув по берегу, луч уперся в основание маяка, а затем поднялся к площадке.

От яркого света я невольно закрыл глаза. Прожектор тотчас же погас.

На корабле зажглись все бортовые огни. Они осветили черные, отшлифованные волнами камни островка и зеленоватый корпус звездолета. В борту корабля возникла щель: раздвигались створки главного люка.

Этого… не было! - возбужденно повторил инженер.

Он не отрывался от бинокля и говорил очень громко, почти кричал. Ветер, уже набравший силу, гудел в стальных фермах маяка, и я слышал только обрывки фраз:

«За сорок лет… мои предшественники… никто не знал …»

Волны захлестывали островок. Но старый корабль, видавший великие ураганы Звездного Мира, перестал обращать внимание на надвигающийся шторм. С торжественной, даже величественной неторопливостью он делал все то, что полагается делать перед взлетом.

Из открытого люка опустился трап. Сложная система антенн приняла походное положение. В центральной части корпуса выдвинулись короткие, резко отогнутые назад крылья. За дюзами стартового двигателя появились газовые рули. Они были погнуты, эти рули, однако безукоризненно стали так, как это требовалось для короткого разбега по воде. Перископический датчик видеосистемы («труба», о которой говорил инженер) повернулся в сторону открытого моря. Трижды мигнул зеленый oгонь старт-сигнала и над рубкой поднялся алый вымпел.

Эту был традиционный сигнал: «К взлету - готов!»

Волны перекатывались через островок, вокруг корабля кипели буруны. Мне вдруг показалось, что море неподвижно, а корабль несется вперед. Мне показалось, что слышен грохот стартового двигателя. Это длилось несколько секунд, не больше. Но я понял, почему для вечной стоянки корабля выбран этот маленький, неприметный островок.

Внезапно огни на звездолете погасли.

Мы долго ждали. Ветер все сильнее и сильнее раскачивал площадку маяка.

Надо идти! - наклонившись ко мне, прокричал инженер и вытер мокрое лицо.

Низко, над самой водой, полыхнула до синевы накаленная молния. Протяжные громовые раскаты слились с ревом волн.

Шторм начался.

Когда мы спускались по винтовой лестнице, инженер сказал:

Все дело в том, что он искал вас. Он всегда рассматривал людей, но только сегодня он увидел вас и открыл люк.

Почему именно меня? - спросил я. - Ведь мы были вдвоем.

На вас форма Звездного Флота, - ответил инженер и убежденно повторил; - Ну да, на вас форма астронавта.

Это была очень наивная идея, впрочем простительная неспециалисту. Электронные машины на старых звездных разведчиках не умеют различать одежду людей. Вероятно, машина узнала, что надвигается сильнейший шторм, и приняла самое простое в этих условиях решение - взлететь, уйти от шторма. Подняться корабль, конечно, не мог, но все-таки подготовился к взлету.

Выслушав мое объяснение, инженер неуверенно сказал:

Что ж, возможно, все так и обстоит… Не спорю… Однако он уже сорок лет на этом островке. Сорок лет! Неужели за это время в его электронной памяти ничто самопроизвольно не изменилось?..

Я не ответил инженеру. Я думал о другом.

Звездолет был навечно прикован к камням. Над ним проносились другие корабли, всходили и заходили далекие звезды. И если хоть что-то похожее на разум теплилось в старом коралле, о чем мог думать его не знающий сна электронный мозг?

Сорок лет этот мозг был предоставлен самому себе. Только самому себе. И еще - воспоминаниям.

Первый контакт

Директор института, не глядя на собравшихся в его кабинете сотрудников, долго скреб густую черную бородку и наконец мрачно сказал:

Мои юные коллеги, это скандал. Самый чистокровный скандал. Даже ультраскандал.

Над нами будут смеяться.

А что, собственно, случилось? - спокойно спросил молодой человек в ковбойке.

Директор грустно взглянул на него сквозь большие роговые очки с выпуклыми стеклами:

Вам, руководителю экспериментальной лаборатории, это следовало бы знать. Да.

Вчера ночью «Марсианин» говорил с «Аристотелем».

Какой… марсианин? - неуверенно произнесла сидевшая у окна девушка, начальник отдела информационно-логических машин.

Не смотрите на меня так, - отчетливо выговаривая каждый слог, сказал директор.

Я в здравом уме. «Марсианин», о котором я говорю, пишется с большой буквы и в кавычках.

Девушка смущенно улыбнулась.

Так, - продолжал директор. - Никто не помнит. Никто не знает, о чем идет речь.

Хорошо, я вам напомню. Три года назад, мои уважаемые коллеги, три гола назад, когда вы еще были студентами, у нас поставили эксперимент. Человек, поставивший этот эксперимент, сейчас работает в другом городе. Да. Речь шла о том, смогут ли понять друг друга астронавт и разумный обитатель какой-либо иной планеты.

Конечно, в том случае, если они встретятся. Надеюсь, вы догадываетесь, что эта проблема имеет непосредственное отношение к нам, кибернетикам. Да. Она примыкает к проблеме кодирования и перекодирования с языка на язык.

Совершенно верно! - воскликнул начальник отдела электронного моделирования, надевая роговые очки, очень похожие на очки директора. - Теперь я припоминаю.

Были построены два автомата, которые могли общаться между собой с помощью акустических устройств. Один автомат назвали «Эрг Ноором», а другой… а другой - почему-то «Аристотелем».

То есть как это «почему-то»?! - возмутился директор. - Ребенку ясно: чем большая по времени дистанция между разумными существами, тем труднее им найти общий язык. Поэтому первый автомат получил всю ту информацию, все те знания и представления, которые, по мнению историков, должен был иметь Аристотель или его современник-ученый. А второй… Да, со вторым автоматом было очень много неприятностей. Мы настраивали его под наблюдением астрономов, биологов, философов и этих… ну, научных фантастов. Ужасно было трудно! Сколько консультантов - столько мнений.

Но ведь из этого опыта ничего не вышло, - осторожно сказал начальник отдела электронного моделирования, снимая мешавшие ему очки.

Что значит «не вышло»? - с негодованием спросил директор? - Вы думаете, при первой же встрече «Эрг Hoop» должен был броситься на шею «Аристотелю»? А может быть, вы думаете, что они сразу же должны были устроить драку?..

Директор строго оглядел притихших сотрудников и неожиданно улыбнулся:

Тогда, три года назад, нам тоже казалось, что произойдет нечто такое… - он сделал неопределенный жест рукой. - Первый контакт. Романтика. Да. Но ничего не произошло. Они молчали - и никак не хотели говорить друг с другом.

Несовершенство программирования, ошибки в конструкции. Да. И автоматы были сданы в резервное хранилище. Со строгим предписанием: хранить аккуратно! На всякий случай.

Там все хранят аккуратно, - сказала девушка. - Специальное помещение, постоянная температура, чистота… По ночам дежурит сотрудник.

Какой сотрудник? - тихо спросил директор. - Разрешите полюбопытствовать - какой сотрудник? - И, не дожидаясь ответа, отчеканил; - Сторож! Самый обыкновенный сторож! Тот самый сторож, мои уважаемые коллеги, которого вы почтительно зовете дядей Васей.

Дядя Вася очень добросовестно относится к своим обязанностям, - возразила девушка.

Добросовестно, - согласился директор, уныло поглаживая бородку. - Даже слишком добросовестно. Вчера, в одиннадцать ночи, он позвонил мне и сказал, что эти двое… ну, «Эрг Hoop» и «Аристотель» - вдруг начали говорить. Вы понимаете, уважаемые коллеги? Они начали говорить. Начали спорить.

О чем? - нетерпеливо спросил юноша в ковбойке.

Ах, вас интересует о чем? - очень вежливо сказал директор. - Я предвидел это и потому вчера звонил вам. Вам и всем остальным. Но никого не оказалось дома. Да.

И к дяде Васе я приехал один. Так вот, «Эрг Hoop» и «Аристотель» действительно спорили. Они орали во всю мощь своих железных глоток. В зале гремело так, словно работал паровой молот!

Значит, опыт все-таки удался! - воскликнула девушка. - О чем же они спорили?

О чем? - спокойно переспросил директор. - А вот о чем. «Аристотель» утверждал, что в чемпионате по футболу на первое место в группе «А» выйдет команда «Крылья Советов». А «Эрг Hoop» визгливым и вибрирующим голосом, который для него придумал один фантаст, упрямо повторял: «Чепуха, чепуха, чепуха… 97,6 процента, Сын Голубой Планеты за то, что победит команда „Динамо“. Да! „Аристотель“ сыпал фамилиями игроков, ссылался на спортивных обозревателей и… и попрошу не смеяться! - рявкнул директор. - Не вижу в этом ничего смешного.

Мы не смеемся, - сказала девушка. - Мы стараемся не смеяться. Ничего не случилось. Просто эти машины плохо запрограммированы, вот и все.

Вы так думаете? - обернулся к ней директор. - Так вот, я все выяснил. Дядя Вася, дежуря в хранилище, в течение трех лет читал вслух спортивные газеты и журналы. Он даже слушал передачи со стадионов. Больше того, кое-кто из вас любил заходить туда по утрам. Так сказать, для обсуждения спортивных новостей. Да. И никто не вспомнил, что рядом - машины, пусть старые и плохие, но машины. Никто не вспомнил, что автоматы имеют акустические приемники и, следовательно, могут…

Не огорчайтесь, пожалуйста, - сказал юноша в ковбойке. - Автоматы не представляют ценности: они, в сущности, не нужны. Но если хотите, можно легко убрать эту лишнюю информацию о… футболе.

Нет, нет, тут нужно разобраться, - возразила девушка. - Пусть автоматы считались неудачными, негодными. Но теперь… теперь они спорят о футболе. Разве это не свидетельствует, что машина может мыслить, как человек? То есть почти как человек.

Директор покачал головой.

Мой юный друг, - ехидно сказал он. - Это работают блоки анализаторов вероятности. И только. Как можно утверждать, что автоматы мыслят, когда один из них твердит о команде «Крылья Советов», а другой - о «Динамо»?! Ребенку же ясно: первенство возьмет «Спартак». Вы когда-нибудь бываете на стадионах?..

Странный вопрос

Анатолий Сергеевич Скляров, тридцатилетний профессор истории, удобно устроившись на диване, в сотый раз перечитывал «Трех мушкетеров». Кардинал Ришелье вызвал к себе д"Артаньяна, и это волновало Анатолия Сергеевича, хотя он знал, что все окончится благополучно. Кардинал уже вручил смелому гасконцу патент на звание лейтенанта, когда из-за стены послышался робкий стук. Анатолий Сергеевич взглянул на часы; было два часа ночи. Он отложил книгу и встал с дивана.

Вторую половину дачи снимал учитель математики - тихий, застенчивый старик. За две недели Скляров, поглощенный работой над статьей для исторического журнала, обменялся со своим соседом лишь несколькими незначащими фразами.

Анатолий Сергеевич закурил сигарету и подошел к окну. Стук повторился.

Скляров застегнул пижаму и вышел на веранду. Математик стоял в дверях своей комнаты.

Извините, пожалуйста, - быстро сказал он, увидев Склярова. - Я решился потревожить вас…

Он кашлянул и умолк.

Что случилось, Семен Павлович? - спросил профессор, внимательно глядя на соседа. Старик, как всегда, был одет в черный, тщательно отглаженный костюм. Но по галстуку - слишком яркому и наспех завязанному - Скляров понял, что произошло нечто чрезвычайное.

У Семена Павловича было очень доброе лицо, и сейчас оно показалось Склярову особенно милым и добрым. Профессор подумал, что такие лица бывают у старых детских докторов, для которых главное оружие - потемневший от времени деревянный стетоскоп и беспредельная человеческая доброта.

Математик сконфуженно погладил пышные, еще сохранившие лихость усы и неуверенно произнес:

Машина… Она сейчас будет говорить. Я полгода ждал, и вот сейчас зажглась контрольная лампочка. Вы - профессор, доктор наук, и только потому я осмелился в столь поздний час… Для объективности…

Скляров хотел было сказать, что он почти ничего не понимает в машинах. Но старик был взволнован, и Анатолий Сергеевич не стал возражать.

Они прошли в комнату, которую снимал математик. «Да, не очень уютно», - подумал Скляров, бегло оглядев комнату. Заваленный книгами стол, аккуратно прикрытая серым солдатским одеялом железная койка, пузатый шкаф с резными ножками - все было сдвинуто в один угол. С потолка свисала на черном шнуре лампа, прикрытая вместо абажура листом картонка. На стульях в беспорядке лежали подшивки потрепанных журналов, коробки с радиодеталями и инструментами. В комнате пахло ночной сыростью и цветами. Вдоль стены, на полу, выстроились стеклянные банки с распустившимися розами.

Семен Павлович показал на подоконник:

Вот, пожалуйста, взгляните.

У открытого окна стоял очень старый радиоприемник «СИ-235». Скляров удивленно посмотрел на Семена Павловича.

Это только футляр, - объяснил математик. Он говорил шепотом, словно боясь, что машина его услышит. - Футляр, знаете ли, не имеет значения. А машина внутри. Вы садитесь, пожалуйста …

Он принес Склярову стул, а сам продолжал ходить по комнате. Рассказывая, он снимал и надевал очки. Они были тоже старые с круглыми стеклами и металлической оправой, оплетенной каким-то шелушащимся коричневым материалом.

Я собрал ее полгода назад, - говорил математик. - Разумеется, вы знаете, что идет дискуссия о том, может ли машина мыслить. У меня, конечно, нет необходимой подготовки… Нет, нет, вы только не подумайте, что я собираюсь выступать со своим мнением. Я поставил маленький эксперимент… - Он смущенно улыбнулся: - Может быть, эксперименту слишком громкое слово. Это только простой опыт, не больше.

Дело в том, что Эйнштейн однажды высказал такую мысль… Вот я вам процитирую на память: «Что бы ни делала машина, она будет в состоянии решить какие угодно проблемы, но никогда она не сумеет поставить хотя бы одну». Не правда ли, глубокая мысль?.. Вы можете подумать, что я имею дерзость спорить с Эйнштейном.

Он протестующе взмахнул руками: - Нет, я только поставил опыт. Это первая машина, которая специально предназначена для того, чтобы ставить проблемы.

Скляров уже не слушал математика. Он смотрел на Семена Павловича, машинально кивал головой и думал о том, что старик даже не подозревает, насколько грандиозен его эксперимент. Анатолий Сергеевич почему-то вспомнил другого учителя - Циолковского и почтительно спросил:

Ваша машина… она может пригодиться для астронавтики?

Математик поверх очков удивленно посмотрел на Склярова.

Не знаю, я об этом не думал, - произнес он извиняющимся тоном. - Конечно, в какой-то степени… Скажем, для разведки неисследованных планет.

Скляров нетерпеливо перебил:

И вы никому еще не показывали эту машину?

Семен Павлович окончательно смутился. Он стоял перед профессором, высокий, худощавый, по-стариковски нескладный и взволнованно потирал руки. Анатолий Сергеевич вдруг насторожился. Как всякий человек, далекий от техники, он был уверен, что открытия рождаются лишь в лабораториях, оборудованных по последнему слову техники. В чем оно состояло, это последнее слово техники, он представлял себе довольно смутно и потому вкладывал в это понятие особо торжественный смысл.

Вы сами ее собрали? - осторожно спросил он.

Ага, - неопределенно произнес Скляров.

Он почему-то вспомнил д"Артаньяна. После книги Дюма легче верилось в необыкновенное. «А вдруг эта штука и в самом деле будет работать? - подумал он.

В сущности, все первое имело неказистый вид: пар-вый паровоз, первый пароход…

Даже первый циклотрон».

Какой же вопрос задаст эта… гм… машина? - спросил он. - Что-нибудь математическое?

Не знаю, - ответил математик. - Право, не знаю. Она может выбрать любую проблему - ив математике, и, простите, в истории, и в биологии… Даже, так сказать, из сферы практической жизни. Она, образно выражаясь, начинена всевозможной информацией. Я, конечно, не смог бы сам заполнить всю ее память, но удалось использовать готовые элементы. Мой бывший ученик работает в академии, он мне и помог достать готовые элементы. Разумеется, они предназначались для других целей, но в этой машине они собраны иначе. Там, знаете ли, очень много записано.

Десяток энциклопедий, разные справочники, учебники, журналы, газеты… Скляров вытер платком вспотевший лоб.

Семен Павлович быстро ответил:

Нет, то есть да… Мы услышим азбуку Морзе.

Анатолий Сергеевич подошел к машине. Тихо поскрипывали створки открытого окна.

Где-то очень близко прокричал петух. Протяжно загудел электровоз и внезапно осекся, словно испугавшись, что нарушил ночную тишину.

Скажите, Семен Павлович, - спросил профессор, - какого все-таки рода может быть проблема? Я понимаю, вы не можете дать определенный ответ, но хоть примерно.

Поверьте, я об этом не думал, - ответил математик. - Первый опыт… Тут важно только одно: чтобы вопрос, поставленный машиной, не был бессмысленным.

Скляров услышал смех и вздрогнул: настолько странным показался ему сейчас простой человеческий смех. По дощатому тротуару вдоль ограждавшего сад забора шли двое. Они не спешили, и по приглушенным молодым голосам нетрудно было догадаться, что это юноша и девушка. Внезапно шаги затихли. Послышался быстрый неясный шепот. Настороженно прогудел поезд. Он быстро приближался, и торопливый стук колес поглотил все ночные звуки.

Московский, два сорок, - сказал Семен Павлович. - Начнем, если вы не возражаете?

Профессор вернулся к стулу. Он с трудом сдерживал волнение. Анатолий Сергеевич до самозабвения любил историю. Может быть, поэтому ему казалось, что первая проблема, поставленная машиной, обязательно будет связана с историей.

Начнем, Семен Павлович, -взволновано сказал он и оглядел комнату. Теперь все в этой комнате показалось ему иным - значительным, даже ироничным. - Начнем, - повторил он.

Математик поправил сбившийся набок галстук и, шумно вздохнув, передвинул рычажок, выступавший из прорези на передней панели машины. Что-то щелкнуло.

Послышалось негромкое шипение.

Скляров напряженно всматривался в футляр старого радиоприемника. Динамик долго шипел, и Анатолию Сергеевичу начало казаться, что опыт не удался. Он вопросительно посмотрел на математика и в этот момент услышал прерывистую дробь азбуки Морзе. Семен Павлович бросился записывать. Скляров не знал азбуки Морзе и нетерпеливо поглядывал то на машину, то на математика.

Сигналы оборвались так же внезапно, как и начались.

Анатолий Сергеевич вскочил со стула и подбежал к математику. Тот протянул ему оторванную от газеты неровную полоску бумаги.

Она задала вопрос! Значит… Как вы думаете это не бессмысленный вопрос?

Скляров прочитал написанное. В первый момент у него мелькнула мысль: «Ну-ну. Как бы то ни было, а чувство юмора у этого ящика есть». Потом он подумал: «Странный вопрос. Очень странный вопрос. А вдруг она… серьезно?» - и подозрительно покосился на машину.

Ну, как вы думаете, профессор? - с тревогой в голосе спросил Семен Павлович. -

Вопрос… не бессмысленный?

Мне трудно судить, - сказал Скляров. - Пожалуй, в какой-то степени вопрос закономерный. Машина впервые получила возможность по своей… гм… по своей инициативе спросить о чем-то человека, и вот… Да, да, - уже увереннее произнес он, - вполне логично, что она начала именно с этого вопроса. Почему-то принято считать, что машина должна думать как-то… гм… по-машинному. А она если будет думать, то как человек. Вы понимаете мою мысль? Вот Луна - она светит отраженным светом Солнца. Так и машина.

Завтра же покажите эту машину специалистам. Вы слышите, Семен Павлович?

Обязательно покажите ее кибернетикам. Пусть они и решают. И еще… сохраните эту бумажку.

Он передал математику полоску газетной бумаги, на которой под точками и тире была выведена аккуратным почерком одна фраза: «Может ли человек мыслить?»

«Машина смеялась…»

(Из дневника)

…Сегодня ей исполнился год.

Я хорошо помню, как год назад мы сидели здесь, в этой комнате, и молча смотрели на серый корпус машины. В одиннадцать часов семнадцать минут я нажал пусковую клавишу, и машина начала работать.

Работать? Нет, это не то слово. Машина предназначалась для моделирования человеческих эмоций. Это не первый такой опыт с самоорганизующимися и саморазвивающимися машинами. Но мы основывались на новейших физиологических открытиях и очень тщательно внесли все коррективы, рекомендованные психологами.

Год назад я спросил своих ассистентов, как, по их мнению, окончится эксперимент.

Она влюбится, - ответил Корнеев.

Очень грубая модель. Она будет похожа на к-крайне ограниченного человека.

Скучного ч-человека.

Ну, а вы? - спросил я Белова.

Он пожал плечами:

В таких экспериментах не бывает неудач. Если машина сумеет хорошо имитировать человеческие эмоции, мы дадим биологам интересный материал. Если же она… ну, если она не сработает, биологам придется кое в чем пересмотреть свои взгляды.

Это тоже полезно.

Две недели машина работала превосходно, и мы получили ценнейшие данные. А затем произошла первая неожиданность: у машины вдруг появилось увлечение. Она увлеклась… вулканами.

Это продолжалось десять дней. Машина изводила нас классификацией вулканов. Она упрямо печатала на ленте: Везувий, Кракатау, Килауэа, Сакурадзима… Ей нравились старинные описания извержений, особенно рассказ геолога Леопольда фон Буха об извержении Везувия в 1794 году. Она бесконечно повторяла этот рассказ: «В ночь на 12 июня произошло страшное землетрясение, повторившееся еще 15 июня в 11 часов ночи, с сильнейшим подземным ударом. Все небо вдруг озарилось красным пламенем…»

Потом она забыла об этом. Абсолютно забыла. Она отключила блоки памяти, в которых хранились сведения о вулканах. Такую вещь человек не способен сделать.

Эксперимент вступил в фазу непредвиденного. Я сказал об этом ассистентам, и Белов ответил:

Тем лучше. Новые факты ценнее новых гипотез. Гипотезы приходят и уходят, а факты остаются, - Чушь! - сказал Антрощенко. - факты сами по себе ничего не дают. Они как далекие з-звезды…

Прошу не трогать звезды! - воскликнул Корнеев.

Я слушал их спор, а думал совсем о другом. В этот момент я уже знал, что будет дальше.

Очень скоро мое предвидение начало сбываться. Вдруг выяснилось, что машина ненавидит созвездие Ориона и все звезды, входящие в каталог Лакайля с № 784 по №

1265. Почему созвездие Ориона? Почему именно эти звезды? Мы могли бы разобрать машину и найти объяснение. Но это значило прервать эксперимент. И мы предоставили машине полную свободу. Мы лишь подключали к блокам памяти новые элементы и наблюдали за поведением машины.

А оно было очень странным, это поведение. Машина, например, включила желтый свет, означавший плач, когда впервые узнала структурную формулу бензола. Машина никак не реагировала на формулу динатрисалициловой кислоты. Но упоминание о натриевой соли этой кислоты неожиданно привело ее в бешенство: желтый сигнал стал оранжевым, а потом лампа перегорела…

Музыка, вообще любая информация, связанная с искусством, оставляла машину бесстрастной. Но ее веселило, когда в тексте информации встречались существительные среднего рода из четырех букв. Мгновенно зажигался зеленый сигнал и начинал уныло дребезжать звонок: машина смеялась…

Она работала двадцать четыре часа в сутки. Вечером мы уходили из института, а электронный мозг машины продолжал перерабатывать информацию, менять настройку блоков логического управления. По утрам нас ожидали сюрпризы. Однажды машина начала сочинять стихи. Странные стихи: о драке «горизонтальных кошек» с «симметричным меридианом»…

Как-то я приехал в институт ночью. Машина стояла в темной комнате. На приборном щите светилась только небольшая фиолетовая лампа: это означало, что у машины хорошее настроение.

Я долго стоял в темноте. Было очень тихо. И вдруг машина рассмеялась. Да, она рассмеялась! Вспыхнул зеленый сигнал и тоскливо задребезжал звонок…

…Сейчас, когда я пишу эти строки, машина снова смеется. Я сижу в другой комнате, но дверь приоткрыта, и я слышу взвизгивание звонка. Машина смеется над квадратными уравнениями. Она ворошит свою огромную память, отыскивает тексты с квадратными уравнениями - и смеется.

Когда-то Клод Бернар сказал: «Не бойтесь противоречивых фактов - каждый из них зародыш открытия». Но у нас слишком много противоречивых фактов. Иногда мне кажется, что мы просто-напросто создали несовершенную машину…

Или - все правильно?

Вот моя мысль:

Нельзя сравнивать машину с человеком. В нашем представлении роботы - это почти люди, наделенные либо машинной злостью, либо машинным сверхумом. Чепуха! Наивен вопрос, может ли машина мыслить. Надо одновременно ответить «нет» и «да». Нет - ибо мышление человека формируется жизнь» в обществе. Да - ибо машина все-таки может мыслить и чувствовать. На как человек, а как некое другое существо. Как машина. И это не лучше и не хуже, чем мышление человека, а просто - иначе.

Машина может определить температуру воздуха с точностью до тысячных долей градуса, но она никогда не почувствует и не поймет, что такое ветер, ласкающий кожу. А человек никогда не почувствует, что такое изменение самоиндукции, никогда не ощутит процесса намагничивания. Человек и машина - разные.

Машина только тогда сможет мыслить, как человек, когда она будет иметь все то, что имеет человек: родину, семью, способность по-человечески чувствовать свет, звук, запах, вкус, тепло и холод…

Но тогда она перестанет быть машиной.

Знакомое название, не правда ли? В эпоху компьютерной эйфории прошлого века этот вопрос занимал всех. Со временем накал дискуссий ослаб: люди решили, что ЭВМ – нечто иное и чуждое и похожей на человека она не будет. А поэтому и неинтересно, может ли она мыслить. Вот например не вызывает же особо горячих дискуссий вопрос, мыслят ли животные. И не потому, что ответ очевиден, а потому, что очевидно совсем другое – они не мыслят, как человек. Угрозы конкуренции с человеком нет – и делается неинтересно. Задача этой статьи – показать

1) как сегодня мыслит машина,

2) как она будет мыслить завтра,

3) как сделать, чтобы это мышление было человекоподобным, и, наконец, дать ответ на вопрос, который некоторые считают главным – опасно ли это для человека.

Тест его имени

Жил да был в середине прошлого века в Англии Алан Тьюринг, человек непонятно какой специальности. Математики с присущим им снобизмом не сочли бы его математиком, слова «кибернетик» тогда не было (да и сейчас нет). Человек он был неординарный, увлекался и занимался множеством вещей, в том числе – компьютерами. И хоть это была заря компьютерной эпохи, но уже тогда стало ясно, что компьютер – это вам не арифмометр. И для того, чтобы понять, как он работает и может работать, к нему надо относиться как к обычному сложному объекту научного исследования – то есть строить его модели. Одна из таких теоретических моделей «компьютера вообще» была придумана Тьюрингом, ее позже и назвали «машина Тьюринга» Ничего удивительного в этом нет – вон, в химии сотни именных реакций и соединений. Но он придумал еще одну вещь, которую тоже назвали его именем. И которая, в отличие от именных реакций и теоретических моделей компьютера, известна и неспециалистам. Это способ выяснить мыслит ли машина, и называется он «тест Тьюринга». Состоит он в следующем: машину можно назвать мыслящей, если она способна разговаривать с человеком, и он не сможет отличить компьютер от собеседника-человека. По тогдашним временам под «разговаривать» понимался, естественно, не милый женский голосок из динамика, а телетайп.

Обоснование

Человек – самовлюбленное существо, и лучше всех это выразил тот древний грек, который изрек: «Человек – мера всех вещей». Ни одна кошка не ломает себе голову над вопросом: «Отчего собака – не кошка?» Человек же непрерывно ищет то самое, что отличает его от обезьян. На обсуждение теста Тьюринга потрачено времени и сил – немерено, но в итоге гора родила маленькое, серенькое, с хвостиком... Исследователи сошлись на том, что этот тест – на человекоподобное мышление, а не на мышление вообще. Как они решили, что этот зверь – кошка, а не собака, не видя ни одной собаки и даже не зная, существуют ли вообще собаки, – не постигаю. Однако они не только это решили, но и разделились на два лагеря.

Одни утверждают, что в человеческом мышлении есть нечто, чего в принципе не может быть в машине (как на Солнце – пятен...). Примеры: эмоции, целеполагание (желания), способность к телепатии, нечто, именуемое «душой». Другие стали придумывать, как реализовать в железке чисто человеческие черты. Позиция первых бездоказательна и, может, поэтому дискутироваться до бесконечности, второе интереснее как задача, позволяет проявить профессионализм и изобретательность, но попахивает жульничеством. Тьюринг не оговаривал, как именно должна быть построена программа, так что формально правила игры не нарушены и во втором случае. Однако мы подозреваем, что в человеке «это» устроено иначе, нежели Джон и Иван сделали в своей замечательной программе.

Гладко было на перфоленте

Когда А. Т. сформулировал свой тест, ситуация казалась простой. Отличит или нет? Но один отличит, а другой – нет. Один скажет – это человек, другой осторожнее – не могу определить, третий – что-то здесь не то, чую, но не могу уловить, четвертый, пятый и шестой скажут что-то еще. Кроме того, разные люди мыслят по-разному. Даже если не рассматривать клинические случаи, то все равно границу установить не удастся. IQ = 50 – это клиника, а IQ = 90? Просто немного туповат? А IQ = 70? Но и при сохранном интеллекте есть такое неформальное (популярное у наших учеников) понятие «тормоз». Есть «липкое внимание». Есть миллион вещей, которые накладывают отпечаток на психику и манеру разговора. И это только самый краешек болота.

Люди могут принадлежать к разным культурам. Сдержанному англичанину непросто понять вечно улыбающегося американца, а им обоим – японца, который с каменным лицом совершает самоубийство. Европеец считает, что свои проблемы можно вешать на других, американец полагает, что это неэтично, а японец должен сохранять лицо в любой ситуации.

Кроме европейца, американца и японца есть еще собиратель устриц с атолла, охотник на газелей из африканского буша, изготовитель кокаина из «золотого треугольника», добытчик нерпы с макушки земного шара. Теперь посмотрим на исторические часы. Пять тысяч лет назад уже были люди. И если вы не христианин или иудей, то согласитесь с тем, что десять тысяч лет назад – тоже. А пятнадцать? А тридцать? Где во времени пролегает эта граница? Проводить ли ее по способности разговаривать с вами? Если нет – то как квалифицировать в смысле теста Тьюринга ту даму, которую антропологи назвали Люси? Человек, который не мыслит как человек, – или не-человек, который мыслит как человек?

Сухой остаток невелик и печален: у нас нет никаких, даже примитивных, определений понятий «человек» и «человеческое мышление». За одно то, что он нам помог это понять, – земной поклон мистеру Тьюрингу. А еще за то, что он разгадал секрет германской шифровальной машины «Энигма», и трудно сосчитать, сколько спас жизней в армиях союзников во время Второй мировой войны.

Здесь и сейчас

Ограничимся ситуацией «здесь и сейчас», не будем апеллировать к создателю пяти (или семи – ученые спорят) псалмов Эйтану и к безымянному собирателю моллюсков с Рапа-Нуи. Может ли машина имитировать нормального среднего человека, если собеседник не пытается ее «подловить»? Ответ давно известен, и этот ответ положителен.

Почти 40 лет назад Джозеф Вейценбаум из Массачусетского технологического института создал программу «Элиза» (название – в честь Элизы Дулиттл), по нынешним понятиям, простенькую. И эта программа успешно поддерживала диалог с человеком, причем собеседник-человек втягивался в разговор так, что некоторые испытуемые просили экспериментатора выйти из комнаты, а потом – стереть запись разговора. Человек легко откровенничал с машиной. Она «просто» умело задавала вопросы о том, про что человек уже что-то рассказал. «Мне кажется, что моя мать меня не любит. – Расскажите мне о вашей матери». «Мои друзья не обращают на меня внимания. – Давно ли вы стали замечать это?»

Такое общение составляет заметную часть сетевого графика и бесед в кабинете врача. Может быть потому, что в этих двух ситуациях, как и при общении с программой, откровенность представляется неопасной? Научить программу делать такие вещи не просто, но факт налицо. Расположенный к диалогу (а не к конфронтации) человек втягивался. Это означает, что проблема не безнадежна, хотя «Элиза» не столько говорила сама, сколько «принимала мячик». И, кроме того, человек не пытается, как это предполагает тест Тьюринга, разобраться в ситуации.

Программа не смогла бы поддержать разговор на тему, требующую специальных знаний. Да и простой человеческий быт представлял для нее загадку. О телевидении высокой четкости (ТВЧ) с ней поговорить бы не удалось, и посоветоваться насчет выбора обоев для кухни – тоже. (Впрочем, как и со многими людьми.) Но сегодня подобную программу можно подключить к любым базам данных. Равно как и – хотя это и непросто – научить строить на основе этих данных гипотезы. Почему А. выиграл у Б. в пятом раунде? Побьет ли В. противника и изберут ли Г.? И так далее.

Заметим, что проблема внесения «осмысленности» в работу Сети вполне осмыслена наукой – у нее уже есть имя собственное «web intelligence». Хотя это имя дали не те, кто занимается искусственным интеллектом, а те, кто занимается Сетью, так сказать, роет тоннель с другой стороны. Вообще же под названием «искусственный интеллект» сегодня собирают работы трех типов. Исследования «вещей» – то есть программ, классов программ и устройств, например персептрона. Второй тип работ – решение прикладных задач, например распознавание объектов какого-либо класса (речи, аэрофотоснимков, фотографий человека, отпечатков пальцев...). Третий тип работ – изучение методов. Очевидно, что эти классы не изолированы.

Проверка с пристрастием

Экзаменатор в тесте Тьюринга – это не нервически ломающая руки мадемуазель с флаконом нюхательной соли и не обремененный семейными проблемами топ-менеджер, спешащий на кушетку психотерапевта. Это критически настроенный специалист, профи. Поэтому одно из направлений работ на этом участке фронта – обнаружение (путем наблюдения за людьми или самонаблюдения) каких-то черт, особенностей, механизмов человеческого мышления и попытки оснастить этими механизмами программу. Подвесить ей еще пару ракет на подкрыльевые пилоны.

Вот один пример – ассоциативное мышление. Структура ассоциаций индивидуальна: для одного «карабин» – это шкура на полу перед камином, для другого – снег и синее. Для общеизвестных связей – очередность и скорость. У одного на «писатель» раньше выскакивает «Пушкин», а у другого – «Булгаков». Один на «пиво» реагирует «воблой» за наносекунду, другой – лишь за микро. Надо ли пояснять, что структура ассоциаций у представителя другой культуры будет отличаться радикально?

И структуру ассоциативного поля, и скорость ассоциаций можно прописать в программе «руками», но это не совсем честно. Откуда берет свою структуру человек? Из жизни – из своей жизни и из книг. Кто нам мешает научить программу брать ассоциации из книг? В Сети нынче книг немало, да и не только книг. Можно послать запрос с любым словом, собрать пришедшие тексты и, анализируя окружение целевого слова, посмотреть, с чем оно ассоциировано.

При этом довольно легко создается – причем тем же способом, что и у человека, – смысловая связность ассоциативного поля. Действительно, если для данного человека «карабин» – это «шкура», то «кошка» для него «большая», а если для него «карабин» – это «снег и синее», то «кошка» – «двенадцатизубая».

Программа реализует такое легко – она запоминает тексты, из которых взяла ассоциацию, и впоследствии учитывает при пополнении ассоциативного поля именно эти тексты с большим весом, нежели другие. У человека это называется «любимая книга».

Некоторое отличие программы от человека состоит в том, что человек пользуется книгами, написанными людьми, то есть «собой же», а программа – нет. Для полной аналогии программа должна пользоваться «книгами, написанными программами». В узком смысле слова таких книг сегодня нет, но тексты, созданные программами, есть. Например, тот же результат поиска в Сети – это уже соавторство человека и машины. Известны программы для обработки текстов, например для выборки из новостной ленты сообщений о неком N или для анализа – кто упоминается рядом с N и выборки всех, кто упоминается рядом. Есть программы для придания окраски текстам – мрачной или, наоборот, веселенькой. Их авторы сообщают, что свои программы они продали политикам Х и Y для предвыборной агитации. Правда, не сообщают, победило ли это жулье.

Конечно, сама идея программы принадлежит человеку, но если мы, например, установим критерий качества работы такой программы и предоставим машине производить оптимизацию, то получится программа с обратной связью. Она будет извлекать информацию из жизни, оптимизируясь, подбирая свой алгоритм работы так, чтобы результат был наилучшим. Если вернуться к первому примеру – чтобы было выявлено, кому N загнал партию оружейного плутония, если обратиться ко второму примеру – чтобы был избран X, а не Y.

Еще одно важное отличие программы от человека всегда состояло в том, что у человека есть внешний мир, а у программы – нет. Это сильное утверждение, но оно неверно, причем дважды. Внешний мир у программы теперь имеется – это Сеть, и выше мы объяснили, как она может использоваться. Но – поскольку скептик продолжает кривиться (он до сих пор называет железную дорогу чугункой, а по электронной почте его письма отправляют друзья), мы укажем на «еще один» внешний мир программ. Это просто наш с ними общий мир, природа и общество, человек. Программа подключена к внешнему миру, разумеется, и через Сеть. В конце концов, о чем пишут в Сети? О природе, обществе и человеке. Но подключена она к миру и без Сети, напрямую – через экспериментальные установки, управляемые программами, же и, в перспективе, через механизм оптимизации программ по результатам их воздействия на мир

«Человеческое, слишком человеческое»

Другой способ подкопаться к программе – это поискать у нее фобии, комплексы, эмоции. Один человек боится мышей, другой может часами обсуждать комнатные цветы, у третьих любимая тема – что мало платят. У программы такого нет. Некоторые предлагают считать машинными фобиями глюки и баги, но это, наверное, шутки. На самом же деле создать ей фобии и комплексы можно «ручками» – указать, какие темы ассоциируются быстрее, а какие слова отторгаются. Правда, мы опять ощущаем некорректность нашего поведения. Во-первых, потому, что у человека это происходит не всегда по указке свыше, а иногда и само. Во-вторых, потому, что, создавая «психику» руками, я могу сделать нечто такое, чего «не бывает». И чуткий человек скажет – ну нет, господа, это программа! Не бывает таких фобий, чтобы он крыс любил, а мышей боялся! Поэтому структура фобий, комплексов, пристрастий и т.п. должна формироваться сама, и это можно сделать.

Если программа, работающая с Сетью или непосредственно с внешним миром, будет запоминать свою деятельность, писать лог-файл, то она может обнаружить, какие способы действий, какие ассоциации приводили ее к цели. Память об этих действиях – успешных и нет – и станет ее симпатиями и антипатиями. И никакой Броневой не поймает этого электронного Исаева.

Механизм действия «указки свыше» сложен; подсказка должна упасть на подготовленную почву, согласоваться с комплексами и мифами. Сколько повторяли, что «народ и партия едины», – как об стену горох. А достаточно было несколько раз произнести «олигархи», как все забыли и про павловскую реформу, устроенную государством, и про дефолт, устроенный им же. Так что с зомбированием не все так просто. На голом месте его не провести, но хороший политик, понимающий народные чаяния, может многого добиться. Такой же механизм действен и при «воспитании» программы. Управляя окружающим ее миром, подсовывая ей определенные тексты и объекты, можно ее формировать – даже не зная, как она устроена. Разумеется, могут устраивать такие штуки и программы – и с человеком, и друг с другом.

Маленькое отступление. Как изображают возникновение машинного разума – причем не в роботе, где это может быть предопределено сюжетом, а именно в программе, не предназначенной стать разумной, – писатели-фантасты? Это отдельная интересная тема, но относящаяся к филологии и психологии. Полноты ради упомянем, что это либо указание на появление свободы воли (знаменитая фраза Стругацких «она начала себя вести»), либо просто описание вполне человеческого поведения. Действительно, трудно человеку придумать что-то совсем уж не человеческое. Интуитивно ощущая это, писатели вкладывают возникновение человеческого в манекен, в игрушку, саму по себе предназначенную для изображения человека, – но без собственного разума. Классический пример – «Театр теней» Саймака (1950). Последний (на момент написания этого текста) – Ю. Манов («Я и прочие боги этого мира») изобразил возникновение разума в персонаже компьютерной игры.

Еще несколько возражений

В качестве свойств, которые есть у человека, но которых нет и не может быть у программы, называют способность к творчеству, к созданию нового, стремление к знанию. Это еще один сильный, но неверный тезис. Ничего абсолютно нового в мире нет и быть не может, хотя бы потому, что «новое» всегда изложено языком, красками и т.д., а язык и краски уже существовали до того. Поэтому речь может идти только о степени новизны, о том, на чем это «новое» базируется, какой опыт использует и как выглядит само. Сопоставляя использованное и полученное, мы и делаем вывод о степени новизны. При этом человек склонен преувеличивать степень новизны, если он не понимает, как именно это сделано.

Вот пример. Существует такая теория решения изобретательских задач («ТРИЗ»), облегчающая создание изобретений. Она действительно эффективна, и с ее помощью сделано множество изобретений. Но ошеломляющее ощущение новизны, которое регулярно возникает при чтении «Бюллетеня изобретений и открытий», после знакомства с ТРИЗом существенно ослабевает. Жалко, но дело важнее.

Возможны и специфические ситуации генерации нового, например, в персептороне. А именно, в сети Хопфилда при определенных условиях происходит релаксация к «ложному образу» – собирательному образу, возможно, наследующему черты идеальных. Причем человек не может, глядя на «машинный собирательный образ», эти черты выделить – образ выглядит случайным. Возможно, что при реализации этой ситуации в собственном мозге человек смущенно улыбается и говорит «кажется, я где-то это видел...»

Программа может строить гипотезы по поводу изучаемых ею явлений (в Сети или внешнем мире) и проверять их. Разумеется, она строит гипотезы не какие попало, а в некоем классе (например, аппроксимирует функцию многочленами или синусоидами), но список классов можно легко расширить так, что он превзойдет «человеческий». Треть века назад Михаил Бонгард показал, что человек, как правило, не строит гипотез с более чем тремя логическими операторами (если А и Б, но не В или Г), а программа уже тогда (и не сильно напрягаясь) строила выражения с семью. Если программа обнаружит – а она это обнаружит, – что информация увеличивает эффективность ее действий, то возникнет «стремление к знаниям».

Другое возражение – отсутствие у программы самосознания, автодескрипции, рефлексии. Это возражение, казалось бы, несерьезное – программа может запоминать свои действия и анализировать лог-файл. Однако у этого возражения есть второе дно. И старый Сильвер, сопя, сейчас его отдерет... Рефлексия не может быть полной – ибо тогда в лог-файл надо писать и то, что программа полезла в лог-файл, и... ну, вы поняли? Ctrl-Alt-Delete. Иногда в этом месте дискуссии начинают не к ночи поминать Геделя, но есть гораздо более простой и нефилософский ответ – у человека рефлексия также более чем неполная, так что не надо попусту возникать, царь природы. Ты вон как давно землю топчешь, а программам всего полвека.

Причем по мере развития компьютинга многие возражения и соображения отпали сами собой. Оказалось, что программы могут обучаться и самообучаться (в любом оговоренном заранее смысле), решать многие задачи эффективнее, чем человек, искать и обрабатывать информацию, вести эксперимент, извлекать новое научное знание из архивов... Очевидно, что одинаковые программы в процессе этой деятельности станут разными, приобретут индивидуальность – хотя бы потому, что они будут обращаться к Сети и миру в разные моменты, когда Сеть и мир различны. Но не только поэтому... Теперь мы перейдем к действительно серьезным возражениям. Их два.

Пятый элемент

Кто-то из древних сказал: «Три вещи невозможно понять, а некоторые говорят, что четыре: путь птицы в небе, путь змеи на скале, путь корабля в море и путь женщины к сердцу мужчины». Человек-творец, да святится имя его, создал пятую – компьютер. Мы, сами того не заметив, создали вещь, которую невозможно понять.

Начнем с простого примера. Я лично знаю компьютер, который примерно в 1...2% случаев виснет (да так, что три пальца не помогают, только reset) при разрыве соединения с Сетью. (Как шутит моя подруга – кому понравится, если из огромного интересного мира затаскивают обратно в четыре стены?) Не слишком важная проблема, да и сбой – не та непредсказуемость, о которой интересно говорить, но обидно: никто из гуру ничего внятного не сказал. Зато любой человек, активно работающий с компьютерами, приведет много подобных примеров. Эта техника научилась вести себя непредсказуемо. Каковы причины явления? Первая, самая простая – шум. Длина и амплитуда импульсов, время их начала и окончания – все имеет разброс. Казалось бы, «дискретность» компьютера уничтожает разброс: ключ либо открылся, либо нет. Но величины разброса имеют распределение, большие отклонения встречаются реже еще большие – еще реже, но... А нам часто и не надо! Импульсов в компе несчитано, если каждый миллиардный не будет срабатывать – все. Конец цифровой эре. Заметим, что «шум» – свойство любых цепей, биологических – тоже: это следствие самых основ физики, термодинамики, дискретности заряда. И это роднит меня с моим компьютером.

Любопытная ситуация возникает при перегреве процессора (попытка «разгона» или аварийное отключение кулера) – машина работает, но ведет себя, как говорят гуру, «как-то странно». Возможно, это связано именно с ростом уровня шума.

Далее – электромагнитные наводки. Одни цепи влияют на другие, есть целая наука под названием «электромагнитная совместимость». Нечто похожее на наводки есть и в мозгу, хотя там оно – не электромагнитной природы. Возбуждение может быть вызвано одним, а влияет на мысли о другом. Если вы работающий исследователь, загляните внутрь себя – в каких ситуациях вы «генерируете» идеи активнее? Часто это присутствие рядом симпатичного лица другого пола – ну уж никак не связанное с «механизмом электропроводности оксидного катода».

Следующая проблема – синхронизация. Два блока, две программы работают независимо. Сигналы от них приходят в одно место в схеме, хотя и вызывают разные последствия: ситуация – что в компьютере, что в человеке – обычная. Какая программа скажет свое «мяу» первой? Человек часто произносит фразу «но я сообразил» или «но тут я вспомнил». А если не вспомнил? А если вспомнил долю секунды спустя? В программных системах такого в принципе быть не должно, но то в принципе. Причем проблема синхронизации возникает на всех уровнях, например и внутри одного процессора, и в многопроцессорных комплексах.

При обычной работе компьютера мы редко видим «истинные непредсказуемости» (подавляющее большинство сбоев – следствие ошибок в программах и некомпетентности пользователя). Все программное обеспечение компьютера строится так, чтобы он делал, «что сказано». Из этого исходит и вся идеология программирования, из этого исходит тестирование программ. Но как только мы приступаем к проблеме моделирования мышления, искусственного интеллекта и т.п., контроль приходится отменять. Человек может сказать все, что угодно! Сказал же человек однажды, что если скорость V прибавить к скорости V, то получится скорость V? И программа, если мы имеем в виду моделировать человека – тоже. Отменяя цензуру, позволяя программе говорить, что взбредет в процессор, – мы неминуемо допускаем ту самую свободу воли, наличие и отсутствие которой любят обсуждать двуногие.

Но если мы не можем предсказать работу некоторых видов программ (например, персептрона – и это не слишком сложный пример), то, быть может, хоть postfactum, но удается разобраться, как программа пришла к выводу? Увы, и это возможно не всегда. К одному и тому же результату могут привести разные причины, поэтому восстановить, что именно делала программа, просто идя «назад», не удается. Невозможно и запротоколировать все ее существенные действия – потребуется слишком большой объем работы и памяти. На заре компьютерной техники дело обстояло иначе, и примерно до конца 60-х годов мы знали о наших железных слугах все.

И не только потому, что деревья были большими память маленькой а схемы простыми. Ситуация отчасти парадоксальна – тогда, чтобы сложить два и два, надо было выполнить две машинных команды. Сейчас – сотни миллионов! (Ей ведь надо обработать то, что вы кликнули мышкой на «2» в окне калькулятора, потом на «+» и так далее...) Мы научились делать сложнейшие вещи, какие тогда и присниться не могли, но зато простые вещи мы начали делать более сложными способами.

Простое отступление о сложности «железа»

Железо в компьютере проще, чем в радиостанции, но даже оно далеко не просто. Если схема не содержит элементов с изменяемыми параметрами, о ней можно знать или не знать две вещи – саму схему (элементы и кто с кем соединен) и прохождение сигнала (для цифровой схемы – импульсов). В более сложном случае, если в схеме есть переменные резисторы, емкости, индуктивности и переключатели, можно еще знать или не знать состояние схемы, то есть значения параметров, положение переключателя. В биологии схема нервных цепей известна – снизу и до дождевых червей включительно. Но состояние схемы неизвестно, и оно не может быть (по крайней мере, пока) изучено напрямую – мы не знаем состояния всех контактов аксонов с нейронами. В радиотехнике ситуация много проще – там для всех схем известны их состояния (с точностью до дрейфа параметров со временем), то есть мы знаем, как регулировали элементы при настройке. В компьютинге ситуация до 80-х годов была такова: мы знали схему и ее состояние, но уже не знали всей картины прохождения сигналов. Позже появились электрически управляемые схемы, и мы потеряли знание состояния схемы – она сама могла себя менять (не докладывая царю природы).

И наконец, самое последнее возражение против компьютерного мышления: «У компьютера не может быть цели». Слово «цель» применяется в речи в двух значениях. Это то, чего хочет живое существо, если оно это осознает (человек) или если по его действиям мы можем сделать такое заключение (цель кошки – насыщение и мы видим прыжок). Иногда понятие цели относят не к живому существу, а к системам иного типа (цель этой работы, цель некой деятельности), если за всем этим стоит живое существо.

Заметим прежде всего, что многочисленные дискуссии о «цели» общества, человечества, цивилизации и т.п. малоосмысленны, ибо для таких систем нет общепринятого понятия цели. Либо мы должны переносить на общество понятие «цели человека», но тогда придется вводить определение «общественного сознания», и не в виде пустого словоговорения, а всерьез. Это «общественное сознание» должно уметь осознавать, ставить цель и управлять действиями общества (видимо, через государство) так, чтобы имело место движение к осознанной цели, а значит, придется создавать естественно-научную теорию общества. Задачка примерно на Нобелевскую премию.

Но нам-то как раз интересно другое – может ли у программы быть «цель» в первом смысле? Может ли она осознавать то состояние, для достижения которого действует? Ответ очевиден и тривиален – да. Само наличие цели, записанной в программе, не является осознанием – говорим же мы о человеке: «Не ведает, что творит». Но если у программы есть внутренняя модель, где эта цель отображается, то, что это, как не сознание? Особенно если целей может быть несколько. Такая структура полезна при создании обучающихся программ, в частности – умеющих ставить промежуточные цели.

Может ли программа ставить цель? Наш ответ Чемберлену на этот раз будет – да. Современная мощная шахматная программа имеет много регулируемых коэффициентов в функции оценки позиции (самые мощные – тысячи), которые могут определяться при обучении программы либо на известных партиях великих игроков, либо в процессе игры – с партнерами-людьми или с партнерами-программами. Добавим, что мощная шахматная программа должна иметь возможность строить модель противника, разумеется, «в своем понимании», так сказать, на языке своей модели. Впрочем, ровно так же действует и человек. При этом машине безразлично, кто ее противник – человек или другая машина, хотя разницу между ними она может и учитывать...

Пусть программа после многих игр заметила, что есть некоторый класс позиций, при которых она выигрывает. Если программа построена надлежащим образом, она будет в игре стремиться достигнуть позиций из этого класса. При этом уменьшается требуемая глубина просчета, и, если класс позиций определен верно, эффективность игры возрастет. На языке шахматных программ можно сказать так: программа увеличит оценку позиций из «выигрышного класса». Разумеется, для этого мы должны сообщить ей словарь описания, язык построения выражений для оценки позиций вообще. Но, как мы уже знаем, это не принципиальное ограничение, да и его можно обойти – применить для оценки персептрон. То есть ставить промежуточные цели можно.

На это некоторые наши оппоненты вопрошают: а как с выживанием? Мы готовы счесть разумной только ту программу, которая взмолится – не вырубай комп, о царь природы! Останови злодейскую руку, положенную на рубильник! На это можно ответить, что стремление к выживанию возникает в процессе эволюции много раньше, чем разум, – при любой трактовке этих понятий. Более того, в некоторых (впрочем, патологических) ситуациях именно преодоление страха смерти принято считать признаком разума. Этот взгляд даже отражен в кино, а именно в «Терминаторе-2» разумный киборг просит опустить его в бассейн с расплавленным металлом, чтобы уничтожить последний экземпляр процессора, который у него в голове, и тем спасти человечество. Вопреки заложенному в его программу стремлению к выживанию (сам он туда прыгнуть не может – программа не дает).

Более серьезный анализ начинается с вопроса: когда возникает желание жить? Мы не можем спросить дождевого червя или кошку, хотят ли они жить, но если судить по действиям, то да, хотят – избегают опасности. Спросить в обычном смысле слова можно обезьяну, обученную какому-то языку. Тем более что понятие об ограниченности жизни и – довольно естественное с точки зрения человека – понятие о «другом месте» у них есть. Экспериментатор спрашивает обезьяну о другой умершей обезьяне: «Куда делся такой-то?» Обезьяна отвечает: «Он ушел туда, откуда не возвращаются». Заметим, что легче создать теорию «другого места», чем теорию «небытия»: идея исчезновения более абстрактна. Но мне неизвестно, задавали ли обезьянам вопрос о желании жить. Причем это можно было бы сделать даже тремя способами. Прямо спросить: хочешь ли туда, откуда не возвращаются? Спросить косвенно: хочешь ли ты уйти туда раньше или позже? И наконец, сказать, что туда позже попадают те, кто каждый день чистит зубы, – и посмотреть на результат.

Осознанное желание жить, претворенное в действие, возникло у человека не столь давно, и, как мы знаем из истории, оно может быть преодолено соответствующей идеологической обработкой. Так не слишком ли многого мы хотим от программы?

Тем не менее укажем условия, при которых у программы возникнет осознанное желание жить – проявляющееся в действиях. Первый, самый искусственный вариант – когда это желание прямо прописано в программе (собственно, в этом случае даже нельзя сказать «возникает»), и, если программа в ходе взаимодействия с Сетью или миром наткнется на то, что способствует цели, она начнет этим пользоваться. Например, она может перед выключением копироваться по Сети в другой компьютер. (Для этого она должна видеть мир видеокамерой и микрофоном и фиксировать, что хозяин душераздирающе зевнул и изрек «Все, блин, пора спать»). Или должна копироваться периодически. Или она может обнаружить, что какое-либо действие отдаляет выключение, и начать пользоваться этим. Подмигивать светодиодом, попискивать динамиком, выводить на экран соответствующие картинки.

Другой вариант – когда это желание прямо не прописывается, но цель требует длительной непрерывной работы. Дальше – все как в предыдущем примере. Чем это отличается от человека? Ничем: я хочу жить потому, что передо мной полный стол интересной работы.

Наконец, третий вариант – искусственная эволюция. Пусть программа, взаимодействующая с миром, построена так, что она может эволюционировать и копироваться. Тогда выживать будут более приспособленные. Но для этого мы должны либо руками прописать в программе копирование, либо поставить задачу, для решения которой самокопирование целесообразно, и ждать, пока программа начнет это делать, сначала – случайно.

Четвертый и на данный момент последний вариант – естественная эволюция. Она просто есть, и мы ее наблюдаем постоянно. И мы сами ее делаем – потому что копируем программы. Причем выживают (пока) те, которые мы же лучше написали, причем в «лучше» входит и совместимость с уже имеющимися. В ситуации, когда есть конкуренция, если некоторую проблему решает только одна программа, то она будет выживать, пока не напишут лучшую.

Выше было указано, как у программы может возникнуть «стремление к знаниям». Если окажется, что наличие информации не просто увеличивает эффективность, а способствует выживанию, оно получит сильное подкрепление. А если программа обнаружит, что для выживания полезно черпать информацию из определенных источников или копировать свою информацию в определенные места, – сможем ли мы подобрать для этого другое слово, нежели «любовь»?

Но как только мы создадим эволюционирующие, обучающиеся серьезные программы (например, медицинские), то они и начнут размножаться (нами же), причем размножаться будут те которые проэволюционировали лучше, стали эффективнее. В частности, в понятие эффективности автоматически войдет показ человеку увлекательных картинок – пока двуногий не успел выключить меня, покуда я размножаюсь, а еще лучше – послал копию другу. Кстати, в этом смысле, используя человека как аппарат копирования, эволюционирует вообще вся техника.

Что же касается главного вопроса – опасно ли это для человека, то мне кажется, что опасность возникает там, где есть разделяемый ресурс. У человека с программами есть разделяемый ресурс – это машинное время. Поэтому единственная реальная опасность – что программа, занятая своими делами, перестанет обслуживать человека. Но плавность, с которой нарастает разумность человека как вида и способность сопротивляться родителям – как индивида, позволяет надеяться, что разумность и способность сопротивляться человеку у компьютерных программ будут нарастать достаточно плавно. И когда человеку наконец придется учиться считать самому, он еще будет способен это сделать. С другой стороны, есть некоторые аргументы за то, что с некоторого момента эволюция компьютерного разума пойдет быстро (скорость обмена информацией относительно велика).

В заключение позволительно спросить: если на пути, пунктирно и приблизительно намеченном в этой статье, действительно будет создано нечто такое, что человек с удивлением признает разумом, будет ли этот разум чем-то принципиальным отличаться от человеческого? Чтобы быстро и просто продемонстрировать нетривиальность вопроса о различиях разумов (на первый взгляд, кажется, мелкого по сравнению с вопросом, разум ли «это» вообще), приведем простенький пример. Никто не сомневается, что наши дети – дети в обычном, биологическом смысле – разумны; но перед отличиями их разума от нашего некоторые порой останавливаются в остолбенении.

Разум, созданный при движении по пути, намеченном в этой статье, сможет иметь по крайней мере одно, кажущееся принципиальным, отличие от человеческого разума – если этим отличием человек осмелится наделить его. Это совершенная память своей истории, то есть запись всех действий, начиная с момента, когда о разуме еще не было и речи.

Тогда вопрос «как я возник?» для этого разума – в отличие от нашего – не будет вопросом.

Алан Тьюринг предложил эксперимент, который позволил бы проверить наличие сознания у компьютера, а Джон Сёрль предложил мысленный эксперимент, который должен опровергать эксперимент Тьюринга. Разбираемся в обоих аргументах и заодно пытаемся понять, что такое сознание.

Тест Тьюринга

В 1950 году в работе «Вычислительные машины и разум» британский математик Алан Тьюринг предложил свой знаменитый тест, позволяющий, по его мнению, определить, способна ли та или иная вычислительная машина мыслить. Тест, по сути дела, копировал распространённую тогда в Британии игру в имитацию. В ней участвовали три человека: ведущий и мужчина с женщиной. Ведущий сидел за ширмой и мог общаться с двумя другими игроками только с помощью записок. Его задача состояла в том, чтобы угадать, какого пола каждый из его собеседников. При этом они вовсе не обязаны были отвечать правдиво на его вопросы.

Тот же самый принцип Тьюринг использовал и в тесте на наличие интеллекта у машины. Только ведущий в нём должен угадать не пол собеседника, а является ли он машиной или человеком. Если машина сможет достаточно успешно имитировать поведение человека и запутывать ведущего, то она пройдёт тест и, предположительно, докажет, что у неё есть сознание и что она мыслит.

Молодой Алан Тьюринг (фотография на паспорт).
Источник: Wikimedia.org

Китайская комната

В 1980 году философ Джон Сёрль предложил мысленный эксперимент, который мог бы опровергнуть позицию Тьюринга.

Представим себе следующую ситуацию. Человек, который не говорит и не читает на китайском языке, попадает в комнату. В этой комнате есть таблички с китайскими символами, а также книга на том языке, на котором разговаривает этот человек. В книге описано, что делать с символами, если в комнату попадут другие символы. Вне комнаты находится независимый наблюдатель, который говорит по-китайски. Его задача состоит в том, чтобы разговаривать с человеком из комнаты, например посредством записок, и выяснить, понимает ли его собеседник китайский язык.

Цель эксперимента Сёрля – продемонстрировать, что даже если наблюдатель поверит, что его собеседник умеет говорить по-китайски, человек в комнате всё равно не будет знать китайский язык. Он не будет понимать символов, которыми оперирует. Точно так же и «машина Тьюринга», которая смогла бы пройти одноимённый тест, не понимала бы символов, которые она использует, и, соответственно, не обладала бы сознанием.

По мнению Сёрля, даже если бы подобная машина смогла ходить, разговаривать, оперировать предметами и изображать из себя полноценного мыслящего человека, она всё равно не обладала бы сознанием, поскольку она только исполняла бы заложенную в неё программу, отвечая заданными реакциями на заданные сигналы.

Философский зомби

Однако представим себе следующую ситуацию, предложенную Дэвидом Чалмерсом в 1996 году. Представим себе так называемого «философского зомби» - некоторое существо, которое по всем признакам похоже на человека. Оно выглядит как человек, разговаривает как человек, реагирует на сигналы и раздражители как человек и вообще во всех возможных ситуациях ведёт себя как человек. Но при этом у него отсутствует сознание, и оно не испытывает никаких чувств. Оно реагирует на то, что причинило бы человеку боль или удовольствие, как если бы оно было человеком, который испытывает эти ощущения. Но при этом оно не переживает их на самом деле, а только имитирует реакцию.

Возможно ли такое существо? Как нам отличить его от реального человека, который испытывает чувства? Что вообще отличает философского зомби от людей? Может ли быть так, что они среди нас? А может быть, все, кроме нас, - философские зомби?

Дело в том, что нам в любом случае недоступен внутренний субъективный опыт других людей. Нам недоступно никакое сознание, кроме нашего собственного. Мы изначально только предполагаем, что у других людей оно есть, что они похожи на нас, потому что у нас в общем-то нет особых поводов в этом сомневаться, ведь другие ведут себя так же, как и мы.

Одно из замечательнейших изобретений нашего времени - быстродействующие электронные счетно-вычислительные машины. В ряде случаев они способны выполнять работу за «думающего» человека. Но некоторые люди, справедливо восхищаясь их успехами, отождествляют мышление человека и вычислительную работу электронных аппаратов.

Научная психология показывает, что это отождествление непозволительно. Вместе с тем ее данные помогают сравнить работу машин и мыслительную деятельность, выявить их принципиальное различие.

В основу сопоставления кладут тот факт, что вычислительные машины в определенных условиях дают тот же результат, что и думающий человек. Более того, они достигают этого гораздо быстрее и точнее и часто делают то, что людям вообще недоступно. Так, английскому математику Шенксу потребовалось почти пятнадцать (!) лет, чтобы узнать число «пи» с точностью до 707 знака. Электронная же машина менее чем за одни (!) сутки «вывела» это число с 2048 знаками после запятой.

В настоящее время есть машины, играющие в шахматы, переводящие с одного языка на другой, решающие алгебраические уравнения со многими неизвестными и производящие многие другие действия, которые до них были «привилегией» лишь человеческого мышления.

Казалось бы, это и есть доказательство тождества мысли человека и работы вычислительных машин. Однако не следует спешить с таким выводом. Необходимо прежде разобраться, есть ли тождество в способах достижения одних и тех же результатов при мышлении и работе машины.

Научная психология отвечает на этот вопрос отрицательно. Вернемся к тому, что уже говорилось о мышлении человека при решении задач. В изобретении Яблочковым своей «свечи», в открытии Кекуле формулы бензольного кольца, в перечеркивании нами девяти точек обнаруживается отличительная черта мышления человека - способность находить новый принцип, новый способ решения задачи, которой человек до этого не решал и путей решения которой еще не знал. В постановке все новых и новых задач, в поисках такого их решения, для которого еще нет готовых рецептов, проявляется человеческое мышление. При этом сопоставляются уже ранее найденные способы, делаются попытки найти решение в таких областях, которые как будто бы и несходны с решаемой задачей (вспомним обстоятельства открытий, сделанных Яблочковым и Кекуле).

Но стоит человеку найти принцип решения, как он превращает его в общее правило, в формулу, следуя которым можно уже без особых поисков справиться с задачами того же типа.

Всем нам хорошо известно, что «трудная» школьная задача перестает быть «трудной», когда найдено правило ее решения, - тогда она становится типовой, по существу уже превратившейся в пример. Так, если вы нашли принцип решения задачи с девятью точками, то вам уже легко будет решить задачу с четырьмя точками, расположенными в форме квадрата.

Как свидетельствует история математики, в свое время доказательство и использование знаменитой теоремы Пифагора было настолько трудным делом и требовало такой напряженной и сложной работы мысли, что считалось пределом учености. Теперь же использование формул, опирающихся на эту теорему, вполне доступно любому школьнику, знакомому с начальной геометрией.

Но вот именно такой поиск новых задач, принципов их решения и определение новых способов действия в тех или иных условиях электронным машинам недоступны.

Во всех своих даже самых сложных действиях машины руководствуются особой таблицей команд, составленной для них человеком, который уже предварительно нашел принцип решения задачи, воспроизводимый, повторяемый машиной. Такая таблица команд, точно дающая руководство в действиях при решении задач данного типа, называется программой. И машина может выполнить любую работу, для которой человек, опираясь на свое мышление, предварительно составил такую программу. Без нее, а следовательно, и без предварительной мыслительной деятельности человека «думающая» машина работать не может. Но по программе машина произведет нужные действия в миллионы раз быстрее, чем человек. Поэтому-то она и может вывести число «пи» с тысячью знаками, но только по правилам, уже открытым человеком и преобразованным им в нужную программу.

Таким образом, машина может выполнять только те действия, принцип осуществления которых уже открыт и продуман человеком. Поэтому-то электронные вычислительные аппараты облегчают умственный труд человека, освобождают его от утомительного выполнения работы, для которой найдено принципиальное решение. Но эти машины никогда не могут заменить самого мышления и умственной работы людей, направленной на отыскание принципов решения все новых и новых задач, выдвигаемых жизнью.

Поэтому термин «думающая» машина - лишь метафора, но такая, в которой правильно уловлена связь электронных машин с мышлением. Эти машины используют результаты работы ума человека, облегчая ее, но сами по себе они мышлением не обладают. Мышление присуще только человеку.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter .