Мыслят ли «думающие» машины? Искусственный интеллект: Может ли машина мыслить

Генрих Саулович Альтов

Может ли машина мыслить?

Я собираюсь рассмотреть вопрос: «Может ли машина мыслить?» Но для этого нужно сначала определить смысл термина «мыслить»…

А. Тьюринг.

Триггерная цепочка

Дважды в неделю, по вечерам, гроссмейстер приходил в Институт кибернетики и играл с электронной машиной.

В просторном и безлюдном зале стоял невысокий столик с шахматной доской, часами и кнопочным пультом управления. Гроссмейстер садился в кресло, расставлял фигуры и нажимал кнопку «Пуск». На передней панели электронной машины загоралась подвижная мозаика индикаторных ламп. Объектив следящей системы нацеливался на шахматную доску. Потом на матовом табло вспыхивала короткая надпись. Машина делала свой первый ход.

Она была совсем небольшая, эта машина. Гроссмейстеру иногда казалось, что против него стоит самый обыкновенный холодильник. Но этот «холодильник» неизменно выигрывал. За полтора года гроссмейстеру с трудом удалось свести вничью только четыре партии.

Машина никогда не ошибалась. Над ней никогда не нависала угроза цейтнота.

Гроссмейстер не раз пытался сбить машину, делая заведомо нелепый ход или жертвуя фигуру. В результате ему приходилось поспешно нажимать кнопку «Сдаюсь».

Гроссмейстер был инженером и экспериментировал с машиной для уточнения теории самоорганизующихся автоматов. Но временами его бесила абсолютная невозмутимость «холодильника». Даже в критические моменты игры машина не думала больше пяти-шести секунд. Спокойно поморгав разноцветными огнями индикаторных ламп, она записывала самый сильный из возможных ходов. Машина умела вносить поправки на стиль игры своего противника. Иногда она поднимала объектив и подолгу рассматривала человека. Гроссмейстер волновался и делал ошибки…

Днем в зал приходил молчаливый лаборант. Хмуро, не глядя на машину, он воспроизводил на шахматной доске партии, сыгранные в разное время выдающимися шахматистами. Объектив «холодильника» выдвигался до отказа и нависал над доской.

На лаборанта машина не смотрела. Она бесстрастно регистрировала информацию.

Эксперимент, для которого создали шахматный автомат, приближался к концу. Было решено организовать публичный матч между человеком и машиной. Перед матчем гроссмейстер стал еще чаше появляться в институте. Гроссмейстер понимал, что проигрыш почти неизбежен. И все-таки он упорно искал слабые места в игре «холодильника». Машина же, словно догадываясь о предстоящем поединке, с каждым днем играла все сильнее и сильнее. Она молниеносно разгадывала самые хитроумные планы гроссмейстера. Она громила его фигуры внезапными и исключительными по силе атаками…

Незадолго до начала матча машину перевезли в шахматный клуб и установили на сцене. Гроссмейстер приехал в самую последнюю минуту. Он уже жалел, что дал согласие на матч. Было неприятно проигрывать «холодильнику» на глазах у всех.

Гроссмейстер вложил в игру весь свой талант и всю свою волю к победе. Он избрал начало, которое ему еще не приходилось играть с машиной, и игра сразу же обострилась.

На двенадцатом ходу гроссмейстер предложил машине слона за пешку. С жертвой слона связывалась тонкая, заранее подготовленная комбинация. Машина думала девять секунд - и отклонила жертву. С этого момента гроссмейстер знал, что неизбежно проиграет. Однако он продолжал игру - уверенно, дерзко, рискованно.

Никто из присутствовавших в зале еще не видел такой игры. Это было сверхискусство. Все знали, что машина постоянно выигрывает. Но на этот раз положение на доске менялось так быстро и так резко, что невозможно было сказать, кому достанется победа.

После двадцать девятого хода на табло машины вспыхнула надпись: «Ничья».

Гроссмейстер изумленно посмотрел на «холодильник» и заставил себя нажать кнопку «Нет». Взметнулись, перестраивая световой узор, индикаторные огни - и замерли настороженно.

На одиннадцатой минуте она сделала ход, которого больше всего опасался гроссмейстер. Последовал стремительный размен фигур. Положение у гроссмейстера ухудшилось. Однако на сигнальном табло машины вновь появилось слово «Ничья».

Гроссмейстер упрямо нажал кнопку «Нет» и повел ферзя в почти безнадежную контратаку.

Следящая система машины тотчас пришла в движение. Стеклянный глаз объектива уставился на человека. Гроссмейстер старался не смотреть на машину.

Постепенно в световой мозаике индикаторных ламп начали преобладать желтые тона.

Они становились насыщеннее, ярче - и наконец погасли все лампы, кроме желтых. На шахматную доску упал золотистый сноп лучей, удивительно похожих на теплый солнечный свет.

В напряженной тишине пощелкивала, перескакивая с деления на деление, стрелка больших контрольных часов. Машина думала. Она думала сорок три минуты, хотя большинство сидящих в зале шахматистов считали, что думать особенно нечего и можно смело атаковать конем.

Внезапно желтые огни погасли. Объектив, неуверенно вздрагивая, занял обычное положение. На табло появилась запись сделанного хода: машина осторожно передвинула пешку. В зале зашумели; многим казалось, что это был не лучший ход.

Через четыре хода машина признала свое поражение.

Гроссмейстер, оттолкнув стул, подбежал к машине и рывком приподнял боковой щиток. Под щитком вспыхивала и гасла красная лампочка контрольного механизма.

На сцену, которую сразу заполнили шахматисты, с трудом пробился молодой человек, корреспондент спортивной газеты.

Похоже, она просто уступила, - неуверенно сказал кто-то. - Так потрясающе играла - и вдруг…

Ну, знаете ли, - возразил один из известных шахматистов, - случается, что и человек не замечает выигрышной комбинации. Машина играла в полную силу, но возможности ее ограниченны. Только и всего.

Гроссмейстер медленно опустил щиток машины и обернулся к корреспонденту.

Итак, - нетерпеливо повторил тот, раскрывая записную книжку, - каково ваше мнение?

Мое мнение? - переспросил гроссмейстер. - Вот оно: вышла из строя триггерная цепочка в сто девятом блоке. Конечно, ход пешкой не самый сильный. Но сейчас трудно сказать, где причина и где следствие. Может быть, из-за этой триггерной цепочки машина не заметила лучшего хода. А может быть, она действительно решила не выигрывать - и это стоило ей пробитых током триггеров. Ведь и человеку не так легко переломить себя…

Но зачем этот слабый ход, зачем проигрывать? - удивился корреспондент. - Умей машина мыслить, она стремилась бы к выигрышу.

Гроссмейстер пожал плечами и улыбнулся:

Как сказать… Иногда намного человечнее сделать именно слабый ход.

К взлету готов!

Маяк стоял на высокой, далеко выдвинутой в море скале. Люди появлялись на маяке лишь изредка, чтобы проверить автоматическое оборудование. Метрах в двухстах от маяка из воды поднимался островок. Много лет начал на островке, как на постаменте, установили космический корабль, который вернулся на Землю после дальнего рейса. Такие корабли не имело смысла снова отправлять в Космос.

Я приехал сюда с инженером, ведавшим маяками на всем Черноморском побережье.

Когда мы поднялись на верхнюю площадку маяка, инженер передал мне бинокль и сказал:

Будет шторм. Очень удачно: перед непогодой он всегда оживает.

Красноватое солнце тускло отсвечивало на серых гребнях волн. Скала резала волны, они огибали ее и с шумом карабкались на скользкие, ржавые камни. Потом, гулко вздохнув, растекались вспененными ручьями, открывая дорогу новым волнам. Так наступали римские легионеры: передний ряд, нанеся удар, уходил назад сквозь разомкнутый строй, который затем смыкался и с новой силой шел на приступ.

В бинокль я мог хорошо разглядеть корабль. Это был очень старый двухместный звездолет типа «Дальний разведчик». В носовой части выделялись две аккуратно заделанные пробоины. Вдоль корпуса проходила глубокая вмятина. Кольцо гравитационного ускорителя было расколото на две части и сплющено. Над рубкой медленно вращались конусообразные искатели давно устаревшей системы и ифразвукового метеонаблюдения.

Видите, - сказал инженер, - он чувствует, что будет шторм.

Где-то тревожно закричала чайка, и море отозвалось глухими ударами волн. Серая дымка, поднятая над морем, постепенно заволакивала горизонт. Ветер тянул к облакам посветлевшие гребни волн, а облака, перегруженные непогодой, опускались к воде. От соприкосновения неба и моря должен был вспыхнуть шторм.

Ну это я еще понимаю,-продолжал инженер: - солнечные батареи питают аккумуляторы, и электронный мозг управляет приборами. Но все остальное… Иногда он словно забывает о земле, о море, о штормах и начинает интересоваться только небом. Выдвигается радиотелескоп, антенны локаторов вращаются днем и ночью… Или другое. Вдруг поднимается какая-то труба и начинает разглядывать людей. Зимой здесь бывают холодные ветры, корабль покрывается льдом, но стоит на маяке появиться людям, и лед моментально исчезает… Между прочим, на нем и водоросли не нарастают…

Море наступало на островок. Волны шли одна за другой - и каждая следующая была выше и сильнее предыдущей. Насколько видел глаз, все было заполнено серыми волнами. На корабле зажглись штормовые огни.

Вот-вот, видите! - торжествующе произнес инженер. - Сейчас он включит свой прожектор. Временами мне кажется, что он улетит. Возьмет и улетит… Был я здесь как-то ночью, так до сих пор… Понимаете, Луна поднималась над морем, и корабль… он прямо-таки тянулся к ней. Эта груба, антенны и еще какие-то штуки вот там, позади рубки,-все было устремлено к Луне. Мистика!..

Я объяснил инженеру, что никакой мистики здесь нет. На кораблях, поставленных на вечную стоянку, не выключают электронную аппаратуру. Это нужно, чтобы корабль сам о себе заботился: принимал меры против коррозии, обледенения, не допускал скопления пыли и грязи, сигнализировал при непредвиденной опасности. Случается, что электронный мозг делает и то, что совершенно не нужно: ведет наблюдение за Луной и звездами, регистрирует космическое излучение, магнитные бури… Но улететь в Космос корабль не может: на нем нет экипажа, нет горючего, нет основных агрегатов гравитационного ускорителя.

Инженер с сомнением покачал головой и спросил:

А труба? Зачем он наводит ее на маяк?

Я не успел ответить.

Над каплевидной рубкой корабля выдвинулся прожектор. Синеватый луч легко пробил нависшую над морем предштормовую дымку. Скользнув по берегу, луч уперся в основание маяка, а затем поднялся к площадке.

От яркого света я невольно закрыл глаза. Прожектор тотчас же погас.

На корабле зажглись все бортовые огни. Они осветили черные, отшлифованные волнами камни островка и зеленоватый корпус звездолета. В борту корабля возникла щель: раздвигались створки главного люка.

Этого… не было! - возбужденно повторил инженер.

Он не отрывался от бинокля и говорил очень громко, почти кричал. Ветер, уже набравший силу, гудел в стальных фермах маяка, и я слышал только обрывки фраз:

«За сорок лет… мои предшественники… никто не знал …»

Волны захлестывали островок. Но старый корабль, видавший великие ураганы Звездного Мира, перестал обращать внимание на надвигающийся шторм. С торжественной, даже величественной неторопливостью он делал все то, что полагается делать перед взлетом.

Из открытого люка опустился трап. Сложная система антенн приняла походное положение. В центральной части корпуса выдвинулись короткие, резко отогнутые назад крылья. За дюзами стартового двигателя появились газовые рули. Они были погнуты, эти рули, однако безукоризненно стали так, как это требовалось для короткого разбега по воде. Перископический датчик видеосистемы («труба», о которой говорил инженер) повернулся в сторону открытого моря. Трижды мигнул зеленый oгонь старт-сигнала и над рубкой поднялся алый вымпел.

Эту был традиционный сигнал: «К взлету - готов!»

Волны перекатывались через островок, вокруг корабля кипели буруны. Мне вдруг показалось, что море неподвижно, а корабль несется вперед. Мне показалось, что слышен грохот стартового двигателя. Это длилось несколько секунд, не больше. Но я понял, почему для вечной стоянки корабля выбран этот маленький, неприметный островок.

Внезапно огни на звездолете погасли.

Мы долго ждали. Ветер все сильнее и сильнее раскачивал площадку маяка.

Надо идти! - наклонившись ко мне, прокричал инженер и вытер мокрое лицо.

Низко, над самой водой, полыхнула до синевы накаленная молния. Протяжные громовые раскаты слились с ревом волн.

Шторм начался.

Когда мы спускались по винтовой лестнице, инженер сказал:

Все дело в том, что он искал вас. Он всегда рассматривал людей, но только сегодня он увидел вас и открыл люк.

Почему именно меня? - спросил я. - Ведь мы были вдвоем.

На вас форма Звездного Флота, - ответил инженер и убежденно повторил; - Ну да, на вас форма астронавта.

Это была очень наивная идея, впрочем простительная неспециалисту. Электронные машины на старых звездных разведчиках не умеют различать одежду людей. Вероятно, машина узнала, что надвигается сильнейший шторм, и приняла самое простое в этих условиях решение - взлететь, уйти от шторма. Подняться корабль, конечно, не мог, но все-таки подготовился к взлету.

Выслушав мое объяснение, инженер неуверенно сказал:

Что ж, возможно, все так и обстоит… Не спорю… Однако он уже сорок лет на этом островке. Сорок лет! Неужели за это время в его электронной памяти ничто самопроизвольно не изменилось?..

Я не ответил инженеру. Я думал о другом.

Звездолет был навечно прикован к камням. Над ним проносились другие корабли, всходили и заходили далекие звезды. И если хоть что-то похожее на разум теплилось в старом коралле, о чем мог думать его не знающий сна электронный мозг?

Сорок лет этот мозг был предоставлен самому себе. Только самому себе. И еще - воспоминаниям.

Первый контакт

Директор института, не глядя на собравшихся в его кабинете сотрудников, долго скреб густую черную бородку и наконец мрачно сказал:

Мои юные коллеги, это скандал. Самый чистокровный скандал. Даже ультраскандал.

Над нами будут смеяться.

А что, собственно, случилось? - спокойно спросил молодой человек в ковбойке.

Директор грустно взглянул на него сквозь большие роговые очки с выпуклыми стеклами:

Вам, руководителю экспериментальной лаборатории, это следовало бы знать. Да.

Вчера ночью «Марсианин» говорил с «Аристотелем».

Какой… марсианин? - неуверенно произнесла сидевшая у окна девушка, начальник отдела информационно-логических машин.

Не смотрите на меня так, - отчетливо выговаривая каждый слог, сказал директор.

Я в здравом уме. «Марсианин», о котором я говорю, пишется с большой буквы и в кавычках.

Девушка смущенно улыбнулась.

Так, - продолжал директор. - Никто не помнит. Никто не знает, о чем идет речь.

Хорошо, я вам напомню. Три года назад, мои уважаемые коллеги, три гола назад, когда вы еще были студентами, у нас поставили эксперимент. Человек, поставивший этот эксперимент, сейчас работает в другом городе. Да. Речь шла о том, смогут ли понять друг друга астронавт и разумный обитатель какой-либо иной планеты.

Конечно, в том случае, если они встретятся. Надеюсь, вы догадываетесь, что эта проблема имеет непосредственное отношение к нам, кибернетикам. Да. Она примыкает к проблеме кодирования и перекодирования с языка на язык.

Совершенно верно! - воскликнул начальник отдела электронного моделирования, надевая роговые очки, очень похожие на очки директора. - Теперь я припоминаю.

Были построены два автомата, которые могли общаться между собой с помощью акустических устройств. Один автомат назвали «Эрг Ноором», а другой… а другой - почему-то «Аристотелем».

То есть как это «почему-то»?! - возмутился директор. - Ребенку ясно: чем большая по времени дистанция между разумными существами, тем труднее им найти общий язык. Поэтому первый автомат получил всю ту информацию, все те знания и представления, которые, по мнению историков, должен был иметь Аристотель или его современник-ученый. А второй… Да, со вторым автоматом было очень много неприятностей. Мы настраивали его под наблюдением астрономов, биологов, философов и этих… ну, научных фантастов. Ужасно было трудно! Сколько консультантов - столько мнений.

Но ведь из этого опыта ничего не вышло, - осторожно сказал начальник отдела электронного моделирования, снимая мешавшие ему очки.

Что значит «не вышло»? - с негодованием спросил директор? - Вы думаете, при первой же встрече «Эрг Hoop» должен был броситься на шею «Аристотелю»? А может быть, вы думаете, что они сразу же должны были устроить драку?..

Директор строго оглядел притихших сотрудников и неожиданно улыбнулся:

Тогда, три года назад, нам тоже казалось, что произойдет нечто такое… - он сделал неопределенный жест рукой. - Первый контакт. Романтика. Да. Но ничего не произошло. Они молчали - и никак не хотели говорить друг с другом.

Несовершенство программирования, ошибки в конструкции. Да. И автоматы были сданы в резервное хранилище. Со строгим предписанием: хранить аккуратно! На всякий случай.

Там все хранят аккуратно, - сказала девушка. - Специальное помещение, постоянная температура, чистота… По ночам дежурит сотрудник.

Какой сотрудник? - тихо спросил директор. - Разрешите полюбопытствовать - какой сотрудник? - И, не дожидаясь ответа, отчеканил; - Сторож! Самый обыкновенный сторож! Тот самый сторож, мои уважаемые коллеги, которого вы почтительно зовете дядей Васей.

Дядя Вася очень добросовестно относится к своим обязанностям, - возразила девушка.

Добросовестно, - согласился директор, уныло поглаживая бородку. - Даже слишком добросовестно. Вчера, в одиннадцать ночи, он позвонил мне и сказал, что эти двое… ну, «Эрг Hoop» и «Аристотель» - вдруг начали говорить. Вы понимаете, уважаемые коллеги? Они начали говорить. Начали спорить.

О чем? - нетерпеливо спросил юноша в ковбойке.

Ах, вас интересует о чем? - очень вежливо сказал директор. - Я предвидел это и потому вчера звонил вам. Вам и всем остальным. Но никого не оказалось дома. Да.

И к дяде Васе я приехал один. Так вот, «Эрг Hoop» и «Аристотель» действительно спорили. Они орали во всю мощь своих железных глоток. В зале гремело так, словно работал паровой молот!

Значит, опыт все-таки удался! - воскликнула девушка. - О чем же они спорили?

О чем? - спокойно переспросил директор. - А вот о чем. «Аристотель» утверждал, что в чемпионате по футболу на первое место в группе «А» выйдет команда «Крылья Советов». А «Эрг Hoop» визгливым и вибрирующим голосом, который для него придумал один фантаст, упрямо повторял: «Чепуха, чепуха, чепуха… 97,6 процента, Сын Голубой Планеты за то, что победит команда „Динамо“. Да! „Аристотель“ сыпал фамилиями игроков, ссылался на спортивных обозревателей и… и попрошу не смеяться! - рявкнул директор. - Не вижу в этом ничего смешного.

Мы не смеемся, - сказала девушка. - Мы стараемся не смеяться. Ничего не случилось. Просто эти машины плохо запрограммированы, вот и все.

Вы так думаете? - обернулся к ней директор. - Так вот, я все выяснил. Дядя Вася, дежуря в хранилище, в течение трех лет читал вслух спортивные газеты и журналы. Он даже слушал передачи со стадионов. Больше того, кое-кто из вас любил заходить туда по утрам. Так сказать, для обсуждения спортивных новостей. Да. И никто не вспомнил, что рядом - машины, пусть старые и плохие, но машины. Никто не вспомнил, что автоматы имеют акустические приемники и, следовательно, могут…

Не огорчайтесь, пожалуйста, - сказал юноша в ковбойке. - Автоматы не представляют ценности: они, в сущности, не нужны. Но если хотите, можно легко убрать эту лишнюю информацию о… футболе.

Нет, нет, тут нужно разобраться, - возразила девушка. - Пусть автоматы считались неудачными, негодными. Но теперь… теперь они спорят о футболе. Разве это не свидетельствует, что машина может мыслить, как человек? То есть почти как человек.

Директор покачал головой.

Мой юный друг, - ехидно сказал он. - Это работают блоки анализаторов вероятности. И только. Как можно утверждать, что автоматы мыслят, когда один из них твердит о команде «Крылья Советов», а другой - о «Динамо»?! Ребенку же ясно: первенство возьмет «Спартак». Вы когда-нибудь бываете на стадионах?..

Странный вопрос

Анатолий Сергеевич Скляров, тридцатилетний профессор истории, удобно устроившись на диване, в сотый раз перечитывал «Трех мушкетеров». Кардинал Ришелье вызвал к себе д"Артаньяна, и это волновало Анатолия Сергеевича, хотя он знал, что все окончится благополучно. Кардинал уже вручил смелому гасконцу патент на звание лейтенанта, когда из-за стены послышался робкий стук. Анатолий Сергеевич взглянул на часы; было два часа ночи. Он отложил книгу и встал с дивана.

Вторую половину дачи снимал учитель математики - тихий, застенчивый старик. За две недели Скляров, поглощенный работой над статьей для исторического журнала, обменялся со своим соседом лишь несколькими незначащими фразами.

Анатолий Сергеевич закурил сигарету и подошел к окну. Стук повторился.

Скляров застегнул пижаму и вышел на веранду. Математик стоял в дверях своей комнаты.

Извините, пожалуйста, - быстро сказал он, увидев Склярова. - Я решился потревожить вас…

Он кашлянул и умолк.

Что случилось, Семен Павлович? - спросил профессор, внимательно глядя на соседа. Старик, как всегда, был одет в черный, тщательно отглаженный костюм. Но по галстуку - слишком яркому и наспех завязанному - Скляров понял, что произошло нечто чрезвычайное.

У Семена Павловича было очень доброе лицо, и сейчас оно показалось Склярову особенно милым и добрым. Профессор подумал, что такие лица бывают у старых детских докторов, для которых главное оружие - потемневший от времени деревянный стетоскоп и беспредельная человеческая доброта.

Математик сконфуженно погладил пышные, еще сохранившие лихость усы и неуверенно произнес:

Машина… Она сейчас будет говорить. Я полгода ждал, и вот сейчас зажглась контрольная лампочка. Вы - профессор, доктор наук, и только потому я осмелился в столь поздний час… Для объективности…

Скляров хотел было сказать, что он почти ничего не понимает в машинах. Но старик был взволнован, и Анатолий Сергеевич не стал возражать.

Они прошли в комнату, которую снимал математик. «Да, не очень уютно», - подумал Скляров, бегло оглядев комнату. Заваленный книгами стол, аккуратно прикрытая серым солдатским одеялом железная койка, пузатый шкаф с резными ножками - все было сдвинуто в один угол. С потолка свисала на черном шнуре лампа, прикрытая вместо абажура листом картонка. На стульях в беспорядке лежали подшивки потрепанных журналов, коробки с радиодеталями и инструментами. В комнате пахло ночной сыростью и цветами. Вдоль стены, на полу, выстроились стеклянные банки с распустившимися розами.

Семен Павлович показал на подоконник:

Вот, пожалуйста, взгляните.

У открытого окна стоял очень старый радиоприемник «СИ-235». Скляров удивленно посмотрел на Семена Павловича.

Это только футляр, - объяснил математик. Он говорил шепотом, словно боясь, что машина его услышит. - Футляр, знаете ли, не имеет значения. А машина внутри. Вы садитесь, пожалуйста …

Он принес Склярову стул, а сам продолжал ходить по комнате. Рассказывая, он снимал и надевал очки. Они были тоже старые с круглыми стеклами и металлической оправой, оплетенной каким-то шелушащимся коричневым материалом.

Я собрал ее полгода назад, - говорил математик. - Разумеется, вы знаете, что идет дискуссия о том, может ли машина мыслить. У меня, конечно, нет необходимой подготовки… Нет, нет, вы только не подумайте, что я собираюсь выступать со своим мнением. Я поставил маленький эксперимент… - Он смущенно улыбнулся: - Может быть, эксперименту слишком громкое слово. Это только простой опыт, не больше.

Дело в том, что Эйнштейн однажды высказал такую мысль… Вот я вам процитирую на память: «Что бы ни делала машина, она будет в состоянии решить какие угодно проблемы, но никогда она не сумеет поставить хотя бы одну». Не правда ли, глубокая мысль?.. Вы можете подумать, что я имею дерзость спорить с Эйнштейном.

Он протестующе взмахнул руками: - Нет, я только поставил опыт. Это первая машина, которая специально предназначена для того, чтобы ставить проблемы.

Скляров уже не слушал математика. Он смотрел на Семена Павловича, машинально кивал головой и думал о том, что старик даже не подозревает, насколько грандиозен его эксперимент. Анатолий Сергеевич почему-то вспомнил другого учителя - Циолковского и почтительно спросил:

Ваша машина… она может пригодиться для астронавтики?

Математик поверх очков удивленно посмотрел на Склярова.

Не знаю, я об этом не думал, - произнес он извиняющимся тоном. - Конечно, в какой-то степени… Скажем, для разведки неисследованных планет.

Скляров нетерпеливо перебил:

И вы никому еще не показывали эту машину?

Семен Павлович окончательно смутился. Он стоял перед профессором, высокий, худощавый, по-стариковски нескладный и взволнованно потирал руки. Анатолий Сергеевич вдруг насторожился. Как всякий человек, далекий от техники, он был уверен, что открытия рождаются лишь в лабораториях, оборудованных по последнему слову техники. В чем оно состояло, это последнее слово техники, он представлял себе довольно смутно и потому вкладывал в это понятие особо торжественный смысл.

Вы сами ее собрали? - осторожно спросил он.

Ага, - неопределенно произнес Скляров.

Он почему-то вспомнил д"Артаньяна. После книги Дюма легче верилось в необыкновенное. «А вдруг эта штука и в самом деле будет работать? - подумал он.

В сущности, все первое имело неказистый вид: пар-вый паровоз, первый пароход…

Даже первый циклотрон».

Какой же вопрос задаст эта… гм… машина? - спросил он. - Что-нибудь математическое?

Не знаю, - ответил математик. - Право, не знаю. Она может выбрать любую проблему - ив математике, и, простите, в истории, и в биологии… Даже, так сказать, из сферы практической жизни. Она, образно выражаясь, начинена всевозможной информацией. Я, конечно, не смог бы сам заполнить всю ее память, но удалось использовать готовые элементы. Мой бывший ученик работает в академии, он мне и помог достать готовые элементы. Разумеется, они предназначались для других целей, но в этой машине они собраны иначе. Там, знаете ли, очень много записано.

Десяток энциклопедий, разные справочники, учебники, журналы, газеты… Скляров вытер платком вспотевший лоб.

Семен Павлович быстро ответил:

Нет, то есть да… Мы услышим азбуку Морзе.

Анатолий Сергеевич подошел к машине. Тихо поскрипывали створки открытого окна.

Где-то очень близко прокричал петух. Протяжно загудел электровоз и внезапно осекся, словно испугавшись, что нарушил ночную тишину.

Скажите, Семен Павлович, - спросил профессор, - какого все-таки рода может быть проблема? Я понимаю, вы не можете дать определенный ответ, но хоть примерно.

Поверьте, я об этом не думал, - ответил математик. - Первый опыт… Тут важно только одно: чтобы вопрос, поставленный машиной, не был бессмысленным.

Скляров услышал смех и вздрогнул: настолько странным показался ему сейчас простой человеческий смех. По дощатому тротуару вдоль ограждавшего сад забора шли двое. Они не спешили, и по приглушенным молодым голосам нетрудно было догадаться, что это юноша и девушка. Внезапно шаги затихли. Послышался быстрый неясный шепот. Настороженно прогудел поезд. Он быстро приближался, и торопливый стук колес поглотил все ночные звуки.

Московский, два сорок, - сказал Семен Павлович. - Начнем, если вы не возражаете?

Профессор вернулся к стулу. Он с трудом сдерживал волнение. Анатолий Сергеевич до самозабвения любил историю. Может быть, поэтому ему казалось, что первая проблема, поставленная машиной, обязательно будет связана с историей.

Начнем, Семен Павлович, -взволновано сказал он и оглядел комнату. Теперь все в этой комнате показалось ему иным - значительным, даже ироничным. - Начнем, - повторил он.

Математик поправил сбившийся набок галстук и, шумно вздохнув, передвинул рычажок, выступавший из прорези на передней панели машины. Что-то щелкнуло.

Послышалось негромкое шипение.

Скляров напряженно всматривался в футляр старого радиоприемника. Динамик долго шипел, и Анатолию Сергеевичу начало казаться, что опыт не удался. Он вопросительно посмотрел на математика и в этот момент услышал прерывистую дробь азбуки Морзе. Семен Павлович бросился записывать. Скляров не знал азбуки Морзе и нетерпеливо поглядывал то на машину, то на математика.

Сигналы оборвались так же внезапно, как и начались.

Анатолий Сергеевич вскочил со стула и подбежал к математику. Тот протянул ему оторванную от газеты неровную полоску бумаги.

Она задала вопрос! Значит… Как вы думаете это не бессмысленный вопрос?

Скляров прочитал написанное. В первый момент у него мелькнула мысль: «Ну-ну. Как бы то ни было, а чувство юмора у этого ящика есть». Потом он подумал: «Странный вопрос. Очень странный вопрос. А вдруг она… серьезно?» - и подозрительно покосился на машину.

Ну, как вы думаете, профессор? - с тревогой в голосе спросил Семен Павлович. -

Вопрос… не бессмысленный?

Мне трудно судить, - сказал Скляров. - Пожалуй, в какой-то степени вопрос закономерный. Машина впервые получила возможность по своей… гм… по своей инициативе спросить о чем-то человека, и вот… Да, да, - уже увереннее произнес он, - вполне логично, что она начала именно с этого вопроса. Почему-то принято считать, что машина должна думать как-то… гм… по-машинному. А она если будет думать, то как человек. Вы понимаете мою мысль? Вот Луна - она светит отраженным светом Солнца. Так и машина.

Завтра же покажите эту машину специалистам. Вы слышите, Семен Павлович?

Обязательно покажите ее кибернетикам. Пусть они и решают. И еще… сохраните эту бумажку.

Он передал математику полоску газетной бумаги, на которой под точками и тире была выведена аккуратным почерком одна фраза: «Может ли человек мыслить?»

«Машина смеялась…»

(Из дневника)

…Сегодня ей исполнился год.

Я хорошо помню, как год назад мы сидели здесь, в этой комнате, и молча смотрели на серый корпус машины. В одиннадцать часов семнадцать минут я нажал пусковую клавишу, и машина начала работать.

Работать? Нет, это не то слово. Машина предназначалась для моделирования человеческих эмоций. Это не первый такой опыт с самоорганизующимися и саморазвивающимися машинами. Но мы основывались на новейших физиологических открытиях и очень тщательно внесли все коррективы, рекомендованные психологами.

Год назад я спросил своих ассистентов, как, по их мнению, окончится эксперимент.

Она влюбится, - ответил Корнеев.

Очень грубая модель. Она будет похожа на к-крайне ограниченного человека.

Скучного ч-человека.

Ну, а вы? - спросил я Белова.

Он пожал плечами:

В таких экспериментах не бывает неудач. Если машина сумеет хорошо имитировать человеческие эмоции, мы дадим биологам интересный материал. Если же она… ну, если она не сработает, биологам придется кое в чем пересмотреть свои взгляды.

Это тоже полезно.

Две недели машина работала превосходно, и мы получили ценнейшие данные. А затем произошла первая неожиданность: у машины вдруг появилось увлечение. Она увлеклась… вулканами.

Это продолжалось десять дней. Машина изводила нас классификацией вулканов. Она упрямо печатала на ленте: Везувий, Кракатау, Килауэа, Сакурадзима… Ей нравились старинные описания извержений, особенно рассказ геолога Леопольда фон Буха об извержении Везувия в 1794 году. Она бесконечно повторяла этот рассказ: «В ночь на 12 июня произошло страшное землетрясение, повторившееся еще 15 июня в 11 часов ночи, с сильнейшим подземным ударом. Все небо вдруг озарилось красным пламенем…»

Потом она забыла об этом. Абсолютно забыла. Она отключила блоки памяти, в которых хранились сведения о вулканах. Такую вещь человек не способен сделать.

Эксперимент вступил в фазу непредвиденного. Я сказал об этом ассистентам, и Белов ответил:

Тем лучше. Новые факты ценнее новых гипотез. Гипотезы приходят и уходят, а факты остаются, - Чушь! - сказал Антрощенко. - факты сами по себе ничего не дают. Они как далекие з-звезды…

Прошу не трогать звезды! - воскликнул Корнеев.

Я слушал их спор, а думал совсем о другом. В этот момент я уже знал, что будет дальше.

Очень скоро мое предвидение начало сбываться. Вдруг выяснилось, что машина ненавидит созвездие Ориона и все звезды, входящие в каталог Лакайля с № 784 по №

1265. Почему созвездие Ориона? Почему именно эти звезды? Мы могли бы разобрать машину и найти объяснение. Но это значило прервать эксперимент. И мы предоставили машине полную свободу. Мы лишь подключали к блокам памяти новые элементы и наблюдали за поведением машины.

А оно было очень странным, это поведение. Машина, например, включила желтый свет, означавший плач, когда впервые узнала структурную формулу бензола. Машина никак не реагировала на формулу динатрисалициловой кислоты. Но упоминание о натриевой соли этой кислоты неожиданно привело ее в бешенство: желтый сигнал стал оранжевым, а потом лампа перегорела…

Музыка, вообще любая информация, связанная с искусством, оставляла машину бесстрастной. Но ее веселило, когда в тексте информации встречались существительные среднего рода из четырех букв. Мгновенно зажигался зеленый сигнал и начинал уныло дребезжать звонок: машина смеялась…

Она работала двадцать четыре часа в сутки. Вечером мы уходили из института, а электронный мозг машины продолжал перерабатывать информацию, менять настройку блоков логического управления. По утрам нас ожидали сюрпризы. Однажды машина начала сочинять стихи. Странные стихи: о драке «горизонтальных кошек» с «симметричным меридианом»…

Как-то я приехал в институт ночью. Машина стояла в темной комнате. На приборном щите светилась только небольшая фиолетовая лампа: это означало, что у машины хорошее настроение.

Я долго стоял в темноте. Было очень тихо. И вдруг машина рассмеялась. Да, она рассмеялась! Вспыхнул зеленый сигнал и тоскливо задребезжал звонок…

…Сейчас, когда я пишу эти строки, машина снова смеется. Я сижу в другой комнате, но дверь приоткрыта, и я слышу взвизгивание звонка. Машина смеется над квадратными уравнениями. Она ворошит свою огромную память, отыскивает тексты с квадратными уравнениями - и смеется.

Когда-то Клод Бернар сказал: «Не бойтесь противоречивых фактов - каждый из них зародыш открытия». Но у нас слишком много противоречивых фактов. Иногда мне кажется, что мы просто-напросто создали несовершенную машину…

Или - все правильно?

Вот моя мысль:

Нельзя сравнивать машину с человеком. В нашем представлении роботы - это почти люди, наделенные либо машинной злостью, либо машинным сверхумом. Чепуха! Наивен вопрос, может ли машина мыслить. Надо одновременно ответить «нет» и «да». Нет - ибо мышление человека формируется жизнь» в обществе. Да - ибо машина все-таки может мыслить и чувствовать. На как человек, а как некое другое существо. Как машина. И это не лучше и не хуже, чем мышление человека, а просто - иначе.

Машина может определить температуру воздуха с точностью до тысячных долей градуса, но она никогда не почувствует и не поймет, что такое ветер, ласкающий кожу. А человек никогда не почувствует, что такое изменение самоиндукции, никогда не ощутит процесса намагничивания. Человек и машина - разные.

Машина только тогда сможет мыслить, как человек, когда она будет иметь все то, что имеет человек: родину, семью, способность по-человечески чувствовать свет, звук, запах, вкус, тепло и холод…

Но тогда она перестанет быть машиной.

Алан Тьюринг опубликовал большую статью, позже ставшую хрестоматийной: Computing Machinery and Intelligence. На русский язык статья часто переводится так: Может ли машина мыслить? В разделе статьи «Противоположные точки зрения по основному вопросу» автор обсудил различные возражения, мифы, связанные с искусственным интеллектом, моделированием творческих процессов и дал свои комментарии…

1. Теологическое возражение. «Мышление есть свойство бессмертной души человека, Бог дал бессмертную душу каждому мужчине и каждой женщине, но не дал души никакому другому животному и машинам. Следовательно, ни животное, ни машина не могут мыслить».

Я не могу согласиться ни с чем из того, что было только что сказано, и попробую возразить, пользуясь теологическими же терминами. Я счёл бы данное возражение более убедительным, если бы животные были отнесены в один класс с людьми, ибо, на мой взгляд, между типичным одушевлённым и типичным неодушевлённым предметами имеется большее различие, чем между человеком и другими животными. Произвольный характер этой ортодоксальной точки зрения станет ещё яснее, если мы рассмотрим, в каком свете она может представиться человеку, исповедующему какую-нибудь другую религию. Как, например, христиане отнесутся к точке зрения мусульман, считающих, что у женщин нет души? Но оставим этот вопрос и обратимся к основному возражению. Мне кажется, что из приведённого выше аргумента со ссылкою на душу у человека следует серьёзное ограничение всесильности Всемогущего.

Пусть даже существуют определённые вещи, которые Бог не может выполнить, - например, сделать так, чтобы единица оказалась равной двум; но кто же из верующих не согласился бы с тем, что Он волен вселить душу в слона, если найдет, что слон этого заслуживает? Мы можем искать выход в предположении, что Он пользуется своей силой лишь в сочетании с мутациями, совершенствующими мозг настолько, что последний оказывается в состоянии удовлетворить требованиям души, которую Он желает вселить в слона. Но точно так же можно рассуждать и в случае машин. Это рассуждение может показаться отличным лишь. потому, что в случае машин его труднее «переварить». По сути дела это означает, что мы считаем весьма маловероятным, чтобы Бог счёл обстоятельства подходящими для того, чтобы дать душу машине, т.е. речь идет в действительности о других аргументах, которые обсуждаются в остальной части статьи. Пытаясь построить мыслящие машины, мы поступаем по отношению к Богу более непочтительно, узурпируя Его способность создавать души, чем мы делаем это, производя потомство; в обоих случаях мы являемся лишь орудиями его воли и производим лишь убежища для душ, которые творит опять-таки Бог.

Всё это, однако, пустые рассуждения. В пользу чего бы ни приводили такого рода теологические доводы, они не производят на меня особого впечатления. Однако в старину такие аргументы находили весьма убедительными. Во времена Галилея полагали, что такие церковные тексты, как «Стояло солнце среди неба и не спешило к западу почти целый день» (Иисус Навин, 10, 3) и «Ты поставил землю на твёрдых основах; не поколеблется она в веки и веки» (псалом 103, 5), в достаточной мере опровергали теорию Коперника . В наше время такого рода доказательство представляется беспочвенным. Но, когда современный уровень знаний ещё не был достигнут, подобные доводы производили совсем другое впечатление.

2. Возражение со «страусиной» точки зрения «Последствия машинного мышления были бы слишком ужасны. Будем надеяться и верить, что машины не могут мыслить».

Это возражение редко выражают в столь открытой форме. Но оно звучит убедительно для большинства из тех, кому оно вообще приходит в голову. Мы склонны верить, что человек в интеллектуальном отношении стоит выше всей остальной природы. Лучше всего, если бы удалось доказать, что человек необходимо является самым совершенным существом, ибо в таком случае он может бояться потерять своё доминирующее положение. Ясно, что популярность теологического возражения связана именно с этим чувством. Это чувство, вероятно, особенно сильно у людей интеллигентных, так как они ценят силу мышления выше, чем остальные люди, и более склонны основывать свою веру в превосходство человека на этой способности. Я не считаю, что это возражение является достаточно существенным для того, чтобы требовалось какое-либо опровержение. Утешение здесь было бы более подходящим; не предложить ли искать его в учении о переселении душ?

3. Математическое возражение. Имеется ряд результатов математической логики, которые можно использовать для того, чтобы показать наличие определённых ограничений возможностей машин с дискретными состояниями. Наиболее известный из этих результатов - теорема Гёделя - показывает, что в любой достаточно мощной логической системе можно сформулировать такие утверждения, которые внутри этой системы нельзя ни доказать, ни опровергнуть, если только сама система непротиворечива. Имеются и другие, в некотором отношении аналогичные, результаты, принадлежащие Чёрчу , Клини, Россеру и Тьюрингу . Результат последнего особенно удобен для нас, так как относится непосредственно к машинам, в то время как другие результаты можно использовать лишь как сравнительно косвенный аргумент (например, если бы мы стали опираться на теорему Гёделя , нам понадобились бы ещё и некоторые средства описания логических систем в терминах машин и машин в терминах логических систем). Результат Тьюринга относится к такой машине, которая, в сущности, является цифровой вычислительной машиной с неограниченной ёмкостью памяти, и устанавливает, что существуют определённые вещи, которые эта машина не может выполнить. Если она устроена так, чтобы давать ответы на вопросы, как в «игре в имитацию», то будут вопросы, на которые она или даст неверный ответ, или не сможет дать ответа вообще, сколько бы ни было ей предоставлено для этого времени. Таких вопросов, конечно, может быть много, и на вопросы, на которые нельзя получить ответ от одной машины, можно получить удовлетворительный ответ от другой. Мы здесь, разумеется, предполагаем, что вопросы принадлежат скорее к таким, которые допускают ответ «да» или «нет», чем к таким, как: «Что вы думаете о Пикассо ?». Следующего типа вопросы относятся к числу таких, на которые, как нам известно, машина не может дать ответ: «Рассмотрим машину, характеризующуюся следующим: …Будет ли эта машина всегда отвечать «да» на любой вопрос?» Если на место точек поставить описание (в какой-либо стандартной форме, например, подобной той, которая была использована нами в разделе V) такой машины, которая находится в некотором сравнительно простом отношении к машине, к которой мы обращаемся с нашим вопросом, то можно показать, что ответ на этот вопрос окажется либо неверным, либо его вовсе не будет. В этом и состоит математический результат; утверждают, будто он доказывает ограниченность возможностей машин, которая не присуща разуму человека. […]

Ответ на это возражение вкратце состоит в следующем. Установлено, что возможности любой конкретной машины ограничены, однако в разбираемом возражении содержится голословное, без какого бы то ни было доказательства, утверждение, что подобные ограничения не применимы к разуму человека. Я не думаю, чтобы можно было так легко игнорировать эту сторону дела. Когда какой-либо из такого рода машин задают соответствующий критический вопрос и она даёт определённый ответ, мы заранее знаем, что ответ будет неверным, и это даёт нам чувство известного превосходства. Не является ли это чувство иллюзорным? Несомненно, оно бывает довольно искренним, но я не думаю, чтобы ему следовало придавать слишком большое значение. Мы сами слишком часто даём неверные ответы на вопросы, чтобы то чувство удовлетворения, которое возникает у нас при виде погрешимости машин, имело оправдание. Кроме того, чувство превосходства может относиться лишь к машине, над которой мы одержали свою - в сущности весьма скромную - победу. Не может быть и речи об одновременном торжестве над всеми машинами. Значит, короче говоря, для любой отдельной машины могут найтись люди, которые умнее её, однако в этом случае снова могут найтись другие, ещё более умные машины, и т.д. Я думаю, что те, кто разделяет точку зрения, выраженную в математическом возражении, как правило, охотно примут «игру в имитацию» в качестве основы дальнейшего рассмотрения. Те же, кто убежден в справедливости двух предыдущих возражений, будут, вероятно, вообще не заинтересованы ни в каком критерии.

В ряде последних обсуждений по теме ИИ ( и ) возникла глубоко принципиальная дискуссия: умеют ли методы ИИ что-нибудь такое, что нельзя сделать детерминированными алгоритмами и «где же тут интеллектуальность»?

Имитация физиологии
Дело в том, что термин «Искусственный интеллект» (кстати, постепенно вытесняемый понятиями «интеллектуальные системы», «методы принятия решений», «интеллектуальный анализ данных») изначально рассматривался как объемлющий для большого класса моделей и алгоритмов, которые должны были работать также, как человеческий мозг (соответственно представлениям того времени).
К таким относятся, например, пресловутые нейронные сети всех мастей и генетические алгоритмы.

Обобщение, статистика и анализ
С другой стороны, множество методов так называемого ИИ являются не более чем развитием разделов математики: статистики, исследования операций, топологии и метрических пространств. К таким относится большая часть методов data mining и knowledge data discovery, кластерного анализа, метода группового учета аргументов и прочего.

Это методы так называемого индуктивного вывода, когда на основе имеющихся данных выводят общие закономерности.

Правила, логика, вывод
Третьей особой группой можно объединить методы, которые пытаются построить общие закономерности и по ним делать выводы в отношении конкретных фактов. Это методы дедуктивного вывода, и их представляют: старая как мир силлогистика Аристотеля, исчисление высказываний и предикатов, разнообразные формальные системы и логики. Тут же с краю пристроились теории формальных и естественных языков, различные порождающие грамматики.

Мы видим, что все, обычно относимое к термину «ИИ», пытается имитационно или логически решить задачу подражания интеллекту человека.

Возникает вопрос, а что же такого специфического делает человек, чего пока не делают современные компьютеры, построенные еще по принципам Беббиджа?
Одно из определений задач, которыми занимается ИИ, звучит так: «задача, для которой не существует алгоритмического решения или оно неприменимо по причинам вычислительной сложности ».

Таким образом, например, задача игры в шашки когда-то была задачей ИИ, а после построения полной модели и набора полной БД неулучшаемых ходов она превратилась просто в задачу поиска по информационной базе (см и ).

Задачи «ИИ» меняются со временем
Возможно, наши дети будут жить в информационном мире, когда многие задачи будут решены и встанут новые – от общения на естественных языках до автоматического управления всеми видами техники и механизмов.

Однако когда каждый из нас слышал слова «искусственный интеллект», нам ведь хотелось иного.
Нам хотелось получить машину, которая умеет думать , которая владеет базовыми навыками обучения, обобщения; способна, подобно живым организмам, замещать одни органы другими и совершенствоваться. Все читали раннюю научную фантастику, так ведь?

А был ли мальчик?
Так где же потерялся интеллект? Когда и почему то, что мы хотели видеть, стало унылыми матмоделями и довольно неизящными алгоритмами?

Пару строк оффтопика. Если вы защищаете диссертацию со словом «интеллектуальный», то члены совета, как правило, попросят вас указать то место в системе, которое является интеллектуальным, и доказать ПОЧЕМУ оно является таковым. Вопрос этот относится к абсолютно «неберущимся».

Дело в том, что люди, придумавшие все то, на чем стоит современный «ИИ», были ведомы инновационными и революционными для того времени идеями (собственно, наше время отличается только тем, что мы во все это уже вдоволь поиграли, в том числе и с применением современных вычислительных мощностей)

Пример 1 (из области непознаваемого) .
Нейронные сети прямого распространения сигнала с алгоритмом обратного распространения ошибки (так называемые back-propagation). Это, безусловно, прорыв.
Правильно настроенная сеть (с умно выбранными входами и выходами) может обучиться любой входной последовательности и успешно распознавать примеры, которым ее не учили.
Типовой эксперимент формулируется так: 1000 примеров, на половине из которых мы алгоритм учим, а на другой проверяем. И выбор первой и второй половины делается случайно.
Это работает, я лично не меньше 10 раз учил разные НС разным задачам и получал нормальные результаты, с 60-90% правильных ответов.

В чем же проблема нейронных сетей? Почему они - не подлинный интеллект?
1. Входные данные почти всегда надо очень тщательно готовить и предварительно обрабатывать. Часто тонны кода и фильтров делаются для того, чтобы данные стали съедобны для сетей. Иначе сеть будет учиться годами и ничему не научится.
2. Результат обучения НС невозможно интерпретировать и объяснить. А эксперту этого очень хочется.
3. Сети часто просто запоминают примеры, а не учатся закономерностям. Точных способов построить сеть достаточно умную, чтобы закономерность представить и недостаточно емкую, чтобы тупо запомнить всю выборку нет.

В чем же интеллектуальность нейронных сетей?
В том, что мы не учили систему решать задачу, мы научили ее учиться решать задачи. Алгоритм определения пола человека не заложен в систему человеком, он найден почти эмпирически и зашит в весах синапсов. Это – элемент интеллекта.

Пример 2 (из области дедуктивного вывода).
Идея проста. Обучим машину мыслить как человека (ну хотя бы примитивные выводы делать) и дадим элементарные факты. Дальше – пусть сама.
Экспертные системы, системы машинной логики, онтологии (с некоторой натяжкой) работают согласно этому принципу. Это работает? Безусловно. Тысячи систем диагностики болезней и описания областей знания реализованы и продолжают работать.

В чем же проблема? Почему формальные системы - не подлинный интеллект?
Проблема в том, что система, поглотив колоссальные объемы крови и пота своих создателей, начинает худо-бедно повторять и развивать решения того эксперта (или сообщества), который ее учил.
Полезно ли это? Бесспорно. Эксперт смертен, задачи множатся.

В чем же интеллектуальность систем, основанных на знаниях?
В том, что машина делает НОВЫЕ выводы, которым ее никто не учил. Этот элемент ее работы крайне убог (пока) и ограничен теми моделями и алгоритмами, которые были заложены. Но это - элемент интеллекта.

Так в чем же проблема современного ИИ?
Просто мы еще очень маленькие. Наши наивные и поверхностные представления о том, как мыслит человек и как работает мозг, дают такие плоды, каких заслуживают.

Мы, безусловно, безумно далеки от создания машин, которые бы умели мыслить в нашем с вами, человеческом смысле, однако наши шаги в этом направлении правильны и полезны.

И даже если мы идем не туда, кто знает, может, как у Стругацких, мы в результате направленных усилий нечаянно сделаем что-то намного лучшее, чем собирались?

Я собираюсь рассмотреть вопрос: могут ли машины мыслить. Но для этого нужно сначала определить смысл терминов «машина» и «мыслить». Можно было бы построить эти определения так, чтобы они по возможности лучше отражали обычное употребление этих слов, но такой подход таит в себе некоторую опасность. Дело в том, что, если мы будем выяснять значения слов «машина» и «мыслить», исследуя, как эти слова определяются обычно, нам трудно будет избежать того вывода, что значение этих слов и ответ на вопрос «могут ли машины мыслить?» следует искать путем статистического обследования наподобие анкетного опроса, проводимого институтом Гэллапа . Однако это нелепо. Вместо того чтобы пытаться дать такое определение, я заменю наш вопрос другим, который тесно с ним связан и выражается словами с относительно четким смыслом.

Эта новая форма может быть описана с помощью игры, которую мы назовем «игрой в имитацию». В этой игре участвуют три человека: мужчина (А), женщина (B) и кто-нибудь задающий вопросы (С), которым может быть лицо любого пола. Задающий вопросы отделен от двух других участников игры стенами комнаты, в которой он находится. Цель игры для задающего вопросы состоит в том, чтобы определить, кто из двух других участников игры является мужчиной (А), а кто – женщиной (B). Он знает их под обозначениями Х и У и в конце игры говорит либо: «X есть A и Y есть B», либо: «X есть B и Y есть A». Ему разрешается задавать вопросы такого, например, рода:

С: «Попрошу Х сообщить мне длину его (или ее) волос».

Допустим теперь, что в действительности X есть A. В таком случае A и должен давать ответ. Для A цель игры состоит в том, чтобы побудить C прийти к неверному заключению. Поэтому его ответ может быть, например, таким:

«Мои волосы коротко острижены, а самые длинные пряди имеют около девяти дюймов в длину».

Чтобы задающий вопросы не мог определить по голосу, кто из двух других участников игры мужчина, а кто – женщина, ответы на вопросы следовало бы давать в письменном виде, а еще лучше – на пишущей машинке. Идеальным случаем было бы телеграфное сообщение между двумя комнатами, где находятся участники игры. Если же этого сделать нельзя, то ответы и вопросы должен передавать какой-нибудь посредник. Цель игры для третьего игрока – женщины (В) – состоит в том, чтобы помочь задающему вопросы. Для нее, вероятно, лучшая стратегия – давать правдивые ответы. Она также может делать такие замечания, как «Женщина – я, не слушайте его!», но этим она ничего не достигнет, так как мужчина тоже может делать подобные замечания.

Поставим теперь вопрос: «Что произойдет, если в этой игре вместо A будет участвовать машина?» Будет ли в этом случае задающий вопросы ошибаться столь же часто, как и в игре, где участниками являются только люди? Эти вопросы и заменят наш первоначальный вопрос «могут ли машины мыслить?».

II. Критика новой постановки проблемы

Подобно тому как мы задаем вопрос: «В чем состоит ответ на проблему в ее новой форме?», можно спросить: «Заслуживает ли рассмотрения проблема в ее новой постановке?». Этот последний вопрос мы рассмотрим, не откладывая дела в долгий ящик, с тем чтобы в последующем уже не возвращаться к нему.

Новая постановка нашей проблемы имеет то преимущество, что позволяет провести четкое разграничение между физическими и умственными возможностями человека. Ни один инженер или химик не претендует на создание материала, который было бы невозможно отличить от человеческой кожи. Такое изобретение, быть может, когда-нибудь будет сделано. Но даже допустив возможность создания материала, не отличимого от человеческой кожи, мы все же чувствуем, что вряд ли имеет смысл стараться придать «мыслящей машине» большее сходство с человеком, одевая ее в такую искусственную плоть. Форма, которую мы придали проблеме, отражает это обстоятельство в условии, не позволяющем задающему вопросы соприкасаться с другими участниками игры, видеть их или слышать их голоса. Некоторые другие преимущества введенного критерия можно показать, если привести образчики возможных вопросов и ответов. Например:

С: Напишите, пожалуйста, сонет на тему о мосте через реку Форт .

А: Увольте меня от этого. Мне никогда не приходилось писать стихи.

С: Прибавьте 34 957 к 70 764.

А (молчит около 30 секунд, затем дает ответ): 105 621.

С: Вы играете в шахматы?

С: У меня только король на е8 и других фигур нет. У вас только король на е6 и ладья на h1. Как вы сыграете?

А (после 15 секунд молчания): Лh8. Мат.

Нам кажется, что метод вопросов и ответов пригоден для того, чтобы охватить почти любую область человеческой деятельности, какую мы захотим ввести в рассмотрение. Мы не желаем ни ставить в вину машине ее неспособность блистать на конкурсах красоты, ни винить человека в том, что он терпит поражение в состязании с самолетом, условия игры делают эти недостатки несущественными. Отвечающие, если найдут целесообразным, могут хвастать своим обаянием, силой или храбростью, сколько им вздумается, и задающий вопросы не может требовать практических тому доказательств.

Вероятно, нашу игру можно подвергнуть критике на том основании, что в ней преимущества в значительной степени находятся на стороне машины. Если бы человек попытался притвориться машиной, то, очевидно, вид у него был бы весьма жалкий. Он сразу выдал бы себя медлительностью и неточностью при подсчетах. Кроме того, разве машина не может выполнять нечто такое, что следовало бы характеризовать как мышление, но что было бы весьма далеко от того, что делает человек? Это возражение очень веское. Но в ответ на него мы, во всяком случае, можем сказать, что если можно все-таки осуществить такую машину, которая будет удовлетворительно играть в имитацию, то относительно этого возражения особенно беспокоиться не следует.

Можно было бы заметить, что при «игре в имитацию» не исключена возможность того, что простое подражание поведению человека не окажется для машины наилучшей стратегией. Такой случай возможен, но я не думаю, чтобы он привел нас к чему-нибудь существенно новому. Во всяком случае, никто не пытался исследовать теорию нашей игры в этом направлении, и мы будем считать, что наилучшая стратегия для машины состоит в том, чтобы давать ответы, которые в соответствующей обстановке дал бы человек.

III. Машины, привлекаемые к игре

Вопрос, поставленный в разделе I, не станет совершенно точным до тех пор, пока мы не укажем, что именно следует понимать под словом «машина». Разумеется, нам бы хотелось, чтобы в игре можно было применять любой вид инженерной техники. Мы склонны также допустить возможность, что инженер или группа инженеров могут построить машину, которая будет работать, но удовлетворительного описания работы которой они не смогут дать, поскольку метод, которым они пользовались, был в основном экспериментальным [методом проб и ошибок]. Наконец, мы хотели бы исключить из категории машин людей, рожденных обычным образом. Трудно построить определение так, чтобы оно удовлетворяло этим трем условиям. Можно, например, потребовать, чтобы все конструкторы машины были одного пола, в действительности, однако, этого недостаточно, так как, по-видимому, можно вырастить законченный индивидуум из одной-единственной клетки, взятой (например) из кожи человека. Сделать это было бы подвигом биологической техники, заслуживающим самой высокой похвалы, но мы не склонны рассматривать этот случай как «построение мыслящей машины».

Сказанное наводит нас на мысль отказаться от требования, согласно которому в игре следует допускать любой вид техники. Мы еще больше склоняемся к этой мысли в силу того обстоятельства, что наш интерес к «мыслящим машинам» возник благодаря машине особого рода, обычно называемой «электронной вычислительной машиной», или «цифровой вычислительной машиной». Поэтому мы разрешаем принимать участие в нашей игре только цифровым вычислительным машинам.

Алан Тьюринг предложил эксперимент, который позволил бы проверить наличие сознания у компьютера, а Джон Сёрль предложил мысленный эксперимент, который должен опровергать эксперимент Тьюринга. Разбираемся в обоих аргументах и заодно пытаемся понять, что такое сознание.

Тест Тьюринга

В 1950 году в работе «Вычислительные машины и разум» британский математик Алан Тьюринг предложил свой знаменитый тест, позволяющий, по его мнению, определить, способна ли та или иная вычислительная машина мыслить. Тест, по сути дела, копировал распространённую тогда в Британии игру в имитацию. В ней участвовали три человека: ведущий и мужчина с женщиной. Ведущий сидел за ширмой и мог общаться с двумя другими игроками только с помощью записок. Его задача состояла в том, чтобы угадать, какого пола каждый из его собеседников. При этом они вовсе не обязаны были отвечать правдиво на его вопросы.

Тот же самый принцип Тьюринг использовал и в тесте на наличие интеллекта у машины. Только ведущий в нём должен угадать не пол собеседника, а является ли он машиной или человеком. Если машина сможет достаточно успешно имитировать поведение человека и запутывать ведущего, то она пройдёт тест и, предположительно, докажет, что у неё есть сознание и что она мыслит.

Молодой Алан Тьюринг (фотография на паспорт).
Источник: Wikimedia.org

Китайская комната

В 1980 году философ Джон Сёрль предложил мысленный эксперимент, который мог бы опровергнуть позицию Тьюринга.

Представим себе следующую ситуацию. Человек, который не говорит и не читает на китайском языке, попадает в комнату. В этой комнате есть таблички с китайскими символами, а также книга на том языке, на котором разговаривает этот человек. В книге описано, что делать с символами, если в комнату попадут другие символы. Вне комнаты находится независимый наблюдатель, который говорит по-китайски. Его задача состоит в том, чтобы разговаривать с человеком из комнаты, например посредством записок, и выяснить, понимает ли его собеседник китайский язык.

Цель эксперимента Сёрля – продемонстрировать, что даже если наблюдатель поверит, что его собеседник умеет говорить по-китайски, человек в комнате всё равно не будет знать китайский язык. Он не будет понимать символов, которыми оперирует. Точно так же и «машина Тьюринга», которая смогла бы пройти одноимённый тест, не понимала бы символов, которые она использует, и, соответственно, не обладала бы сознанием.

По мнению Сёрля, даже если бы подобная машина смогла ходить, разговаривать, оперировать предметами и изображать из себя полноценного мыслящего человека, она всё равно не обладала бы сознанием, поскольку она только исполняла бы заложенную в неё программу, отвечая заданными реакциями на заданные сигналы.

Философский зомби

Однако представим себе следующую ситуацию, предложенную Дэвидом Чалмерсом в 1996 году. Представим себе так называемого «философского зомби» - некоторое существо, которое по всем признакам похоже на человека. Оно выглядит как человек, разговаривает как человек, реагирует на сигналы и раздражители как человек и вообще во всех возможных ситуациях ведёт себя как человек. Но при этом у него отсутствует сознание, и оно не испытывает никаких чувств. Оно реагирует на то, что причинило бы человеку боль или удовольствие, как если бы оно было человеком, который испытывает эти ощущения. Но при этом оно не переживает их на самом деле, а только имитирует реакцию.

Возможно ли такое существо? Как нам отличить его от реального человека, который испытывает чувства? Что вообще отличает философского зомби от людей? Может ли быть так, что они среди нас? А может быть, все, кроме нас, - философские зомби?

Дело в том, что нам в любом случае недоступен внутренний субъективный опыт других людей. Нам недоступно никакое сознание, кроме нашего собственного. Мы изначально только предполагаем, что у других людей оно есть, что они похожи на нас, потому что у нас в общем-то нет особых поводов в этом сомневаться, ведь другие ведут себя так же, как и мы.