Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


II. Критика новой постановки проблемы



Алан Тьюринг

Могут ли машины мыслить?

 

 http://www.publishe.ru/modules.php?name=News&file=article&sid=1765

«А.Тьюринг. Может ли машина мыслить? (С приложением статьи Дж. фон Неймана Общая и логическая теория автоматов». Пер. и примечания Ю.В. Данилова)»: ГИФМЛ; М.; 1960

 

Аннотация

 

«Может ли машина мыслить?» – едва ли не самая знаменитая статья А. Тьюринга. Даже сейчас, спустя почти 60 лет после ее написания, она, вызвавшая в свое время огромное количество как серьезных исследований, так и псевдонаучных спекуляций, нисколько не утеряла своего значения. Статья написана с юмором и иронией («словно между строк стоят смайлики, по словам Э. Ходжеса, биографа Тьюринга), но за шутливым тоном изложения скрываются одни из самых оригинальных и глубоких идей, высказанных в уходящем веке.

«Игра в имитацию», описанная в этой статье, получила название «теста Тьюринга» (ставшего стандартным теоретическим тестом на «интеллектуальность машины»), который, помимо специалистов по кибернетике, интересовал и некоторых психиатров, усмотревших глубинный психоаналитический смысл в цели игры («угадывание пола»).

 

Статья была впервые опубликована в научном журнале Mind , v. 59 (1950), pp. 433–460, под названием Computing Machinery and Intelligence и перепечатана в 4‑м томе «Мира математики» Дж.Р. Ньюмена (The World of Mathematics. A small library… with commentaries and notes by James R. Newman , Simon & Schuster, NY, v. 4, 1956, pp. 2099–2123), где опубликована под заголовком Can the Machine think?

 

Алан Тьюринг

Могут ли машины мыслить?

 

I. Игра в имитацию

 

Я собираюсь рассмотреть вопрос: могут ли машины мыслить. Но для этого нужно сначала определить смысл терминов «машина» и «мыслить». Можно было бы построить эти определения так, чтобы они по возможности лучше отражали обычное употребление этих слов, но такой подход таит в себе некоторую опасность. Дело в том, что, если мы будем выяснять значения слов «машина» и «мыслить», исследуя, как эти слова определяются обычно, нам трудно будет избежать того вывода, что значение этих слов и ответ на вопрос «могут ли машины мыслить?» следует искать путем статистического обследования наподобие анкетного опроса, проводимого институтом Гэллапа[1]. Однако это нелепо. Вместо того чтобы пытаться дать такое определение, я заменю наш вопрос другим, который тесно с ним связан и выражается словами с относительно четким смыслом.

Эта новая форма может быть описана с помощью игры, которую мы назовем «игрой в имитацию». В этой игре участвуют три человека: мужчина (А), женщина (B) и кто‑нибудь задающий вопросы (С), которым может быть лицо любого пола. Задающий вопросы отделен от двух других участников игры стенами комнаты, в которой он находится. Цель игры для задающего вопросы состоит в том, чтобы определить, кто из двух других участников игры является мужчиной (А), а кто – женщиной (B). Он знает их под обозначениями Х и У и в конце игры говорит либо: «X есть A и Y есть B», либо: «X есть B и Y есть A». Ему разрешается задавать вопросы такого, например, рода:

 

С: «Попрошу Х сообщить мне длину его (или ее) волос».

 

Допустим теперь, что в действительности X есть A. В таком случае A и должен давать ответ. Для A цель игры состоит в том, чтобы побудить C прийти к неверному заключению. Поэтому его ответ может быть, например, таким:

 

«Мои волосы коротко острижены, а самые длинные пряди имеют около девяти дюймов в длину».

 

Чтобы задающий вопросы не мог определить по голосу, кто из двух других участников игры мужчина, а кто – женщина, ответы на вопросы следовало бы давать в письменном виде, а еще лучше – на пишущей машинке. Идеальным случаем было бы телеграфное сообщение между двумя комнатами, где находятся участники игры. Если же этого сделать нельзя, то ответы и вопросы должен передавать какой‑нибудь посредник. Цель игры для третьего игрока – женщины (В) – состоит в том, чтобы помочь задающему вопросы. Для нее, вероятно, лучшая стратегия – давать правдивые ответы. Она также может делать такие замечания, как «Женщина – я, не слушайте его!», но этим она ничего не достигнет, так как мужчина тоже может делать подобные замечания.

Поставим теперь вопрос: «Что произойдет, если в этой игре вместо A будет участвовать машина?» Будет ли в этом случае задающий вопросы ошибаться столь же часто, как и в игре, где участниками являются только люди? Эти вопросы и заменят наш первоначальный вопрос «могут ли машины мыслить?».

 

Теологическое возражение

 

 «Мышление есть свойство бессмертной души человека, Бог дал бессмертную душу каждому мужчине и каждой женщине, но не дал души никакому другому животному и машинам. Следовательно, ни животное, ни машина не могут мыслить».[7]

 

Я не могу согласиться ни с чем из того, что было только что сказано, и попробую возразить, пользуясь теологическими же терминами. Я счел бы данное возражение более убедительным, если бы животные были отнесены в один класс с людьми, ибо, на мой взгляд, между типичным одушевленным и типичным неодушевленным предметами имеется большее различие, чем между человеком и другими животными. Произвольный характер этой ортодоксальной точки зрения станет еще яснее, если мы рассмотрим, в каком свете она может представиться человеку, исповедующему какую‑нибудь другую религию. Как, например, христиане отнесутся к точке зрения мусульман, считающих, что у женщин нет души? Но оставим этот вопрос и обратимся к основному возражению. Мне кажется, что из приведенного выше аргумента со ссылкою на душу у человека следует серьезное ограничение всесильности Всемогущего. Пусть даже существуют определенные вещи, которые Бог не может выполнить, – например, сделать так, чтобы единица оказалась равной двум; но кто же из верующих не согласился бы с тем, что Он волен вселить душу в слона, если найдет, что слон этого заслуживает? Мы можем искать выход в предположении, что Он пользуется своей силой лишь в сочетании с мутациями, совершенствующими мозг настолько, что последний оказывается в состоянии удовлетворить требованиям души, которую Он желает вселить в слона. Но точно так же можно рассуждать и в случае машин. Это рассуждение может показаться отличным лишь. потому, что в случае машин его труднее «переварить». По сути дела это означает, что мы считаем весьма маловероятным, чтобы Бог счел обстоятельства подходящими для того, чтобы дать душу машине, т.е. речь идет в действительности о других аргументах, которые обсуждаются в остальной части статьи. Пытаясь построить мыслящие машины, мы поступаем по отношению к Богу более непочтительно, узурпируя Его способность создавать души, чем мы делаем это, производя потомство; в обоих случаях мы являемся лишь орудиями его воли и производим лишь убежища для душ, которые творит опять‑таки Бог.

Все это, однако, пустые рассуждения. В пользу чего бы ни приводили такого рода теологические доводы, они не производят на меня особого впечатления. Однако в старину такие аргументы находили весьма убедительными. Во времена Галилея полагали, что такие церковные тексты, как «Стояло солнце среди неба и не спешило к западу почти целый день» (Иисус Навин, 10, 3) и «Ты поставил землю на твердых основах; не поколеблется она в веки и веки» (псалом 103, 5), в достаточной мере опровергали теорию Коперника. В наше время такого рода доказательство представляется беспочвенным. Но, когда современный уровень знаний еще не был достигнут, подобные доводы производили совсем другое впечатление.

 

Математическое возражение

 

Имеется ряд результатов математической логики, которые можно использовать для того, чтобы показать наличие определенных ограничений возможностей машин с дискретными состояниями. Наиболее известный из этих результатов – теорема Гёделя [8] – показывает, что в любой достаточно мощной логической системе можно сформулировать такие утверждения, которые внутри этой системы нельзя ни доказать, ни опровергнуть, если только сама система непротиворечива. Имеются и другие, в некотором отношении аналогичные, результаты, принадлежащие Черчу, Клини, Россеру и Тьюрингу [9]. Результат последнего особенно удобен для нас, так как относится непосредственно к машинам, в то время как другие результаты можно использовать лишь как сравнительно косвенный аргумент (например, если бы мы стали опираться на теорему Гёделя, нам понадобились бы еще и некоторые средства описания логических систем в терминах машин и машин в терминах логических систем). Результат Тьюринга относится к такой машине, которая, в сущности, является цифровой вычислительной машиной с неограниченной емкостью памяти, и устанавливает, что существуют определенные вещи, которые эта машина не может выполнить. Если она устроена так, чтобы давать ответы на вопросы, как в «игре в имитацию», то будут вопросы, на которые она или даст неверный ответ, или не сможет дать ответа вообще, сколько бы ни было ей предоставлено для этого времени. Таких вопросов, конечно, может быть много, и на вопросы, на которые нельзя получить ответ от одной машины, можно получить удовлетворительный ответ от другой. Мы здесь, разумеется, предполагаем, что вопросы принадлежат скорее к таким, которые допускают ответ «да» или «нет», чем к таким, как: «Что вы думаете о Пикассо?». Следующего типа вопросы относятся к числу таких, на которые, как нам известно, машина не может дать ответ: «Рассмотрим машину, характеризующуюся следующим: …Будет ли эта машина всегда отвечать „да“ на любой вопрос?» Если на место точек поставить описание (в какой‑либо стандартной форме, например, подобной той, которая была использована нами в разделе V) такой машины, которая находится в некотором сравнительно простом отношении к машине, к которой мы обращаемся с нашим вопросом, то можно показать, что ответ на этот вопрос окажется либо неверным, либо его вовсе не будет. В этом и состоит математический результат[10]; утверждают, будто он доказывает ограниченность возможностей машин, которая не присуща разуму человека.

 

А для тех любознательных компьютерщиков, которые, возможно, не поверили на слово, что такую программу U нельзя написать, поясню, опуская детали (к которым можно придраться, но они все же несущественны), в чем тут дело. Если бы такая программа U была написана, то ее можно было бы легко переделать так, чтобы вместо команды вывода изображения девушки на экран она бы зацикливалась (вставить для этого, скажем, «вечный цикл» for(„); ). Пусть эта переделанная программа называется U2. Что будет делать программа U2, если ей на вход подать текст программы U2 (текст себя самой)? Если она зацикливается, то она должна показать фотографию юноши и остановиться, т.е. не зациклиться. Но если она не зацикливается, это значит, что она должна зациклиться (поскольку вывод девушки в программе U был заменен на «вечный цикл»). Тем самым программа U2 оказывается в безвыходном положении, несовместимом с допущением возможности ее существования. – Прим. И.Д.

 

Ответ на это возражение вкратце состоит в следующем. Установлено, что возможности любой конкретной машины ограничены, однако в разбираемом возражении содержится голословное, без какого бы то ни было доказательства, утверждение, что подобные ограничения не применимы к разуму человека. Я не думаю, чтобы можно было так легко игнорировать эту сторону дела. Когда какой‑либо из такого рода машин задают соответствующий критический вопрос и она дает определенный ответ, мы заранее знаем, что ответ будет неверным, и это дает нам чувство известного превосходства. Не является ли это чувство иллюзорным? Несомненно, оно бывает довольно искренним, но я не думаю, чтобы ему следовало придавать слишком большое значение. Мы сами слишком часто даем неверные ответы на вопросы, чтобы то чувство удовлетворения, которое возникает у нас при виде погрешимости машин, имело оправдание. Кроме того, чувство превосходства может относиться лишь к машине, над которой мы одержали свою – в сущности весьма скромную – победу. Не может быть и речи об одновременном торжестве над всеми машинами. Значит, короче говоря, для любой отдельной машины могут найтись люди, которые умнее ее, однако в этом случае снова могут найтись другие, еще более умные машины, и т.д.

Я думаю, что те, кто разделяет точку зрения, выраженную в математическом возражении, как правило, охотно примут «игру в имитацию» в качестве основы дальнейшего рассмотрения. Те же, кто убежден в справедливости двух предыдущих возражений, будут, вероятно, вообще не заинтересованы ни в каком критерии.

 

Возражение леди Лавлейс

 

Наиболее подробные сведения, которыми мы располагаем об Аналитической машине Бэббиджа, берутся из воспоминаний леди Лавлейс .[15] В них она высказывает такую мысль: «Аналитическая машина не претендует на то, чтобы создавать что‑то действительно новое . Машина может выполнить все то, что мы умеем ей предписать » (курсив леди Лавлейс). Это высказывание цитируется Хартри [16], который добавляет: «Отсюда не следует, что невозможно сконструировать электронное устройство, которое „мыслит“, или в котором, пользуясь биологическими терминами, можно вырабатывать условные рефлексы, на основе которых становится возможным „обучение“. Увлекательный и будирующий вопрос, подсказанный некоторыми из последних достижений, состоит в том, осуществимо это принципиально или нет. Однако не видно, чтобы машины, построенные или запроектированные до настоящего времени, обладали этим свойством».

Я полностью согласен с Хартри по этому вопросу. Следует отметить, что он вовсе не утверждает в категорической форме, что машины, о которых идет речь, не обладают этим свойством. Он лишь замечает, что данные, которыми располагала госпожа Лавлейс, не позволяли ей допустить этого. Весьма возможно, что машины, о которых шла речь, в некотором смысле обладали этим свойством. Действительно, пусть некоторая машина с дискретными состояниями обладает рассматриваемым свойством. Аналитическая машина Бэббиджа была универсальной цифровой вычислительной машиной; это значит, что если бы она обладала нужной емкостью памяти и необходимой скоростью работы, то, будь в нее введена соответствующая программа, она могла бы подражать этой машине. По‑видимому, этот довод не приходил в голову ни Бэббиджу, ни графине Лавлейс. Во всяком случае, от них нельзя требовать, чтобы они исчерпали все, что можно сказать по этому вопросу.

Весь этот вопрос будет рассмотрен еще раз в разделе, посвященном обучающимся машинам.

Один из вариантов аргумента госпожи Лавлейс – это утверждение, гласящее, что машина «никогда не может создать ничего подлинно нового». На секунду возразим поговоркой, что вообще «ничто не ново под Луной». Кто может быть уверенным в том, что выполненная им «оригинальная работа» не была ростком из зерна, посеянного образованием, или просто результатом применения хорошо известных общих принципов. Более удачный вариант этого возражения состоит в утверждении, что «машина никогда не может ничем поразить человека». Это утверждение представляет собой прямой вызов, который, однако, мы можем принять, не уклоняясь. Лично меня машины удивляют очень часто. В основном это происходит потому, что я не могу точно рассчитать, чего можно, а чего нельзя ожидать от них, или (это бывает чаще) потому, что, хотя я и провожу необходимые расчеты, однако делаю это в спешке, неряшливо, рискуя ошибиться. Вот я говорю себе: «По‑видимому, электрическое напряжение здесь должно быть таким же, как там: во всяком случае, будем исходить из этого предположения». Само собой разумеется, что в таких случаях я часто ошибаюсь, и получающийся результат оказывается для меня неожиданностью, так как к тому времени, когда эксперимент заканчивается, сделанное допущение уже забыто мною. Эти предположения и натяжки я оставляю открытыми до лекции на тему о моих порочных методах работы. Однако я нисколько не сомневаюсь в том, что действительно испытываю удивление перед машинами.

Я не жду, что этот ответ заставит замолчать моего противника. Вероятно, он скажет, что это удивление происходит вследствие некоторого творческого умственного акта с моей стороны и отражает мое недоверие к машине. Но такая аргументация уводит от вопроса о том, может ли машина чем‑либо удивить человека, и возвращает снова к возражению с точки зрения сознания. Этот способ аргументации должен, таким образом, считаться исчерпанным, хотя, быть может, стоит все же отметить то обстоятельство, что если нечто поражает нас своей неожиданностью, то удивление, которое мы испытываем, независимо от того, что является его источником: человек, книга, машина или еще что‑нибудь, – требует «творческого умственного акта».

Мнение о том, что машины не могут чем‑либо удивить человека, основывается, как я полагаю, на одном заблуждении, которому в особенности подвержены математики и философы. Я имею в виду предположение о том, что коль скоро какой‑то факт стал достоянием разума, тотчас же достоянием разума становятся все следствия из этого факта. Во многих случаях это предположение может быть весьма полезно, но слишком часто забывают, что оно ложно. Естественным следствием из него является взгляд, что якобы нет ничего особенного в умении выводить следствия из имеющихся данных, руководствуясь общими принципами.

 

VII. Обучающиеся машины

 

Читатель, вероятно, уже почувствовал, что у меня нет особенно убедительных аргументов позитивного характера в пользу своей собственной точки зрения. Если бы у меня были такие аргументы, я не стал бы так мучиться, разбирая ошибки, содержащиеся в мнениях, противоположных моему собственному. Сейчас я изложу те доводы, которыми я располагаю.

Вернемся на секунду к возражению графини Лавлейс, согласно которому машина может выполнять лишь то, что мы ей приказываем. Можно сказать, что человек «вставляет» в машину ту или иную идею, и машина, прореагировав на нее некоторым образом, возвращается затем к состоянию покоя, подобно фортепианной струне, по которой ударил молоточек. Другое сравнение: атомный реактор, размеры которого не превышают критических. Идея, вводимая человеком в машину, соответствует здесь нейтрону, влетающему в реактор извне. Каждый такой нейтрон вызывает некоторое возмущение, которое в конце концов замирает. Но если величина реактора превосходит критические размеры, то весьма вероятно, что возмущение, вызванное влетевшим нейтроном, будет нарастать и приведет в конце концов к разрушению реактора. Имеют ли место аналогичные явления в случае человеческого разума и существует ли нечто подобное в случае машин? В первом случае, кажется, следует дать утвердительный ответ. Большинство умов, по‑видимому, являются «подкритическими», т.е. соответствуют, если пользоваться приведенным выше сравнением, подкритическим размерам атомного реактора. Идея, ставшая достоянием такого ума, в среднем порождает менее одной идеи в ответ. Несравненно меньшую часть умов составляют умы надкритические. Идея, ставшая достоянием такого ума, может породить целую «теорию», состоящую из вторичных, третичных и еще более отдаленных идей. Ум [mind] животных, по‑видимому, явным образом подкритичен. Развивая нашу аналогию, мы ставим вопрос: «Можно ли сделать машину надкритической?».

Для уяснения поставленного вопроса имеет смысл прибегнуть еще к одной аналогии, именно – уподобить человеческий разум луковице. Рассматривая функции ума или мозга, мы обнаруживаем определенные операции, которые возможно полностью объяснить в терминах чисто механического процесса. Можно сказать, что они не соответствуют подлинному разуму: это своего рода «кожица», которую следует удалить, для того чтобы обнаружить настоящий разум. Однако, рассматривая оставшуюся часть, мы снова найдем «кожицу», которую следует удалить, и т.д. Возникает вопрос: если мы будем продолжать этот процесс, удастся ли нам прийти когда‑нибудь к «настоящему» разуму или же в конце концов мы снимем кожицу, под которой ничего не останется? В последнем случае мы считаем, что разум имеет механический характер. (Правда, он не может быть машиной с дискретными состояниями. Этот вопрос мы уже рассматривали.)

Два последних абзаца вовсе не претендуют на роль убедительных доказательств. Их скорее следовало бы считать аргументами риторического характера.

Единственно убедительное доказательство, которое могло бы подтвердить правильность нашей точки зрения, приведено в начале раздела и состоит в том, чтобы подождать до конца нашего столетия и провести описанный эксперимент. А что же можно сказать в настоящее время? И что можно было бы предпринять уже сейчас, если исходить из предположения, что эксперимент окажется успешным? Как я уже объяснял, проблема заключается главным образом в программировании. Прогресс в инженерном деле также необходим, однако маловероятно, чтобы затруднение возникло с этой стороны. Оценки емкости памяти человеческого мозга колеблются от 1010 до 1015 двоичных единиц. Я склоняюсь к нижней границе и убежден, что лишь очень небольшая доля емкости памяти человека используется в высших типах мышления, причем из того, что используется, большая часть служит сохранению зрительных восприятий. Для меня было бы неожиданностью, если бы оказалось, что для игры в имитацию на удовлетворительном уровне требуется емкость памяти, превышающая 109, во всяком случае если бы игра велась против слепого человека. (Заметьте: емкость «Британской энциклопедии» , 11‑е изд., составляет 2×109.) Емкость памяти, равная 107, практически представляется вполне осуществимой даже при современном состоянии техники. Вероятно, нет необходимости вообще далее увеличивать скорость машинных операций [19]. Те части современных машин, которые можно рассматривать как аналоги нервных клеток, работают примерно в тысячу раз быстрее последних.

Это создает «запас надежности», могущий компенсировать потери в быстроте, возникающие во многих случаях. Перед нами стоит задача составить машинную программу для игры в имитацию. В настоящее время скорость моей работы программиста составляет примерно тысячу знаков в день; если исходить из такой скорости программирования, то получится, что шестьдесят работников могли бы полностью закончить работу, о которой идет речь, если бы они работали непрерывно в течение пятидесяти лет, при условии, конечно, что ничего не пойдет в корзину для бумаг. Желателен, по‑видимому, какой‑нибудь более производительный метод.

Пытаясь имитировать ум [mind] взрослого человека, мы вынуждены много размышлять о том процессе, в результате которого человеческий интеллект достиг своего нынешнего состояния. Мы можем выделить три компонента:

 

1) первоначальное состояние ума, скажем, в момент рождения;

2) воспитание, объектом которого он был;

3) другого рода опыт, воздействовавший на ум, – опыт, который нельзя назвать воспитанием.

 

Почему бы нам, вместо того чтобы пытаться создать программу, имитирующую ум взрослого, не попытаться создать программу, которая бы имитировала ум ребенка? Ведь если ум ребенка получает соответствующее воспитание, он становится умом взрослого человека. Как можно предположить, мозг ребенка в некотором отношении подобен блокноту, который мы покупаем в киоске: совсем небольшой механизм и очень много чистой бумаги. Наш расчет состоит в том, что механизм в мозгу ребенка настолько несложен, что устройство, ему подобное, может быть легко запрограммировано. В качестве первого приближения можно предположить, что количество труда, необходимое для воспитания такой машины, почти совпадает с тем, которое необходимо для воспитания ребенка.

Таким образом, мы расчленили нашу проблему на две части: на задачу построить «программу‑ребенка» и задачу осуществить процесс воспитания. Обе эти части тесно связаны друг с другом. Вряд ли нам удастся получить хорошую «машину‑ребенка» с первой же попытки. Надо провести эксперимент по обучению какой‑либо из машин такого рода и выяснить, как она поддается научению. Затем провести тот же эксперимент с другой машиной и установить, какая из двух машин лучше. Существует очевидная связь между этим процессом и эволюцией в живой природе, которая обнаруживается, когда мы отождествляем:

 

• структуру «машины‑ребенка» с наследственным материалом;

• изменения, происходящие в «машине‑ребенке», с мутациями;

• решение экспериментатора с естественным отбором.

 

Тем не менее можно надеяться, что этот процесс будет протекать быстрее, чем эволюция. Выживание наиболее приспособленных является слишком медленным способом оценки преимуществ. Экспериментатор, применяя силу интеллекта, может ускорить процесс оценки. В равной степени важно и то, что он не ограничен использованием только случайных мутаций. Если экспериментатор может проследить причину некоторого недостатка, он, вероятно, в состоянии придумать и такого рода мутацию, которая приведет к необходимому улучшению.

Невозможно применять в точности один и тот же процесс обучения как к машине, так и к нормально развитому ребенку. Например, машину нельзя снабдить ногами, поэтому ее нельзя попросить выйти и принести ведро угля. Машина, по‑видимому, не будет обладать глазами. И, как бы хорошо ни удалось восполнить эти недостатки с помощью различных остроумных приспособлений, такое существо нельзя будет послать в школу без того, чтобы другие дети не потешались над ним. И вот такое существо мы должны чему‑то научить. Отметим, что не стоит особенно беспокоиться относительно ног, глаз и т.д. Пример мисс Елены Келлер [20] показывает, что воспитание возможно, если только удается тем или иным способом установить двухстороннюю связь между учителем и учеником.

 

Случай Е. Келлер – не единственный случай воспитания слепоглухонемых. В Академии педагогических наук РСФСР в качестве научного сотрудника работала О.И. Скороходова, которая в 5 лет потеряла зрение и слух. Она была воспитана в Харьковской клинике для слепоглухонемых детей. Известна книга О.И. Скороходовой «Как я воспринимаю и представляю окружающий мир». М., 1954. – Прим. И.Д.

 

Обычно процесс обучения в нашем представлении связан с наказаниями и поощрениями. Идея применения какой‑либо формы этого принципа обучения может лежать в основе конструирования и программирования некоторых простых «машин‑детей». В этом случае машину следует устроить таким образом, чтобы поступление в нее сигнала‑«наказания» приводило к резкому уменьшению вероятности повторения тех реакций машины, которые непосредственно предшествовали этому сигналу, в то время как сигнал‑«поощрение», наоборот, увеличивал бы вероятность тех реакций, которые ему предшествовали (которые его «вызвали»). Все это не предполагает со стороны машины никаких чувств. Я проделал несколько экспериментов с одной такой «машиной‑ребенком» и достиг кое‑какого успеха в обучении ее некоторым вещам, но метод обучения был слишком необычен, чтобы эксперимент можно было считать действительно успешным.

Применение поощрений и наказаний в лучшем случае может быть лишь частью процесса обучения. Проще говоря, если у учителя нет других средств общения со своими учениками, то количество информации, которое может получить ученик, не превышает общего числа примененных к нему поощрений и наказаний. Вероятно, к тому времени, когда ребенок выучит наизусть стихотворение «Касабьянка» [21], он будет до крайности измучен, если процесс обучения будет идти по методу игры в «20 вопросов» [22], причем каждое «нет» учителя будет принимать для ученика форму подзатыльника. В силу этого необходимо иметь какие‑то другие, «неэмоциональные» каналы связи. Если такие каналы имеются, то, применяя поощрения и наказания, машину можно было бы научить выполнять команды, отдаваемые на каком‑либо – например, символическом – языке. Эти команды следует передавать по «неэмоциональным каналам». Применение такого символического языка значительно снизит число требуемых поощрений и наказаний.

О том, какая степень сложности является наиболее пригодной для «машины‑ребенка», могут быть различные мнения. Можно стремиться к тому, чтобы «машина‑ребенок» была настолько простой, насколько этого возможно добиться, не нарушая общих принципов. Можно идти противоположным путем: «встраивать» сложную систему логического вывода [23]. В последнем случае значительную часть запоминающего устройства заняли бы определения и суждения [propositions]. Суждения по своему характеру должны быть различного рода, например: утверждения о хорошо известных фактах, предположения, математически доказанные теоремы, высказывания авторитетных лиц, выражения, по своей логической форме являющиеся суждениями, но не претендующие на верность. Некоторые из этих суждений могут быть охарактеризованы как «приказания». Машину следует устроить так, чтобы, как только некоторое приказание будет оценено ею как «вполне достоверное» [well‑established] , автоматически выполнялась соответствующая операция. Чтобы пояснить это, предположим, что учитель говорит машине: «Теперь выполняй домашнее задание», – а машина реагирует на это тем, что ситуация «Учитель говорит машине: „Теперь выполняй домашнее задание“» включается в число вполне достоверных фактов. Другим фактом такого же рода в ней может быть: «Все, что говорит учитель, истинно». Комбинация этих фактов может в заключение вести к тому, что приказание «Теперь выполняй домашнее задание» также будет включено в разряд вполне надежных фактов, а это, в свою очередь, будет значить в силу устройства нашей машины, что последняя действительно начнет выполнять домашнее задание, – что нам и было нужно. Процесс логического вывода, применяемый машиной, вовсе не обязательно должен быть таков, чтобы он удовлетворял требованиям самых строгих логиков. Например, может отсутствовать иерархия типов [24]. Но это отнюдь не означает, что вероятность связанной с этим ошибки, которую может сделать машина, больше вероятности того, что человек может упасть в пропасть, если ее край не будет огорожен. В рассматриваемом случае подходящие приказания (выраженные внутри системы формального вывода, а не составляющие часть ее правил), например, такие, как «Не используйте некоторый класс, если он не является подклассом класса, который ранее упоминался учителем», могут иметь эффект, аналогичный тому, какой имеет предупреждение: «Не подходите слишком близко к краю обрыва».

Приказания, которые может выполнять машина, не имеющая ни рук, ни ног, должны касаться преимущественно интеллектуальных сторон деятельности, как это было в приведенном выше примере (с домашним заданием). Из такого рода приказов наиболее важными будут приказания, определяющие порядок, в котором следует применять правила рассматриваемой логической системы. Ибо на каждой стадии применения логической системы перед нами открывается большое число возможных шагов, которые исключают друг друга и любой из которых мы можем осуществить, следуя правилам рассматриваемой системы. Как производится такой выбор – в этом и выражается различие между глубоким и посредственным умом, но это не имеет отношения к правильности или неправильности рассуждении. Суждения, которые порождают приказания такого рода, могут быть, например, такими: «Если упоминается Сократ, применяй силлогизм модуса Barbara » – или: «Если один метод приводит к результату быстрее, чем второй, не применяй более медленного». Одни из них могут исходить от «авторитетного лица», другие же могут вырабатываться самой машиной, например, с помощью неполной индукции.

 

Модус силлогизма – схема (правило) логического умозаключения. Понятие модуса силлогизма относится к схоластической (восходящей к Аристотелю) логике; каждый из модусов имеет специальное название. Классический пример умозаключения по модусу Barbara следующий: «Все люди смертны. Сократ – человек. Следовательно, Сократ смертен». – Прим. И.Д.

 

Некоторым читателям мысль об обучающейся машине может показаться парадоксальной. Как могут меняться правила, по которым машина производит операции? Ведь правила должны полностью описывать поведение машины независимо от того, какова была ее предыстория и какие изменения она претерпела. Таким образом, правила должны быть абсолютно инвариантными относительно времени. Все это, конечно, верно. Объяснение этого парадокса состоит в том, что правила, которые меняются в процессе научения, не претендуют на это, ибо их применимость носит преходящий характер. Читатель может провести параллель с Конституцией Соединенных Штатов [25].

Важная особенность обучающейся машины состоит в том, что ее учитель в значительной мере не осведомлен о многом из того, что происходит внутри нее, хотя он все же в состоянии в известных пределах предсказывать поведение своей ученицы. Сказанное особенно применимо к дальнейшему воспитанию машины, прошедшей уже хорошую подготовку и вышедшей из начальной стадии «машины‑ребенка». Такое положение, очевидно, в корне отличается от обычного подхода, связанного с применением машин для вычислений, когда мы стремимся к тому, чтобы иметь ясное представление о состоянии машины в любой момент вычисления, достичь чего можно лишь с трудом. В свете сказанного взгляд, что «машина может выполнить только то, что мы умеем ей предписать [26], кажется странным. Большинство программ, которые мы можем ввести в машину, вызывают в ее работе кое‑что такое, что мы вообще не в состоянии осмыслить или рассматриваем как чисто случайное поведение. Интеллектуальное [intelligent] поведение предполагает, по‑видимому, некоторое отступление от абсолютно детерминированного [disciplined] поведения в процессе вычисления; это отступление, однако, должно быть очень незначительным, чтобы не вызвать полностью беспорядочного поведения или бессмысленных повторений отдельных циклов. Другой важный результат обучения как способа подготовки нашей машины для участия в игре в имитацию, состоит в том, что «присущая человеку склонность к ошибкам» будет, по‑видимому, обойдена естественным образом, т.е. без специального «натаскивания». Процесс обучения не обязательно должен быть успешным во всех случаях; если бы это было так, то не встречались бы случаи неудачи в обучении.

Вероятно, в обучающуюся машину имеет смысл ввести случайный элемент. Случайный элемент довольно полезен, когда мы ищем решение какой‑нибудь задачи. Пусть, например, требуется найти число, расположенное между 50 и 200 и равное квадрату суммы своих цифр; мы можем сначала проверить число 51, затем 52 и продолжать до тех пор, пока не найдем то, которое удовлетворяет условию задачи. Но мы можем поступить и иначе: выбирать числа наугад до тех пор, пока не получим то, которое нам нужно. Этот метод имеет то преимущество, что он не требует хранения в памяти уже проверенных значений; однако он имеет и отрицательную сторону, состоящую в том, что одно и то же число может быть подвергнуто проверке повторно, но это не так уж существенно, если задача имеет несколько решений. Систематический метод имеет другой недостаток: может случиться, что придется проверять массу значений, не содержащих ни одного решения, прежде чем будет найдено первое число, обладающее нужным свойством.

В нашем случае процесс обучения можно рассматривать как поиски такой формы поведения, которая бы удовлетворяла требованиям учителя (или какому‑нибудь другому критерию). Поскольку в этом случае, по‑видимому, имеется весьма большое число решений, отвечающих предъявленным требованиям, постольку метод случайного выбора представляется нам предпочтительнее систематического. Следует отметить, что метод случайного выбора применяется и в другом аналогичном процессе – в эволюции. Но там систематический метод невозможен вообще. Неясно, каким образом было бы возможней в процессе эволюции сохранять информацию о тех разнообразных генетических комбинациях, которые были испробованы, с тем чтобы предупредить возможность их повторного применения.

Мы можем надеяться, что машины в конце концов будут успешно соперничать с людьми во всех чисто интеллектуальных областях. Но какие из этих областей наиболее пригодны для того, чтобы начать именно с них? Решение даже этого вопроса наталкивается на затруднения. Многие считают, что начать лучше всего с какой‑нибудь очень абстрактной деятельности, например, с игры в шахматы. Другие предлагают снабдить машину хорошими органами чувств, а затем научить ее понимать и говорить по‑английски. В этом случае машину можно будет обучать, как ребенка: указывать на предметы и называть их и т.д. В чем состоит правильный ответ на этот вопрос, я не знаю, но думаю, что следует испытать оба подхода.

Мы можем заглядывать вперед лишь на очень небольшое расстояние, но уже сейчас очевидно, что нам предстоит еще очень многое сделать в той области, которая была предметом настоящей статьи.

1950 г.

 


[1] Институт Гэллапа – Американский институт общественного мнения American Institute of Public Opinion . Основан Дж. Гэллапом (George Gallup) в 1935 г.

 

[2] Мост через реку Форт – известный мост консольно‑арочного типа, в два пролета, перекрывающий реку форт (Шотландия) при впадении ее в залив Ферт‑оф‑Форт. Сооружен в 1882–1889 гг. и в течение 28 лет держал мировой рекорд длины пролетов (длина каждого пролета – свыше 518 м, длина моста – около 1626 м).

 

[3] Чарлз Бэббидж (Charles Babbage) (1792–1871) – английский ученый, работавший в области математики, вычислительной техники и механики. Выступил инициатором применения механических устройств для вычисления и печатания математических таблиц. В 1812 г. у Бэббиджа возникла идея разностной вычислительной машины (Difference Engine). Строительство этой машины, которая должна была вычислять любую функцию, заданную ее первыми пятью разностями, началось в 1823 г. на средства английского правительства, однако в 1833 г. работа была прекращена главным образом в связи с финансовыми затруднениями. К этому времени у Бэббиджа возник проект другой, более совершенной машины. Эта машина, которую Бэббидж назвал «Аналитической машиной» (Analitical Engine), должна была проводить вычислительный процесс, заданный любыми математическими формулами. Бэббидж весь отдался конструированию своей новой машины, однако к моменту его смерти она так и не была закончена. Сын Бэббиджа завершил строительство части машины и провел успешные опыты по применению ее для вычислений некоторого рода.

 

[4] Люкасовская кафедра в Тринити‑колледже основана в 1663 г. на средства, пожертвованные Генри Люкасом. Первым люкасовским профессором был учитель Ньютона Барроу, вторым – сам Ньютон. Получение этой кафедры, сохранившейся до нашего времени, считалось всегда большой честью.

 

[5] Манчестерская машина была построена в Манчестерском университете в конце 40‑х годов. Конструирование машины происходило под руководством Вильямса (Р.С. Williams) и Килберна (T. Kilburn). В разработке и отладке машины принимал участие Тьюринг, который с этой целью в 1948 г. был приглашен в Манчестерский университет. Тьюринг занимался математическими вопросами, связанными с Манчестерской машиной, и особенно вопросами программирования.

 

[6] Единицы , о которых говорит здесь Тьюринг, получили название «битов» (bits). По причинам, связанным с компьютеростроением, основной единицей измерения емкости машинной памяти стали «байты» (bytes). Ответ на вопрос «Сколько бит[ов] в байте?» с исторической точки зрения довольно темен (байт – емкость памяти, предназначенной для размещения одного символа), но стандартом de facto является соглашение 1 байт = 8 бит. Более крупными производными единицами являются килобайт (Кб) = 210 = 1024 байт, мегабайт (Мб) = 210 = 1024 Кб. Сейчас уже никого не удивляют гигабайты (Гб) и даже терабайты (Тб). Для более точного выражения единиц памяти (например, в синтезаторостроении) употребляются также единицы килобит (Кбит), мегабит (Мбит) и т.д.

 

[7] Возможно, эта точка зрения еретична. Св. Фома Аквинский (Summa Theologica; его взгляд излагается в книге Bertrand Russell, History of Western Philosophy, Simon and Schuster, New York, 1946, p. 458 [русское издание, например: Б. Рассел. История западной философиии. Новосибирск, изд‑во НГУ, 1994] ) утверждает, что Бог не может лишить человека души, но что это не является реальным ограничением его всемогущества, а есть всего лишь результат того факта, что человеческие души бессмертны и, следовательно, неуничтожимы.

 

[8] K. GodeI. Uber formal unentscbeidbare Sat^e der Principia Matematica und verwandter Systeme, I. Monat. Math. Ph., B. 38, 1931, S. 173–198.

 

[9] Alonzo Church. An Unsolvable Problem of Elementary Number Theory. Amer. J. Math., v. 58, 1936, p. 345–363; S.C. Cleene. General Recursive Functions of Natural Humbers. Math. Ann., B. 112, 1936, S. 727–742; A.M. Turing. On Computable Numbers, with an Application to the Entscheidungsproblem. Proc. Lond. Math. Soc., ser. 2, v. 42, 1936–1937, pp. 230–265.

 

[10] Здесь речь идет о так называемых (в современной терминологии) алгоритмически неразрешимых проблемах. Вот пример неразрешимой проблемы, который я изложу здесь в терминах «повседневного» компьютера. Требуется составить программу U, которая бы по любому подаваемому ей на вход файлу X , содержащему текст программы (на каком‑нибудь языке программирования, скажем, стандартном ANSI С), определяла бы, остановится ли когда‑нибудь программа из файла Х в процессе своей работы, получив на вход известные данные, или «зациклится». Если программа Х зациклится, то программа U должна показать на экране фотографию юноши, иначе – девушки, после чего закончить свою работу. (Такого рода «проверяющая на зацикливаемость» программа U. была бы, очевидно, довольно полезна для проверки создаваемых компьютерных программ.) Оказывается, написать эту «проверяющую программу» U невозможно в принципе (даже если допустить, что компьютер, на котором выполняется U , имеет сколь угодно большую память и может работать неограниченно (астрономически) долгое время). Приведенный пример (так называемая «неразрешимость проблемы остановки») впервые был рассмотрен в цитированной выше работе Тьюринга 1936 г. – в то время, когда еще не было никаких компьютеров и программ для них!

 

[11] G. Jefferson. The Mind of Mechanical Man. Lister Oration for 1949, Britisch Med. J., v. 1, 1949, p. 1105–1121.

 

[12] Листеровские чтения. Джозеф Листер (Joseph Lister) (1827–1912) – выдающийся английский хирург.

 

[13] Солипсизм (от лат. solus – единственный и ipse – сам) – взгляд, согласно которому единственной достоверной реальностью являются внутренние переживания субъекта, его ощущения и мышления.

 

[14] Принцип неполной индукции – принцип логики, согласно которому разрешается делать обобщающее заключение о принадлежности некоторого свойства a всем предметам данного класса A на основании того, что установлена принадлежность свойства а лишь некоторым (не всем) предметам класса А , именно тем, которые рассмотрены в ходе индукции. Вывод, основанный на принципе неполной индукции – даже при условии достоверности исходных данных, – не достоверен, а только более или менее вероятен.

 

[15] Графиня Лавлейс, Ада. Августа (Ada Augusta, the Countess of Lovelace) принадлежала к тем немногим современникам Бэббиджа, которые вполне оценили значение его идей. Она была дочерью английского поэта Байрона (родилась в 1815 г., умерла в 1852 г.). Лавлейс получила хорошее математическое образование, сначала под руководством своей матери, а потом под руководством проф. Августа де Моргана (Augustus de Morgan), одного из создателей математической логики. С Бэббиджем и его машинами она познакомилась еще в юности. В 1840 г. написала о Бэббидже работу и опубликовала ее в Scientific Memoirs (ed. by R. Taylor, 3, 1842, 691–т731), присоединив к ней обширные примечания переводчика, более чем в два раза превосходившие по объему текст Менабреа. Эти примечания относились к принципам работы Аналитической машины и ее применению и были высоко оценены Бэббиджем. См: faster than Thought. A Symposium on Digital Computing Machines Ed. by B.V. Bowden. London, 1953, chap. 1. В приложении к книге воспроизведены работа Менабреа в переводе Лавлейс и работа самой Лавлейс (Notes by the Translator).

 

[16] D.R. Hartree , Calculating Instruments and Machines , New York, 1949.

 

[17] Дифференциальный анализатор – вычислительная машина, разработанная В. Бушем (Vannevar Bush) и его сотрудниками в Массачусетсском технологическом институте в Кембридже (США) в конце 20‑х годов и предназначенная для решения широкого класса обыкновенных дифференциальных уравнений. Дифференциальный анализатор – машина непрерывного действия; при решении задач мгновенные значения переменных выражаются положениями вращающихся валов машины (с учетом числа сделанных валом полных оборотов и направления вращения). Первая модель машины была чисто механическим устройством. В дальнейшем дифференциальный анализатор был усовершенствован его автором и превратился в электромеханическую машину.

 

[18] Если в приведенном выше рассуждении вместо «правил действия» подставить «законы поведения» (в смысле, разъясненном в тексте), то логическая ошибка легко устраняется за счет замены посылки обратным ей суждением: «Все машины отличаются тем, что их поведение полностью определено некоторыми законами» (в истинности которого, говорит Тьюринг, мы убеждены), в котором термин «машины» распределен (так как речь идет обо всех машинах). Но тут оказывается, что, в отличие от случая, когда речь шла о «правилах действия», истинность второй посылки вызывает сомнения; по мнению Тьюринга, мы не имеем возможности убедиться в ее достоверности.

 

[19] Здесь , разумеется, имеются в виду требования автора, предъявляемые к машинам, предназначенным для игры в имитацию. Напомню, что емкость памяти в 109 двоичных единиц (бит), о которых говорит автор, соответствует примерно 120 Мб. Если применить его расчеты, скажем, к современным персональным компьютерам, то нужно оговорить, что здесь речь идет о «чистом» (минимальном) объеме памяти, потребном для решения задачи игры в имитацию. – Прим. И.Д.

 

[20] Елена Келлер (Helen Keller) (1880–1968) – американская слепоглухонемая, получившая высшее образование. В возрасте полутора лет в результате болезни потеряла зрение и слух и стала немой. Когда девочке было 6 лет, родители пригласили воспитательницу, которая посредством осязания научила ребенка говорить, а затем читать и писать (по системе для слепых). Е. Келлер прошла школьный курс, изучила языки, окончила университет; она является автором ряда книг.

 

[21] «Касабьянка» (Casabianca) – стихотворение английской поэтессы Фелиции Хеманс (Felicia Hemans, 1793–1835). Повествует о мальчике десяти лет, сыне капитана Касабьянки, который вместе с отцом погиб на горящем военном корабле, отказавшись покинуть судно, взорванное командиром Касабьянкой во время морского боя.

 

[22] «Двадцать вопросов» – распространенная в Англии игра в вопросы и ответы. Обычно ведется так. Один из играющих задумывает некоторое понятие. Другой играющий отгадывает задуманное, задавая вопросы, предполагающие ответы (обязательно правдивые) вида «да» или «нет». Количество вопросов, которое имеет право задать отгадчик, не должно превышать некоторого заранее установленного числа. Отгадчик выигрывает, если при указанных условиях отгадает, что же было задумано первым играющим.

 

[23] Лучше сказать «впрограммировать», так как наша «машина‑ребенок» будет программироваться на цифровой вычислительной машине. Однако указанная логическая система не будет обучаемой.

 

[24] Здесь имеется в виду иерархия типов , предложенная Бертраном Расселом с целью избежать противоречий (антиномий), обнаруженных в логике и теории множеств в конце XIX – начале XX столетия.

 

[25] К Конституции США (выработана и утверждена в 1787–1789 гг.) при сохранении ее основного содержания (изменения и дополнения к американской Конституции обставлены весьма сложной процедурой) за время, истекшее после ее принятия, был сделан целый ряд поправок (более двадцати).

 

[26] Сравните эту формулировку с высказыванием госпожи Лавлейс, в котором нет слова «только».

 


Алан Тьюринг

Могут ли машины мыслить?

 

 http://www.publishe.ru/modules.php?name=News&file=article&sid=1765

«А.Тьюринг. Может ли машина мыслить? (С приложением статьи Дж. фон Неймана Общая и логическая теория автоматов». Пер. и примечания Ю.В. Данилова)»: ГИФМЛ; М.; 1960

 

Аннотация

 

«Может ли машина мыслить?» – едва ли не самая знаменитая статья А. Тьюринга. Даже сейчас, спустя почти 60 лет после ее написания, она, вызвавшая в свое время огромное количество как серьезных исследований, так и псевдонаучных спекуляций, нисколько не утеряла своего значения. Статья написана с юмором и иронией («словно между строк стоят смайлики, по словам Э. Ходжеса, биографа Тьюринга), но за шутливым тоном изложения скрываются одни из самых оригинальных и глубоких идей, высказанных в уходящем веке.

«Игра в имитацию», описанная в этой статье, получила название «теста Тьюринга» (ставшего стандартным теоретическим тестом на «интеллектуальность машины»), который, помимо специалистов по кибернетике, интересовал и некоторых психиатров, усмотревших глубинный психоаналитический смысл в цели игры («угадывание пола»).

 

Статья была впервые опубликована в научном журнале Mind , v. 59 (1950), pp. 433–460, под названием Computing Machinery and Intelligence и перепечатана в 4‑м томе «Мира математики» Дж.Р. Ньюмена (The World of Mathematics. A small library… with commentaries and notes by James R. Newman , Simon & Schuster, NY, v. 4, 1956, pp. 2099–2123), где опубликована под заголовком Can the Machine think?

 

Алан Тьюринг

Могут ли машины мыслить?

 

I. Игра в имитацию

 

Я собираюсь рассмотреть вопрос: могут ли машины мыслить. Но для этого нужно сначала определить смысл терминов «машина» и «мыслить». Можно было бы построить эти определения так, чтобы они по возможности лучше отражали обычное употребление этих слов, но такой подход таит в себе некоторую опасность. Дело в том, что, если мы будем выяснять значения слов «машина» и «мыслить», исследуя, как эти слова определяются обычно, нам трудно будет избежать того вывода, что значение этих слов и ответ на вопрос «могут ли машины мыслить?» следует искать путем статистического обследования наподобие анкетного опроса, проводимого институтом Гэллапа[1]. Однако это нелепо. Вместо того чтобы пытаться дать такое определение, я заменю наш вопрос другим, который тесно с ним связан и выражается словами с относительно четким смыслом.

Эта новая форма может быть описана с помощью игры, которую мы назовем «игрой в имитацию». В этой игре участвуют три человека: мужчина (А), женщина (B) и кто‑нибудь задающий вопросы (С), которым может быть лицо любого пола. Задающий вопросы отделен от двух других участников игры стенами комнаты, в которой он находится. Цель игры для задающего вопросы состоит в том, чтобы определить, кто из двух других участников игры является мужчиной (А), а кто – женщиной (B). Он знает их под обозначениями Х и У и в конце игры говорит либо: «X есть A и Y есть B», либо: «X есть B и Y есть A». Ему разрешается задавать вопросы такого, например, рода:

 

С: «Попрошу Х сообщить мне длину его (или ее) волос».

 

Допустим теперь, что в действительности X есть A. В таком случае A и должен давать ответ. Для A цель игры состоит в том, чтобы побудить C прийти к неверному заключению. Поэтому его ответ может быть, например, таким:

 

«Мои волосы коротко острижены, а самые длинные пряди имеют около девяти дюймов в длину».

 

Чтобы задающий вопросы не мог определить по голосу, кто из двух других участников игры мужчина, а кто – женщина, ответы на вопросы следовало бы давать в письменном виде, а еще лучше – на пишущей машинке. Идеальным случаем было бы телеграфное сообщение между двумя комнатами, где находятся участники игры. Если же этого сделать нельзя, то ответы и вопросы должен передавать какой‑нибудь посредник. Цель игры для третьего игрока – женщины (В) – состоит в том, чтобы помочь задающему вопросы. Для нее, вероятно, лучшая стратегия – давать правдивые ответы. Она также может делать такие замечания, как «Женщина – я, не слушайте его!», но этим она ничего не достигнет, так как мужчина тоже может делать подобные замечания.

Поставим теперь вопрос: «Что произойдет, если в этой игре вместо A будет участвовать машина?» Будет ли в этом случае задающий вопросы ошибаться столь же часто, как и в игре, где участниками являются только люди? Эти вопросы и заменят наш первоначальный вопрос «могут ли машины мыслить?».

 

II. Критика новой постановки проблемы

 

Подобно тому как мы задаем вопрос: «В чем состоит ответ на проблему в ее новой форме?», можно спросить: «Заслуживает ли рассмотрения проблема в ее новой постановке?». Этот последний вопрос мы рассмотрим, не откладывая дела в долгий ящик, с тем чтобы в последующем уже не возвращаться к нему.

Новая постановка нашей проблемы имеет то преимущество, что позволяет провести четкое разграничение между физическими и умственными возможностями человека. Ни один инженер или химик не претендует на создание материала, который было бы невозможно отличить от человеческой кожи. Такое изобретение, быть может, когда‑нибудь будет сделано. Но даже допустив возможность создания материала, не отличимого от человеческой кожи, мы все же чувствуем, что вряд ли имеет смысл стараться придать «мыслящей машине» большее сходство с человеком, одевая ее в такую искусственную плоть. Форма, которую мы придали проблеме, отражает это обстоятельство в условии, не позволяющем задающему вопросы соприкасаться с другими участниками игры, видеть их или слышать их голоса. Некоторые другие преимущества введенного критерия можно показать, если привести образчики возможных вопросов и ответов. Например:

 

С: Напишите, пожалуйста, сонет на тему о мосте через реку Форт[2].

А: Увольте меня от этого. Мне никогда не приходилось писать стихи.

С: Прибавьте 34 957 к 70 764.

А (молчит около 30 секунд, затем дает ответ): 105 621.

С: Вы играете в шахматы?

А: Да.

С: У меня только король на е8 и других фигур нет. У вас только король на е6 и ладья на h1. Как вы сыграете?

А (после 15 секунд молчания): Лh8. Мат.

 

Нам кажется, что метод вопросов и ответов пригоден для того, чтобы охватить почти любую область человеческой деятельности, какую мы захотим ввести в рассмотрение. Мы не желаем ни ставить в вину машине ее неспособность блистать на конкурсах красоты, ни винить человека в том, что он терпит поражение в состязании с самолетом, условия игры делают эти недостатки несущественными. Отвечающие, если найдут целесообразным, могут хвастать своим обаянием, силой или храбростью, сколько им вздумается, и задающий вопросы не может требовать практических тому доказательств.

Вероятно, нашу игру можно подвергнуть критике на том основании, что в ней преимущества в значительной степени находятся на стороне машины. Если бы человек попытался притвориться машиной, то, очевидно, вид у него был бы весьма жалкий. Он сразу выдал бы себя медлительностью и неточностью при подсчетах. Кроме того, разве машина не может выполнять нечто такое, что следовало бы характеризовать как мышление, но что было бы весьма далеко от того, что делает человек? Это возражение очень веское. Но в ответ на него мы, во всяком случае, можем сказать, что если можно все‑таки осуществить такую машину, которая будет удовлетворительно играть в имитацию, то относительно этого возражения особенно беспокоиться не следует.

Можно было бы заметить, что при «игре в имитацию» не исключена возможность того, что простое подражание поведению человека не окажется для машины наилучшей стратегией. Такой случай возможен, но я не думаю, чтобы он привел нас к чему‑нибудь существенно новому. Во всяком случае, никто не пытался исследовать теорию нашей игры в этом направлении, и мы будем считать, что наилучшая стратегия для машины состоит в том, чтобы давать ответы, которые в соответствующей обстановке дал бы человек.

 


Поделиться:



Последнее изменение этой страницы: 2019-06-20; Просмотров: 163; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.161 с.)
Главная | Случайная страница | Обратная связь