Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Робот ошибается и робот «имеет в виду»?
Важнейший вопрос из тех, с какими нам предстоит разобраться на данном этапе, звучит так: готов ли робот безоговорочно согласиться с тем, что — при условии его построения в соответствии с некоторым набором механизмов M — формальная система Q ( M ) корректным образом включает в себя всю систему его математических убеждений в отношении Π 1-высказываний (равно как и с соответствующим предположением для системы Q M ( M ))? Такое согласие подразумевает, прежде всего, что робот верит в обоснованность системы Q ( M ), — т.е. в то, что все Π 1-высказывания, являющиеся ☆ -утверждениями, действительно истинны. Наши рассуждения требуют также, чтобы всякое Π 1-высказывание, в истинность которого робот в состоянии безоговорочно поверить, являлось непременно теоремой системы Q ( M ) (т.е. чтобы в рамках системы Q ( M ) робот мог бы определить «машину для доказательства теорем», аналогичную той, возможность создания которой в случае математиков-людей допускал Гёдель, см. §§3.1, 3.3). Вообще говоря, существенно не то, чтобы система Q ( M ) действительно играла такую универсальную роль в отношении потенциальных способностей робота, связанных с Π 1-высказываниями, а лишь то, чтобы она была достаточно обширна для того, чтобы допускать применение гёделевского доказательства к самой себе (и, соответственно, к системе Q M ( M )). Позднее мы увидим, что необходимость в таком применении возникает лишь в случае некоторых конечных систем Π 1-высказываний. Таким образом, мы — как, собственно, и робот — должны учитывать возможность того, что некоторые из ☆ -утверждений робота окажутся в действительности ошибочными, и то, что робот может самостоятельно обнаружить и исправить эти ошибки согласно собственным внутренним критериям, сути дела не меняет. А суть дела заключается в том, что поведение робота в этом случае становится как нельзя более похоже на поведение математика-человека. Человеку ничего не стоит оказаться в ситуации, когда он (или она) полагает, что истинность (или ложность) того или иного Π 1-высказывания неопровержимо установлена, в то время как в его рассуждениях имеется ошибка, которую он обнаружит лишь значительно позднее. Когда ошибка наконец обнаруживается, математик ясно видит, что его ранние рассуждения неверны, причем в соответствии с теми же самыми критериями, какими он руководствовался и ранее; разница лишь в том, что ранее ошибка замечена не была, — и вот Π 1-высказывание, полагаемое неопровержимо истинным тогда, воспринимается сейчас как абсолютно ложное (и наоборот). Мы вполне можем ожидать подобного поведения и от робота, т.е. на его ☆ -утверждения, вообще говоря, полагаться нельзя, пусть даже он и удостоил их самолично статуса ☆. Впоследствии робот может исправить свою ошибку, однако ошибка-то уже сделана. Каким образом это обстоятельство отразится на нашем выводе относительно обоснованности формальной системы Q ( M )? Очевидно, что система Q ( M ) не является целиком и полностью обоснованной, не «воспринимает» ее как таковую и робот, так что его гёделевскому предположению G( Q ( M )) доверять нельзя. К этому, в сущности, и сводится суть оговорки (b). Попробуем выяснить, может ли наш робот, приходя к тому или иному «неопровержимому» заключению, что-либо иметь в виду, и если да, то что именно. Уместно сопоставить эту ситуацию с той, что мы рассматривали в случае математика-человека. Тогда нас не занимало, что конкретно случилось обнаружить какому-либо реальному математику, нас занимало лишь то, что может быть принято за неопровержимую истину в принципе. Вспомним также знаменитую фразу Фейнмана: «Не слушайте, что я говорю; слушайте, что я имею в виду! ». Похоже, нам нет необходимости исследовать то, что робот говорит, исследовать нужно то, что он имеет в виду. Не совсем, впрочем, ясно (особенно если исследователь имеет несчастье являться приверженцем скорее точки зрения B, нежели A ), как следует интерпретировать саму идею того, что робот способен что бы то ни было иметь в виду. Если бы было возможно опираться не на то, что робот ☆ -утверждает, а на то, что он в действительности «имеет в виду», либо на то, что он в принципе «должен иметь в виду», то тогда проблему возможной неточности его ☆ -утверждений можно было бы обойти. Беда, однако, в том, что в нашем распоряжении, по всей видимости, нет никаких средств, позволяющих снаружи получить доступ к информации о том, что робот «имеет в виду» или о том, что, «как ему кажется, он имеет в виду». До тех пор, пока речь идет о формальной системе Q ( M ), нам, судя по всему, придется полагаться лишь на доступные ☆ -утверждения, в достоверности которых мы не можем быть полностью уверены. Не здесь ли проходит возможная операционная граница между точками зрения A и B? Не исключено, что так оно и есть; хотя позиции A и B эквивалентны в отношении принципиальной возможности внешних проявлений сознательной деятельности в поведении физической системы, люди, этих позиций придерживающиеся, могут разойтись в своих ожиданиях как раз в вопросе о том, какую именно вычислительную систему можно рассматривать как способную осуществить эффективное моделирование мозговой активности человека, находящегося в процессе осознания справедливости того или иного математического положения (см. конец §3.12). Как бы то ни было, возможные расхождения в такого рода ожиданиях не имеют к нашему исследованию сколько-нибудь существенного отношения.
|
Последнее изменение этой страницы: 2019-06-19; Просмотров: 230; Нарушение авторского права страницы