Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Введение случайности: ансамбли всех возможных роботов
В отсутствие прямого операционного метода разрешения этих семантических проблем нам придется полагаться на конкретные ☆ -утверждения, которые наш робот будет делать, побуждаемый механизмами, управляющими его поведением. Нам придется смириться с тем, что некоторые из этих утверждений могут оказаться ошибочными, однако такие ошибки исправимы и, в общем случае, чрезвычайно редки. Разумно будет предположить, что всякий раз, когда робот допускает ошибку в одном из своих ☆ -утверждений, ошибку эту можно приписать (по меньшей мере частично) каким-то случайным факторам, присутствующим в окружении или во внутренних процедурах робота. Если вообразить себе второго робота, функционирующего в соответствии с механизмами того же типа, что управляют поведением первого робота, однако при участии иных случайных факторов, то этот второй робот вряд ли совершит те же ошибки, что и первый, — но вполне может совершить другие. Упомянутые факторы могут привноситься теми самыми подлинно случайными элементами, которые определяются либо как часть информации, поступающей на вход робота из внешнего окружения, либо как компоненты внутренних процедур робота. Как вариант, они могут представлять собой псевдослучайные результаты неких детерминистских, но хаотических вычислений, как внешних, так и внутренних. В рамках настоящего рассуждения я буду полагать, что ни один из подобных псевдослучайных элементов не играет в происходящем иной роли, чем та, которую могут выполнить (по меньшей мере с тем же успехом) элементы подлинно случайные. Вполне естественная, на мой взгляд, позиция. Впрочем, не исключается и возможность обнаружения в поведении хаотических систем (отнюдь не сводящемся только лишь к моделированию случайности) чего-то такого, что может послужить приближением какой-либо интересующей нас разновидности невычислительного поведения. Я не припомню, чтобы такая возможность где-либо всерьез обсуждалась, хотя есть люди, которые твердо убеждены в том, что хаотическое поведение представляет собой фундаментальный аспект деятельности мозга. Лично для меня подобные аргументы останутся неубедительными до тех пор, пока мне не продемонстрируют какое-нибудь существенно не случайное (т.е. непсевдослучайное) поведение такой хаотической системы — поведение, которое может в сколько-нибудь сильном смысле являться приближением поведения подлинно невычислительного. Ни один намек на подобного рода демонстрацию моих ушей пока не достиг. Более того, как мы подчеркнем несколько позднее (§3.22), в любом случае маловероятно, что хаотическое поведение сможет проигнорировать те сложности, которые представляет для вычислительной модели разума гёделевское доказательство. Допустим пока, что любые псевдослучайные (или иным образом хаотические) элементы в поведении нашего робота или в его окружении можно заменить элементами подлинно случайными, причем без какой бы то ни было потери эффективности. Для выяснения роли подлинной случайности нам необходимо составить ансамбль из всех возможных альтернативных вариантов. Поскольку мы предполагаем, что наш робот имеет цифровое управление, и, соответственно, его окружение также можно реализовать в каком-либо цифровом виде (вспомним о «внутренних» и «внешних» участках ленты нашей описанной выше машины Тьюринга; см. также §1.8), то количество подобных возможных альтернатив непременно будет конечным. Это число может быть очень большим, и все же полное описание всех упомянутых альтернатив представляет собой задачу чисто вычислительного характера. Таким образом, и сам полный ансамбль всех возможных роботов, каждый из которых действует в соответствии с заложенными нами механизмами, составляет всего-навсего вычислительную систему — пусть даже такую, какую нам вряд ли удастся реализовать на практике, используя те компьютеры, которыми мы располагаем в настоящее время или можем вообразить в обозримом будущем. Тем не менее, несмотря на малую вероятность практического осуществления совокупного моделирования всех возможных роботов, функционирующих в соответствии с набором механизмов M , само вычисление «непознаваемым» считаться не может; иначе говоря, мы способны понять (теоретически), как построить такой компьютер — или машину Тьюринга, — который с подобным моделированием справится, пусть даже оно пока и не осуществимо практически. В этом состоит ключевой момент нашего рассуждения. Познаваемым механизмом или познаваемым вычислением является тот механизм или то вычисление, которое человек способен описать; совсем не обязательно действительно выполнять это вычисление ни самому человеку, ни даже компьютеру, который человек в состоянии в данных обстоятельствах построить. Ранее (в комментарии к Q8 ) мы уже высказывали весьма похожее соображение; и то, и другое вполне согласуются с терминологией, введенной в начале §3.5.
3.19. Исключение ошибочных ☆ -утверждений
Вернемся к вопросу об ошибочных (но допускающих исправление) ☆ -утверждениях, которые может время от времени выдавать наш робот. Предположим, что робот такую ошибку все-таки совершил. Если мы можем допустить, что какой-либо другой робот, или тот же робот несколько позднее, или другой экземпляр того же робота такую же ошибку вряд ли совершит, то мы в принципе сможем установить факт ошибочности данного ☆ -утверждения, проанализировав действия ансамбля из всех возможных роботов. Представим себе, что моделирование поведения всей совокупности возможных роботов осуществляется в нашем случае таким образом, что различные этапы развития различных экземпляров нашего робота мы рассматриваем как одновременные. (Это делается лишь для удобства рассмотрения и никоим образом не подразумевает, что для такого моделирования непременно требуется параллельное выполнение действий. Как мы уже видели, принципиальных различий, помимо эффективности, между параллельным и последовательным выполнением вычислений нет; см. §1.5). Такой подход должен, в принципе, дать нам возможность уже на стадии рассмотрения результата моделирования выделить из общей массы корректных ☆ -утверждений редкие (относительно) ошибочные ☆ -утверждения, воспользовавшись тем обстоятельством, что ошибочные утверждения «исправимы» и будут посему однозначно идентифицироваться как ошибочные подавляющим большинством участвующих в модели экземпляров нашего робота, — по крайней мере, с накоплением с течением времени (модельного) различными экземплярами робота достаточного параллельного «опыта». Я вовсе не требую, чтобы подобная процедура была осуществима на практике; достаточно, чтобы она была вычислительной, а лежащие в основе всего этого вычисления правила M — в принципе «познаваемыми». Для того чтобы приблизить нашу модель к виду, приличествующему человеческому математическому сообществу, а также лишний раз удостовериться в отсутствии ошибок в ☆ -утверждениях, рассмотрим ситуацию, в которой все окружение нашего робота разделяется на две части: сообщество других роботов и остальное, лишенное роботов (а также и людей), окружение; в дополнение к остальному окружению, в модель следует ввести некоторое количество учителей, по крайней мере, на ранних этапах развития роботов, и хотя бы для того, чтобы все роботы одинаково понимали строгий смысл присвоения тому или иному утверждению статуса ☆. В моделируемый нами ансамбль войдут на правах различных экземпляров все возможные различные варианты поведения всех роботов, а также все возможные (релевантные) варианты остального окружения и предоставляемых человеком сведений, варьирующиеся в зависимости от конкретного выбора задействованных в модели случайных параметров. Как и ранее, правила, по которым будет функционировать наша модель (и которые я опять обозначу буквой M ), можно полагать в полной мере познаваемыми, невзирая на необычайную сложность всех сопутствующих расчетов, необходимых для ее практической реализации. Предположим, что мы берем на заметку все (в принципе) Π 1-высказывания, ☆ -утверждаемые (а также все высказывания с ☆ -утвержденными отрицаниями) любым из всевозможных экземпляров наших (вычислительно моделируемых) роботов. Объединим все подобные ☆ -утверждения в отдельную группу и назовем их безошибочными. Далее, мы можем потребовать, чтобы любое ☆ -утверждение относительно того или иного Π 1-высказывания игнорировалось, если в течение некоторого промежутка времени T (в прошлом или в будущем) количество r различных экземпляров этого ☆ -утверждения в ансамбле из всех одновременно действующих роботов не удовлетворит неравенству r & gt; L + Ns, где L и N суть некоторые достаточно большие числа, а s — количество ☆ -утверждений, производимых в течение того же промежутка времени и занимающих относительно рассматриваемого Π 1-высказывания противоположную позицию либо просто утверждающих, что рассуждения, на которые опирается исходное ☆ -утверждение, ошибочны. При желании мы можем настаивать на том, чтобы промежуток времени T (это время не обязательно должно совпадать с «реальным» моделируемым временем и может измеряться в некоторых единицах вычислительной активности), равно как и числа L и N. увеличивался по мере увеличения «сложности» ☆ -утверждаемого Π 1-высказывания. Понятию «сложности» применительно к Π 1-высказываниям можно придать точный характер на основании спецификаций машины Тьюринга, как мы это уже делали в §2.6 (в конце комментария к возражению Q8 ). Для большей конкретности мы можем воспользоваться явными формулировками, представленными в НРК (глава 2), как вкратце показано в приложении А (а это уже здесь). Итак, степенью сложности Π 1-высказывания, утверждающего незавершаемость вычисления Tm (n ) машины Тьюринга, мы будем полагать число ρ знаков в двоичном представлении большего из пары чисел m и n. Причина введения в данное рассуждение числа L — вместо того чтобы удовлетвориться какой-нибудь огромной величиной в лице одного лишь коэффициента N, — заключается в необходимости учета следующей возможности. Предположим, что внутри нашего ансамбля, благодаря редчайшей случайности, появляется «безумный» робот, который формулирует какое-нибудь абсолютно нелепое ☆ -утверждение, ничего не сообщая о нем остальным роботам, причем нелепость этого утверждения настолько велика, что ни одному из роботов никогда не придет в «голову» — хотя бы просто на всякий случай — сформулировать его опровержение. В отсутствие числа L такое ☆ -утверждение автоматически попадет, в соответствии с нашими критериями, в группу «безошибочных». Введение же достаточно большого L такую ситуацию предотвратит — при условии, разумеется, что подобное «безумие» возникает среди роботов не часто. (Вполне возможно, что я упустил из виду еще что-нибудь, и необходимо будет позаботиться о каких-то дополнительных мерах предосторожности. Представляется разумным, однако, по крайней мере на данный момент, ограничиться критериями, предложенными выше.) Учитывая, что все ☆ -утверждения, согласно исходному допущению, следует полагать «неопровержимыми» заявлениями нашего робота (основанными на, по всей видимости, присущих роботу четких логических принципах и посему не содержащими ничего такого, в чем робот испытывает хотя бы малейшее сомнение), то вполне разумным представляется предположение, что вышеописанным образом действительно можно устранить редкие промахи в рассуждениях робота, причем функции T (ρ ), L (ρ ) и N (ρ ) вряд ли окажутся чем-то из ряда вон выходящим. Предположив, что все так и есть, мы опять получаем не что иное, как вычислительную систему — систему познаваемую (в том смысле, что познаваемыми являются лежащие в основе системы правила ) при условии познаваемости исходного набора механизмов M , определяющего поведение нашего робота. Эта вычислительная система дает нам новую формальную систему Q '( M ) (также познаваемую), теоремами которой являются те самые безошибочные ☆ -утверждения (либо утверждения, выводимые из них посредством простых логических операций исчисления предикатов). Вообще говоря, для нас с вами важно не столько то, что эти утверждения действительно безошибочны, сколько то, что в их безошибочности убеждены сами роботы (для приверженцев точки зрения B особо оговоримся, что концепцию роботовой «убежденности» следует понимать в чисто операционном смысле моделирования роботом этой самой убежденности, см. §§3.12, 3.17). Если точнее, то нам требуется, чтобы робот был готов поверить в то, что упомянутые ☆ -утверждения действительно безошибочны, исходя из допущения, что именно набором механизмов M и определяется его поведение (гипотеза M из §3.16). До сих пор, в данном разделе, мы занимались исключительно устранением ошибок в ☆ -утверждениях робота. Однако, на самом деле, ввиду представленного в §3.16 фундаментального противоречия, нас интересует устранение ошибок в его ☆ M -утверждениях, т.е. в тех Π 1-высказываниях, что по неопровержимой убежденности робота следуют из гипотезы M. Поскольку принятие роботами формальной системы Q '( M ) в любом случае обусловлено гипотезой M, мы вполне можем предложить им для обдумывания и более обширную формальную систему Q 'M ( M ), определяемую аналогично формальной системе Q M ( M ) из §3.16. Под Q 'M ( M ) в данном случае понимается формальная система, построенная из ☆ M -утверждений, «безошибочность» которых установлена в соответствии с вышеописанными критериями T, L и N. B частности, утверждение «утверждение G ( Q 'M ( M )) истинно» считается здесь безошибочным ☆ M -утверждением. Те же рассуждения, что и в §3.16, приводят нас к выводу, что роботы не смогут принять допущение, что они построены в соответствии с набором механизмов M (вкупе с проверочными критериями T, L и N ), независимо от того, какие именно вычислительные правила M мы им предложим. Достаточно ли этих соображений для того, чтобы окончательно удостовериться в наличии противоречия? У читателя, возможно, осталось некое тревожное ощущение — кто знает, вдруг сквозь тщательно расставленные сети, невзирая на все наши старания, проскользнули какие-нибудь ошибочные ☆ M - или ☆ -утверждения? В конце концов, приведенные выше рассуждения будут иметь смысл лишь в том случае, если нам удастся исключить абсолютно все ошибочные ☆ M -утверждения (или ☆ -утверждения) в отношении Π 1-высказываний. Окончательно и бесповоротно удостовериться в истинности утверждения G ( Q 'M ( M )) нам (и роботам) поможет обоснованность формальной системы Q 'M ( M ) (обусловленная гипотезой M ). Эта самая обоснованность подразумевает, что система Q 'M ( M ) ни в коем случае не может содержать таких ☆ M -утверждений, которые являются — или всего лишь предполагаются — ошибочными. Невзирая на все предпринятые меры предосторожности, полной уверенности у нас (да и у роботов, полагаю) все-таки нет — хотя бы по той простой причине, что количество возможных утверждений подобного рода бесконечно.
3.20. Возможность ограничиться конечным числом ☆ M -утверждений
Есть, впрочем, возможность именно эту конкретную проблему разрешить и сузить область рассмотрения до конечного множества различных ☆ M -утверждений. Само доказательство несколько громоздко, однако основная идея заключается в том, что следует рассматривать только те Π 1-высказывания, спецификации которых являются «краткими» в некотором вполне определенном смысле. Конкретная степень необходимой «краткости» зависит от того, насколько сложное описание системы механизмов M нам необходимо. Чем сложнее описание M , тем «длиннее» допускаемые к рассмотрению Π 1-высказывания. «Максимальная длина» задается неким числом c, которое можно определить из степени сложности правил, определяющих формальную систему Q 'M ( M ). Смысл в том, что при переходе к гёделевскому предположению для этой формальной системы — которую нам, вообще говоря, придется слегка модифицировать — мы получим утверждение, сложность которого будет лишь немногим выше, нежели сложность такой модифицированной системы. Таким образом, проявив должную осторожность при выборе числа c, мы можем добиться того, что и гёделевское предположение будет также «кратким». Это позволит нам получить требуемое противоречие, не выходя за пределы конечного множества «кратких» Π 1-высказываний. Подробнее о том, как это осуществить на практике, мы поговорим в оставшейся части настоящего раздела. Тем из читателей, кого такие подробности не занимают (уверен, таких наберется немало), я рекомендую просто-напросто пропустить весь этот материал. Нам понадобится несколько модифицировать формальную систему Q 'M ( M ), приведя ее к виду Q 'M ( M , c ) — для краткости я буду обозначать ее просто как Q (c ) (отброшенные обозначения в данной ситуации несущественны и лишь добавляют путаницы и громоздкости). Формальная система Q (c ) определяется следующим образом: при построении этой системы допускается принимать в качестве «безошибочных» только те ☆ M -утверждения, степень сложности которых (задаваемая описанным выше числом ρ ) меньше c, где c есть некоторое должным образом выбранное число, подробнее о котором я расскажу чуть ниже. Для «безошибочных» ☆ M -утверждений, удовлетворяющих неравенству ρ & lt; c, я буду использовать обозначение «√ краткие ☆ M -утверждения». Как и прежде, множество действительных теорем формальной системы Q (c ) будет включать в себя не только √ краткие ☆ M -утверждения, но также и утверждения, получаемые из √ кратких ☆ M -утверждений посредством стандартных логических операций (позаимствованных, скажем, из исчисления предикатов). Хотя количество теорем системы Q (c ) бесконечно, все они выводятся с помощью обыкновенных логических операций из конечного множества √ кратких ☆ M -утверждений. Далее, поскольку мы ограничиваем рассмотрение конечным множеством, мы вполне можем допустить, что функции T, L и N постоянны (и принимают, скажем, наибольшие значения на конечном интервале ρ ). Таким образом, формальная система Q (c ) задается лишь четырьмя постоянными c, T, L, N и общей системой механизмов M , определяющих поведение робота. Отметим существенный для наших рассуждений момент: гёделевская процедура строго фиксирована и не нуждается в увеличении сложности выше некоторого определенного предела. Гёделевским предположением G ( H ) для формальной системы H является Π 1-высказывание, степень сложности которого должна лишь на сравнительно малую величину превышать степень сложности самой системы H , причем эту величину можно определить точно. Конкретности ради я позволю себе некоторое нарушение системы обозначений и буду вкладывать в запись «G ( H )» некий особый смысл, который может и не совпасть в точности с определением, данным в §2.8. В формальной системе H нас интересует лишь ее способность доказывать Π 1-высказывания. В силу этой своей способности система H дает нам алгебраическую процедуру A, с помощью которой мы можем в точности установить (на основании завершения выполнения A ) справедливость тех Π 1-высказываний, формулировка которых допускается правилами системы H. А под Π 1-высказыванием понимается утверждение вида «действие машины Тьюринга Tp (q ) не завершается» — здесь и далее мы будем пользоваться специальным способом маркировки машин Тьюринга, описанным в Приложении А (или в НРК, глава 2). Мы полагаем, что процедура A выполняется над парой чисел (p, q ), как в §2.5. Таким образом, собственно вычисление А (p, q ) завершается в том и только в том случае, если в рамках формальной системы H возможно установить справедливость того самого Π 1-высказывания, которое утверждает, что «действие Tp (q ) не завершается». С помощью описанной в §2.5 процедуры мы получили некое конкретное вычисление (обозначенное там как «Ck (k )»), а вместе с ним, при условии обоснованности системы H , и истинное Π 1-высказывание, которое системе H оказывается «не по зубам». Именно это Π 1-высказывание я буду теперь обозначать через G ( H ). Оно существенно эквивалентно (при условии достаточной обширности H ) действительному утверждению «система H непротиворечива», хотя в некоторых деталях эти два утверждения могут и не совпадать (см. §2.8). Пусть α есть степень сложности процедуры A (по определению, данному в §2.6, в конце комментария к возражению Q8 ) — иными словами, количество знаков в двоичном представлении числа α , где A = Tα . Тогда, согласно построению, представленному в явном виде в Приложении А, находим, что степень сложности η утверждения G ( H ) удовлетворяет неравенству η & lt; α + 210 Iog2(α + 336). Для нужд настоящего рассуждения мы можем определить степень сложности формальной системы H как равную степени сложности процедуры A, т.е. числу α . Приняв такое определение, мы видим, что «излишек» сложности, связанный с переходом от H к G ( H ), оказывается еще меньше, чем и без того относительно крохотная величина 210 Iog2(α + 336). Далее нам предстоит показать, что если H = Q (c ) при достаточно большом c, то η & lt; c. Отсюда, соответственно, последует, что и Π 1-высказывание G(Q(c)) должно оказаться в пределах досягаемости системы Q (с) при условии, что роботы принимают G ( Q (c )) с ☆ -убежденностью. Доказав, что c & gt; γ + 210 log2(γ + 336), мы докажем и то, что γ & lt; c; буквой γ мы обозначили значение α при H = Q (c ). Единственная возможная сложность здесь обусловлена тем обстоятельством, что сама величина γ зависит от c, хотя и не обязательно очень сильно. Эта зависимость γ от c имеет две различных причины. Во-первых, число c являет собой явный предел степени сложности тех Π 1-высказываний, которые в определении формальной системы Q (c ) называются «безошибочными ☆ M -утверждениями»; вторая же причина происходит из того факта, что система Q (c ) явным образом обусловлена выбором чисел T, L и N, и можно предположить, что для принятия в качестве «безошибочного» ☆ M -утверждения большей сложности необходимы какие-то более жесткие критерии. Относительно первой причины зависимости γ от c отметим, что описание действительной величины числа c необходимо задавать в явном виде только однажды (после чего внутри системы достаточно обозначения c ). Если при задании величины с используется чисто двоичное представление, то (при больших c ) такое описание дает всего-навсего логарифмическую зависимость γ от c (поскольку количество знаков в двоичном представлении натурального n равно приблизительно log2n ). Вообще говоря, учитывая, что число с интересует нас лишь в качестве возможного предела, точное значение которого находить вовсе не обязательно, мы можем поступить гораздо более остроумным образом. Например, число 22...2 с s показателями можно задать с помощью s символов или около того, и вовсе нетрудно подыскать примеры, в которых величина задаваемого числа возрастает с ростом s еще быстрее. Сгодится любая вычислимая функция от s. Иными словами, для того чтобы задать предел c (при достаточно большом значении c ), необходимо всего лишь несколько символов. Что касается второй причины, т.е. зависимости от c чисел T, L и N, то, в силу вышеизложенных соображений, представляется очевидным, что для задания величин этих чисел (в особенности, их возможных предельных значений) совершенно не требуется, чтобы количество знаков в их двоичном представлении возрастало так же быстро, как c; более чем достаточно будет и, скажем, обыкновенной логарифмической зависимости от c. Следовательно, мы с легкостью можем допустить, что зависимость величины γ + 210 log2(γ + 336) от c является не более чем грубо логарифмической, а также устроить так, чтобы само число c всегда было больше этой величины. Согласимся с таким выбором с и будем в дальнейшем вместо Q (c ) записывать Q *. Итак, Q * есть формальная система, теоремами которой являются все математические высказывания, какие можно вывести из конечного количества √ кратких ☆ M -утверждений, используя стандартные логические правила (исчисление предикатов). Количество этих ☆ M -утверждений конечно, поэтому разумным будет предположить, что для гарантии их действительной безошибочности вполне достаточно некоторого набора постоянных T, L и N. Если роботы верят в это с ☆ M -убежденностью, то они, несомненно, ☆ M -заключат, что гёделевское предположение G ( Q *) также истинно на основании гипотезы M, поскольку является Π 1-высказыванием меньшей, нежели c, сложности. Рассуждение для получения утверждения G ( Q *) из ☆ M -убежденности в обоснованности формальной системы Q * достаточно просто (в сущности, я его уже привел), так что с присвоением этому утверждению статуса ☆ M проблем возникнуть не должно. То есть само G ( Q *) также должно быть теоремой системы Q *. Это, однако, противоречит убежденности роботов в обоснованности Q *. Таким образом, упомянутая убежденность (при условии справедливости гипотезы M и достаточно больших числах T, L и N ) оказывается несовместимой с убежденностью в том, что поведением роботов действительно управляют механизмы M , — а значит, механизмы M поведением роботов управлять не могут. Как же роботы могут удостовериться в том, что были выбраны достаточно большие числа T, L и N? Никак. Вместо этого они могут выбрать некоторый набор таких чисел и попробовать допустить, что те достаточно велики, — и прийти в результате к противоречию с исходным предположением, согласно которому их поведение обусловлено набором механизмов M. Далее они вольны предположить, что достаточным окажется набор из несколько больших чисел, — снова прийти к противоречию и т.д. Вскоре они сообразят, что к противоречию они приходят при любом выборе значений (вообще говоря, здесь нужно учесть, помимо прочего, небольшой технический момент, суть которого состоит в том, что при совершенно уже запредельных значениях T, L и N значение c также должно будет несколько подрасти — однако это неважно). Таким образом, получая один и тот же результат вне зависимости от значений T, L и N, роботы — равно как, по всей видимости, и мы — приходят к заключению, что в основе их математических мыслительных процессов не может лежать познаваемая вычислительная процедура M , какой бы она ни была.
Окончателен ли приговор?
Отметим, что к такому же выводу мы придем и в случае принятия нами самых разных возможных мер предосторожности, причем вовсе необязательно подобных тем, что я предлагал выше. Наверняка в предложенную модель можно еще внести множество усовершенствований. Можно, например, предположить, что роботы в результате длительной работы впадают в «старческое слабоумие», их сообщества вырождаются, а стандарты падают, т.е. увеличение числа T выше определенного значения на деле увеличивает и вероятность ошибки в ☆ M -утверждениях. С другой стороны, если слишком большим сделать N (или L ), то возникает риск исключить вообще все ☆ M -утверждения из-за существующего в сообществе меньшинства «глупых» роботов, разражающихся время от времени произвольными ☆ M -утверждениями, которые в данном случае не перекроются необходимым количеством ☆ -утверждений, формулируемых роботами здравомыслящими. Несомненно, не составит большого труда такой риск полностью исключить, введя еще несколько ограничивающих параметров или, скажем, сформировав группу элитных роботов, силами которых рядовые члены сообщества будут непрерывно тестироваться на предмет адекватности своих интеллектуальных способностей, и потребовав к тому же, чтобы статус йг присваивался утверждениям только с одобрения всего сообщества роботов в целом. Существует и много других возможностей улучшения качества ☆ M -утверждений или исключения ошибочных утверждений из общего (конечного) их числа. Кого-то, возможно, обеспокоит тот факт, что, несмотря на установление предела с сложности Π 1-высказываний, ограничивающего общее количество кандидатов на ☆ - или ☆ M -статус до некоторой конечной величины, эта величина окажется все же чрезвычайно огромной (будучи экспоненциально зависимой от c ), вследствие чего становится весьма сложно однозначно удостовериться, что исключены все возможные ошибочные ☆ M -утверждения. В самом деле, никакого ограничения не задается в рамках нашей модели на количество «робото-вычислений», необходимых для получения удовлетворительного ☆ M -доказательства какого-либо из Π 1-высказываний. Следует ввести четкое правило: чем длиннее в таком доказательстве цепь рассуждений, тем более жесткие критерии применяются при решении вопроса о присвоении ему ☆ M -статуса. В конце концов, математики-люди реагировали бы именно так. Прежде чем принять в качестве неопровержимого доказательства собрание многочисленных путаных аргументов, мы, естественно, чрезвычайно долго и придирчиво его изучаем. Аналогичные соображения, разумеется, применимы и к тому случаю, когда предложенное доказательство на предмет его соответствия ☆ M -статусу исследуют роботы. Вышеприведенные рассуждения в равной степени справедливы и в случае любой дальнейшей модификации условий, имеющих целью устранение ошибок, при условии, что характер такой модификации в некоем широком смысле аналогичен характеру уже предложенных. Для того чтобы эти рассуждения работали, необходимо лишь наличие какого угодно четко сформулированного и вычислимого условия, достаточного для устранения всех ошибочных ☆ M -утверждений. В результате мы приходим к строгому выводу: никакие познаваемые механизмы, пусть и снабженные какими угодно вычислительными «подпорками», не способны воспроизвести корректное математическое умозаключение человека. Мы рассматривали ☆ M -утверждения, которые, оказавшись по той или иной причине ошибочными, в принципе исправимы самими роботами, — пусть даже в каком-то конкретном экземпляре модели роботова сообщества эти утверждения так и остаются неисправленными. Что же еще может означать (в операционном смысле) фраза «в принципе исправимы», как не «исправимы средствами некоторой общей процедуры, подобной тем, что предложены выше»? Ошибка, которую не исправил позднее тот робот, что ее допустил, может быть исправлена каким-либо другим роботом — более того, большинство потенциально существующих экземпляров первого робота эту конкретную ошибку вообще не допустят. Делаем вывод (с одной, по-видимому, незначительной оговоркой, суть которой в том, что хаотические компоненты нашей модели можно еще заменить на подлинно случайные; см. ниже, §3.22): никакой набор познаваемых вычислительных правил M (неизменных нисходящих, «самосовершенствующихся» восходящих либо и тех, и других в какой угодно пропорции) не может обусловливать поведение нашего сообщества роботов, равно как и отдельных его членов, — если исходить из допущения, что роботы способны достичь человеческого уровня математического понимания. Вообразив, что мы сами функционируем как управляемые вычислительными правилами роботы, мы оказываемся перед непреодолимым противоречием.
|
Последнее изменение этой страницы: 2019-06-19; Просмотров: 207; Нарушение авторского права страницы