Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Чувствуют ли роботы боль?
Скорее всего, роботам будут доставаться в первую очередь задачи монотонные, грязные и опасные. Им ничто не мешает делать одно и то же действие или одну и ту же работу до бесконечности, потому что мы не станем программировать их ни на скуку, ни на отвращение. Реальная проблема появится, когда роботы столкнутся с опасными заданиями, и в этот момент нам, возможно, придется запрограммировать их на ощущение боли. Боль появилась в процессе эволюции потому, что это ощущение помогает выжить в опасной обстановке. Существует генетический дефект, при котором ребенок рождается неспособным ощущать боль. Называется это врожденной аналгезией. На первый взгляд такое свойство может показаться благословением (ведь эти дети не плачут, когда поранятся), но на деле это скорее проклятие. Дети с таким нарушением постоянно находятся в серьезной опасности: они нередко откусывают себе кусочек языка, могут сильно обжечься или порезаться, что часто ведет к ампутации пальцев. Боль предупреждает нас об опасности и говорит, когда нужно убрать руку от горячей плиты или перестать бегать на подвернувшейся ноге. В какой‑то момент роботов обязательно нужно будет запрограммировать на чувство боли, иначе они не смогут понять, как избежать рискованных ситуаций. Первым болезненным ощущением для них должен стать голод (т. е. чувство нехватки электроэнергии). По мере разрядки батарей робот должен будет чувствовать все более отчаянную и настоятельную нужду в электричестве, понимая, что скоро его схемы перестанут действовать и «жизнь» остановится. Чем ближе этот неприятный момент, тем тревожнее будет роботу. Кроме того, каким бы сильным ни был робот, он может случайно поднять слишком тяжелый предмет, отчего у него могут сломаться конечности. Или он может перегреться, работая с расплавленным металлом на сталелитейном заводе или входя в горящий дом, чтобы помочь пожарным. Датчики температуры и напряжения предупредят робота о том, что параметры окружающей среды вышли за пределы его возможностей. Но если добавить боль в меню эмоций робота, это сразу же поставит перед нами серьезные этические проблемы. Многие сегодня считают, что не следует причинять животным ненужные страдания, а завтра наверняка появятся люди, которые перенесут это отношение и на роботов, открыв тем самым двери проблеме прав роботов. Не исключено, что нам придется принимать законы, ограничивающие опасности, которым можно будет подвергать роботов. Люди не будут протестовать, если роботу выпадет скучная или грязная работа, но боль при выполнении опасных заданий – другое дело; не исключено, что найдутся люди, которые станут лоббировать принятие законов о защите роботов. Может возникнуть даже юридический конфликт, в ходе которого владельцы и производители роботов будут выступать за повышение допустимого уровня страданий для роботов, а специалисты по этике – за его снижение. В свою очередь, это может инициировать новые этические дебаты на тему других прав роботов. Могут ли роботы владеть имуществом? Что произойдет, если робот случайно нанесет человеку вред? Можно ли подать на робота в суд или наказать его? Кто отвечает за робота в суде? Может ли робот владеть другим роботом? Это обсуждение повлечет за собой еще один спорный вопрос: нужно ли снабжать роботов этическим чувством?
Этичные роботы
Поначалу сама мысль об этичных роботах кажется пустой тратой времени и усилий. Однако вопрос становится насущным, если подумать о том, что роботы будут принимать решения по вопросам жизни и смерти. Они будут физически сильны и способны спасти жизнь человека в критической ситуации, поэтому им неизбежно придется принимать мгновенные решения о том, кого следует спасать первым. Представим, что происходит землетрясение и в стремительно рушащемся здании заперта группа детей. Как должен робот распределить свою энергию? Должен ли он спасти как можно больше детей? Или ему следует спасать самых маленьких? Или самых беззащитных? Если обломки здания окажутся слишком крупными, робот, пытаясь их разобрать, может повредить свои электронные схемы. Так что роботу придется решать и еще один этический вопрос: как взвесить на одних весах число спасенных детей и степень повреждения его собственной электроники? Без надлежащей программы робот может просто остановиться, ожидая, когда человек за него примет решение, теряя при этом драгоценное время. Так что кому‑то придется заранее заложить в программу робота все необходимые данные и критерии, чтобы в нужный момент робот автоматически «принял» верное решение. Решение этических проблем придется записывать в компьютерную программу заранее, еще при создании робота, поскольку не существует математических законов, которые позволили бы оценить спасение группы детей. В программе робота должен присутствовать длинный список самых разных вещей, ранжированных по важности. Создание такого списка – сложная и очень кропотливая работа. Даже у человека иногда на усвоение подобных этических уроков уходит целая жизнь, а робот, чтобы безопасно войти в общество, должен усвоить их практически одномоментно, еще до выхода с завода. Только человек способен справиться с этическими проблемами, да и нас они иногда ставят в тупик. Возникает вопрос: кто будет принимать решения? Кто решит, в каком порядке робот должен спасать людей? Вопрос о том, как в конечном итоге станут приниматься подобные решения, будет, по всей видимости, разрешен при помощи одновременно закона и рынка. Нам придется принять законы, чтобы по крайней мере вопрос о том, в каком порядке по важности следует спасать людей в критической ситуации, решался законодательно. Кроме того, возникнут тысячи более тонких этических вопросов. Их, вероятно, придется решать посредством рынка и здравого смысла. Если вы работаете в охранной фирме, обеспечивающей безопасность важных персон, то вам придется объяснить роботу, в каком именно точном порядке ему следует спасать людей в различных ситуациях; при этом вы, вероятно, будете отталкиваться от необходимости, с одной стороны, выполнить контракт, а с другой – удержаться при этом в рамках бюджета. Что произойдет, если преступник купит робота и захочет, чтобы тот совершил преступление? Возникает вопрос: должен ли робот иметь возможность не подчиниться хозяину, если тот попросит его нарушить закон? Из предыдущего примера мы видели, что роботы должны быть запрограммированы на понимание закона и принятие этических решений. Так что если робот решит, что его просят нарушить закон, то ему должно быть позволено не подчиниться хозяину. Возникает также этическая дилемма в связи с роботами, отражающими взгляды своих хозяев, которые могут сильно различаться по моральным и социальным нормам. Сегодняшние «культурные войны» в обществе только усилятся, если появятся роботы, разделяющие взгляды и верования хозяев. В определенном смысле этот конфликт неизбежен. Роботы – механическое продолжение мыслей и желаний своих создателей, и когда они станут достаточно сложными, чтобы принимать моральные решения, они будут это делать. Общество может столкнуться с неочевидными сегодня и неожиданными проблемами, когда роботы начнут демонстрировать поведение, бросающее вызов нашим ценностям и целям. Роботы, принадлежащие юнцам, расходящимся с шумного рок‑концерта, могут вступить в конфликт с роботами, принадлежащими пожилым жителям тихого района. Первые, может быть, будут запрограммированы на громкое воспроизведение модной музыки, а вторые – на сохранение тишины. Роботы, принадлежащие набожным людям, могут не сойтись во мнениях с роботами, принадлежащими атеистам. Роботы разных национальностей и культур могут быть сконструированы так, чтобы отражать соответствующие культурные стереотипы, и это понравится далеко не всем (в том числе и людям, не говоря уже о роботах.) Итак, как нужно программировать роботов, чтобы избежать подобных конфликтов? Это невозможно. Попросту говоря, роботы неизбежно будут отражать предпочтения и предрассудки своих создателей. В конце концов культурные и этические противоречия между роботами придется разрешать в судах. Никакие законы природы или науки не решат за нас моральные вопросы, так что в итоге для разрешения подобных социальных конфликтов придется писать соответствующие законы. Роботы не смогут решить моральные дилеммы, созданные людьми. Более того, появление роботов может их обострить. Но если роботы смогут принимать этические и юридические решения, то в состоянии ли они чувствовать и понимать чувства других? Если роботу удастся кого‑нибудь спасти, обрадуется ли он этому? Или сможет ли робот хотя бы осознать, что такое красный цвет? Холодный анализ ситуации и решение о том, кого нужно спасать, – это одно, а понимание и сочувствие – совсем другое. Так могут ли роботы чувствовать?
Понимание или чувство?
На протяжении столетий выдвигалось множество теорий о том, может ли машина думать и чувствовать. Философия, которой придерживаюсь лично я, называется «конструктивизм» и состоит в том, что вместо бесконечного обсуждения этого вопроса (а оно бессмысленно) нам следует направить свою энергию на создание реального автомата и посмотреть, как далеко нам удастся зайти. В противном случае мы увязнем в бесконечных философских дебатах, разрешить которые окончательно невозможно. Преимущества науки в том, что, когда все сказано и сделано, можно провести эксперимент и найти решение проблемы. Таким образом, чтобы понять, смогут ли роботы думать, следует, вероятно, сделать робота и посмотреть, что получится. Некоторые исследователи, однако, заранее уверены, что машины никогда не научатся думать, как люди. Самый сильный их аргумент заключается в том, что, хотя робот способен манипулировать фактами быстрее, чем человек, он не «понимает», что делает. Он может работать с ощущениями (такими как цвет или звук) лучше человека, но не может по‑настоящему «чувствовать» или «воспринимать» суть этих ощущений. Так, философ Дэвид Чалмерс разделил проблемы искусственного интеллекта на две категории – проблемы простые и сложные. Проблемы простые – это создание машин, способных имитировать все больше человеческих способностей, таких как игра в шахматы, сложение чисел, распознавание определенных закономерностей и т. п. Проблемы сложные включают, в частности, создание машин, способных понимать чувства и субъективные ощущения, так называемые «квалиа». Точно так, как невозможно объяснить, что такое красный цвет, слепому, так и робот никогда не сможет испытать субъективное ощущение красного цвета, говорят сторонники такой точки зрения. Даже если компьютер и сможет, наверное, быстро перевести китайские слова на английский, он никогда не сможет понять то, что переводит. В этой картине мира роботы напоминают улучшенные магнитофоны или счетные машины, способные воспроизводить информацию и оперировать ею с невероятной точностью, но без всякого понимания. Эти аргументы следует принимать всерьез, но существует и другая точка зрения на вопрос квалиа и субъективного опыта. В будущем машины, скорее всего, научатся воспринимать такие вещи, как красный цвет, много лучше любого человека. Робот сможет описать физические свойства красного и даже поэтически использовать его в образной фразе. Но «почувствует» ли робот красный цвет? Вопрос лишается смысла, поскольку слово «чувствовать» точно не определено. В какой‑то момент, когда сделанное роботом описание красного цвета окажется лучше сделанного человеком, робот сможет с полным правом спросить: а понимают ли люди по‑настоящему красный цвет? Может быть, они не в состоянии понять его со всеми нюансами и столь же тонко, как робот. Как сказал однажды бихевиорист Б. Ф. Скиннер: «Настоящая проблема не в том, думают ли машины, а в том, думают ли люди». К тому же это только вопрос времени, когда роботы научатся определять китайские слова и использовать их в контексте намного лучше любого человека. В этот момент будет уже неважно, «понимает» ли робот китайский язык. Для практических целей компьютер будет владеть китайским лучше человека. Иными словами, слово «понимать» тоже точно не определено. Однажды, когда роботы превзойдут нас по способности манипулировать словами и ощущениями, вопрос о том, «понимают» ли они их и «чувствуют» ли, лишится смысла. Это будет уже неважно. Математик Джон фон Нейман сказал: «В математике не нужно понимать. Нужно просто привыкнуть». Так что проблема не в «железе», а в природе человеческого языка, в котором слова, не определенные точно, для разных людей означают разное. Великого физика Нильса Бора однажды спросили, как можно понять глубокие парадоксы квантовой теории. Ответ, сказал Бор, заключается в том, как вы определите слово «понять». Философ Дэниел Деннетт из Университета Тафтса написал: «Объективный тест, который позволил бы отличить умного робота от сознательного человека, невозможен. Так что у вас есть выбор: либо держаться за сложные проблемы, либо покачать головой и забыть о них. Просто перестать о них думать». Иными словами, сложных проблем нет. Для конструктивистской философии смысл не в том, чтобы спорить, может ли машина «почувствовать» красный цвет, а в том, чтобы сконструировать такую машину. В этой системе существует континуум уровней, описывающих слова «понимать» и «чувствовать» (это означает, что может оказаться возможной даже численная оценка степени понимания или ощущения). На одном конце шкалы мы имеем неуклюжих сегодняшних роботов, способных манипулировать в лучшем случае несколькими символами. На другом конце – человек, который гордится тем, что ощущает квалиа. Но время идет, и когда‑нибудь роботы научатся лучше нас описывать ощущения на любом уровне. Вот тогда‑то и станет ясно со всей очевидностью, что́ роботы понимают. Именно такая философия стоит за знаменитым тестом Тьюринга. Алан Тьюринг предсказал, что однажды будет создана машина, способная ответить на любой вопрос так, чтобы по ответам ее невозможно было отличить от человека. Тьюринг говорил: «Компьютер тогда будет заслуживать наименования разумного, когда сможет обмануть человека и заставить его поверить, что он тоже человек». Физик и нобелевский лауреат Фрэнсис Крик сказал об этом лучше всех. Последние сто лет, отметил он, биологи горячо спорили над вопросом «Что есть жизнь?». Теперь, когда мы многое узнали о ДНК, ученые понимают, что вопрос задан недостаточно точно. Сегодня вопрос «Что есть жизнь?» попросту ушел в тень. То же может со временем произойти с ощущением и пониманием.
Самосознание роботов
Какие шаги необходимо предпринять, прежде чем компьютеры, такие как Watson, осознают себя? Для ответа на этот вопрос нам придется вернуться к нашему определению самосознания как способности ввести себя в модель окружающего мира, а затем смоделировать будущее этого мира для достижения некой цели. Для первого шага – создания модели – требуется очень высокий уровень здравого смысла, позволяющий предвидеть различные варианты событий. Затем робот должен поместить себя внутрь этой модели, для чего требуется понимание различных вариантов действий, которые могут при этом потребоваться. В Университете Мэйдзи (Япония) ученые уже сделали первые шаги к созданию робота с самосознанием. Это, конечно, программа‑максимум, но ученые считают, что смогут ее выполнить путем создания роботов с теорией разума. Начали они с двух роботов. Первый из них был запрограммирован на выполнение определенных движений. Второй – на наблюдение за первым роботом и копирование его действий. Исследователям удалось сконструировать робота, который мог имитировать поведение другого робота, просто наблюдая за ним. Впервые в истории робот был создан специально для того, чтобы каким‑то образом осознавать себя. Второй робот владеет теорией разума, т. е. он способен наблюдать за другим роботом и копировать его действия. В 2012 г. учеными Йельского университета был сделан следующий шаг: они создали робота, который прошел зеркальный тест. Вообще, когда животных ставят перед зеркалом, они, как правило, думают, что видят в зеркале другое животное. Как известно, очень немногие животные способны пройти зеркальный тест, т. е. осознать, что видят в зеркале отражение самого себя. Ученые из Йеля построили робота по имени Нико, который внешне напоминает нескладный скелет из гнутой проволоки с механическими руками и выпученными глазами на макушке. Оказавшись перед зеркалом, Нико смог не только узнать в нем себя, но и определить положение предметов в комнате, глядя на их отражения. Мы делаем примерно то же, когда смотрим в зеркало заднего вида и определяем положение объектов позади нас. Программист Нико Джастин Харт говорит: «Насколько нам известно, это первая роботизированная система, которая пытается использовать зеркало таким образом, что представляет собой существенный шаг к цельной архитектуре, которая позволяет роботам многое узнавать о своих телах и внешности путем самонаблюдения; кроме того, это важная способность, необходимая для успешного прохождения зеркального теста». Роботы из Университета Мэйдзи и Йельского университета представляют собой новейшие достижения в плане создания сознающих себя роботов, поэтому несложно понять, что ученым предстоит еще многое сделать, прежде чем появятся роботы с самосознанием, которое было бы хоть сколько‑то сравнимо с человеческим. Это всего лишь первые шаги, поскольку наше определение самосознания требует, чтобы робот использовал эту информацию для моделирования будущего, а это выходит далеко за пределы возможностей Нико или какого бы то ни было другого робота. Перед нами встает важный вопрос: как может компьютер полностью осознать себя? В научной фантастике часто встречается ситуация, в которой Интернет как глобальная сеть вдруг осознает себя, как Терминатор в одноименном фильме. Интернет сегодня связан со всей инфраструктурой современного общества (с канализацией, линиями электропередач, телекоммуникационными системами, оружием и т. д.), поэтому в случае обретения самосознания ему было бы несложно перехватить управление обществом. Мы в подобной ситуации оказались бы беспомощны. Ученые пишут, что может произойти в результате системного эффекта (т. е. если собрать воедино достаточно большое число компьютеров, неожиданный фазовый переход на более высокий уровень может произойти даже без дополнительного воздействия извне). Однако сказать так означает сказать одновременно и слишком много, и слишком мало, поскольку все важные промежуточные шаги остаются за кадром. По существу, это то же самое, что сказать, будто бы при достаточном числе дорог вся шоссейная система в целом может вдруг осознать себя. Но мы уже дали определения сознания и самосознания, поэтому сможем дать список шагов, посредством которых Интернет может обрести самосознание. Во‑первых, разумный Интернет должен будет постоянно моделировать свое место в окружающем мире. В принципе, такую информацию можно запрограммировать и ввести в Интернет извне. Для этого необходимо описать окружающий мир (т. е. землю, ее города и компьютеры); следует отметить, что информацию обо всем этом можно найти в том же Интернете. Во‑вторых, Интернет должен был бы поместить себя в созданную модель мира. Такую информацию тоже несложно получить. При этом нужно было бы включить в нее все характеристики Интернета (число компьютеров, узлов, линий связи и т. п.) и его отношений с внешним миром. Но третий шаг намного сложнее остальных. Необходимо постоянно моделировать свое развитие в будущем в соответствии с поставленной целью. Здесь‑то мы и натыкаемся на стену. Интернет не способен моделировать будущее, и у него нет целей. Даже в научном мире моделирование будущего обычно проводится лишь по нескольким параметрам (к примеру, моделирование столкновения двух черных дыр). Моделирование мира, включающего в себя Интернет, выходит за рамки сегодняшних возможностей программирования. Для этого необходимо было бы привлечь все законы здравого смысла, все законы физики, химии и биологии, а также данные о поведении человека и человеческого общества. Плюс ко всему разумный Интернет должен был бы иметь цель. Сегодня это всего лишь пассивная сеть дорог без всякого выделенного направления и задачи. Конечно, в принципе Интернету можно придать цель. Но давайте рассмотрим следующую проблему: можно ли создать Интернет, целью которого было бы самосохранение? Вообще‑то это простейшая возможная цель, но никто не знает, как запрограммировать даже такую простую задачу. Такая программа, к примеру, должна была бы пресекать любую попытку отключить Интернет путем вынимания вилки из розетки. В настоящее время Интернет совершенно не способен распознать угрозу своему существованию, не говоря уже о том, чтобы спланировать действия по предотвращению беды. (Так, Интернет, способный распознавать угрозу своему существованию, должен был бы иметь возможность заранее узнавать о попытках отключить питание, разорвать линии связи, уничтожить серверы, разрушить оптико‑волоконные и спутниковые каналы связи и т. п. Далее, у Интернета, способного защитить себя от подобных атак, должна быть возможность принять контрмеры при возникновении подобной угрозы; затем его следовало бы промоделировать в будущее. Ни один компьютер на земле сегодня не способен даже на малую долю перечисленных действий.) Иными словами, не исключено, что когда‑нибудь у нас появится возможность создавать сознающих себя роботов и даже сознающий себя Интернет, но произойдет это еще очень не скоро, возможно, в конце века. Но предположим на мгновение, что день этот наступил и сознающие себя роботы уже среди нас. Если цели такого робота совместимы с нашими собственными целями, то этот тип искусственного интеллекта не создаст для нас никаких проблем. Но что произойдет, если цели окажутся разными? Существует опасение, что люди могут проиграть в интеллекте сознательным роботам, и тогда нам грозит порабощение. Благодаря способности лучше нас моделировать будущее роботы смогли бы перебрать множество сценариев и найти наилучший способ свергнуть человечество. Один из способов не допустить такого развития событий – сделать так, чтобы у роботов были только благие цели. Как мы уже видели, одного только моделирования будущего недостаточно. Это моделирование должно служить конечной цели. Если цель робота – всего лишь самосохранение, он будет защищаться от любой попытки вытащить вилку из розетки, что может стать источником серьезных неприятностей для человечества.
|
Последнее изменение этой страницы: 2019-03-31; Просмотров: 459; Нарушение авторского права страницы