Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Есть ли у роботов сознание?
Может быть, самый простой способ разобраться, почему настоящих роботов‑автоматов до сих пор не существует, состоит в том, чтобы измерить уровень их сознания. Как мы видели в главе 2, можно выделить четыре уровня сознания. Уровень 0 описывает термостаты и растения; в нем задействованы несколько обратных связей по горстке простых параметров, таких как температура или солнечное освещение. Первый уровень сознания описывает насекомых и рептилий, которые подвижны и имеют центральную нервную систему; в нем создается модель окружающего мира с учетом нового параметра, положения в пространстве. Далее идет сознание уровня II, создающее модель мира с учетом отношений с себе подобными; для этого требуются эмоции. Наконец, сознание уровня I описывает человека: он включает время и самосознание, моделирует развитие событий в будущем и определяет собственное место в этих моделях. Можно воспользоваться такой теорией и определить уровень сознания сегодняшних роботов. Роботы первого поколения находились на нулевом уровне сознания, поскольку были статичны и не имели колес или конечностей для ходьбы. Сегодняшние роботы соответствуют уровню I, поскольку они мобильны, но внутри этого уровня они располагаются в самом нижнем эшелоне, поскольку ориентируются в реальном мире с громадными трудностями. Их сознание можно сравнить с сознанием червя или медленного насекомого. Чтобы получить полноценное сознание уровня I, ученым придется создать роботов, способных реалистично имитировать сознание насекомых и рептилий. Даже насекомые обладают способностями, которых нет у сегодняшних роботов: они умеют быстро прятаться, отыскивать в лесу партнера для спаривания, распознавать хищника и уходить от него, отыскивать пищу и убежище. Как мы уже упоминали, можно численно оценить сознание на каждом уровне по количеству обратных связей. К примеру, роботы, обладающие зрением, могут иметь несколько обратных связей, поскольку их зрительные сенсоры могут регистрировать тени, контуры, кривые, геометрические формы в трехмерном пространстве. Точно так же роботы, снабженные слухом, нуждаются в датчиках частоты, силы звука, акцентов, пауз и т. п. Полное число обратных связей у них может доходить примерно до десяти (тогда как у насекомого, которое живет в дикой природе, находит партнеров, убежище и т. п., обратных связей может быть пятьдесят или даже больше). Таким образом, типичный робот обладает, скажем, сознанием уровня I: 10. Чтобы подняться до уровня II, роботам придется научиться моделировать мир с учетом отношений с окружающими. Как мы уже упоминали, сознание уровня II в первом приближении оценивается произведением числа членов группы на количество эмоций и жестов, используемых ими для общения между собой. Таким образом, роботы имели бы сознание уровня II: 0. Но можно надеяться, что эмоциональные роботы, создаваемые сегодня в лабораториях, вскоре поднимут свой уровень. Нынешние роботы рассматривают человека как набор пикселов, движущихся на экранах датчиков, но некоторые исследователи искусственного интеллекта уже начинают создавать роботов, способных распознавать эмоции по выражению лица и тону голоса. Это первый шаг к тому, чтобы роботы «поняли»: человек – не просто набор случайных пикселов, и он может находиться в различных эмоциональных состояниях. В ближайшие несколько десятков лет роботы будут постепенно подниматься в пределах сознания уровня II: сначала они сравняются по интеллекту с мышью, крысой, кроликом, а затем с кошкой. Не исключено, что к концу века они догонят по интеллекту обезьян и начнут ставить перед собой собственные цели. Как только у роботов появятся пригодный к практическому использованию здравый смысл и теория разума, они получат возможность проводить сложное моделирование будущего с собой в главной роли и таким образом перейдут на сознание уровня III. Они покинут мир настоящего и вступят в мир будущего. Это, разумеется, на много десятилетий отстоит от реальных возможностей любого сегодняшнего робота. Моделирование будущего означает, что вы хорошо понимаете законы природы и причинности, владеете здравым смыслом и, соответственно, можете предвидеть будущие события. Это означает также, что вы понимаете человеческие намерения и мотивы, а, следовательно, можете предсказать поведение людей в будущем. Численная оценка сознания уровня III получается, как мы уже говорили, путем деления полного числа причинно‑следственных связей, которые можно выделить при моделировании будущего в различных ситуациях, на среднюю величину контрольной группы. Компьютеры сегодня способны проводить ограниченное моделирование по нескольким параметрам (к примеру, они могут смоделировать столкновение двух галактик, обтекание летящего самолета потоком воздуха, поведение здания во время землетрясения), но совершенно не готовы моделировать будущее в сложных жизненных ситуациях, так что уровень их сознания можно оценить как III: 5. Понятно, что потребуется не одно десятилетие серьезных усилий, прежде чем у нас появится робот, способный нормально функционировать в человеческом обществе.
Помехи в пути
Итак, когда же роботы смогут наконец‑то догнать и перегнать человека по интеллекту? Конечно, никто этого не знает, но предсказаний много. Большинство из них основано на предположении, что в ближайшие десятилетия закон Мура будет продолжать действовать. Однако закон Мура – вовсе не закон; более того, он, по существу, нарушает фундаментальный закон природы и противоречит квантовой теории. Закон Мура как таковой не может действовать вечно. Уже сегодня мы видим замедление развития. К концу этого или, может быть, следующего десятилетия процесс, возможно, полностью затормозится, и последствия этого, особенно для Кремниевой долины, могут оказаться весьма печальными. Суть проблемы проста. В настоящий момент вы можете разместить сотни миллионов кремниевых транзисторов на кристалле размером с ноготь, но для плотности упаковки элементов существует конкретный предел. Сегодня самый тонкий слой кремния на микросхеме Pentium составляет примерно 20 атомов в толщину, к 2020 г. толщина такого слоя может уменьшиться до пяти атомов. Но тогда вступит в действие принцип неопределенности Гейзенберга: вы не сумеете определить в точности, где находится электрон, и он сможет потихоньку «просочиться», уйти с проводящего слоя (см. приложение, где мы обсуждаем квантовую теорию и принцип неопределенности подробнее), и в микросхеме произойдет короткое замыкание. К тому же такая микросхема будет выделять тепла достаточно много, чтобы поджарить яичницу. Утечки и тепло со временем непременно положат конец действию закона Мура. Необходима будет замена. Если размещение транзисторов на плоской подложке подходит к пределу в смысле компьютерной мощности, то Intel ставит миллиарды долларов на то, что микросхемы вскоре захватят третье измерение и станут объемными. Время покажет, оправдаются ли их надежды (одна из серьезнейших проблем объемных микросхем состоит в том, что выделение тепла стремительно растет с толщиной чипа). Microsoft рассматривает другие возможности, такие как увеличение площади микросхемы с параллельной обработкой данных. Один из вариантов – расположить чипы горизонтально в ряд. Затем нужно будет разбить решаемую проблему программным путем на части, решить каждую часть отдельно на небольшом чипе и в конце вновь собрать информацию. Однако это не так просто: возможности программного обеспечения растут куда медленнее, чем та экспонента, о которой мы привыкли говорить в связи с законом Мура. Подобные меры могут продлить действие закона Мура на несколько лет. Но со временем все это неминуемо закончится: квантовая теория возьмет верх. Это означает, что физики уже экспериментируют с широким спектром альтернатив, призванных прийти на смену эре кремния; это могут оказаться квантовые или молекулярные, оптические или нанокомпьютеры, ДНК‑компьютеры и т. п. Однако пока ни одна из этих технологий не доведена до реального воплощения.
«Зловещая долина»
Предположим на мгновение, что когда‑нибудь человечество будет сосуществовать на планете с невероятно сложными роботами, основанными, возможно, на молекулярных, а не на кремниевых транзисторах. Хотим ли мы, чтобы роботы были похожи на нас? И насколько похожи? Япония – мировой лидер в создании роботов, похожих на симпатичных собачек и детей, но японские дизайнеры стараются не делать своих роботов слишком человекоподобными: людей это нервирует. Первым это явление, получившее название «зловещая долина», исследовал доктор Масахиро Мори в Японии в 1970 г. Суть его заключается в том, что у человека при виде робота, слишком похожего на человека, возникает чувство отторжения. (На самом деле такой эффект первым упомянул еще Дарвин в 1839 г. в своем «Путешествии на Бигле»; писал о нем и Фрейд в очерке «Жуткое».) С тех пор это явление тщательно исследовали не только специалисты по искусственному интеллекту, но и мультипликаторы, рекламщики и все, кто работал над продвижением какого‑нибудь продукта, связанного с человекоподобными изображениями. К примеру, в рецензии на фильм «Полярный экспресс» журналист CNN заметил: «От героев‑людей в фильме откровенно… ну, мурашки по коже бегают. Так что “Полярный экспресс” в лучшем случае смущает, а в худшем вызывает легкий ужас». Если верить доктору Мори, чем сильнее робот похож на человека, тем более сильную эмпатию мы к нему испытываем, но только до определенного предела. Когда внешность робота реально приближается к человеческой, эмпатия резко снижается – отсюда и «зловещая долина». Если робот очень похож на нас, за исключением нескольких мелких деталей, которые представляются жуткими, он вызывает у человека чувство отторжения и страха. Если же робот полностью похож на человека и не отличим от вас или от меня, мы вновь проявляем положительные эмоции. Из всего этого могут следовать вполне практические выводы. К примеру, должны ли роботы улыбаться? На первый взгляд представляется очевидным, что роботам следует улыбаться, приветствуя людей и демонстрируя им свое расположение. Улыбка – универсальный жест тепла и приязни. Но если улыбка робота будет слишком реалистичной, на людей она подействует, будто «мороз по коже». (Кстати говоря, маски для Хеллоуина часто изображают жутких вампиров с широкой ухмылкой на лице.) Так что улыбаться, наверное, должны только роботы, похожие на детей (т. е. с круглым лицом и большими глазами) или абсолютно неотличимые от человека, и больше никто. (Когда человек выдавливает из себя улыбку, он активирует лицевые мышцы при помощи команды от префронтальной коры. Но когда улыбка естественная, то нервами управляет лимбическая система и задействованы при этом немного другие мышцы. Человеческий мозг способен заметить тонкую разницу между тем и другим, и эта его особенность положительно сказалась на ходе эволюции.) Этот эффект можно изучить и на снимках мозга. Скажем, можно поместить испытуемого в МРТ и показать ему видеозапись робота, который по виду неотличим от человека, но двигается немного иначе, чуть дергано и механически. Мозг, когда видит что‑то, всегда пытается предсказать поведение объекта в будущем. Видя полностью человекоподобного робота, мозг предсказывает, что и двигаться тот будет как человек. Когда же робот начинает двигаться, как машина, возникает противоречие, которое вызывает у нас тревогу. В частности, активизируется теменная доля (особенно та ее часть, где двигательная кора граничит со зрительной). Считается, что в этой области теменной части присутствуют зеркальные нейроны. В этом случае зрительная кора принимает образ человекоподобного робота, а его движения предсказывает двигательная кора при помощи зеркальных нейронов. А орбитофронтальная кора, расположенная непосредственно за глазами, собирает все это воедино и объявляет: «Хм, что‑то здесь не так». Голливудские режиссеры прекрасно знают об этом эффекте. Расходуя миллионы долларов на фильм ужасов, они понимают, что самая страшная сцена – не та, где из кустов вылезает гигантский пузырь биомассы или чудовище Франкенштейна. Самая страшная сцена – та, где мы видим извращение обыденного. Вспомните фильм «Экзорцист». Во время какой сцены зрители испытывали сильнейший приступ тошноты и выбегали из зала или падали в обморок прямо на местах? Может быть, во время появления демона? Нет. Кинотеатры по всему миру взрывались дикими криками и громкими рыданиями в тот момент, когда Линда Блэр поворачивала голову задом наперед. Этот эффект можно продемонстрировать на молодых обезьянах. При виде изображений Дракулы или Франкенштейна они смеются и рвут картинки. А вот изображение обезглавленной обезьяны вызывает у них вопли ужаса. Опять же самый сильный страх вызывает извращение обыденного. (В главе 2 мы упоминали о том, что пространственно‑временная теория сознания объясняет природу юмора, поскольку мозг моделирует возможное развитие событий, а затем слышит коронную, самую главную и обязательно неожиданную фразу. Так же объясняется и природа ужасного. Мозг моделирует будущее обычного будничного события, а затем испытывает шок, когда обычное вдруг извращается.) Так что роботы и дальше по виду будут напоминать детей, даже если догонят человека по интеллекту. И только когда роботы научатся вести себя вполне по‑человечески, дизайнеры сделают их действительно похожими на людей.
Кремниевое сознание
Как мы уже видели, человеческое сознание представляет собой лоскутное одеяло различных способностей, развившихся в результате миллионов лет эволюции. Получив в свое распоряжение информацию об окружающем мире – физическом и социальном, – роботы, скорее всего, смогут создавать модели не хуже (а в некоторых отношениях даже лучше) наших, но кремниевое сознание, судя по всему, будет отличаться от нашего в двух ключевых областях: по эмоциям и целям. Так сложилось, что исследователи искусственного интеллекта оставили проблему эмоций в стороне, считая ее вторичной. Их целью было создание робота, который был бы логичен и рационален, а не рассеян и импульсивен. Поэтому в научной фантастике 1950‑х и 1960‑х большинство роботов (и гуманоидов, таких как Спок из «Звездного пути») обладало совершенным логическим умом. Мы уже убедились, что из‑за «зловещей долины» роботам, чтобы «жить» рядом с человеком, придется выглядеть вполне определенным образом. Некоторые считают, что этого мало, и роботы должны также обладать эмоциями, чтобы мы могли дружить с ними, заботиться о них и продуктивно с ними взаимодействовать. Иными словами, роботам необходимо сознание уровня II. Чтобы достичь этого, им для начала придется научиться распознавать весь спектр человеческих эмоций. Анализируя тонкие движения лица – бровей, век, губ, щек и т. п., – робот сможет определить эмоциональное состояние человека. Дальше всего в разработке этой темы продвинулась, вероятно, медиалаборатория МТИ. Мне повезло побывать в этой лаборатории под Бостоном несколько раз, и каждый визит туда напоминал мне экскурсию по заводу игрушек для взрослых. Везде, куда ни посмотри, взгляд натыкался на футуристические высокотехнологичные штучки, придуманные для того, чтобы наша жизнь стала интереснее, радостнее и удобнее. Оглядевшись вокруг, я увидел многое из той технографики, что позже попала в голливудские фильмы, такие как «Особое мнение» и «Искусственный разум». Бродя по этой игровой площадке будущего, я наткнулся на двух интереснейших роботов – Huggable и Nexi. Их создательница – доктор Синтия Бризель – объяснила мне, что у этих роботов особая цель. Huggable – это умный роботизированный плюшевый мишка, способный находить общий язык с детьми. Он может распознавать их эмоции; у него видеокамеры вместо глаз, динамик вместо рта и сенсоры в коже (так что он может «почувствовать», когда его щекочут, тыкают или обнимают). Когда‑нибудь робот вроде этого, возможно, станет для ребенка наставником, нянькой, сиделкой или товарищем по играм. Nexi же может находить общий язык со взрослыми. Внешне он немного похож на талисман компании Pillsbury. У него круглое, дружелюбное лицо с большими глазами, которыми он умеет двигать. Он уже испытан в доме престарелых и очень понравился там всем пожилым пациентам. Привыкнув к Nexi, пожилые люди полюбили разговаривать с ним и целовать его и очень скучали, когда Nexi увезли (рис. 12). Доктор Бризель рассказала мне, что придумала Huggable и Nexi, потому что ни один из существовавших на тот момент роботов ее не устраивал: все они были похожи на банки с проводами, шестеренками и моторчиками. Чтобы сконструировать робота, способного взаимодействовать с людьми на эмоциональном уровне, ей пришлось разобраться в механизмах такого взаимодействия. Плюс к тому ей нужны были роботы, не привязанные к лабораторному столу, а способные выйти в реальный мир. Бывший директор медиалаборатории МТИ доктор Фрэнк Мосс говорит: «Именно поэтому Бризель в 2004 г. решила, что пора создавать новое поколение общественных роботов, способных жить где угодно: в семьях, школах, больницах, домах престарелых и т. п.» В японском Университете Васэда ученые работают над созданием робота, у которого эмоции (страх гнев, удивление, радость, отвращение, грусть) выражаются движениями верхней части тела; он может слышать и видеть, чувствовать запахи и прикосновения. Он запрограммирован на достижение простых целей, таких как удовлетворение энергетического голода и стремление избежать опасных ситуаций. Цель ученых – интегрировать чувства и эмоции так, чтобы робот мог действовать в соответствии с ситуацией. Чтобы не отставать, Европейская комиссия финансирует проект под названием Feelix Growing, цель которого – работа над искусственным интеллектом при сотрудничестве ученых Великобритании, Франции, Швейцарии, Греции и Дании.
Эмоциональные роботы
Познакомьтесь с Нао. Когда счастлив, он протягивает вам навстречу руки и жаждет объятий. Когда ему грустно, он опускает голову и плечи и выглядит потерянным. Когда испуган, прячется в страхе, пока кто‑нибудь не успокоит его, похлопав по голове. Он ведет себя в точности как годовалый мальчик, вот только на деле он – робот. Ростом Нао около полуметра, а выглядит примерно так же, как выглядят роботы в магазине игрушек. На самом деле это один из самых продвинутых эмоциональных роботов на земле. Создали его ученые из Хартфордширского университета в Великобритании на деньги Европейского союза. Создатели Нао запрограммировали в нем проявление эмоций, таких как радость, грусть, страх, радостное возбуждение и гордость. Если у других роботов эмоции передаются в лучшем случае через рудиментарные лицевые и вербальные жесты, то Нао прекрасно владеет языком тела, языком поз и жестов. Он даже умеет танцевать. В отличие от других роботов, которые специализируются на овладении лишь одной какой‑нибудь эмоцией, Нао овладел широким спектром самых разных эмоциональных реакций. Первым делом Нао фокусируется на лицах посетителей, узнает знакомых и вспоминает прошлые встречи с каждым из них. Затем начинает отслеживать все их движения. Так, он умеет отслеживать взгляд и определять, куда человек смотрит. На третьем этапе он начинает налаживать отношения с посетителями и учится реагировать на их жесты. К примеру, если вы улыбнетесь ему или похлопаете по голове, он поймет, что это хороший знак. В его мозгу действуют нейронные сети, поэтому он учится в процессе взаимодействия с людьми. На четвертом этапе Нао в ответ на взаимодействие проявляет эмоции. (Его эмоциональные реакции запрограммированы заранее и воспроизводятся по записи, но он сам решает, какую эмоцию выбрать, чтобы она соответствовала ситуации.) И наконец, чем больше Нао взаимодействует с конкретным человеком, тем лучше он понимает именно его настроения и тем сильнее связь между ними. Нао не просто обладает собственной личностью, у него их несколько. Он учится в процессе взаимодействия с людьми, а каждый контакт уникален, поэтому со временем у Нао начинают проявляться несколько разных характеров. Один из них, к примеру, независимый и самостоятельный и не нуждается в особом руководстве со стороны человека. Другой – робкий и пугливый, пугается любого предмета в комнате и требует постоянного внимания к себе. Руководит проектом Нао доктор Лола Каньямеро – специалист по информатике из Хартфордширского университета. Прежде чем начать работу над этим амбициозным проектом, она проанализировала поведение шимпанзе в стае. Ее целью было воспроизвести как можно точнее эмоциональное поведение годовалого шимпанзе. Уже сегодня, по ее мнению, для подобных эмоциональных роботов найдется применение. Как и доктор Бризель, она хочет использовать их для облегчения психологического состояния маленьких детей, вынужденных находиться в больнице. Она говорит: «Мы хотим, чтобы они играли несколько ролей – роботы помогут детям разобраться в плане лечения, объяснят, что надо делать. Мы хотим помочь детям справиться с тревогой». Еще одна возможность: такие роботы могут стать компаньонами пациентов домов престарелых. Нао мог бы стать ценным дополнением к штату любой больницы. А когда‑нибудь такие роботы, как он, станут для детей товарищами по играм и членами семей. «Трудно предсказывать будущее, но пройдет не так много времени, и ваш компьютер превратится в социального робота. Вы сможете разговаривать с ним, флиртовать, даже сердиться и кричать на него, а он будет понимать вас и ваши эмоции», – говорит доктор Терренс Сейновски из Института Солка возле Сан‑Диего. Само по себе это несложно. Сложно откалибровать реакцию робота – ведь если хозяин сердит или недоволен, робот должен как‑то учитывать это.
Эмоции: выделить важное
Но этого мало. Исследователи искусственного интеллекта начали понимать, что эмоции могут оказаться ключом к сознанию. Нейробиологи, такие как доктор Антонио Дамасио, обнаружили, что, когда связь между префронтальной долей (которая заведует рациональными мыслями) и эмоциональными центрами (т. е. лимбической системой) повреждена, пациенты не могут ничего оценивать. Они не в состоянии принять простейшее решение (что купить, на какое время назначить встречу, какого цвета ручку взять), потому что все вокруг, как им кажется, имеет одинаковую ценность. Так что эмоции – это не роскошь; они абсолютно необходимы, и без них роботу трудно определить, что важно, а что нет. Эмоции, которые прежде виделись где‑то на периферии искусственного интеллекта, сегодня выходят на первый план. Из огня пожара робот, возможно, сначала будет спасать не людей, а компьютерные файлы, поскольку программа говорит ему, что ценные документы заменить невозможно, а вот работникам всегда можно найти замену. Принципиально важно, чтобы программы роботов позволяли им отличать важное от неважного, и эмоции – кратчайший путь, которым пользуется мозг для оперативной оценки информации. Таким образом, роботам придется дать систему ценностей: что человеческая жизнь важнее материальных объектов, что детей в случае опасности следует спасать первыми, что дорогие вещи ценнее дешевых и т. п. Сами по себе роботы не появляются на свет с готовой системой ценностей, поэтому в каждого из них придется загрузить длиннющий список готовых оценок. Однако проблема с эмоциями состоит в том, что иногда они бывают совершенно иррациональными, тогда как роботы устроены математически строго. Поэтому кремниевое сознание, возможно, будет ключевым образом отличаться от человеческого. Так, человек слабо контролирует свои эмоции: с одной стороны, потому, что они возникают стремительно, а с другой – потому, что возникают они в лимбической системе, а не в префронтальной коре мозга. Более того, наши эмоции, как правило, далеко не нейтральны. Многочисленные тесты показывают, что мы склонны переоценивать способности красивых людей. Вообще, симпатичные люди, как правило, выше поднимаются по социальной лестнице и получают лучшую работу, даже если они менее талантливы, чем другие. Как говорится, у красоты есть свои преимущества. Вряд ли «кремниевое сознание» будет принимать во внимание тончайшие нюансы, которые учитываем при встрече мы, люди (к примеру, язык тела). Входя в комнату, молодой человек обычно уступает старшим, а простой клерк проявляет вежливость по отношению к старшим начальникам. Мы демонстрируем уважение и позой, и телодвижениями, и выбором слов, и жестами. Язык тела старше обычного языка, он буквально вшит в мозг. Роботам, если они собираются вращаться в одном обществе с людьми, придется освоить это искусство и выучить все детали поведения, воспринимаемые нами на подсознательном уровне. Человеческое сознание отражает особенности нашего эволюционного прошлого, которого у роботов нет, так что у кремниевого сознания, может быть, не будет наших лакун и вывертов.
Набор эмоций
Поскольку эмоции в роботов придется записывать извне, не исключено, что производители предложат клиентам на выбор целое меню эмоций, тщательно подобранных исходя из того, являются ли они необходимыми, полезными или усиливают эмоциональную связь с владельцем. По всей видимости, в роботов будут закладывать лишь по несколько человеческих эмоций, в зависимости от ситуации. Возможно, владельцы больше всего будут ценить верность. Конечно, каждому хочется иметь робота, который честно и без жалоб выполнял бы любые команды, понимал бы нужды хозяина и умел бы угадывать его желания. С другой стороны, последнее, что нужно владельцу, – это робот с собственным отношением к жизни, который будет огрызаться, критиковать всех вокруг или ныть. Критика, может быть, и нужна, но она должна быть конструктивной и тактичной. А если люди начнут давать роботу противоречивые команды, он должен уметь их игнорировать – все, кроме тех, что исходят от хозяина. Эмпатия – еще одна эмоция, которую обязательно оценят владельцы роботов. Роботы, снабженные эмпатией, будут понимать проблемы других и приходить на помощь. Читая движения лицевых мускулов и прислушиваясь к тону голоса, такой робот сможет определить, расстроен ли человек, и предложить помощь, если это возможно. Как ни странно, страх – тоже очень желательная эмоция. Эволюция не просто так снабдила нас чувством страха; страх помогает избегать опасностей. Роботам, хотя они и стальные, тоже нужно будет бояться некоторых потенциально опасных вещей, таких как падение с высоты или сильный огонь. Совершенно бесстрашный робот будет бесполезен, если при первом же случае загубит себя. Но некоторые эмоции, возможно, придется уничтожить, запретить или по крайней мере строго регулировать. Речь идет прежде всего о гневе. Так как роботы в массе своей, скорее всего, будут обладать большой физической силой, разгневанный робот может создать проблемы и в доме, и на рабочем месте. Гнев может затмить в его сознании долг, и тогда горе имуществу. (Первоначальной эволюционной задачей гнева было продемонстрировать недовольство. Это, кстати говоря, можно сделать разумно, без грубости и злости.) Еще одна эмоция, которую нужно будет исключить, – это желание командовать. Властный робот всегда будет создавать проблемы; кроме того, он может поставить под сомнение авторитет и желания владельца. (Этот пункт очень важен и в вопросе о том, возьмут ли когда‑нибудь роботы верх над людьми.) Значит, робот всегда должен будет уступать желаниям хозяина, даже если это будет не лучшее решение. Но сложнее всего, возможно, будет реализовать чувство юмора, способное, подобно клею, мгновенно объединить совершенно чужих людей. Простая шутка зачастую может разрядить или, наоборот, взорвать ситуацию. Базовый механизм юмора прост: в нем всегда присутствует главная, совершенно неожиданная фраза. Но тонкостей в этом деле хватает. Фактически мы часто оцениваем окружающих по тому, как они реагируют на определенные шутки. Если человек использует юмор как меру оценки других, то можно себе представить, насколько сложно создать робота, который мог бы определить, смешна шутка или нет. Президент Рональд Рейган, к примеру, был знаменит тем, что самые сложные вопросы умел парировать шуткой. Более того, он собрал огромную коллекцию шуток, колкостей и острот, потому что понимал важность и мощь юмора (некоторые эксперты считают, что он выиграл президентские дебаты у Уолтера Мондейла, когда на вопрос, не слишком ли он стар, чтобы быть президентом, ответил, что не будет ставить молодость своего оппонента ему в вину). С другой стороны, неуместный смех может вызвать катастрофические последствия (и иногда является признаком болезни психики). Робот должен знать разницу между смехом вместе с кем‑то и смехом над кем‑то. (Актеры прекрасно знают, что смех может быть очень разным. Смехом они способны выразить ужас, цинизм, радость, гнев, грусть и т. п.) Так что роботам, по крайней мере пока теория искусственного интеллекта развита недостаточно, лучше держаться подальше от юмора и смеха.
Программируя эмоции
До этого момента мы избегали вопроса о том, как именно можно запрограммировать эмоции для компьютера. Эмоции настолько сложны, что программировать их, вероятно, придется в несколько этапов. Первое. Простейшая часть задачи – распознавание эмоции путем анализа выражения лица человека, положения его губ, бровей, тона голоса. Сегодняшние технологии распознавания лиц уже способны составить словарь эмоций, т. е. определить, что означают определенные выражения лица. Этот процесс, надо сказать, восходит еще к Чарльзу Дарвину, который потратил немало времени на составление каталога эмоций, общих для животных и человека. Второе. Робот должен очень быстро отреагировать на эту эмоцию. Это тоже несложно. Если кто‑то рядом смеется, робот улыбнется. Если кто‑то сердится, робот уберется с его пути и постарается избежать конфликта. В программу робота будет зашита большая энциклопедия эмоций, поэтому он будет знать, как быстро отреагировать на любую из них. Третье. Эта стадия может оказаться самой сложной, поскольку речь здесь идет о попытке определить внутреннюю мотивацию, лежащую за первоначальной эмоцией. Это сложно, поскольку одна и та же эмоция может возникнуть в очень разных ситуациях. Смех может означать, что человек счастлив, что он услышал смешную шутку или увидел, как кто‑то упал в лужу. Смех может означать и то, что человек нервничает, тревожится или хочет кого‑то оскорбить. Точно так же, если человек кричит, это может означать чрезвычайную ситуацию, а может – неожиданную радость или удивление. Определять причину эмоции – искусство, в котором даже люди испытывают трудности. Чтобы сделать это, роботу придется перебрать все возможные причины данной эмоции и попытаться определить самую вероятную из них. Это означает найти причину, которая наилучшим образом соответствовала бы всем имеющимся данным. И четвертое. Определив причину эмоции, робот должен будет соответствующим образом на нее отреагировать. Это тоже непросто, потому что в любой ситуации, как правило, есть несколько вариантов реакции, а неверная реакция может серьезно ухудшить дело. В программе робота, конечно, должны присутствовать все варианты ответа на ту или иную эмоцию, и робот должен будет определить, какой из них лучше всего подходит для конкретной ситуации. А это значит, что он должен будет моделировать будущее.
Будут ли роботы лгать?
Обычно мы представляем себе роботов холодными и рациональными аналитиками, всегда говорящими правду. Но если роботы будут интегрированы в общество людей, им, вероятно, придется научиться лгать или по крайней мере тактично воздерживаться от комментариев. Сами мы практически каждый день сталкиваемся с ситуациями, когда приходится говорить безобидную ложь. Если человек спрашивает, как он выглядит, мы зачастую не отваживаемся сказать ему правду. Безобидная ложь – это смазка, благодаря которой крутятся шестеренки общества. Если бы вам вдруг пришлось говорить только чистую правду, причем всю (как делал это герой Джима Керри в фильме «Лжец, лжец»), дело, скорее всего, кончилось бы полным хаосом и людскими страданиями. Окружающие обижались бы, когда вы искренне говорили бы им, как они на самом деле сегодня выглядят или что вы на самом деле чувствуете по отношению к ним. Начальник поспешил бы вас уволить. Возлюбленная бы вас бросила. Друзья отвернулись бы от вас, а посторонние норовили бы побить. Некоторые мысли лучше держать при себе. Точно так же и роботам, возможно, придется научиться лгать или скрывать правду, иначе дело кончится тем, что они начнут оскорблять людей, а владельцы начнут отказываться от своих роботов. Правда, сказанная роботом на какой‑нибудь вечеринке, может вызвать скандал и плохо отразиться на его хозяине. Так что роботам, если им будут задавать вопросы, придется освоить искусство дипломатии и такта и научиться уходить от ответа. Они должны будут научиться отвечать уклончиво, менять тему, ограничиваться банальностями, отвечать вопросом на вопрос или просто врать (кстати, сегодняшние интернет‑боты с каждым днем все лучше справляются с этой задачей). Это означает, что в робота будет заранее зашит целый список возможных уклончивых ответов, и ему останется только выбрать тот из них, который вызовет наименьшее число осложнений. Одной из немногих ситуаций, в которых робот обязан будет сказать полную правду, будет прямой вопрос хозяина; понятно, что, задавая такой вопрос, хозяин должен понимать, что ответ, каким бы неприятным ни оказался, будет абсолютно честным. Возможно, еще одной такой ситуацией будет полицейское расследование, где необходима абсолютная правда. В остальных случаях роботы смогут свободно лгать или утаивать часть правды, чтобы колеса общественной жизни не переставали крутиться. Иными словами, роботам придется социализироваться, как подросткам.
|
Последнее изменение этой страницы: 2019-03-31; Просмотров: 365; Нарушение авторского права страницы