Научная фантастика имеет обыкновение становиться научным фактом. В современных лабораториях искусственного интеллекта (ИИ) всерьез обсуждается нечто вроде Хэла - бортового компьютера из произведения Артура Кларка "2001: Космическая Одиссея", имевшего интеллект и способного принимать этические решения. Я не хочу сказать, что вероятность в точности такого развития компьютеров, как это описал Кларк, сколько-нибудь больше вероятности развития систем запуска в направлении, описанном Жюль Верном за три четверти века до того, как ракета послала космическую капсулу на Луну. Но специалисты по компьютерам разрабатывают компьютерные системы, которые способны довольно близко имитировать элементы человеческого познания и обработки информации; так что вполне возможно, что к тому времени, когда мы будем стартовать с Земли, что-нибудь вроде Хэла у нас появится (Хэл (HAL) " имя-аббревиатура "Heuristically programmed algoritmic computer" = эвристически программированный алгоритмический компьютер.
C другой стороны, многие всерьез сомневаются, что компьютер действительно когда-нибудь сможет перехитрить человека в важных областях. Нейропсихолог Джон Экклз в работе "The Understanding of the Brain" ("Понимание мозга") пишет, что те, кто "...высокомерно заявляет о том, что компьютеры скоро перехитрят человека во всем... представляют собой современный вариант изготовителей идолов из некоторых суеверных эпох; подобно последним, они стремятся к власти посредством культивации идолопоклонства".)
Между ИИ и когнитивной психологией установились своего рода симбиотические отношения, где каждый выигрывает от развития другого. Ибо для того, чтобы искусственным способом сделать точную копию человеческого восприятия, памяти, языка и мышления, нужно знать, как эти процессы происходят у человека. И в то же время, развитие искусственного интеллекта дает новые возможности к пониманию человеческого познания.
В этой главе будет дано общее введение в ИИ, который будет обсуждаться в связи с восприятием, памятью, процессами поиска, языком, решением задач и "роботологией".
Хотя направление ИИ во многом посвящено разработке машин, которые действуют так, как если были бы "разумны", большинство последних конструируется без всякого намерения подражать когнитивным процессам человека. Однако, есть и те, кто занят разработкой "разумных" машин, моделирующих человеческое мышление, и именно эта перспектива " "компьютерное моделирование" (КМ) будет в основном освещаться в этой главе. (Когда-нибудь будет почти невозможно сказать, где кончается ИИ и начинается КМ; мы будем использовать широко принятый термин ИИ для обозначения всяких результатов компьютерной деятельности, которые сочли бы разумными, если бы они были произведены человеком.)
Истоки искусственного интеллекта
Происхождение современной компьютерной науки (спутником которой на самом деле является ИИ) можно отнести к 40-м годам, когда для ускорения долгих и утомительных математических вычислений были изобретены ламповые компьютеры UNIVAC и ENIAC. Эти ранние простодушные и не
слишком эффективные гиганты открыли дорогу для более компактных, более мощных и более сложных систем, которые, в свою очередь, постепенно сменились микроэлектронными компьютерами, прочно вошедшими во всеобщее пользование. Эти инструменты в основном помогают людям решать математические задачи в коммерческих и промышленных исследованиях. ИИ служит не этим практическим нуждам калькуляций и индексаций, но, как мы уже сказали, связан с задачами когнитивной психологии по разработке компьютерных программ, моделирующих человеческое познание. Какое-то время назад некоторые чисто научные открытия ранних пионеров ИИ получили практическое коммерческое применение и стали важной частью деловых операций в Америке, Европе и Японии.
В когнитивной психологии найдется немного более важных дат, чем 1956 год. (В том году Бранер, Гуднау и Остин опубликовали книгу "Изучение мышления", Хомский " "Три модели описания языка", Миллер ""Магическое число семь плюс-минус два", Ньюэлл и Саймон " "Логическая теория машин). Летом того года группа из десяти ученых встретилась на территории колледжа Дортмут с целью обсудить возможность создания компьютерных программ, способных к разумному поведению. Среди участников этой конференции были: Джон МакКарти, основавший впоследствии лаборатории ИИ в Массачусеттском Технологическом институте (МТИ) и Стэнфордском университете и широко признанныйкак человек, окрестивший новую науку "Искусственным Интеллектом"; Марвин Минский, ставший затем директором лаборатории ИИ в МТИ; Герберт Саймон, которому предстояло получить Нобелевскую премию по экономике; и Аллен Ньюэлл, который провел очень важные работы по когнитивной науке и ИИ в университете Карнеги-Меллон. Эта конференция имела историческое значение " намечавшийся до того курс на ИИ был взят. Его зарождение непосредственно повлияло на развитие когнитивной психологии.
С момента конференции в Дортмуте развитие ИИ происходило в геометрической прогрессии " если не по числу оригинальных идей, то по количеству новых данных. В том или ином виде ИИ затрагивает сегодня жизнь большинства людей в Западном обществе, распространяется по колледжам, на нем сосредоточили свои усилия тысячи ученых. Различные ветви теории и практики ИИ невозможно изложить в единственной главе или книге и даже во многих книгах, но мы можем в этой главе представить образцы работ в области ИИ в их связи с когнитивной психологией. Изучающие ИИ и когнитивную психологию могут найти по этой теме множество глубокомысленных книг и статей, а также побывать на многих интересных конференциях.
Машины и разум: "имитирующая игра" и "китайская комната"
Я не знаю другой такой области когнитивной психологии, где происходили бы столь ожесточенные споры о моделировании человеческого мышления машинами: о "жестком" направлении ИИ. Одну сторону этого спора представляют те ревнители ИИ, которые не только верят, что машины способны точно копировать человеческое познание, но и считают, что наиболее сложные интеллектуальные процессы могут выполняться только машинами. Это надо понимать так, что компьютеры должны непосредственно участвовать в повседневном принятии решений людьми. С другой стороны, находятся те, кто полагает ИИ интеллектуально извращенным понятием и считает, что люди, верящие в "мыслящие машины", " это материалистические идолопоклонники. Они полагают, что человеческое мышление " это чисто человеческий процесс; наверно, его можно частично синтезировать в машине, но дублировать с помощью ИИ программ его не удастся никогда.
В качестве отправной точки полезно рассмотреть дихотомию, предложенную философом из Беркли Джоном Сирлом (John Seari, 1980). Он описал две позиции в ИИ: "жесткую" и "мягкую"; согласно мягкой позиции, ИИ может использоваться как инструмент в исследованиях человеческого познания; а жесткая предполагает, что соответствующим образом запрограммированный компьютер обладает разумом и способен к пониманию. У "мягкого" ИИ мало оппонентов; почти все признают важность компьютеров в исследовании человеческого познания, и к этому почти нечего добавить. "Жесткий" ИИ, опровергаемый Сирлом, вызвал бурю протеста. Мы продолжим рассмотрение этого спора в следующем разделе про "Китайскую комнату", но сначала рассмотрим одну оригинальную задачу, предложенную британским математиком Аланом Тюрингом и касающуюся разума и машин. (Замечательное описание жизни Тюринга вместе с обсуждением вопросов ИИ можно найти в: Hofstadter. Metamagical Themas (1985)
"Имитирующая игра" или "тест Тюринга"
Тюринг предложил задачу, в которой человек задает вопросы неизвестному-существу-использующему-язык. Задача человека " решить, можно ли отличить это от человека. В пользу Тюринга говорит то, что использование "имитирующей игры", ставшей впоследствии широко известной как "тест Тюринга", само по себе было весьма тонким обманом, который, давая специалистам по ИИ нечто конкретное для работы, уводил их внимание от философских вопросов разума, ставших главным раздражающим фактором в истории науки и философии. Не обращаясь непосредственно к философским вопросам, как это сделал Тюринг, он спрашивал: "Является ли познание функцией материальных процессов, и если да, то могут ли такие функции происходить от неорганической машины?" или "Как решить проблему тела и разума?" " т.е. он выбирал гораздо более четкие рамки вопроса, основанные на операционализме. Поскольку в литературе сохраняется определенная путаница относительно реальной природы предложенного Тюрингом теста, мы приводим его здесь довольно детально. Эту... задачу можно описать в терминах игры, известной нам как "имитирующая игра". В нее играют три человека: мужчина (А), женщина (В) и спрашивающий (С), который может быть любого пола. Цель игры для спрашивающего " определить, кто из двух других "мужчина, а кто " женщина. Для него они помечены как Х и Y, и в конце игры он должен сказать либо: "X это A, a Y это В", либо: "X это В, а Y это А". Спрашивающий может задавать А и В такие, например вопросы:
С: Не скажет ли мне Х длину своих волос? Теперь предположим, что Х " это на самом деле А; тогда А должен ответить. Целью игры для А является... заставить С сделать ошибочную идентификацию. Его ответ мог бы быть таким:
"Мои волосы коротко острижены, самые длинные пряди длиной примерно 9 дюймов".
Чтобы тембр голоса не указывал спрашивающему на пол, ответы пишутся или еще лучше печатаются. Самый лучший вариант " это принтер, подключенный в соседней комнате. Другим вариантом может быть повторение ответов посредником. Цель третьего игрока (В) - помочь спрашивающему. Возможно, наилучшая стратегия для нее " это давать правдивые ответы. Она может прибавлять к своим ответам что-то вроде "Это я " женщина, не слушай его!", но это ничего не даст, поскольку аналогичные замечания может давать и мужчина.
Теперь спросим: "Что произойдет, если роль А в этой игре будет исполнять машина?" Будет ли спрашивающий при таком варианте игры ошибаться так же часто, как и тогда, когда играют мужчина и женщина? Эти вопросы заменяют первоначальный, "Может ли машина мыслить?" (Turing, 1950; р.434).
Очевидно, ценность некоторых вопросов, задаваемых для Х и Y, зависит от того, какая сейчас мода, " т.е. если длину волос и прическу взять за основу различения, то, например, в 70-х годах это привело бы к очень многим ошибкам. Тем не менее, для специалистов по языку и ИИ в задаче Тюринга есть очень важный момент " для того, чтобы компьютер перехитрил нас и заставил думать, что он " это человек, он должен понимать и генерировать ответную реакцию, которая эффективно имитировала бы важную когнитивную функцию.
Можно предложить и другой тип вопроса о неразличимости функций. Предположим, что в больнице работают два хирурга. Один " выпускник знаменитой медицинской школы и считается одним из лучших хирургов в мире. Другой окончил обычную медицинскую школу и считается плохим хирургом. Однажды потребовалась срочная операция, и первый хирург нездоров, так что операцию проводит второй врач, о чем не известно пациенту, находящемуся без сознания. Пациенту не говорят, какой врач проводил операцию, и он рад, что она была успешной. К тому же, другие врачи уверены, что операцию проводил первый хирург. На этом ограниченном примере мы можем заключить, что тест на неразличимость был пройден. Однако, если бы вы были этим пациентом и узнали, что операцию на самом деле проводил робот, какой вывод вы бы сделали о соотношении функциональных свойств робота и хирурга? Согласились бы вы, что они одинаковы? Почему? А Почему нет? Ответы на эти вопросы трудно найти, чего не скажешь о людях, придерживающихся твердых взглядов на этот счет. Один из них " это Сирл, который вывернул "тест Тюринга" наизнанку.
"Китайская комната"
Чтобы продемонстрировать, что жесткая позиция в ИИ не выдерживает
критики, Сирл предложил следующую головоломку. Предположим, что комната" кого-то заперли в комнате, где много китайских текстов. Этот кто-то ничего не понимает по-китайски и даже не способен отличить китайские иероглифы от каких-нибудь еще. Снаружи этой комнаты ему передают еще один набор китайских знаков вместе с набором правил для сопоставления первого и второго набора символов. Эти правила всего лишь позволяют этому человеку связывать один набор символов с другим и написаны на обычном английском. При помощи этих правил сопоставления человек в китайской комнате может давать осмысленные ответы на вопросы о содержании китайских текстов, несмотря на то, что он в сущности не знает этого языка. Через какое-то время эта личность приобретает настолько хорошую сноровку, что может отвечать как на своем родном английском, так и на китайском языке, которого не знает, но отвечает, основываясь на правилах. Результаты настолько хороши, что их "совершенно нельзя отличить от ответов урожденного китайца" (Seari, 1980, 1981). Личность, запертая в китайской комнате, " это простая конкретная иллюстрация компьютерной программы: "данные на входе " данные на выходе". Вплоть до этого момента почти никто из ИИ-пехоты не взъерошил перья, но затем Сирл шагает еще на один аргумент вперед. Способность выполнять такие функции, как перевод по сложным правилам, не означает, что тот, кто это делает, понимает значение "выходных данных". Человеческий разум обладает произвольностью (см. Seari, 1983), которая, согласно этому автору, определяется как свойство мысленных состояний и событий, направляющее их на объекты и ситуации в окружающем мире. К таковым относятся убеждения, страхи, желания и намерения. Независимо от того, насколько "неотличимо" поддельное мышление от "настоящего" (человеческого), они не есть одно и то же, поскольку у мыслящего человека есть намерения и поскольку между этими двумя "мыслящими" есть физические различия:
одного сделали органическим способом, а второго " электронным.
Компьютерные ученые немедленно выдвинули возражения против голово ломки Сирла, " прежде всего с позиций семантики: термины "произволь ность", "понимание", "мышление" употребляются им без четких операциональных референтов; в качестве возражения был приведен такой пример: если бы человек в этой "китайской комнате" выполнял описанные функции, то он (или система) действительно достиг бы как минимум некоторого уровня понимания. Кроме того, аргументы Сирла отклонялись на основании 'приведения к абсурду': если довести ситуацию до логического конца, то оказалось бы возможным создать робота, в каждой своей детали идентичного мыслящему человеку, и все же последний был бы способен к "пониманию" и "произвольности", а первый нет. Наконец, некоторые специалисты по ИИ полагают, что "понимание" и "произвольность" вызываются конкретными материальными свойствами. Пилишин (Pylyshyn, 1980) сатирически замечает, что возможно произвольность " это такое вещество, которое выделяется человеческим мозгом; он предлагает свою собственную загадку:
"...если бы все больше и больше клеток вашего мозга заменялись интегральными микросхемами, запрограммированными так, чтобы их характеристики входа-выхода были идентичны заменяемому элементу, вы по всей вероятности сохранили бы способность говорить точно так же, как и сейчас, за исключением того, что постепенно перестали бы что-либо под этим иметь в виду. То, что мы, сторонние наблюдатели, все еще принимали бы за слова, для вас стало бы просто некоторым шумом, который заставляют вас издавать ваши микросхемы".
Этот спор далек от завершения, и некоторые, видимо, находят определенную ценность в его философской глубине. Однако, для меня этот спор не разрешен (на самом деле, он, вероятно, неразрешим!). Кроме того, оба лагеря ужесточили свои позиции и выдвигают скорее аргументы веры, чем разума. Его важность двояка: во-первых, он заставляет читателя глубоко задуматься о том "человеческом", что заключено в человеческом познании. Во-вторых, в связи с этим спором встает вопрос, до какого предела ИИ может имитировать человеческий интеллект. Страсти, разгоревшиеся вокруг "теста Тюринга" и "китайской комнаты" у обеих сторон, отражают сильную заинтересованность современных философов и специалистов по ИИ в отношении электронного джина, выпущенного из бутылки.
Какого рода компьютером является человек?
Более функциональный подход, помещающий ИИ на когнитивную почву, предложил Ирл Хант (Earl Hunt, 1971); он поставил вопрос: "Какого рода компьютером является человек?" Исходя из того, что между обработкой информации человеком и компьютерной системой действительно существует аналогия, Хант предпринял грандиозную задачу описать компьютерную систему, которая "мыслит как человек". Фундаментальное положение его системы, названной им моделью распределенной памяти, гласит, что мозг имеет несколько зон памяти, назначение которых " регулировать поток информации из окружения так, чтобы информация могла кодироваться в терминах прошлого опыта.
В основной структуре этой модели, изображенной (в модифицированном виде) на Рис. 1.1, информация из окружения проходит через ряд буферных памятей и поступает в КП, или сознательную память.
Как показано на рисунке, одновременно может обрабатываться более, чем один сенсорный канал. Буфферная обработка служит для преобразования сообщений в постепенно более значимые единицы. Это можно проиллюстрировать на примере чтения, где сначала различаются признаки (в ранних буферах), затем буквы и, наконец, слова; единственный сознательный процесс (у опытного читателя) " это собственно чтение слов. Центральная роль в этом процессе принадлежит ДП, в которой информация хранится постоянно. Кодирование сырой информации и ее перекодирование на более высоких уровнях происходит под управлением КП. Вербальная информация, достигающая КП, интерпретируется в значимый семантический код, хранимый в промежуточной памяти (ПП). Этот семантический код сохраняет непосредственный опыт, так что мы можем изучать его дальше, извлекая из него информацию и интерпретируя ее. Общая архитектура этой системы, как отмечает сам Хант, носит поразительное сходство с некоторыми из моделей памяти, с которыми мы встречались " особенно с моделью Аткинсона и Шифрина.
Таким образом, модель Ханта может служить руководством по конструированию моделей переработки информации у человека, причем для имитации конкретных когнитивных функций проектируются конкретные компьютерные программы. Возможно, что основным результатом процесса моделирования является возможность испытать наши знания о когнитивной природе человека. Компьютерные программы, которым не удается точно смоделировать человеческое познание (и часто это так и есть) могут иметь большее значение для определения единственно человеческих свойств человеческого познания, чем некоторые преуспевающие программы.
До сих пор мы в общем наметили сферу ИИ и познакомились с постулатом человеческого познания, на основе которого можно осуществлять компьютерное моделирование. В следующем разделе мы разберем некоторые конкретные возможности компьютера. Развитие этих конкретных функций в модели на основе информационного подхода примерно соответствует потоку информации от восприятия к распознаванию паттернов и высшим формам познания.