Могут ли машины мыслить? Искусственный интеллект: Может ли машина мыслить? Тьюринг могут ли машины мыслить

Или
цифровые нанотехнологии в нашем будущем.

Предисловие

У американского писателя фантаста Айзека Азимова есть рассказ о том, как искусственный мозг космической корабля, носивший женское имя Мария и рассчитанный на выполнение словесных команд от командира корабля, помногу беседовал со своим командиром на самые разные темы человеческой жизни, включая любовь, стараясь скрасить его одиночество во время полета. И в результате такого их тесного и долгого взаимного общения Мария полюбила своего командира и не захотела с ним расставаться после окончания их путешествия.

Поэтому она сделала все, чтобы их возвращение на землю не состоялось. Искусственный интеллект космического корабля в лице женщины Марии почувствовал себя любящей женщиной и намеренно увел космический корабль в бесконечность вселенной, навеки оставшись со своим возлюбленным, даже и умершим.

Так что общение с искусственным интеллектом несет в себе определенные опасности. Но наши интеллектуалы, много и часто рассуждающие на каналах российского ТВ о нашем будущем, об этом не догадываются.

Ответ прост и заключается он в остром, саркастическом словосочетании неизвестного автора:
-- И она не может.

Все верно. Раз ты задаешь такие глупые вопросы, значит, и ты не можешь мыслить.

Но наши интеллектуалы не унимаются и продолжают говорить на данную модную тему, на тему искусственного интеллекта, время которого, по их мнению, уже подошло, бесконечно много на самых разных телеканалах страны.

Недавно по «24» каналу слышал очередное интеллектуальное шоу российских гуманитариев про новые «нанотехнологии», рождающиеся сейчас в нашем мире вместе с первыми образцами вариантов искусственного интеллекта.

Странно, но почему-то сейчас в России о нашем техническом будущем рассуждают в основном «спецы», являющиеся не «технарями» по своему образованию, а гуманитариями, разного рода политологи, культурологи, лингвисты, философы, дилеры, менеджеры, политические журналисты и так далее и тому подобное. То есть, люди, не только не отличающие болта от гайки, но и не понимающие сути технического мышления. Но зато уверенно рассуждающие об автоматах и роботизированных системах, заменяющих людей на производственных процессах и даже у нас дома, об искусственном интеллекте и его соответствии с требованиями современности.

Людей с техническим образованием, так называемых, «технарей», телевидение на такие шоу не допускают, потому что «технари» в их понимании, это люди с примитивным образом мышления, недалекие, ограниченные, неуправляемые и могут сказать на таких шоу что-нибудь не то.

А сами они с восторгом начинают говорить о том, что сейчас уже рождается эра печатания на объемных принтерах изделий для массового человеческого потребления и потому скоро уже не нужны будут эти заводы с постоянно коптящими трубами и постоянно отравляющие нашу с вами окружающую среду. И не нужны будут эти сотни и сотни специальностей людей, работающие на современных заводах. Зачем теперь они? Теперь сами потребители будут через интернет и через свои объёмные принтеры печатать себе нужные им в жизни товары.

К примеру, нужна будет тебе какая-нибудь вещь, начиная от автомобиля с холодильником или же с мебелью и газовой плитой, глянул в интернет, выбрал соответствующую фирму по печатанию необходимых тебе изделий, заказал и тебе напечатают нужный тебе товар и привезут тебе прямо домой. Именно новые «нанотехнологии» обеспечат нам подобное сказочное будущее.

Вон в Сколково на компах уже отрабатывают новые технологии в металлургии и машиностроении. И никаких тебе лабораторий в прежнем понимании этого слова с целой кучей металлургического и металлообрабатывающего оборудования. И никаких тебе промышленных зон с коптящими небо заводами в экологически чистой зоне Сколково, никаких тебе цехов, конвейеров, доменных печей, конвертеров, прокатных станов и всяких там железок. Одни компьютеры и объемные принтеры. И больше ничего. Правда, на принтерах можно печатать лишь пластиковые детали и изделия. Да и то, мелкие. Но это пока. Пока. А потом перейдем и на «наноматериалы» и жизнь станет, как в сказке.

Тогда все человеческое сообщество полностью перейдет на продукцию из «наноматериалов», печатаемых на объемных принтерах, и начнет по соответствующим программам полностью само себя обеспечивать всем необходимым для жизни.

Вот к примеру, есть в США русский геолог геофизик, не буду называть его фамилию, но он частый гость нашего ТВ. После окончания МГРИ он, не найдя работы в России, уехал в США, где очень скоро получил геофизическую лабораторию, потом еще лабораторию в Канаде и сейчас имеет лабораторию в Швейцарии. Ему нет еще и тридцати, но уже считается крупным специалистом в вопросах комптютерного исследования земной коры. Он не ходит в геологические экспедиции, не занимается исследование кернов, вынутых при бурении горных пород в разных районах земли, он перевел все эти тяжелые и затратные работы геологов на земле на компьютер и занимается лишь компьютерными исследованиями земной коры и уже выдвинул свою теорию образования слоя Мохоровичича, этой нижней границы земной коры, на которой происходит непонятное скачкообразное увеличение скоростей продольных сейсмических волн. И научный мир принял его теорию.

Моя молодость прошла в геологии и я даже учился в МГРИ четыре года и я детально знаю, что это такое, полевые работы в геологических экспедиция и как составлялась геологическая карта СССР, самая большая карта в мире. Но теперь выходит так, что практическая, полевая геология стала не нужна современному обществу. И камеральные геологические работы, которые раньше делались по результатам полевых изысканий, теперь можно будет делать у себя дома в рабочем кабинете на компьютере в комфортных условиях и никакие экспедиции с тяжелейшими условиями жизни и работы где-то за пределами цивилизации уже не нужны.

Если это так, то получается, что наш реальный мир и вправду коренным образом изменился и эта новая, так называемая, виртуальная окружающая действительность уже активно теснит прежние представления о нашей сегодняшней жизни.

И нам теперь уже и вправду не нужны заводы для изготовления нужной нам продукции и также не нужны экспедиции для изучения поверхности и недр земли, а нужны одни лишь компьютеры с объёмными принтерами, которые при соответствующем программировании решат все наши реальные задачи нашей новой реальной жизни. Но все ли?!

Вот неожиданно и, как всегда, вдруг прорвало воду у нас в подъезде и я позвонил в пресловутое ЖЭК и вызвал слесарей сантехников для ликвидации аварии. А им никакие супер компьютеры с объемными принтерами оказались не нужными, а нужны были лишь слесарные инструменты, с которыми они пришли к нам ликвидировать аварию и возились с заменой лопнувших труб свыше двух суток. Но мне говорят современные интеллектуалы, что этот мой случай, частность, никакого отношения к искусственному интеллекту не имеющий.

Видно я настолько человек прежней эпохи и настолько не понимаю сегодняшние реалии, что мне и уже и места в новом компьютерном мире не найдется. Ведь это должно быть совершенно не наше нынешнее общество, потому что современный человеческий разум не сможет управлять подобными компьютерными процессами, здесь нужен искусственный разум, искусственный мозг, искусственный интеллект. И только лишь небольшая часть современных людей сможет работать с искусственным разумом, поэтому остальная часть населения земли станет лишней и никому не нужной. Что надо будет с ними тогда делать, пока неизвестно. Не решили пока!

Так рождается идея о «золотом миллиарде» современных «управителей» земли, задача которых управлять и пользоваться земными благами, а остальные люди земли будут нужны лишь для их обслуживания и создания им комфортных условий для жизни. Но где их взять, этих кандидатов на принятие «в золотой миллиард», этих людей со сверх высоким интеллектом, который сможет работать с искусственным разумом? А их надо будет отбирать уже на стадии беременности. И этот отбор должен будет осуществлять сам искусственный интеллект, сам искусственный разум.

И вот такой бред шел в течении почти двух часов на канале «24». Откуда все это в современном мире? Ответ прост. Падение общего и профессионального уровня образования в странах Европы и Америки, не говоря уж о России, настолько мощен, что заставляет полуобразованное население запада и России активно верить в подобные «байки» и сказки.

Но жизнь все равно ломает их интеллектуальное восприятие нашей окружающей жизни, нашей нынешней действительности. И ломает постоянно. Но они этого не замечают, потому что их взгляд устремлен в будущее, где нет грязи бытовой жизни и они устремлены в будущее.

Ведь ни у кого из них даже не возникает элементарнейшие вопросы о том, а кто же тогда будет строить для этих интеллектуалов жилье, дороги, кто будет обеспечивать их продуктами питания, кто будет убирать отходы их жизнедеятельности, кто будет ремонтировать наши дома, наши дворы, наши водопроводы и газопроводы, кто будет делать и обслуживать сами эти компы и принтеры. Кто? Искусственный разум сам все решит, отвечают мне они. И они уверенны в своем ответе и снисходительно посматривают сверху вниз на меня и на таких, как я.

Но сможет ли этот искусственный разум конкурировать с человеческим? Вопрос риторический. Если не сказать, что глупый. Но мне говорят, что, мол, в шахматы искусственный разум уже побеждает человека и в программировании тоже. И современную живопись со скульптурой «шпарит» уже так, как никакая человеческая фантазия вообразить не может.

И спорить на эту тему с ними бессмысленно. Но, как мне кажется, именно их разум искусственный разум заменить сможет. Здесь сложностей нет. Потому что они мыслят стандартно и примитивно. Но мой разум, разум инженера изобретателя, разум моей жены, высококвалифицированного медика, и других таких же людей, профессионально делающих свое дело, никакой искусственный разум заменить не сможет. Я уж не говорю здесь про разум женщин матерей.

Но вот разум большинства государственных чиновников и депутатов разного рода «госдум» и их многочисленных помощников, заменить на искусственный разом стоило бы даже очень. А также разум этих «интеллектуалов», докторов околовсяческих наук, часами разглагольствующих на ТВ о нашем светлом будущем, управляемым «золотым миллиардом» человечества, вооруженным искусственным разумом, поставить под контроль общества уже сейчас становится важнейшей и необходимейшей задачей в России. Иначе мы захлебнемся в их пустом словоблудии.

PS Понятие думать, мыслить, у каждого человека свое. Мужик думает, когда соображает на троих; женщина думает, когда выбирает платье для выхода на свидание или занимается косметикой своего лица; бизнесмен думает, когда пытается поменьше заплатить своим работникам и побольше положить в свой карман: инженер думает, когда решает стоящую перед ним техническую задачу и так далее и тому подобное. Ну, а о чем думает нынешний госчиновник, я представления не имею, потому что эта сфера человеческой деятельности в нынешней России для меня является абсолютнейшей загадкой. Ведь там нет даже намека на мысли - одни примитивные, шкурные интересы.

Имитация физиологии
Дело в том, что термин «Искусственный интеллект» (кстати, постепенно вытесняемый понятиями «интеллектуальные системы», «методы принятия решений», «интеллектуальный анализ данных») изначально рассматривался как объемлющий для большого класса моделей и алгоритмов, которые должны были работать также, как человеческий мозг (соответственно представлениям того времени).
К таким относятся, например, пресловутые нейронные сети всех мастей и генетические алгоритмы.

Обобщение, статистика и анализ
С другой стороны, множество методов так называемого ИИ являются не более чем развитием разделов математики: статистики, исследования операций, топологии и метрических пространств. К таким относится большая часть методов data mining и knowledge data discovery, кластерного анализа, метода группового учета аргументов и прочего.

Это методы так называемого индуктивного вывода, когда на основе имеющихся данных выводят общие закономерности.

Правила, логика, вывод
Третьей особой группой можно объединить методы, которые пытаются построить общие закономерности и по ним делать выводы в отношении конкретных фактов. Это методы дедуктивного вывода, и их представляют: старая как мир силлогистика Аристотеля, исчисление высказываний и предикатов, разнообразные формальные системы и логики. Тут же с краю пристроились теории формальных и естественных языков, различные порождающие грамматики.

Мы видим, что все, обычно относимое к термину «ИИ», пытается имитационно или логически решить задачу подражания интеллекту человека.

Возникает вопрос, а что же такого специфического делает человек, чего пока не делают современные компьютеры, построенные еще по принципам Беббиджа?
Одно из определений задач, которыми занимается ИИ, звучит так: «задача, для которой не существует алгоритмического решения или оно неприменимо по причинам вычислительной сложности ».

Таким образом, например, задача игры в шашки когда-то была задачей ИИ, а после построения полной модели и набора полной БД неулучшаемых ходов она превратилась просто в задачу поиска по информационной базе (см и ).

Задачи «ИИ» меняются со временем
Возможно, наши дети будут жить в информационном мире, когда многие задачи будут решены и встанут новые – от общения на естественных языках до автоматического управления всеми видами техники и механизмов.

Однако когда каждый из нас слышал слова «искусственный интеллект», нам ведь хотелось иного.
Нам хотелось получить машину, которая умеет думать , которая владеет базовыми навыками обучения, обобщения; способна, подобно живым организмам, замещать одни органы другими и совершенствоваться. Все читали раннюю научную фантастику, так ведь?

А был ли мальчик?
Так где же потерялся интеллект? Когда и почему то, что мы хотели видеть, стало унылыми матмоделями и довольно неизящными алгоритмами?

Пару строк оффтопика. Если вы защищаете диссертацию со словом «интеллектуальный», то члены совета, как правило, попросят вас указать то место в системе, которое является интеллектуальным, и доказать ПОЧЕМУ оно является таковым. Вопрос этот относится к абсолютно «неберущимся».

Дело в том, что люди, придумавшие все то, на чем стоит современный «ИИ», были ведомы инновационными и революционными для того времени идеями (собственно, наше время отличается только тем, что мы во все это уже вдоволь поиграли, в том числе и с применением современных вычислительных мощностей)

Пример 1 (из области непознаваемого) .
Нейронные сети прямого распространения сигнала с алгоритмом обратного распространения ошибки (так называемые back-propagation). Это, безусловно, прорыв.
Правильно настроенная сеть (с умно выбранными входами и выходами) может обучиться любой входной последовательности и успешно распознавать примеры, которым ее не учили.
Типовой эксперимент формулируется так: 1000 примеров, на половине из которых мы алгоритм учим, а на другой проверяем. И выбор первой и второй половины делается случайно.
Это работает, я лично не меньше 10 раз учил разные НС разным задачам и получал нормальные результаты, с 60-90% правильных ответов.

В чем же проблема нейронных сетей? Почему они - не подлинный интеллект?
1. Входные данные почти всегда надо очень тщательно готовить и предварительно обрабатывать. Часто тонны кода и фильтров делаются для того, чтобы данные стали съедобны для сетей. Иначе сеть будет учиться годами и ничему не научится.
2. Результат обучения НС невозможно интерпретировать и объяснить. А эксперту этого очень хочется.
3. Сети часто просто запоминают примеры, а не учатся закономерностям. Точных способов построить сеть достаточно умную, чтобы закономерность представить и недостаточно емкую, чтобы тупо запомнить всю выборку нет.

В чем же интеллектуальность нейронных сетей?
В том, что мы не учили систему решать задачу, мы научили ее учиться решать задачи. Алгоритм определения пола человека не заложен в систему человеком, он найден почти эмпирически и зашит в весах синапсов. Это – элемент интеллекта.

Пример 2 (из области дедуктивного вывода).
Идея проста. Обучим машину мыслить как человека (ну хотя бы примитивные выводы делать) и дадим элементарные факты. Дальше – пусть сама.
Экспертные системы, системы машинной логики, онтологии (с некоторой натяжкой) работают согласно этому принципу. Это работает? Безусловно. Тысячи систем диагностики болезней и описания областей знания реализованы и продолжают работать.

В чем же проблема? Почему формальные системы - не подлинный интеллект?
Проблема в том, что система, поглотив колоссальные объемы крови и пота своих создателей, начинает худо-бедно повторять и развивать решения того эксперта (или сообщества), который ее учил.
Полезно ли это? Бесспорно. Эксперт смертен, задачи множатся.

В чем же интеллектуальность систем, основанных на знаниях?
В том, что машина делает НОВЫЕ выводы, которым ее никто не учил. Этот элемент ее работы крайне убог (пока) и ограничен теми моделями и алгоритмами, которые были заложены. Но это - элемент интеллекта.

Так в чем же проблема современного ИИ?
Просто мы еще очень маленькие. Наши наивные и поверхностные представления о том, как мыслит человек и как работает мозг, дают такие плоды, каких заслуживают.

Мы, безусловно, безумно далеки от создания машин, которые бы умели мыслить в нашем с вами, человеческом смысле, однако наши шаги в этом направлении правильны и полезны.

И даже если мы идем не туда, кто знает, может, как у Стругацких, мы в результате направленных усилий нечаянно сделаем что-то намного лучшее, чем собирались?

Альтов Генрих

Может ли машина мыслить

Генрих Альтов

Может ли машина мыслить?

Я собираюсь рассмотреть вопрос: "Может ли машина мыслить?" Но для этого нужно сначала определить смысл термина "мыслить"...

А. Тьюринг. Триггерная цепочка.

важды в неделю, по вечерам, гроссмейстер приходил в Институт кибернетики и играл с электронной машиной.

В просторном и безлюдном зале стоял невысокий столик с шахматной доской, часами и кнопочным пультом управления. Гроссмейстер садился в кресло, расставлял фигуры и нажимал кнопку "Пуск". На передней панели электронной машины загоралась подвижная мозаика индикаторных ламп. Объектив следящей системы нацеливался на шахматную доску. Потом на матовом табло вспыхивала короткая надпись. Машина делала свой первый ход.

Она была совсем небольшая, эта машина. Гроссмейстеру иногда казалось, что против него стоит самый обыкновенный холодильник. Но этот "холодильник" неизменно выигрывал. За полтора года гроссмейстеру с трудом удалось свести вничью только четыре партии.

Машина никогда не ошибалась. Над ней никогда не нависала угроза цейтнота. Гроссмейстер не раз пытался сбить машину, делая заведомо нелепый ход или жертвуя фигуру. В результате ему приходилось поспешно нажимать кнопку "Сдаюсь".

Гроссмейстер был инженером и экспериментировал с машиной для уточнения теории самоорганизующихся автоматов. Но временами его бесила абсолютная невозмутимость "холодильника". Даже в критические моменты игры машина не думала больше пяти-шести секунд. Спокойно поморгав разноцветными огнями индикаторных ламп, она записывала самый сильный из возможных ходов. Машина умела вносить поправки на стиль игры своего противника. Иногда она поднимала объектив и подолгу рассматривала человека. Гроссмейстер волновался и делал ошибки...

Днем в зал приходил молчаливый лаборант. Хмуро, не глядя на машину, он воспроизводил на шахматной доске партии, сыгранные в разное время выдающимися шахматистами. Объектив "холодильника" выдвигался до отказа и нависал над доской. На лаборанта машина не смотрела. Она бесстрастно регистрировала информацию.

Эксперимент, для которого создали шахматный автомат, приближался к концу. Было решено организовать публичный матч между человеком и машиной. Перед матчем гроссмейстер стал еще чаше появляться в институте. Гроссмейстер понимал, что проигрыш почти неизбежен. И все-таки он упорно искал слабые места в игре "холодильника". Машина же, словно догадываясь о предстоящем поединке, с каждым днем играла все сильнее и сильнее. Она молниеносно разгадывала самые хитроумные планы гроссмейстера. Она громила его фигуры внезапными и исключительными по силе атаками...

Незадолго до начала матча машину перевезли в шахматный клуб и установили на сцене. Гроссмейстер приехал в самую последнюю минуту. Он уже жалел, что дал согласие на матч. Было неприятно проигрывать "холодильнику" на глазах у всех.

Гроссмейстер вложил в игру весь свой талант и всю свою волю к победе. Он избрал начало, которое ему еще не приходилось играть с машиной, и игра сразу же обострилась.

На двенадцатом ходу гроссмейстер предложил машине слона за пешку. С жертвой слона связывалась тонкая, заранее подготовленная комбинация. Машина думала девять секунд - и отклонила жертву. С этого момента гроссмейстер знал, что неизбежно проиграет. Однако он продолжал игру - уверенно, дерзко, рискованно.

Никто из присутствовавших в зале еще не видел такой игры. Это было сверхискусство. Все знали, что машина постоянно выигрывает. Но на этот раз положение на доске менялось так быстро и так резко, что невозможно было сказать, кому достанется победа.

После двадцать девятого хода на табло машины вспыхнула надпись: "Ничья". Гроссмейстер изумленно посмотрел на "холодильник" и заставил себя нажать кнопку "Нет". Взметнулись, перестраивая световой узор, индикаторные огни - и замерли настороженно.

На одиннадцатой минуте она сделала ход, которого больше всего опасался гроссмейстер. Последовал стремительный размен фигур. Положение у гроссмейстера ухудшилось. Однако на сигнальном табло машины вновь появилось слово "Ничья". Гроссмейстер упрямо нажал кнопку "Нет" и повел ферзя в почти безнадежную контратаку.

Следящая система машины тотчас пришла в движение. Стеклянный глаз объектива уставился на человека. Гроссмейстер старался не смотреть на машину.

Постепенно в световой мозаике индикаторных ламп начали преобладать желтые тона. Они становились насыщеннее, ярче - и наконец погасли все лампы, кроме желтых. На шахматную доску упал золотистый сноп лучей, удивительно похожих на теплый солнечный свет.

В напряженной тишине пощелкивала, перескакивая с деления на деление, стрелка больших контрольных часов. Машина думала. Она думала сорок три минуты, хотя большинство сидящих в зале шахматистов считали, что думать особенно нечего и можно смело атаковать конем.

Внезапно желтые огни погасли. Объектив, неуверенно вздрагивая, занял обычное положение. На табло появилась запись сделанного хода: машина осторожно передвинула пешку. В зале зашумели; многим казалось, что это был не лучший ход.

Через четыре хода машина признала свое поражение.

Гроссмейстер, оттолкнув стул, подбежал к машине и рывком приподнял боковой щиток. Под щитком вспыхивала и гасла красная лампочка контрольного механизма.

На сцену, которую сразу заполнили шахматисты, с трудом пробился молодой человек, корреспондент спортивной газеты.

Похоже, она просто уступила, - неуверенно сказал кто-то. - Так потрясающе играла - и вдруг...

Ну, знаете ли, - возразил один из известных шахматистов, - случается, что и человек не замечает выигрышной комбинации. Машина играла в полную силу, но возможности ее ограниченны. Только и всего.

Гроссмейстер медленно опустил щиток машины и обернулся к корреспонденту.

Итак, - нетерпеливо повторил тот, раскрывая записную книжку, - каково ваше мнение?

Мое мнение? - переспросил гроссмейстер. - Вот оно: вышла из строя триггерная цепочка в сто девятом блоке. Конечно, ход пешкой не самый сильный. Но сейчас трудно сказать, где причина и где следствие. Может быть, из-за этой триггерной цепочки машина не заметила лучшего хода. А может быть, она действительно решила не выигрывать - и это стоило ей пробитых током триггеров. Ведь и человеку не так легко переломить себя...

Но зачем этот слабый ход, зачем проигрывать? - удивился корреспондент. Умей машина мыслить, она стремилась бы к выигрышу.

Гроссмейстер пожал плечами и улыбнулся:

Как сказать... Иногда намного человечнее сделать именно слабый ход. К взлету готов!

аяк стоял на высокой, далеко выдвинутой в море скале. Люди появлялись на маяке лишь изредка, чтобы проверить автоматическое оборудование. Метрах в двухстах от маяка из воды поднимался островок. Много лет начал на островке, как на постаменте, установили космический корабль, который вернулся на Землю после дальнего рейса. Такие корабли не имело смысла снова отправлять в Космос.

Я приехал сюда с инженером, ведавшим маяками на всем Черноморском побережье. Когда мы поднялись на верхнюю площадку маяка, инженер передал мне бинокль и сказал:

Будет шторм. Очень удачно: перед непогодой он всегда оживает.

Красноватое солнце тускло отсвечивало на серых гребнях волн. Скала резала волны, они огибали ее и с шумом карабкались на скользкие, ржавые камни. Потом, гулко вздохнув, растекались вспененными ручьями, открывая дорогу новым волнам. Так наступали римские легионеры: передний ряд, нанеся удар, уходил назад сквозь разомкнутый строй, который затем смыкался и с новой силой шел на приступ.

В бинокль я мог хорошо разглядеть корабль. Это был очень старый двухместный звездолет типа "Дальний разведчик". В носовой части выделялись две аккуратно заделанные пробоины. Вдоль корпуса проходила глубокая вмятина. Кольцо гравитационного ускорителя было расколото на две части и сплющено. Над рубкой медленно вращались конусообразные искатели давно устаревшей системы и ифразвукового метеонаблюдения.

Видите, - сказал инженер, - он чувствует, что будет шторм.

Где-то тревожно закричала чайка, и море отозвалось глухими ударами волн. Серая дымка, поднятая над морем, постепенно заволакивала горизонт. Ветер тянул к облакам посветлевшие гребни волн, а облака, перегруженные непогодой, опускались к воде. От соприкосновения неба и моря должен был вспыхнуть шторм.

Ну это я еще понимаю,-продолжал инженер: - солнечные батареи питают аккумуляторы, и электронный мозг управляет приборами. Но все остальное... Иногда он словно забывает о земле, о море, о штормах и начинает интересоваться только небом. Выдвигается радиотелескоп, антенны локаторов вращаются днем и ночью... Или другое. Вдруг поднимается какая-то труба и начинает разглядывать людей. Зимой здесь бывают холодные ветры, корабль покрывается льдом, но стоит на маяке появиться людям, и лед моментально исчезает... Между прочим, на нем и водоросли не нарастают...

Алан Тьюринг предложил эксперимент, который позволил бы проверить наличие сознания у компьютера, а Джон Сёрль предложил мысленный эксперимент, который должен опровергать эксперимент Тьюринга. Разбираемся в обоих аргументах и заодно пытаемся понять, что такое сознание.

Тест Тьюринга

В 1950 году в работе «Вычислительные машины и разум» британский математик Алан Тьюринг предложил свой знаменитый тест, позволяющий, по его мнению, определить, способна ли та или иная вычислительная машина мыслить. Тест, по сути дела, копировал распространённую тогда в Британии игру в имитацию. В ней участвовали три человека: ведущий и мужчина с женщиной. Ведущий сидел за ширмой и мог общаться с двумя другими игроками только с помощью записок. Его задача состояла в том, чтобы угадать, какого пола каждый из его собеседников. При этом они вовсе не обязаны были отвечать правдиво на его вопросы.

Тот же самый принцип Тьюринг использовал и в тесте на наличие интеллекта у машины. Только ведущий в нём должен угадать не пол собеседника, а является ли он машиной или человеком. Если машина сможет достаточно успешно имитировать поведение человека и запутывать ведущего, то она пройдёт тест и, предположительно, докажет, что у неё есть сознание и что она мыслит.

Молодой Алан Тьюринг (фотография на паспорт).
Источник: Wikimedia.org

Китайская комната

В 1980 году философ Джон Сёрль предложил мысленный эксперимент, который мог бы опровергнуть позицию Тьюринга.

Представим себе следующую ситуацию. Человек, который не говорит и не читает на китайском языке, попадает в комнату. В этой комнате есть таблички с китайскими символами, а также книга на том языке, на котором разговаривает этот человек. В книге описано, что делать с символами, если в комнату попадут другие символы. Вне комнаты находится независимый наблюдатель, который говорит по-китайски. Его задача состоит в том, чтобы разговаривать с человеком из комнаты, например посредством записок, и выяснить, понимает ли его собеседник китайский язык.

Цель эксперимента Сёрля – продемонстрировать, что даже если наблюдатель поверит, что его собеседник умеет говорить по-китайски, человек в комнате всё равно не будет знать китайский язык. Он не будет понимать символов, которыми оперирует. Точно так же и «машина Тьюринга», которая смогла бы пройти одноимённый тест, не понимала бы символов, которые она использует, и, соответственно, не обладала бы сознанием.

По мнению Сёрля, даже если бы подобная машина смогла ходить, разговаривать, оперировать предметами и изображать из себя полноценного мыслящего человека, она всё равно не обладала бы сознанием, поскольку она только исполняла бы заложенную в неё программу, отвечая заданными реакциями на заданные сигналы.

Философский зомби

Однако представим себе следующую ситуацию, предложенную Дэвидом Чалмерсом в 1996 году. Представим себе так называемого «философского зомби» - некоторое существо, которое по всем признакам похоже на человека. Оно выглядит как человек, разговаривает как человек, реагирует на сигналы и раздражители как человек и вообще во всех возможных ситуациях ведёт себя как человек. Но при этом у него отсутствует сознание, и оно не испытывает никаких чувств. Оно реагирует на то, что причинило бы человеку боль или удовольствие, как если бы оно было человеком, который испытывает эти ощущения. Но при этом оно не переживает их на самом деле, а только имитирует реакцию.

Возможно ли такое существо? Как нам отличить его от реального человека, который испытывает чувства? Что вообще отличает философского зомби от людей? Может ли быть так, что они среди нас? А может быть, все, кроме нас, - философские зомби?

Дело в том, что нам в любом случае недоступен внутренний субъективный опыт других людей. Нам недоступно никакое сознание, кроме нашего собственного. Мы изначально только предполагаем, что у других людей оно есть, что они похожи на нас, потому что у нас в общем-то нет особых поводов в этом сомневаться, ведь другие ведут себя так же, как и мы.

Классический искусственный интеллект едва ли будет воплощен в мыслящих машинах; предел человеческой изобретательности в этой области, по-видимому, ограничится созданием систем, имитирующих работу мозга.

В науке об искусственном интеллекте (ИИ) происходит революция. Чтобы объяснить ее причины и смысл и представить в перспективе, мы прежде должны обратиться к истории.

В начале 50-х годов традиционный, несколько расплывчатый вопрос о том, может ли машина мыслить, уступил более доступному вопросу: может ли мыслить машина, манипулирующая физическими символами в соответствии с правилами, учитывающими их структуру. Этот вопрос сформулирован точнее, потому что за предшествовавшие полвека формальная логика и теория вычислений существенно продвинулись вперед. Теоретики стали высоко оценивать возможности абстрактных систем символов, которые претерпевают преобразования в соответствии с определенными правилами. Казалось, что если эти системы удалось бы автоматизировать, то их абстрактная вычислительная мощь проявилась бы в реальной физической системе. Подобные взгляды способствовали рождению вполне определенной программы исследований на достаточно глубокой теоретической основе.

Может ли машина мыслить?

Было много причин для того, чтобы ответить да. Исторически одна из первых и наиболее глубоких причин заключалась в двух важных результатах теории вычислений. Первый результат был тезисом Черча, согласно которому каждая эффективно вычислимая функция является рекурсивно вычислимой. Термин «эффективно вычислимая» означает, что существует некая «механическая» процедура, с помощью которой можно за конечное время вычислить результат при заданных входных данных. «Рекурсивно вычислимая» означает, что существует конечное множество операций, которые можно применить к заданному входу, а затем последовательно и многократно применять к вновь получаемым результатам, чтобы вычислить функцию за конечное время. Понятие механической процедуры не формальное, а скорее интуитивное, и потому тезис Черча не имеет формального доказательства. Однако он проникает в самую суть того, чем является вычисление, и множество различных свидетельств сходится в его подтверждение.

Второй важный результат был получен Аланом М. Тьюрингом, продемонстрировавшим, что любая рекурсивно вычислимая функция может быть вычислена за конечное время с помощью максимально упрощенной машины, манипулирующей символами, которую позднее стали называть универсальной машиной Тьюринга. Эта машина управляется рекурсивно применимыми правилами, чувствительными к идентичности, порядку и расположению элементарных символов, которые играют роль входных данных.

Из этих двух результатов вытекает очень важное следствие, а именно что стандартный цифровой компьютер, снабженный правильной программой, достаточно большой памятью и располагающий достаточным временем, может вычислить любую управляемую правилами функцию с входом и выходом. Другими словами, он может продемонстрировать любую систематическую совокупность ответов на произвольные воздействия со стороны внешней среды.

Конкретизируем это следующим образом: рассмотренные выше результаты означают, что соответственно запрограммированная машина, манипулирующая символами (в дальнейшем будем называть ее МС-машиной), должна удовлетворять тесту Тьюринга на наличие сознательного разума. Тест Тьюринга - это чисто бихевиористский тест, тем не менее его требования очень сильны. (Насколько состоятелен этот тест, мы рассмотрим ниже, там где встретимся со вторым, принципиально отличным «тестом» на наличие сознательного разума.) Согласно первоначальной версии теста Тьюринга, входом для МС-машины должны быть вопросы и фразы на естественном разговорном языке, которые мы набираем на клавиатуре устройства ввода, а выходом являются ответы МС-машины, напечатанные устройством вывода. Считается, что машина выдержала этот тест на присутствие сознательного разума, если ее ответы невозможно отличить от ответов, напечатанных реальным, разумным человеком. Конечно, в настоящее время никому не известна та функция, с помощью которой можно было бы получить выход, не отличающийся от поведения разумного человека. Но результаты Черча и Тьюринга гарантируют нам, что какова бы ни была эта (предположительно эффективная) функция, МС-машина соответствующей конструкции сможет ее вычислить.

Это очень важный вывод, особенно если учесть, что тьюринговское описание взаимодействия с машиной при помощи печатающей машинки представляет собой несущественное ограничение. То же заключение остается в силе, даже если МС-машина взаимодействует с миром более сложными способами: с помощью аппарата непосредственного зрения, естественной речи и т. д. В конце концов более сложная рекурсивная функция все же остается вычислимой по Тьюрингу. Остается лишь одна проблема: найти ту несомненно сложную функцию, которая управляет ответными реакциями человека на воздействия со стороны внешней среды, а затем написать программу (множество рекурсивно применимых правил), с помощью которой МС-машина вычислит эту функцию. Вот эти цели и легли в основу научной программы классического искусственного интеллекта.

Первые результаты были обнадеживающими

МС-машины с остроумно составленными программами продемонстрировали целый ряд действий, которые как будто относятся к проявлениям разума. Они реагировали на сложные команды, решали трудные арифметические, алгебраические и тактические задачи, играли в шашки и шахматы, доказывали теоремы и поддерживали простой диалог. Результаты продолжали улучшатьсгя с появлением более емких запоминающих устройств, более быстродействующих машин, а также с разработгюй более мощных и изощренных программ. Классический, или «построенный на программировании», ИИ представлял собой очень живое и успешное научное направление почти со всех точек зрения. Периодически высказывавшееся отрицание того, что МС-машины в конечном итоге будут способны мыслить, казалось проявлением необъективности и неинформированности. Свидетельства в пользу положительного ответа на вопрос, вынесенный в заголовок статьи, казались более чем убедительными.

Конечно, оставались кое-какие неясности. Прежде всего МС-машины не очень-то напоминали человеческий мозг. Однако и здесь у классического ИИ был наготове убедительный ответ. Во-первых, физический материал, из которого сделана МС-машина, по существу не имеет никакого отношения к вычисляемой ею функции. Последняя зафиксирована в программе. Во-вторых, техничекие подробности функциональной архитектуры машины также не имеют значения, поскольку совершенно различные архитектуры, рассчитанные на работу с совершенно различными программами, могут тем не менее выполнять одну и ту же функцию по входу-выходу.

Поэтому целью ИИ было найти функцию, по входу и выходу характерную для разума, а также создать наиболее эффективную из многих возможных программ для того, чтобы вычислить эту функцию. При этом говорили, что тот специфичный способ, с помощью которого функция вычисляется человеческим мозгом, не имеет значения. Этим и завершается описание сущности классического ИИ и оснований для положительного ответа на вопрос, поставленный в заголовке статьи.

Может ли машина мыслить? Были также кое-какие доводы и в пользу отрицательного ответа. На протяжении 60-х годов заслуживающие внимания отрицательные аргументы встречались относительно редко. Иногда высказывалось возражение, заключающееся в том, что мышление - это не физический процесс и протекает он в нематериальной душе. Однако подобное дуалистическое воззрение не выглядело достаточно убедительным ни с эволюционной, ни с логической точки зрения. Оно не оказало сдерживающего влияния на исследования в области ИИ.

Гораздо большее внимание специалистов по ИИ привлекли соображения иного характера. В 1972 г. Хьюберт Л. Дрейфус опубликовал книгу, в которой резко критиковались парадные демонстрации проявлений разума у систем ИИ. Он указывал на то, что эти системы не адекватно моделировали подлинное мышление, и вскрыл закономерность, присущую всем этим неудачным попыткам. По его мнению, в моделях отсутствовал тот огромный запас неформализованных общих знаний о мире, которым располагает любой человек, а также способность, присущая здравому рассудку, опираться на те или иные составляющие этих знаний,в зависимости от требований изменяющейся обстановки. Дрейфус не отрицал принципиальной возможности создания искусственной физичесгсой системы, способной мыслить, но он весьма критически отнесся к идее о том, что это может быть достигнуто только за счет манипулирования символами с помощью рекурсивно применяемых правил.

В кругах специалистов по искусственному интеллекту, а также философов рассуждения Дрейфуса были восприняты главным образом как недальновидные и необъективные, базирующиеся на неизбежных упрощениях, присущих этой еще очень молодой области исследований. Возможно, указанные недостатки действительно имели место, но они, конечно, были временными. Настанет время, когда более мощные машины и более качественные программы позволят избавиться от этих недостатков. Казалось, что время работает на искусственный интеллект. Таким образом, и эти возражения не оказали сколько-нибудь заметного влияния на дальнейшие исследования в области ИИ.

Однако оказалось, что время работало и на Дрейфуса : в конце 70-х - начале 80-х годов увеличение быстродействия и объема памяти компьютеров повышало их «умственные способности» ненамного. Выяснилось, например, что распознавание образов в системах машинного зрения требует неожиданно большого объема вычислений. Для получения практически достоверных результатов нужно было затрачивать все больше и больше машинного времени, намного превосходя время, требуемое для выполнения тех же задач биологической системе зрения. Столь медленный процесс моделирования настораживал: ведь в компьютере сигналы распространяются приблизительно в миллион раз быстрее, чем в мозге, а тактовая частота центрального процессорного устройства компьютера примерно во столько же раз выше частоты любых колебаний, обнаруженных в мозге. И все же на реалистических задачах черепаха легко обгоняет зайца.

Кроме того, для решения реалистических задач необходимо, чтобы компьютерная программа обладала доступом к чрезвычайно обширной базе данных. Построение такой базы данных уже само по себе представляет довольно сложную проблему, но она усугубляется еще одним обстоятельством: каким образом обеспечить доступ к конкретным, зависящим от контекста фрагментам этой базы данных в реальном масштабе времени. По мере того как базы данных становились все более емкими, проблема доступа осложнялась. Исчерпывающий поиск занимал слишком много времени, а эвристические методы не всегда приводили к успеху. Опасения, подобные тем, что высказывал Дрейфус, начали разделять даже некоторые специалисты, работающие в области искусственного интеллекта.

Приблизительно в это время (1980 г.) Джон Сирл высказал принципиально новую критическую концепцию, ставившую под сомнение само фундаментальное предположение классической программы исследований по ИИ, а именно - идею о том, что правильное манипулирование структурированными символами путем рекурсивного применения правил, учитывающих их структуру, может составлять сущность сознательного разума.

Основной аргумент Сирла базировался на мысленном эксперименте, в котором он демонстрирует два очень важных обстоятельства. Во-первых, он описывает МС-машину, которая (как мы должны понимать) реализует функцию, по входу и выходу способную выдержать тест Тьюринга в виде беседы, протекающей исключительно на китайском языке. Во-вторых, внутренняя структура машины такова, что независимо от того, какое поведение она демонстрирует, у наблюдателя не возникает сомнений в том, что ни машина в целом, ни любая ее часть не понимают китайского языка. Все, что она в себе содержит, - это говорящий только по-английски человек, выполняющий записанные в инструкции правила, с помощью которых следует манипулировать символами, входящими и выходящими через окошко для почтовой корреспонденции в двери. Короче говоря, система положительно удовлетворяет тесту Тьюринга, несмотря на то что не обладает подлинным пониманием китайского языка и реального семантического содержания сообщений (см. статью Дж. Сирла «Разум мозга - компьютерная программа?»).

Отсюда делается общий вывод, что любая система, просто манипулирующая физическими символами согласно чувствительным к структуре правилам, будет в лучшем случае лишь жалкой пародией настоящего сознательного разума, поскольку невозможно породить «реальную семантику», просто крутя ручку «пустого синтаксиса». Здесь следует заметить, что Сирл выдвигает не бихевиористский (не поведенческий) тест на наличие сознания: элементы сознательного разума должны обладать реальным семантическим содержанием.

Возникает соблазн упрекнуть Сирла в том, что его мысленный эксперимент не адекватен, поскольку предлагаемая им система, действующая по типу «кубика-рубика», будет работать до абсурда медленно. Однако Сирл настаивает, что быстродействие в данном случае не играет никакой роли. Думающий медленно все же думает верно. Все необходимое для воспроизведения мышления, согласно концепции классического ИИ, по его мнению, присутствует в «китайской комнате».

Статья Сирла вызвала оживленные отклики специалистов по ИИ, психологов и философов. Однако в общем и целом она была встречена еще более враждебно, чем книга Дрейфуса. В своей статье, которая одновременно публикуется в этом номере журнала, Сирл приводит ряд критических доводов, высказываемых против его концепции. По нашему мнению, многие из них правомерны, в особенности те, авторы которых жадно «кидаются на приманку», утверждая, что, хотя система, состоящая из комнаты и ее содержимого, работает ужасно медленно, она все же понимает китайский язык.

Нам нравятся эти ответы, но не потому, что мы считаем, будто китайская комната понимает китайский язык. Мы согласны с Сирлом, что она его не понимает. Привлекательность этих аргументов в том, что они отражают отказ воспринять важнейшую третью аксиому в рассуждении Сирла: « Синтаксис сам по себе не составляет семантику и его недостаточно для существования семантики». Возможно, эта аксиома и справедлива, но Сирл не может с полным основанием утверждать, что ему это точно известно. Более того, предположить, что она справедлива, - значит напрашиваться на вопрос о том, состоятельна ли программа исследований классического ИИ, поскольку эта программа базируется на очень интересном предположении, что если нам только удастся привести в движение соответствующим образом структурированный процесс, своеобразный внутренний танец синтаксических элементов, правильно связанный со входами и выходами, то мы можем получить те же состояния и проявления разума, которые присущи человеку.

То, что третья аксиома Сирла действительно напрашивается на этот вопрос, становится очевидно, когда мы непосредственно сопоставляем ее с его же первым выводом: «Программы появляются сущностью разума и их наличия не достаточно для наличия разума». Не трудно видеть, что его третья аксиома уже несет в себе 90% почти идентичного ей заключения. Вот почему мысленный эксперимент Сирла специально придуман для того, чтобы подкрепить третью аксиому. В этом вся суть китайской комнаты.

Хотя пример с китайской комнатой делает аксиому 3 привлекательной для непосвященного, мы не думаем, что он доказывает справедливость этой аксиомы, и чтобы продемонстрировать несостоятельность этого примера, мы предлагаем в качестве иллюстрации свой параллельный пример. Часто один удачный пример, опровергающий оспариваемое утверждение, значительно лучше проясняет ситуацию, чем целая книга, полная логического жонглирования.

В истории науки было много примеров скепсиса, подобного тому, который мы видим в рассуждениях Сирла. В XVIII в. ирландский епископ Джордж Беркли считал немыслимым, чтобы волны сжатия в воздухе сами по себе могли быть сущностью звуковых явлений или фактором, достаточным для их существования. Английский поэт и художник Уильям Блейк и немецкий поэт-естествоиспытатель Иоган Гете считали немыслимым, чтобы маленькие частички материи сами по себе могли быть сущностью или фактором, достаточным для объективного существования света. Даже в нынешнем столетии находились люди, которые не могли себе вообразить, чтобы неодушевленная материя сама по себе, независимо от того, насколько сложна ее организация, могла быть органической сущностью или достаточным условием жизни. Совершенно очевидно то, что люди могут или не могут себе представить, зачастую никак не связано с тем, что на самом деле существует или не существует в действительности. Это справедливо, даже когда речь идет о людях с очень высоким уровнем интеллекта.

Чтобы увидеть, каким образом эти исторические уроки можно применить к рассуждениям Сирла, применим искусственно придуманную параллель к его логике и подкрепим эту параллель мысленным экспериментом.

Аксиома 1. Электричество и магнетизм - это физические силы.

Аксиома 2. Существенное свойство света - это свечение.

Аксиома 3. Силы сами по себе появляются сущностью эффекта свечения и не достаточны для его наличия.

Заключение 1. Электричество и магнетизм не являются сущностью света и не достаточны для его наличия.

Предположим, что это рассуждение было опубликовано вскоре после того, как Джеймс К. Максвелл в 1864 г. высказал предположение, что свет и электромагнитные волны идентичны, но до того как в мире были полностью осознаны систематические параллели между свойствами света и свойствами электромагнитных волн. Приведенное выше логическое рассуждение могло показаться убедительным возражением против смелой гипотезы Максвелла, в особенности если бы оно сопровождалось следующим комментарием в поддержку аксиомы 3.

Рассмотрим темную комнату, в которой находится человек, держащий в руках постоянный магнит или заряженный предмет. Если человек начнет перемещать магнит вверх-вниз, то, согласно теории Максвелла об искусственном освещении (ИО), от магнита будет исходить распространяющаяся сфера электромагнитных волн и в комнате станет светлее. Но, как хорошо известно всем, кто пробовал играть с магнитами или заряженными шарами, их силы (а если на то пошло, то и любые другие силы), даже когда эти объекты приходят в движение, не создают никакого свечения. Поэтому представляется немыслимым, чтобы мы могли добиться реального эффекта свечения просто за счет манипулирования силами!

Колебания электромагнитных сил представляют собой свет, хотя магнит, который перемещает человек, не производит никакого свечения. Аналогично манипулирование символами в соответствии с определенными правилами может представлять собой разум, хотя у основанной на применении правил системы, находящейся в «китайской комнате» Дж. Сирла, настоящее понимание как будто отсутствует.

Что же мог ответить Максвелл, если бы ему был брошен этот вызов?

Во-первых, он, возможно, стал бы настаивать на том, что эксперимент со «светящейся комнатой» вводит нас в заблуждение относительно свойств видимого света, потому что частота колебаний магнита крайне мала, меньше, чем нужно, приблизительно в 1015 раз. На это может последовать нетерпеливый ответ, что частота здесь не играет никакой роли, что комната с колеблющимся магнитом уже содержит все необходимое для проявления эффекта свечения в полном соответствии с теорией самого Максвелла.

В свою очередь Максвелл мог бы «проглотить приманку», заявив совершенно обоснованно, что комната уже полна свечения, но природа и сила этого свечения таковы, что человек не способен его видеть. (Из-за низкой частоты, с которой человек двигает магнитом, длина порождаемых электромагнитных волн слишком велика, а интенсивность слишком мала, чтобы глаз человека мог на них среагировать.) Однако, учитывая уровень понимания этих явлений в рассматриваемый период времени (60-е годы прошлого века), такое объяснение, вероятно, вызвало бы смех и издевательские реплики. «Светящаяся комната! Но позвольте, мистер Максвелл, там же совершенно темно!»

Итак, мы видим, что бедному Максвеллу приходится туго. Все, что он может сделать, это настаивать на следующих трех положениях. Во-первых, аксиома 3 в приведенном выше рассуждении не верна. В самом деле, несмотря на то что интуитивно она выглядит достаточно правдоподобной, по ее поводу у нас невольно возникает вопрос. Во-вторых, эксперимент со светящейся комнатой не демонстрирует нам ничего интересного относительно физической природы света. И в-третьих, чтобы на самом деле решить проблему света и возможности искусственного свечения, нам необходима программа исследований, которая позволит установить, действительно ли при соответствующих условиях поведение электромагнитных волн полностью идентично поведению света. Такой же ответ должен дать классический искусственный интеллект на рассуждение Сирла. Хотя китайская комната Сирла и может показаться «в семантическом смысле темной», у него нет достаточных оснований настаивать, что совершаемое по определенным правилам манипулирование символами никогда не сможет породить семантических явлений, в особенности если учесть, что люди еще плохо информированы и ограничены лишь пониманием на уровне здравого смысла тех семантических и мыслительных явлений, которые нуждаются в объяснении. Вместо того чтобы воспользоваться пониманием этих вещей, Сирл в своих рассуждениях свободно пользуется отсутствием у людей такого понимания.

Высказав свои критические замечания по поводу рассуждений Сирла, вернемся к вопросу о том, имеет ли программа классического ИИ реальный шанс решить проблему сознательного разума и создать мыслящую машину. Мы считаем, что перспективы здесь не блестящие, однако наше мнение основано на причинах, в корне отличающихся от тех аргументов, которыми пользуется Сирл. Мы основываемся на конкретных неудачах исследовательской программы классического ИИ и на ряде уроков, преподанных нам биологическим мозгом на примере нового класса вычислительных моделей, в которых воплощены некоторые свойства его структуры. Мы уже упоминали о неудачах классического ИИ при решении тех задач, которые быстро и эффективно решаются мозгом. Ученые постепенно приходят к общему мнению о том, что эти неудачи объясняются свойствами функциональной архитектуры МС-машин, которая просто непригодна для решения стоящих перед ней сложных задач.

Что нам нужно знать, так это каким образом мозг достигает эффекта мышления? Обратное конструирование является широко распространенным приемом в технике. Когда в продажу поступает какое-то новое техническое устройство, конкуренты выясняют, каким образом оно работает, разбирая его на части и пытаясь угадать принцип, на котором оно основано. В случае мозга реализация такого подхода оказывается необычайно трудной, поскольку мозг представляет собой самую сложную вещь на планете. Тем не менее нейрофизиологам удалось раскрыть многие свойства мозга на различных структурных уровнях. Три анатомические особенности принципиально отличают его от архитектуры традиционных электронных компьютеров.

Во-первых , нервная система - это параллельная машина, в том смысле, что сигналы обрабатываются одновременно на миллионах различных путей. Например, сетчатка глаза передает сложный входной сигнал мозгу не порциями по 8,16 или 32 элемента, как настольный компьютер, а в виде сигнала, состоящего почти из миллиона отдельных элементов, прибывающих одновременно к окончанию зрительного нерва (наружному коленчатому телу), после чего они также одновременно, в один прием, обрабатываются мозгом. Во-вторых, элементарное «процессорное устройство» мозга, нейрон, отличается относительной простотой. Кроме того, его ответ на входной сигнал - аналоговый, а не цифровой, в том смысле, что частота выходного сигнала изменяется непрерывным образом в зависимости от входных сигналов.

В-третьих, в мозге, кроме аксонов, ведущих от одной группы нейронов к другой, мы часто находим аксоны, ведущие в обратном направлении. Эти возвращающиеся отростки позволяют мозгу модулировать характер обработки сенсорной информации. Еще важнее то обстоятельство, что благодаря их существованию мозг является подлинно динамической системой, у которой непрерывно поддерживаемое поведение отличается как очень высокой сложностью, так и относительной независимостью от периферийных стимулов. Полезную роль в изучении механизмов работы реальных нейронных сетей и вычислительных свойств параллельных архитектур в значительной мере сыграли упрощенные модели сетей. Рассмотрим, например, трехслойную модель, состоящую из нейроноподобных элементов, имеющих аксоноподобные связи с элементами следующего уровня. Входной стимул достигает порога активации данного входного элемента, который посылает сигнал пропорциональной силы по своему «аксону» к многочисленным «синаптическим» окончаниям элементов скрытого слоя. Общий эффект заключается в том, что та или иная конфигурация активирующих сигналов на множестве входных элементов порождает определенную конфигурацию сигналов на множестве скрытых элементов.

То же самое можно сказать и о выходных элементах. Аналогичным образом конфигурация активирующих сигналов на срезе скрытого слоя приводит к определенной картине активации на срезе выходных элементов. Подводя итог, можно сказать, что рассматриваемая сеть является устройством для преобразования любого большого количества возможных входных векторов (конфигураций активирующих сигналов) в однозначно соответствующий ему выходной вектор. Это устройство предназначено для вычисления специфической функции. То, какую именно функцию оно вычисляет, зависит от глобальной конфигурации синаптической весовой структуры.

Нейронные сети моделируют главное свойство микроструктуры мозга. В этой трехслойной сети входные нейроны (слева внизу) обрабатывают конфигурацию активирующих сигналов {справа внизу) и передают их по взвешенным связям скрытому слою. Элементы скрытого слоя суммируют свои многочисленные входы, образуя новую конфигурацию сигналов. Она передается внешнему слою, выполняющему дальнейшие преобразования. В целом сеть преобразует любой входной набор сигналов в соответствующий выход, в зависимости от расположения и сравнительной силы связей между нейронами.

Существуют разнообразные процедуры для подбора весов, благодаря которым можно сделать сеть, способную вычислить почти любую функцию (т. е. любое преобразование между векторами). Фактически в сети можно реализовать функцию, которую даже нельзя сформулировать, достаточно лишь дать ей набор примеров, показывающих, какие лары входа и выхода мы хотели бы иметь. Этот процесс, называемый «обучением сети», осуществляется путем последовательного подбора весов, присваиваемых связям, который продолжается до тех пор, пока сеть не начнет выполнять желаемые преобразования с входом, чтобы получить нужный выход.

Хотя эта модель сети чрезвычайно упрощает структуру мозга, она все же иллюстрирует несколько важных аспектов. Во-первых, параллельная архитектура обеспечивает колоссальное преимущество в быстродействии по сравнению с традиционным компьютером, поскольку многочисленные синапсы на каждом уровне выполняют множество мелких вычислительных операций одновременно, вместо того чтобы действовать в очень трудоемком последовательном режиме. Это преимущество становится все более значительным, по мере того как возрастает количество нейронов на каждом уровне. Поразительно, но скорость обработки информации, совершенно не зависит ни от числа элементов, участвующих в процессе на каждом уровне, ни от сложности функции, которую они вычисляют. Каждый уровень может иметь четыре элемента или сотню миллионов; конфигурация синаптических весов может вычислять простые одноразрядные суммы или решать дифференциальные уравнения второго порядка. Это не имеет значения. Время вычислений будет абсолютно одним и тем же.

Во-вторых, параллельный характер системы делает ее нечувствительной к мелким ошибкам и придает ей функциональную устойчивость; потеря нескольких связей, даже заметного их количества, оказывает пренебрежимо малое влияние на общий ход преобразования, выполняемого оставшейся частью сети.

В-третьих, параллельная система запоминает большое количество информации в распределенном виде, при этом обеспечивается доступ к любому фрагменту этой информации за время, измеряющееся несколькими миллисекундами. Информация хранится в виде определенных конфигураций весов отдельных синаптических связей, сформировавшихся в процессе предшествовавшего обучения. Нужная информация «высвобождается» по мере того, как входной вектор проходит через (и преобразуется) эту конфигурацию связей.

Параллельная обработка данных не является идеальным средством для всех видов вычислений. При решении задач с небольшим входным вектором, но требующих многих миллионов быстро повторяющихся рекурсивных вычислений, мозг оказывается совершенно беспомощным, в то время как классические МС-машины демонстрируют свои самые лучшие возможности. Это очень большой и важный класс вычислений, так что классические машины будут всегда нужны и даже необходимы. Однако существует не менее широкий класс вычислений, для которых архитектура мозга представляет собой наилучшее техническое решение. Это главным образом те вычисления, с которыми обычно сталкиваются живые организмы: распознавание контуров хищника в «шумной» среде; мгновенное вспоминание правильной реакции на его пристальный взгляд, способ бегства при его приближении или защиты при его нападении; проведение различий между съедобными и несъедобными вещами, между половыми партнерами и другими животными; выбор поведения в сложной и постоянно изменяющейся физической или социальной среде; и т. д.

Наконец, очень важно заметить, что описанная параллельная система не манипулирует символами в соответствии со структурными правилами. Скорее манипулирование символами является лишь одним из многих других «интеллектуальных» навыков, которым сеть может научиться или не научиться. Управляемое правилами манипулирование символами не является основным способом функционирования сети. Рассуждение Сирла направлено против управляемых правилами МС-машин; системы преобразования векторов того типа, который мы описали, таким образом, выпадают из сферы применимости его аргумента с китайской комнатой, даже если бы он был состоятелен, в чем мы имеем другие, независимые причины сомневаться.

Сирлу известно о параллельных процессорах, но, по его мнению, они будут также лишены реального семантического содержания. Чтобы проиллюстрировать их неизбежную неполноценность в этом отношении, он описывает второй мысленный эксперимент, на сей раз с китайским спортивным залом, который наполнен людьми, организованным в параллельную сеть. Дальнейший ход его рассуждений аналогичен рассуждениям в случае с китайской комнатой.

На наш взгляд, этот второй пример не так удачен и убедителен, как первый. Прежде всего то обстоятельство, что ни один элемент в системе не понимает китайского языка, не играет никакой роли, потому что то же самое справедливо и по отношению к нервной системе человека: ни один нейрон моего мозга не понимает английского языка, хотя мозг как целое понимает. Далее Сирл не упоминает о том, что его модель (по одному человеку на каждый нейрон плюс по быстроногому мальчишке на каждую синаптическую связь) потребовала бы по крайней мере 1014 человек, так как человеческий мозг содержит 1011 нейронов, каждый из которых имеет в среднем 103 связей. Таким образом, его система потребует населения 10 000 миров, таких как наша Земля. Очевидно, что спортивный зал далеко не в состоянии вместить более или менее адекватную модель.

С другой стороны, если такую систему все же удалось бы собрать, в соответствующих космических масштабах, со всеми точно смоделированными связями, у нас получился бы огромный, медленный, странной конструкции, но все же функционирующий мозг. В этом случае, конечно, естественно ожидать, что при правильном входе он будет мыслить, а не наоборот, что он на это не способен. Нельзя гарантировать, что работа такой системы будет представлять собой настоящее мышление, поскольку теория векторной обработки может неадекватно отражать работу мозга. Но точно так же у нас нет никакой априорной гарантии, что она не будет мыслить. Сирл еще раз ошибочно отождествляет сегодняшние пределы своего собственного (или читательского) воображения с пределами объективной реальности.

Мозг

Мозг является своеобразным компьютером, хотя большинство его свойств пока остается непознанным. Охарактеризовать мозг как компьютер далеко не просто, и такие попытки не следует считать излишней вольностью. Мозг дейтствительно вычисляет функции, но не такие, как в прикладных задачах, решаемых классическим искусственным интеллектом. Когда мы говорим о машине как о компьютере, мы не имеем в виду последовательный цифровой компьютер, который нужно запрограммировать и которому свойственно четкое разделение на программную часть и аппаратную; мы не имеем также в виду, что этот компьютер манипулирует символами или следует определенным правилам. Мозг - это компьютер принципиально другого вида.

Каким образом мозг улавливает смысловое содержание информации, пока не известно, однако ясно, что проблема эта выходит далеко за рамки лингвистики и не ограничивается человеком как видом. Маленькая кучка свежей земли означает, как для человека, так и для кайота, что где-то поблизости находится суслик; эхо с определенными спектральными характеристиками означает для летучей мыши присутствие мотылька. Чтобы разработать теорию формирования смыслового содержания, мы должны больше знать о том, как нейроны кодируют и преобразуют сенсорные сигналы, о нейронной основе памяти, об обучении и эмоциях и о связи между этими факторами и моторной системой. Основанная на нейрофизиологии теория понимания смысла может потребовать даже наших интуитивных представлений, которые сейчас кажутся нам такими незыблемыми и которыми так свободно пользуется Сирл в своих рассуждениях. Подобные пересмотры - не редкость в истории науки.

Способна ли наука создать искусственный интеллект, воспользовавшись тем, что известно о нервной системе? Мы не видим на этом пути принципиальных препятствий. Сирл будто бы соглашается, но с оговоркой: «Любая другая система, способная порождать разум, должна обладать каузальными свойствами (по крайне мере), эквивалентными соответствующим свойствам мозга». В завершение статьи мы и рассмотрим это утверждение. Полагаем, что Сирл не утверждает, будто успешная система искусственного интеллекта должна непременно обладать всеми каузальными свойствами мозга, такими как способность чувствовать запах гниющего, способность быть носителем вирусов, способность окрашиваться в желтый цвет под действием пероксидазы хрена обыкновенного и т. д. Требовать полного соответствия будет все равно, что требовать от искусственного летательного аппарата способности нести яйца.

Вероятно, он имел в виду лишь требование, чтобы искусственный разум обладал всеми каузальными свойствами, относящимися, как он выразился, к сознательному разуму. Однако какими именно? И вот мы опять возвращаемся к спору о том, что относится к сознательному разуму, а что не относится. Здесь как раз самое место поспорить, однако истину в данном случае следует выяснять эмпирическим путем - попробовать и посмотреть, что получится. Поскольку нам так мало известно о том, в чем именно состоит процесс мышления и семантика, то всякая уверенность по поводу того, какие свойства здесь существенны, была бы преждевременной. Сирл несколько раз намекает, что каждый уровень, включая биохимический, должен быть представлен в любой машине, претендующей на искусственный интеллект. Очевидно, это слишком сильное требование. Искусственный мозг может и не пользуясь биохимическими механизмами, достичь того же эффекта.

Эта возможность была продемонстрирована в исследованиях К.Мида в Калифорнийском технологическом институте. Мид и его коллеги воспользовались аналоговыми микроэлектронными устройствами для создания искусственной сетчатки и искусственной улитки уха. (У животных сетчатка и улитка не являются просто преобразователями: в обеих системах происходит сложная параллельная обработка данных.) Эти устройства уже не простые модели в миникомпьютере, над которым посмеивается Сирл; они представляют собой реальные элементы обработки информации, реагирующие в реальное время на реальные сигналы: свет - в случае сетчатки и звук - в случае улитки уха. Схемы устройств основаны на известных анатомических и физиологических свойствах сетчатки кошки и ушной улитки сипухи, и их выход чрезвычайно близок к известным выходам органов, которые они моделируют.

В этих микросхемах не используются никакие нейромедиаторы, следовательно, нейромедиаторы, судя по всему, не являются необходимыми для достижения желаемых результатов. Конечно, мы не можем сказать, что искусственная сетчатка видит что-то, поскольку ее выход не поступает на искусственный таламус или кору мозга и т. д. Возможно ли по программе Мида построить целый искусственный мозг, пока не известно, однако в настоящее время у нас нет свидетельств, что отсутствие в системе биохимических механизмов делает этот подход нереалистичным.

Нервная система охватывает ыного масштабов организации, от молекул нейромедиаторов (внизу) до всего головного и спинного мозга. На промежуточных у ровнях находятся отдельные нейроны и нейронные цепи, подобные тем, что реализуют избирательность восприятия зрительных стимулов (в центре), и системы, состоящие из многих цепей, подобных тем, что обслуживают функции речи (справа вверху). Только путем исследований можно установить, насколько близко искусственная система способна воспроизводить биологические системы, обладающие разумом.

Так же как и Сирл, мы отвергаем тест Тьюринга как достаточный критерий наличия сознательного разума. На одном уровне основания для этого у нас сходные: мы согласны, что очень важно, каким образом реализуется функция, определенная по входу-выходу; важно, чтобы в машине происходили правильные процессы. На другом уровне мы руководствуемся совершенно иными соображениями. Свою позицию относительно присутствия или отсутствия семантического содержания Сирл основывает на интуитивных представлениях здравого смысла. Наша точка зрения основана на конкретных неудачах классических МС-машин и конкретных достоинствах машин, архитектура которых ближе к устройству мозга. Сопоставление этих различных типов машин показывает, что одни вычислительные стратегии имеют огромное и решающее преимущество над другими в том, что касается типичных задач умственной деятельности. Эти преимущества, установленные эмпирически, не вызывают никаких сомнений. Очевидно, мозг систематически пользуется этими вычислительными преимуществами. Однако он совершенно не обязательно является единственной физической системой, способной ими воспользоваться. Идея создания искусственного интеллекта в небиологической, но существенно параллельной машине остается очень заманчивой и в достаточной мере перспективной.