Студопедия

КАТЕГОРИИ:

АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

Когнитивистика в процессе созревания: споры и развитие




Неопределенность

В 1980-х гг. когнитивистика переживала своего рода «кризис среднего возраста». Некоторые психологи, стоявшие у истоков движения, испытывали глубокие сожа­ления по поводу того, во что оно превратилось. Несколько ключевых проблем со­противлялись решению и стали предметом язвительных споров, и возникло сопер­ничество с традиционным системным подходом к познанию, которое, как казалось одно время, угрожало уничтожить это направление. Но в конечном итоге ни одна из этих проблем не стала роковой для когнитивистики, хотя они сильно изменили ее.

В первую очередь трудности проистекали из того, что обещания искусственно­го интеллекта оказались завышенными. Герберт Саймон был одним из главных «продавцов» созданной им области. В 1956 г. он предсказал, что к 1967 г. ученые будут писать психологические теории, как компьютерные программы; он также предвидел что «в течение 10 лет цифровой компьютер станет чемпионом мира по шахматам» и что «в течение 10 лет цифровой компьютер откроет и докажет новые важные теоремы математики». В 1965 г. Саймон предсказывал, что «на протяже­нии ближайших 20 лет машины смогут выполнять любую работу, которую могут делать люди» (цит. по: Н. L. Dreyfus, 1972). К 2000 г. ни одно из предсказаний Сай­мона не исполнилось, хотя компьютерная программа Deep Blue действительно обыграла действующего чемпиона мира по шахматам Гарри Каспарова в показа­тельном матче 1996 г.

Тем временем в психологии также возникли проблемы. В 1982 г. Джеймс Дж. Дженкинс, бывший бихевиорист, перешедший к теории обработки информа­ции, утверждал, что «когнитивная психология увлеклась мелочами и потеряла на­правление». Он задавался вопросами: «Развивается ли наша область в том направ­лении, в каком, как нам кажется, должна развиваться наука?.. Развивается ли эта область и углубляется ли наше понимание когнитивных принципов, процессов и фактов, которые могут внести вклад в решение реальных проблем и дать ответы на насущные вопросы?» При этом Дженкинс склонялся к отрицательному ответу и считал, что когнитивная психология развивается по воле случая, без тщательно разработанной исследовательской программы. В том же году в юбилейном номере журнала Cognition, отмечавшего свое десятилетие, была опубликована редакцион­ная статья, в которой выражалось опасение, что «в когнитивной психологии нет очевидного прогресса, и, начиная с 1971 г., эта область не претерпевает существен­ного развития» (J. Mehler and S. Franck, 1981).

Ульрик Найссер, один из основоположников когнитивной психологии, был ра­зочарован еще сильнее. В 1976 г. он опубликовал книгу «Познание и реальность», которая знаменовала его отход от основного течения когнитивистики (D. Goleman,1983). В своей новой книге Найссер писал: «Развитие когнитивной психологии на протяжении последних лет вызывает разочарование узостью подходов», высказывал сомнение в том, «является ли все направление по-настоящему продуктивным» и заявлял, что пришел «к пониманию того, что представление о переработке инфор­мации заслуживает более пристального исследования». Найссер начал говорить о том, что когнитивной психологии «следует принять более реалистичное направле­ние: подход с позиций переработки информации оказывается недостаточным, когда речь заходит о человеческой природе» (U. Neisser, 1984). Найссер предложил заме­нить подход с позиций переработки информации «экологическим подходом», кото­рый изучает познание в естественном контексте, а не при суровых ограничениях эксперимента, изобретенных для того, чтобы отвечать потребностям лабораторий.

Споры

Вызов, брошенный преднамеренностью.Как утверждали Р. Лачман, Дж. Лачман и Э. Баттерфилд (R. Lachman, J. Lachman and E. Butterfield, 1979), «психология пе­реработки информации фундаментально связана с концепцией репрезентации». Ф. Брентано признавал, что преднамеренность является критерием способности к мышлению. Такие психические Состояния, как убеждения, обладают свойством «относительности»: они относятся к чему-то, стоящему за ними, к тому, что нейро­ны не могут делать. Репрезентации Э. Ч. Толмена обладают свойством преднаме­ренности: когнитивная карта рассказывает о лабиринте, представляя собой репре­зентацию лабиринта.

Тем не менее, хотя концепция репрезентации кажется достаточно понятной, она чревата трудностями, на которые указывал Л. Витгенштейн. Предположим, я на­рисую такую фигурку:

Что изображает этот рисунок? На первый взгляд, вам может показаться, что это мужчина, прогуливающийся с палкой для ходьбы. Но я мог использовать его, что­бы представить стоящий забор, или чтобы показать, как следует ходить, опираясь нд палку, или изобразить мужчину, возвращающегося с палкой, или женщину, гу­ляющую с палкой, или множество других вещей. Еще один пример: независимо от того, насколько вы похожи на портрет Генриха VIII, он остается репрезентацией Генриха, а не вашей. Конечно, я мог воспользоваться им, чтобы дать представле­ние о вас, если бы кто-нибудь спросил, как вы выглядите, а вас бы не оказалось поблизости. Итак, репрезентации не дают представления посредством своей внеш­ности. Предметом спора стало то, что же именно делает репрезентацию репрезента­цией, но функционализм прибегнул к иной стратегии, чтобы решить эту проблему.Любая репрезентация обладает и семантикой, и синтаксисом. Семантика ре­презентации — это ее значение, синтаксис — это ее форма. Если я пишу слово DESK (парта), его значение (семантика) относится к определенному предмету мебели, а синтаксисом является действительная структура и расположение букв D, E, S, и К. С научной, материалистической, точки зрения, загадкой репрезентаций служит их значение, их преднамеренность; это было изначальным пунктом концепции пред­намеренности Ф. Брентано, демонстрирующим, что значение нельзя свести к фи­зическим процессам. Но, как уже отмечалось, задача функционализма состоит в уничтожении загадочности преднамеренности, внесении поведения и психических процессов в сферу действия механистической науки. Он пытается сделать это по­средством редукции семантики к синтаксису.

Когда минуту назад я напечатал DESK, понял ли компьютер значение этого сло­ва? Нет, он обращался с этими буквами чисто синтаксически, сохранив их в виде нолей и единиц в своем бинарном машинном языке. Однако я могу попросить про­грамму Word сделать со словом DESK вещи, которые могут показаться разумными, сформулированными на менталистском языке. Я могу попросить найти все случаи употребления DESK в данном файле, и программа найдет как DESK, так и desk. Я могу попросить везде заменить CHAIR (стул) на DESK. Word может проверить написание слова DESK и сверить со словарем, чтобы привести слова со сходным значением. Тем не менее, хотя компьютер может сделать со словом DESK все эти вещи, нельзя сказать, что он владеет семантическим компонентом DESK. В каждом случае компьютер совершает операции, находя уникальный машинный код из но­лей и единиц, который обозначает DESK, а затем выполняет мою уточненную опе­рацию в этом регистре. Компьютер оперирует только с синтаксисом репрезентации, хотя его поведение может совпадать с тем, как если бы он знал значение репрезен­тации. Хотя, судя по его поведению, может показаться, что он знает семантическое значение DESK, на самом деле компьютер знает лишь синтаксис нолей и единиц.

Эту трудную, но важную проблему можно выразить еще одним способом, если позаимствовать терминологию Дэниела Деннета (Daniel Dennett, 1978), одного из творцов функционализма. Когда мы играем в шахматы с компьютером, мы, воз­можно, обращаемся с ним, как с человеком, приписывая ему психические склон­ности: он пытается ходить ферзем, он хочет съесть мою пешку, он боится, что я захвачу контроль над центром поля. Деннет называет это заимствование интенци-ональной позицией. Мы естественным образом занимаем интенциональную пози­цию по отношению к людям, иногда по отношению к животным, а в определенных случаях — и по отношению к машинам. Но то, что происходит внутри компьютера, ни в коей мере не является преднамеренным. План фигур на шахматной доске внут­ри него представлен в виде сложного паттерна из нолей и единиц в рабочей памя­ти компьютера. Затем компьютер находит правила, применимые к паттерну в те­кущий момент, и выполняет правило, изменяя содержание регистра памяти, что на экране видно как движение шахматной фигуры. Новый вход — ваш шахматный ход — изменяет паттерн нолей и единиц, и компьютер снова применяет примени­мое правило к новому паттерну, и так далее. Программа не пытается, не хочет и не боится; она просто выполняет формальные вычисления с паттернами из нолей и единиц, а вы считаете это преднамеренным поведением. •

В беседе с Джонатаном Миллером Деннет (Dennett, 1983) суммировал подход с позиции вычислений следующим образом:

Деннет: Основная идея заключается в том, что вы начинаете с вершины вашего ум­ного существа, со всеми его убеждениями, желаниями, ожиданиями и страхами, всей ' этой информацией. Затем вы спрашиваете себя: «Как все это будет представлено?» Вы разбиваете целостную систему на подсистемы, маленьких гомункулов. Каждый из них является специалистом, каждый выполняет маленький кусочек работы. Из их совместных усилий возникает целостная деятельность целостной системы.

Миллер: Но разве это не способ стать ненаучным менталистом?

Деннет: Да, вы заменяете маленького человечка в мозге целой группой, но спасение заключается в том, что все члены этой группы гораздо тупее, нежели целое. По от­дельности подсистемы не повторяют таланты целого. Они неизбежно приведут вас к регрессу. Вместо этого каждая подсистема выполняет свою часть работы; каждая менее умна, меньше знает, имеет меньше убеждений. Сами по себе репрезентации ме­нее представительны, поэтому вам не нужен внутренний глаз для того, чтобы наблю­дать за ними; вы можете удалиться с помощью некоего внутреннего процесса, который «открывает к ним доступ» посредством какого-то слабого ощущения (р. 77-78).

Итак, хотя мы приписываем преднамеренность компьютеру, играющему в шах­маты, на деле он представляет собой всего лишь собрание непреднамеренных, ту­пых подсистем, слепо выполняющих вычисления на синтаксически определяемых репрезентациях в соответствии с механистическими правилами.

В главе 1 мы противопоставляли подходы реализма и инструментализма к науке. Когда мы принимаем позицию преднамеренности по отношению к компьютеру, мы прибегаем к инструментальной теории. Мы знаем, что играющий в игры компьютер на самом деле не имеет желаний и убеждений, но мы обращаемся с ним так, как будто он ими обладает, поскольку это помогает нам предвосхитить его ходы и (как мы наде­емся) победить его. Делаем ли мы то же самое, когда занимаем позицию преднамерен­ности в отношении других людей, или люди на самом деле обладают желаниями и убеждениями? Если верно последнее, то интенциональная теория этнической психо­логии является реалистической теорией о людях, даже в том случае, если она обладает всего лишь инструментальной полезностью в отношении компьютеров. Философ Джон Сирл (John Searle, 1994,1997) принимает эту точку зрения и полагает, что ком­пьютеры, таким образом, никогда не пройдут тест Тюринга и что этническая психо­логия, в силу своей истинности, никогда не будет забыта. Но другие философы го­раздо серьезнее относятся к вычислительной метафоре и приходят к различным зак­лючениям. Стивен Стич (Stephen Stich, 1983), например, настойчиво утверждает, что единственными научно приемлемыми теориями в когнитивной психологии челове­ка будут те, которые станут рассматривать переработку информации человеком точ­но так же, как и компьютером, как механические вычисления с определяемыми син­таксически репрезентациями. Следовательно, этническая психология, поскольку она не является верной, в конце концов исчезнет из науки и повседневной жизни:

Общее представление о космосе в народной мудрости Запада было совершенно оши­бочным... Нет никаких оснований думать, что древние погонщики верблюдов были более счастливы, когда структурой, имевшейся в их распоряжении, была структура их собственного разума, а не структура материи или космоса (р. 229-230).Если наша наука не согласуется с народными представлениями, которые определяют, кто : и что мы есть, то у нас наступили трудные времена. Одно или другое должно уйти (р. 10).

Лишенные эмпирической опоры, наши вековые представления о вселенной в преде­лах воли распадутся в прах подобно тому, как разрушилась почтенная концепция внешней вселенной, рассыпавшаяся в прах в эпоху Возрождения (с. 246).

Сам Деннет (D. Dennett, 1978,1991) пытался «усидеть на двух стульях» и при­мирить два взгляда, признавая, что в науке мы должны рассматривать людей как машины, но что «этническую психологию», убеждения и желания можно сохра­нить в качестве вычислительного инструмента для повседневной жизни.

Валиден ли тест Тюринга? Представьте, что вы сидите за столом в пустой ком­нате. На столе перед вами лежит книга и листы бумаги, а в стене перед столом две щели. Из левой прорези выходят листы бумаги с китайскими иероглифами. Вы не понимаете по-китайски. Когда вы получаете лист бумаги, вы изучаете цепочку символов и находите соответствующую последовательность в книге. Книга велит вам скопировать новый набор китайских иероглифов на одном из ваших листов бумаги и опустить его в правую прорезь. Китайские психологи за стеной опускают в левую прорезь китайские истории, за которыми следуют вопросы об этих исто­риях, и получают ответы из другой щели. С их точки зрения, машина за стеной по­нимает по-китайски, поскольку они в состоянии беседовать с машиной, получая возможные ответы на свои вопросы. Они приходят к выводу, что машина за сте­ной понимает китайский язык и прошла тест Тюринга.

Конечно, вы знаете, что ничего не понимаете, — вы всего лишь записываете по­следовательности бессмысленных закорючек, имея инструкцию отвечать на другой набор бессмысленных закорючек. Джон Сирл (J. Searle, 1980), которому принадлежит этот мысленный эксперимент, указывает, что вы функционируете в «китайской ком­нате» подобно тому, как работает компьютер. Компьютер принимает вход в машин­ном коде (последовательности нолей и единиц), применяет синтаксические правила, чтобы трансформировать эти репрезентации в новые репрезентации (новые последо­вательности нолей и единиц), и генерирует выход. При этом пользователь называет то, что делает компьютер, игрой в шахматы, имитацией ядерного удара или чем-то еще, точно так же, как китайские психологи говорят о том, что комната «понимает по-ки­тайски». Аргументы Дж. Сирла показывают, что тест Тюринга не является адекватным измерением интеллекта, так как «китайская комната» в состоянии пройти тест Тюрин­га, ничего не понимая, а образ ее действий полностью совпадает с компьютерным.

Сирл также указывает на важное отличие когнитивной имитации от других видов имитаций. Метеорологи конструируют компьютерные модели ураганов, эко­номисты — внешней торговли США, а биологи — фотосинтеза. Но их компьютеры не порождают ветра со скоростью 100 км/ч, многомиллиардного торгового дефи­цита и не превращают свет в кислород. Тем не менее ученые-когнитивисты утверж­дают, что, если (или когда) они смогут имитировать интеллект, т. е. программа выдержит тест Тюринга, машина действительно будет считаться разумной. Но в других областях модель и реальность — совершенно разные вещи, и Сирл считает абсурдным игнорировать это различие в когнитивистике.

Сирл проводит различие между слабым и сильным искусственным интеллек­том.Слабый искусственный интеллект будет сохранять различия между имитацией и достижением и использовать компьютеры подобно тому, как это дела­ют остальные ученые — как замечательные вычислительные устройства для при­менения и проверки теорий. Сильный искусственный интеллект является требо­ванием (опровергнутым мысленным экспериментом с китайской комнатой) того, что имитация интеллекта есть интеллект. Сирл полагает, что сильного искусст­венного интеллекта достичь не удастся в силу тех же причин, по которым ком­пьютер не в состоянии осуществить процесс фотосинтеза: он сделан не из того материала. По мнению Сирла, фотосинтез — это природная биологическая функ­ция определенных структур растения, а мышление и понимание — природная биологическая функция мозга. Машины не обладают природными биологиче­скими функциями и поэтому не могут ни фотосинтезировать, ни понимать. Ком­пьютеры могут обеспечить нас орудием для того, чтобы помочь исследовать фо­тосинтез или понимание, но, по мнению Сирла, они не в состоянии действитель­но делать то или другое. Аргументы Сирла напоминают замечания, сделанные Лейбницем:

Представим, что существует машина, сконструированная так, чтобы думать, чувство­вать и понимать, как мы, и что при этом она таких размеров, что мы можем войти внутрь нее. Сделав это, мы обнаружим там только части, соединенные друг с другом, но ничего такого, что позволило бы объяснить восприятие, (цит. по: К. Gunderson, 1984, р. 629).

Мысленный эксперимент Сирла с «китайской комнатой» оказался одним из самых содержательных в истории искусственного интеллекта и когнитивистики, и спор все еще не закончен. Одних психологов и философов он вдохновляет, а у других вызывает ярость настолько, что спорящие стороны начинают говорить не друг с другом, а в пространство, не обращая внимания на аргументы противной стороны (J. Searle, 1997). То, на чью сторону встанет читатель, по-видимому, во­прос его интуиции, а также надежд и страхов по поводу компьютеризованного будущего.

Правдоподобен ли формализм? Согласно заявлению информационного ко­митета по когнитивистике (W. К. Estes and A. Newell, 1983), вследствие того, что компьютеры обладают «символьным поведением» (как раз тем, в чем Сирл им отказывал), «мы можем программировать их таким образом, чтобы они справля­лись с любыми задачами, которые поставит наш разум». В заявлении комитета таилось утверждение в духе формализма. Компьютеры могут делать все, что мо­жет быть записано в виде компьютерной программы, и комитет, следуя заявле­нию Г. Саймона о том, что компьютеры можно запрограммировать делать «все, что способен делать человек, все, на что мы направляем наш разум», в неявной форме утверждал, что все, что делают люди, является формальной процедурой. Формализм в психологии представляет собой конечный пункт механизации кар­тины мира; подобно тому, как физика добилась успеха в анализе природы как машины, когнитивистика надеется добиться успеха в анализе людей как машин (Н. Dreyfus, 1972). Но «китайская комната» Сирла бросила вызов механистиче­скому формализму, продемонстрировав, что формальная обработка символов не влечет за собой понимания языка. Еще один вызов представляла собой проблемафрейма, поскольку она ставила под вопрос не только способность компьютеров имитировать интеллект человека, но и саму возможность обретения интеллекта машиной.

Дэниел Деннет живо обрисовал проблему фрейма в следующей истории:

Жил-был робот, названный своими создателями Rt. Его единственной задачей была забота о самом себе. Однажды его создатели устроили так, что он узнал, что его за­пасная батарея, драгоценный источник энергии, заперта в комнате с бомбой с часо­вым механизмом, которая вскоре должна взорваться. Rt нашел комнату и ключ от двери и сформулировал план, как спасти свою батарею. В комнате была тележка, батарея находилась на тележке, и Rl выдвинул гипотезу о том, что определенное дей­ствие под названием ВЫКАТИТЬ (ТЕЛЕЖКА, КОМНАТА) приведет к тому, что батарея окажется убранной из комнаты. Он сразу же приступил к действию, и дей­ствительно смог вытащить батарею из комнаты до того, как бомба взорвалась. Но, к несчастью, бомба тоже была на тележке. Rl знал, что бомба находилась на тележке в комнате, но не понимал, что выкатывание тележки из комнаты вместе с батареей принесет и бомбу. Бедный Rl упустил из виду очевидные последствия своего запла­нированного действия.

Создатели вернулись к кульману. «Решение очевидно, — сказали они. — Наш следу­ющий робот должен быть сделан так, чтобы мог распознавать не только подразуме­вающиеся последствия действия, но и возможные побочные последствия, методом дедукции выводя эти последствия из описаний, которые он использует при форму­лировке своих планов». Они назвали свою следующую модель робот-дедуктор, R}Dr Они поставили R,D{ точно в такое же сложное положение, с которым не справился его предшественник, и, как только тот натолкнулся на идею ВЫКАТИТЬ (ТЕЛЕЖ­КА, КОМНАТА), он начал, как и было запланировано, рассматривать следствия по­добного образа действий. В конце концов он пришел к выводу, что изъятие тележки из комнаты не изменит цвета стен, и приступил к рассмотрению еще одного след­ствия, согласно которому выкатывание тележки из комнаты приведет к тому, что число оборотов, которые совершат колеса тележки, превзойдет количество самих колес, но тут бомба взорвалась'.

Создатели вернулись к кульману. «Мы должны научить его различать относящиеся и не относящиеся к делу последствия, — сказали они, — и игнорировать те, которые к делу не относятся». Поэтому они разработали метод, с помощью которого проекти­руемый робот мог бы помечать следствия соответствующим ярлычком — «уместно» и «неуместно», и инсталлировали этот метод в свою следующую модель под назва­нием робот-дедуктор уместности или, для краткости, Rf)r Когда его подвергли ис­пытанию, которое привело к гибели предшественников, ученые были удивлены, увидев робота сидящим в позе Гамлета за пределами комнаты, где тикала бомба; его природную решимость омрачила бледная тень размышлений, как метко заметил Шекспир... «Делай что-нибудь!» — закричали ему. «Я делаю, — ответил он. — Я про­игнорировал несколько тысяч следствий, которые определил как не относящиеся к делу. Как только я нахожу неуместное следствие, я вставляю его в список, который должен игнорировать, и...» Бомба взорвалась (Dennett, 1984, pp. 129-130).

.Rj и его потомки оказались пойманными в ловушку проблемы фрейма. Каким образом можно формализовать человеческие знания и навыки решения проблемы в виде набора компьютеризированных правил? Достаточно очевидно, что люди не делают того, что делали роботы: каким-то образом мы решаем проблему быстро и348 с незначительными сознательными размышлениями, как раз так, как это открыли вюрцбургские психологи. Если бы мы выполняли работу так же, как роботы, то уже давным-давно вымерли бы. Похоже, что люди выполняют эту работу с помощью интуиции, а не посредством вычислений: решения проблемы возникают у нас без размышлений; адаптивное поведение имеет место без размышлений. Нам не надо думать, чтобы игнорировать все абсурдные вещи, над игнорированием которых работал R2DV поскольку абсурдные и неуместные последствия у нас просто не воз­никают. Но компьютер, будучи формальной системой, должен переработать все последствия своих действий и затем проигнорировать их.

Выход из проблемы фрейма, видимо, подразумевает привлечение эмоций, ко­торыми компьютеры не обладают.










Последнее изменение этой страницы: 2018-04-12; просмотров: 267.

stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда...