Студопедия

КАТЕГОРИИ:

АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция

ПРЕДИСЛОВИЕ КО ВТОРОМУ ИЗДАНИЮ 13 страница




Нам пора, однако, как можно быстрее оставить подобную образность; ведь в лучшем случае она приведет в ярость конструктора, который стремится моделировать явления интуитивной эвристики, ибо самый изощренный язык "внутренних монологов" самоанализа ничем не поможет инженеру на его рабочем месте.

Машина для игры в шахматы, то есть соответственно запрограммированная электронная машина, практикует эвристику, в которую ее посвящает программа (способная, кстати говоря, к самообучению). Без преувеличения можно сказать, что очень многое зависит от таланта программиста (ибо программирование, несомненно, требует таланта). За единицу времени машина сумеет рассмотреть несравненно больше операций, чем человек (она действует примерно в миллион раз быстрее его), и все же человек побивает ее, потому что он способен к своеобразной динамической интеграции: если он умелый шахматист, то каждое отдельное расположение фигур он воспринимает как определенную слитную систему, как нечто целостное, обладающее четко выраженными "разветвляющимися" тенденциями развития. Машина пользуется различными тактиками, следовательно, она может с помощью определенных ходов подготовить следующие ходы, может пойти на жертву и т.п., но она вынуждена в каждом отдельном случае "проквантовать" ситуацию на доске, а свои предварительные расчеты она не способна, конечно, делать на много ходов вперед, потому что это физически невозможно даже для машины. Однако шахматная эвристика человека позволяет ему делать такие сокращения, на которые машина не способна. Позиция, обретая некую эмоционально-формальную ценность, рассматривается уже как индивидуализированное целое. Только такой уровень интеграции, когда две позиции с немногими отличиями в расстановке фигур воспринимаются как совершенно разные, позволяет гроссмейстеру разыгрывать несколько десятков партий одновременно.

Отметив столь феноменальные - с "машинной" точки зрения - способности мозга, мы вынуждены умолкнуть. Как бы там ни было, человеческая эвристика является производной от "эвристики" всех живых существ, потому что, едва возникнув, живые организмы были вынуждены всегда действовать только на основе неполной и неточной информации; им приходилось по этому приближению отыскивать инварианты - то есть довольствоваться расплывчатым решением. Поэтому исходным в моделировании был бы не такой прибор, который на основе имеющихся предпосылок действует строго логически, определяя истину или ложь в 100% случаев, а устройство, действующее по принципу "более или менее", "где-то около", "приближенно". Уж если эволюция (на уровне организмов в целом) создала в первую очередь именно такие "устройства", значит, это все-таки было проще, чем создавать аппараты, сознательно пользующиеся логикой.

Действительно, каждый человек, даже маленький ребенок, "сам того не желая", пользуется логикой (заложенной в неосознаваемых законах языка), тогда как изучение формальной логики требует немалых умственных усилий. То, что каждый отдельный нейрон можно рассматривать при этом как миниатюрный логический элемент, не меняет положения дел. Отметим еще и следующее. Число таких элементов в мозгу у каждого человека, грубо говоря, одно и то же. Однако между людьми имеются очень существенные различия: один, например, феноменально вычисляет в уме, но является посредственным математиком; другой - отличный математик, однако его затрудняют простые арифметические расчеты; третий - композитор, способный понять лишь математические азы; наконец, четвертый - человек, лишенный как творческих, так и исполнительских способностей.

Мы очень мало знаем о том, что есть общего в функционировании мозга у всех людей, и вовсе ничего не знаем о материальных причинах столь резких различий. А это в свою очередь еще осложняет нашу проблему. Вот почему кибернетик с радостью приветствует появление устройств, которые хотя бы в зачатке способны к некоторым операциям познания, то есть действуют по Принципу "более или менее", даже если общая формальная теория такого познавания отсутствует. Мы имеем в виду перцептроны.

Перцептроны 4 - это системы, снабженные "зрительным рецептором", который представляет собой грубый аналог сетчатки глаза, а также псевдонейронными элементами, соединенными случайным ("лотерейным") способом. Перцептроны приобретают способность распознавать образы (простые плоские конфигурации, например цифры или буквы) в процессе обучения, который идет по довольно простому алгоритму. Создаваемые сейчас перцептроны все еще примитивны и распознавать, например, человеческие лица пока не могут, как не могут, конечно, и "читать тексты", но они уже представляют собой заметный шаг на пути к созданию машин, способных такие тексты читать. Это неслыханно упростит все процедуры, предваряющие ввод в цифровую машину информации о поставленной задаче: ведь сейчас каждую такую задачу нужно сначала перевести на язык машины, а эта - не автоматизированная - процедура поглощает много времени у обслуживающего персонала. Поэтому конструирование все более сложных и все более "способных" перцептронов представляется весьма многообещающим. Это не означает, что перцептрон как модель мозга "точнее" цифровой машины (тем более что работу перцептрона можно моделировать на цифровой машине); нельзя утверждать также, что перцептрон "более похож" на мозг, чем такая машина. Каждое из этих устройств моделирует в своей узкой области определенные элементарные аспекты деятельности мозга - и это все. Быть может, будущие перцептроны подведут нас ближе к пониманию "интуиции".

Нужно добавить, что в литературе по этому вопросу существует определенная путаница в терминах или неясность в понятиях. Некоторые называют "эвристическое поведение" "неалгоритмичным". Но подобное определение зависит от того, считаем ли мы, что алгоритм - это полностью детерминированный распорядок действий, не меняющийся в процессе реализации, или что это такой распорядок, который благодаря преобразующим его обратным связям в процессе работы сам переходит в форму, отличную от исходной. В определенных случаях можно было бы говорить здесь о "самопрограммировании", что также вносит некоторую путаницу, поскольку это понятие применяют к самым разным типам поведения. В классических цифровых машинах программа четко отделена от реализующих ее рабочих устройств, а в мозгу такое отчетливое разделение имеется не всегда. С той минуты, когда поведение сложной системы становится "пластичным", иначе говоря, когда его детерминизм оказывается лишь условным, вероятностным, когда оно перестает быть прямолинейной реализацией жестких, раз навсегда установленных "предписаний", понятие алгоритма уже нельзя применять в том виде, в каком оно заимствовано прямо из дедуктивных наук. Ведь и в этом случае можно диктовать детерминированное поведение, но лишь до определенной границы. Например, после некоторого числа шагов сообщить системе, что ей следует начать "свободный поиск" очередного шага в диапазоне всего множества альтернатив; после чего она начнет действовать методом "проб и ошибок", пока не нащупает "оптимальное" значение, например минимум или максимум какой-либо функции, и тогда вновь на какое-то время включится "жесткий" распорядок действий. Но возможен также и случай, когда весь алгоритм является в определенном смысле слова "равномерно" вероятностным, то есть никакой из очередных шагов не предписывается системе "аподиктически", ей даются лишь некоторые пределы, границы допустимых областей, где могут включаться либо алгоритмы иного характера ("локально детерминированные"), либо операции типа "сопоставления" в целях поиска сходства (вроде "распознавания образов" или "форм"). Можно при этом комбинировать известные операции типа "априорно заданного" управления, "поиска", "сравнения" и, наконец, "индукции". Здесь при решении вопроса, с чем же мы имеем дело - с "алгоритмом" или с "эвристикой", основанной на "интуиции", - заметную роль играет уже просто соглашение (похожее на соглашение, что вирус в кристаллической форме "неживой", а вирус, внедрившийся в бактериальную клетку, "живой").

2. Как же могут теперь выглядеть попытки ответа на вопрос, способны ли результаты "машинного мышления" превзойти уровень интеллектуальных возможностей человека? По-видимому, следует перечислить возможные ответы. При этом мы не знаем, исчерпаны ли в_с_е возможные варианты, так же как не знаем, какой из них истинен.

А. Машинное мышление по некоторым принципиальным причинам не может превысить "потолок человеческого интеллекта". Например, потому, что никакая система не может быть "разумнее" человека; мы сами уже достигли потолка, но просто не знаем об этом. Либо потому, что к мыслящим системам типа "человек" ведет единственный путь - путь естественной эволюции, который можно в лучшем случае "пройти вновь", используя как экспериментальный полигон всю планету; либо, наконец, потому, что небелковые системы в интеллектуальном отношении (то есть как преобразователи информации) всегда хуже белковых и т.п.

Все это звучит весьма неправдоподобно, хотя исключить такую возможность пока нельзя. Я говорю это, опираясь на эвристику, которая подсказывает, что человек как разумное существо вполне зауряден, коль скоро его сформировал отбор по сравнительно малому числу параметров на протяжении всего лишь миллиона лет; что могут существовать и более "разумные" существа; что процессы Природы воспроизводимы и что к тем состояниям, к которым Природа пришла одной цепочкой шагов, можно прийти и другими путями.

Б. Машинное мышление способно превзойти человеческий интеллектуальный потолок, подобно тому как учитель математики "умнее", чем его ученики. Но так как человек способен понимать то, к чему не может прийти самостоятельно (например, дети понимают евклидову геометрию, хотя и не придумывают ее сами), то человеческому интеллекту не грозит потеря контроля над "познавательной стратегией машин"; он всегда будет понимать, что они делают, как они это делают и почему делают. Эта позиция также представляется мне неприемлемой.

Собственно говоря, что означает фраза: "Машинное мышление способно превзойти интеллектуальный потолок человека"? Неправильно понимать это превосходство как превосходство учителя над учениками; это ложное понимание - ведь учитель тоже не создал геометрии. Речь идет об отношении творцов науки ко всем остальным людям - вот что является аналогом отношения "машина - человек". А это значит, что машины могут создавать теории, то есть выделять инварианты тех или иных классов явлений в более широком диапазоне, чем человек. "Усилитель интеллекта" Эшби 5, в его первоначальном замысле, не заменил бы ученого, ибо этот усилитель - простой селектор информации, тогда как труд ученого к отбору несводим.

Разумеется, машина Эшби могла бы охватить в качестве элементов выбора значительно большее число альтернатив, чем на это способен человек. Это устройство вполне реально и полезно, если мы остановились на распутье и должны избрать дальнейшую дорогу. Оно оказывается бесполезным, если нам лишь предстоит догадаться, что какой-то путь вообще существует, например путь "квантования процессов". Поэтому такой усилитель нельзя считать и первым приближением к машине, автоматизирующей творческий труд ученого. Пока что мы не в состоянии начертить хотя бы приближенный эскиз того, что нам нужно. Однако мы знаем, по крайней мере в грубых чертах, что должна уметь такая "гностическая" машина: для создания теории сложных систем она должна учитывать огромное количество параметров - такое количество, с которым алгоритмы современной науки справиться не могут.

В физике отдельные уровни явлений можно рассматривать изолированно (атомная физика, ядерная физика, физика твердого тела, механика). В социологии это невозможно: различные уровни (сингулярно-единичный, плюрально-массовый) попеременно оказываются ведущими, то есть определяют динамическую траекторию системы. Основное препятствие как раз в количестве переменных, подлежащих учету. "Гностическая" машина, способная создать "теорию общественной системы" 6, должна была бы принять во внимание очень большое число переменных и этим отличалась бы от известных нам физических формализмов. Итак, на выходе "гностического творца" мы получаем теорию, закодированную, скажем, в виде целой системы уравнений. Смогут ли люди как-либо подступиться к этим уравнениям?

Создавшуюся ситуацию, может быть, легче понять на примере, почерпнутом из биологии. Если информационная емкость яйцеклетки совпадает с количеством информации, содержащейся в энциклопедии, и если заполнить расшифровкой генотипа тома энциклопедии, то и тогда подобную энциклопедию можно будет прочесть, однако лишь потому, что читателю известны физика, химия, биохимия, теория эмбриогенеза, теория самоорганизующихся систем и т.д. Одним словом, ему известны соответствующий язык и правила его использования. В случае же теории, которую "породит" машина, он не будет знать предварительно ни ее языка, ни законов его применения, всему этому он должен будет еще учиться. Вопрос в его окончательном виде ставится, следовательно, так: может ли читатель этому научиться?

В этом месте в наши рассуждения входит фактор времени. Ведь, пожалуй, вполне очевидно, что бактериальной клетке при делении нужно гораздо меньше времени, чем нам, для того, чтобы прочитать содержащуюся в ней информацию, закодированную на языке аминокислот и нуклеотидов. Пока мы "глазами и мозгом" один раз прочтем текст "формализованной и перекодированной бактерии", она успеет претерпеть сотни делений, потому что она-то при каждом своем делении "читает сама себя" несравненно быстрее. А в случае "теории общества" - или вообще какой-либо чрезвычайно сложной системы - время чтения может оказаться таким, что читателю не под силу будет ничего понять. Хотя бы потому, что он не сможет мысленно оперировать членами уравнений: из-за своей огромной длины они ускользают из его поля зрения, превышают возможности его памяти; такое чтение станет поистине сизифовым трудом. Но тогда вопрос прозвучит так: можно ли свести теорию, выданную машиной, к такой достаточно простой форме, чтобы человек мог эту теорию охватить? Боюсь, что это будет невозможно. Разумеется, упрощение само по себе возможно, но только всякая следующая форма теории после очередного упрощения окажется, с одной стороны, беднее оригинала за счет каких-то утраченных элементов, а с другой стороны, - все еще слишком сложной для человека.

Таким образом, производя упрощение, машина будет заниматься тем же, что делает физик, когда на публичной лекции излагает теорию гравитационных волн, обходясь скудным арсеналом школьной математики. Или тем, что делал мудрец из восточной сказки, который принес властелину, жаждавшему знаний, сначала библиотеку, занявшую целый караван верблюдов, потом сотню томов, навьюченную на мула, и, наконец, толстые фолианты, которые нес один раб, - ибо для властелина эти последовательные "упрощения" все еще были "слишком пространны".

Из сказанного видно, что уже нет надобности рассматривать такую (третью) возможность: машина способна превзойти интеллектуальный потолок человека как в том, что человек еще может, так и в том, чего он уже не может понять. Эта возможность появилась как следствие в ходе опровержения второй.

Там, куда человек сможет дойти своим умом, машина, вероятно, понадобится только в качестве "раба", который будет выполнять трудоемкие вспомогательные операции (расчеты, доставка нужной информации), то есть будет играть роль "ассистента" при "поэтапных операциях", роль "вспомогательной памяти" и т.п. Там, где разум человека будет уже недостаточен, машина представит готовые модели явлений, готовые теории. Тогда возникает вопрос-антиномия: "Как можно контролировать то, чего контролировать нельзя?" Может быть, следует создать машины-"антагонисты", которые взаимно контролировали бы результаты своих действий? Но что предпринять, если они дадут на выходе противоречивые результаты? В конце-то концов судьба теорий, порожденных машинами, зависит от нас; в особо конфликтной ситуации мы можем даже предать теорию огню. Иначе обстоит дело с управляющими машинами - такими машинами, которые являются наиболее вероятным воплощением усилителя умственных способностей Эшби. Роботов с квазичеловеческой индивидуальностью вряд ли кто-либо станет создавать. Зато, несомненно, возникнут и будут разрастаться кибернетические центры, управляющие производством, товарооборотом, распределением, а также научными исследованиями (координация усилий ученых, которым на начальной стадии работ "симбиотически" помогают вспомогательные машины).

Но очевидно, что подобные локальные координаторы нуждаются в сверхкоординаторах в масштабе, например, государства или континента. Возможны ли между ними конфликты? Как нельзя более возможны. Конфликты будут возникать в связи с капиталовложениями, исследованиями, энергозатратами. Ведь всякий раз будет необходимо установить приоритет тех или иных действий и шагов с учетом целого "муравейника" взаимосвязанных факторов. Такие конфликты необходимо будет разрешать. Мы, разумеется, спешим сказать: это будут делать люди. Отлично. Вспомним, что конфликты будут касаться проблем огромной сложности и людям - контролерам Координатора, чтобы обрести ориентировку в открывшемся перед ними математическом море, придется прибегнуть к помощи других машин - машин, оптимизирующих решение. Над всем этим высится глобальный аспект экономики - ее тоже нужно координировать. Всепланетный Координатор - тоже машина, со своим "консультативным советом", состоящим из людей, которые проверяют локальные решения системы "машин-контролеров" на отдельных континентах. Но как будут проводить такую проверку члены "консультативного совета"? Для этого у них будут собственные машины, оптимизирующие решения. Тогда возникает вопрос: возможно ли, что их машины при контрольном дублировании работы континентальных машин дадут иные результаты? Это вполне возможно: ведь каждая машина при выполнении определенной цепочки шагов, из которых слагается решение задачи (например, по методу последовательных приближений из-за огромного числа переменных), становится в каком-то смысле "пристрастной" - тем, что на английском философском жаргоне выражается словом "biased". Известно, что человек в принципе не может не быть пристрастным; но почему должна быть пристрастной машина? Дело в том, что пристрастность отнюдь не обязана вытекать только из эмоционального предубеждения, она возникает в машине уже тогда, когда конфликтующим членам альтернативы машина придает различный "вес". Возможно ли, что при расстановке оценок несколько независимо работающих машин дадут результаты, отличные друг от друга? Конечно же, ведь эти машины будут по объективным причинам вероятностными устройствами и поэтому не смогут действовать одинаково. С алгоритмической точки зрения процесс управления представляет собой "дерево решений" или целый класс таких "деревьев"; нужно согласовывать противоречивые потребности, различные стремления, интересы, нужды и невозможно ввести заранее такой "ценник" для всех мыслимых конфликтных ситуаций, чтобы эти "оценки в баллах" сами по себе, несмотря на применение статистических методов, приводили к одинаковым результатам при повторных решениях одной и той же проблемы. При этом очевидно, что степень различия результатов есть функция сложности решаемых задач.

Ситуация, возможно, станет более выразительной, если мы заметим, что ее удается частично описать на языке теории игр. Машина - это как бы игрок, ведущий игру против некой "коалиции", которая состоит из огромного числа различных группировок, производственных и рыночных, а также транспортных, относящихся к сфере обслуживания и т.п. Задача машины, образно говоря, состоит в том, чтобы сохранить оптимальное равновесие внутри коалиции, чтобы ни один из ее "членов" не был обижен в сравнении с остальными и ни один не получил бы выигрыша за счет других. При таком подходе коалиция - это просто экономика всей планеты в целом, которая должна развиваться гомеостатично и в то же время "справедливо и равномерно", а игра машины против коалиции состоит в том, что машина систематически поддерживает внутри этого динамически развивающегося хозяйства такое состояние равновесия, которое приносит всем выигрыш, либо, если уж это неизбежно, - убытки, но минимально возможные. Если теперь такую "партию" против нашей "коалиции" будут разыгрывать поочередно различные машинные партнеры (следовательно, если каждый из них будет иметь дело с одной и той же исходной ситуацией внутри коалиции), то было бы совершенно невероятным, если бы все партии протекали одинаково и имели бы одинаковый результат. Это все равно что утверждать, будто разные люди, играющие поочередно против одного и того же шахматиста, будут играть в точности одинаково только потому, что перед всеми один и тот же противник.

Итак, что же все-таки делать с различными "оценками" машин, которые должны были помочь человеку, собирающемуся разрешить спор локальных координаторов? Продолжать описанную процедуру без конца невозможно - это будет regressus ad infinitum [7 уход в бесконечность], нужно что-то предпринять. Но что? Дело выглядит так: либо электронные координаторы не могут учитывать большего числа переменных, чем человек, - и тогда их незачем строить; либо могут - но тогда человек уже сам не может разобраться в результатах, то есть не может принять какое-либо решение независимо от машины, исходя из "собственной оценки ситуации". Координатор управляется со своим заданием, а вот человек-"контролер" в действительности ничего не контролирует, это ему лишь кажется. Разве это не ясно? Машина, к услугам которой обращается человек-контролер, является в определенном смысле дублером Координатора, а человеку в этой ситуации достается роль мальчика на побегушках, который переносит ленту с записью информации с места на место. Если же две машины дают неодинаковые результаты, то человеку ничего иного не остается, как только "бросать монету", чтобы осуществить выбор, - из "верховного контролера" он превращается в механизм случайного выбора! И вот снова, теперь уже при допущении только управляющих машин, мы получаем ситуацию, в которой машины оказываются "способнее" человека.

 

Prima fade [8 На первый взгляд] следовало бы им это запретить, установив, например, такой закон: "Запрещается строить и использовать машины-координаторы, способности которых к переработке информации не позволяют человеку-контролеру разобраться по существу в результатах их деятельности". Но ведь это чистая фикция: как только сама динамика экономических процессов, подлежащих регулированию, потребует дальнейшего развития координаторов, грань человеческих возможностей надлежит перейти - и вот мы опять перед антиномией.

Может показаться, что я занимаюсь мистификацией. Обходимся же мы сегодня вообще без всяких машин! Верно, но ведь мир, в котором мы живем, сегодня еще очень прост. Разница между нашей, довольно примитивной, цивилизацией и необычайно сложной цивилизацией будущего примерно такая же, как между машиной в обычном смысле слова и живым организмом. В классических машинах и "простых" цивилизациях возникают разного рода самовозбуждающиеся колебания, неконтролируемый уход параметров от нормы, что вызывает то экономический кризис, то голод, то отравление талидомидом. Чтобы уяснить себе, как работает сложная машина, нужно понять, что мы двигаемся, ходим, говорим, одним словом, живем лишь потому, что каждую долю секунды сразу в миллиардах участков нашего тела мчатся вереницы кровяных телец с молекулами кислорода; что в миллиардах клеток идут миллиарды других процессов, которые "держат в узде" непрестанное броуновское движение частиц, стремящихся к анархии теплового хаоса; что таких процессов, которые нужно удерживать в предельно узком диапазоне параметров, - миллиарды и с выходом их из этого диапазона начался бы распад динамики всей системы. Чем сложнее система, тем тотальнее должна быть ее регулировка, тем менее допустимы локальные отклонения параметров. Господствует ли наш мозг как регулятор над нашим телом? Безусловно. Господствуем ли мы сами, каждый из нас, над своим телом? Только в очень узком диапазоне параметров: остальные нам "заданы" предусмотрительной Природой. Но никто не может "задать" нам, то есть наладить за нас, регулирование очень сложной общественной системы. Опасность, о которой говорил Винер, состоит в том, что к положению, когда мы уже вынуждены будем требовать "интеллектронной подмоги", прогресс подводит нас незаметно и постепенно, а в тот момент, когда мы начнем утрачивать ориентировку в целом и, следовательно, способность к контролю, цивилизацию в отличие от часового механизма нельзя будет остановить - она должна будет "идти" дальше.

Но разве она не будет идти "сама", как прежде? Не обязательно. Это, так сказать, отрицательная сторона прогресса в его гомеостатическом смысле. Амеба куда менее чувствительна к временной нехватке кислорода, чем мозг. Средневековый город нуждался только в воде и пище; современный - без электроэнергии превращается в ад, каким стал Манхеттен несколько лет назад, когда замерли лифты в небоскребах и поезда под землей. Гомеостаз двулик: это рост нечувствительности к возмущениям извне, вызванным "естественными" причинами: но вместе с тем это и рост чувствительности к возмущениям внутренним, вызванным разладкой внутри самой системы (организма). Чем искусственнее окружающая нас среда, тем сильнее мы зависим от технологии, от ее надежности и от ее сбоев, если она их допускает. А она может допускать сбой. Сопротивляемость индивидуума возмущениям также можно рассматривать двояко: как сопротивляемость изолированного элемента и как сопротивляемость элемента общественной структуры. В "сопротивляемости" Робинзона Крузо проявилось его информационное "предпрограммирование" внутри цивилизации (до того как он стал "изолированным элементом" на необитаемом острове). Аналогично инъекция, которая дает новорожденному определенный иммунитет на всю жизнь, вызывает чисто индивидуальное увеличение его "сопротивляемости", "сопротивляемости" как изолированного элемента. Зато в тех случаях, когда такие вмешательства должны повторяться, общественные связи обязаны функционировать безупречно; если, например, больного с сердечной недостаточностью спасает от смерти вживленный под кожу аппарат, имитирующий нервные импульсы, то больной должен регулярно получать энергетическое питание (батарейки) для этого аппарата.

Таким образом, с одной стороны, цивилизация спасает человека от смерти, а с другой - ставит его в большую зависимость от своего безотказного функционирования. На Земле человеческий организм сам регулирует соотношение кальция в костях и кальция в крови, но в Космосе, в условиях невесомости, когда кальций выделяется из костей в кровь, уже не Природа, а м_ы с_а_м_и должны вмешиваться в регуляцию. В известных из истории общественных формациях не раз возникали резкие нарушения гомеостаза, вызванные как внешними (эпидемии, стихийные бедствия), так и внутренними причинами; чисто описательным каталогом их служат исторические хроники. Общественные структуры обладали различной сопротивляемостью подобным нарушениям; иногда нарушения выводили всю систему за пределы устойчивости в зону необратимых переходов, приводили к революционным изменениям всей структуры. Однако всегда люди вступали в общественные отношения с другими людьми, управляли сами или были управляемы, эксплуатируемы, и все, что ни происходило, вытекало, таким образом, из человеческих действий. Заметим, правда, что эти действия объективировались в определенные силы, стоявшие над личностями и над группировками, сходные материально-информационные связи облекались в различную форму; действовали также и побочные рычаги общественной стабилизации, начиная с одного из древнейших - семьи. С развитием технологии сложность процессов, подлежащих регуляции, растет и в конце концов возникает необходимость использовать регуляторы с большей разнородностью, чем человеческий мозг. По существу это метаформационная проблема, потому что потребность в этом начинают ощущать страны с различными общественными укладами, лишь только они достигают достаточно высокого уровня техноэволюции. Но как раз "неживые" регуляторы будут справляться с этой задачей, по всей вероятности, лучше, чем люди, а значит, и здесь развитие технологии вносит большой вклад "в улучшение структуры". Кроме того, совершенно изменится психологическая ситуация: одно дело знать, что из отношений, в которые по необходимости вступают люди, рождаются динамико-статистические закономерности, бьющие иной раз по интересам отдельных лиц, групп или целых классов, и совсем другое - видеть, как наша судьба ускользает из наших рук, зримо отдаваемая "электронным опекунам". Ведь при этом возникает особое состояние, биологическим аналогом которого была бы ситуация, в которую поставлен человек, сознающий, что всеми жизненными процессами в его теле ведает не он, не его мозг, не внутренние закономерности системы, а какой-то внешний центр, который предписывает всем клеткам, ферментам, нервным волокнам, всем молекулам тела наиболее оптимальное поведение. И будь даже подобная регуляция совершенней, чем та, которую естественно осуществляет "соматическая мудрость организма", обещай она в перспективе силы, здоровье, долголетие, все же каждый, наверное, согласится, что ощущал бы ее как нечто "противное естеству" в смысле нашего человеческого естества; и, наверное, то же самое можно сказать, вернувшись от этого образа к взаимоотношениям общества с его интеллектронными координаторами. Чем больше будет расти сложность внутренней структуры цивилизации, тем в большей степени и во все более многочисленных областях придется допускать для поддержания гомеостаза зоркий контроль и вмешательство таких регуляторов. Но субъективно такой процесс может выглядеть как проявление "алчности" этих машин, подчиняющих себе все новые и новые, прежде чисто человеческие области бытия. А ведь перед нами не "электронные боги" или какие-нибудь владыки, а всего лишь устройства, которые по началу призваны были наблюдать за отдельными процессами особого значения или особой сложности, но постепенно, в процессе своеобразной эволюции, простирают свою опеку чуть ли не на всю динамику общества. И эти системы вовсе не будут пытаться "покорить человечество" в каком-либо антропоморфном смысле этого слова, потому что, не будучи людьми, они лишены какого-либо эгоизма или жажды власти - свойств, которые по смыслу этих понятий можно приписать только "индивидуумам". Разумеется, люди могли бы начать персонифицировать эти машины, приписывая им несвойственные машинам "намерения" и "ощущения", однако это была бы мифология, но только уже нового, интеллектронного века.










Последнее изменение этой страницы: 2018-05-31; просмотров: 141.

stydopedya.ru не претендует на авторское право материалов, которые вылажены, но предоставляет бесплатный доступ к ним. В случае нарушения авторского права или персональных данных напишите сюда...