Процесс дупликации генов дает возможность избежать давления естественного отбора. В результате дупликаций создаются избыточные копии генов. Естественный отбор часто игнорирует изменения в избыточных копиях, благодаря чему в них накапливаются ранее запрещенные мутации и возникает новый ген с не существовавшей ранее функцией. Оценить значение дупликаций генов стало возможно после того, как была выяснена природа генетического кода. Естественный отбор может элиминировать запрещенные мутации и эффективно охранять последовательность ДНК в цистронах тогда, когда в геноме содержится только по одной копии каждого гена. В тех же случаях, когда ген представлен большим числом копий, охранительная деятельность естественного отбора перестает быть эффективной. Подобно тому, как мутации возникают вследствие ошибок при репликации ДНК, дупликации генов также появляются как редкие ошибки митотических и мейотических процессов.
   Итак, концепция С. Оно основана на избыточности генетического материала и ее функциональном значении в эволюции. Избыточность в этой концепции выступает как механизм и основа самоорганизации, позволяющая избежать консервативного влияния естественного отбора, "работающего лишь на нужды сегодняшнего дня". В этом отношении концепция С. Оно примыкает к теориям М. Эйгена и И. Пригожина, отличаясь от них, очевидно, тем, что она обращена к явлениям макроэволюции, а это в математически строгих теориях М. Эйгена и И. Пригожина еще недости
   112
   жимо. Идеи С. Оно ориентированы на биологию развития, центральная проблема которой - действие генов в онтогенезе. Происходит перенос центра тяжести с бактериальных и фаговых систем на изучение молекулярно-генетических процессов высших организмов с присущим им сложным циклом развития, одним из атрибутов которого выступает процесс дифференцировки.
   Образование пространственной дифференцировки как явления самоорганизации в онтогенезе остается, однако, необъясненным, несмотря на замечательные успехи в генетике и в биохимии нуклеиновых кислот. Это понятно, если учесть, что рассмотренные проблемы являются комплексными. Состояние разработанности последних свидетельствует о том, что общие биологические закономерности нельзя понять, не выходя за их пределы.
   Таким образом, основные эвристические понятия рассмотренных теорий это понятия самоорганизации, ценности информации, диссипативной структуры, избыточности и так далее, содержащие существенно кибернетический аспект. То же можно сказать об идеях и методах данных теорий. Последние опираются, например, на представления биофизических явлений машинами Тьюринга, на построение сложных и точных химических сетей передачи информации и т.д. М. Эйген пишет: "Эволюцию на молекулярном уровне можно считать некой игрой, в которой разум игрока заменен селективным "инстинктом", призванным содействовать выживанию среди хаотически проявляющихся воздействий внешнего мира. Поэтому мы считаем, что теория игр... является ключом к любому дальнейшему обобщению теории эволюции" [61]. Качественный анализ информационных генетических систем управления включает выделение элементов и подсистем, механизмов памяти, потоков информации, выяснение их свойств и функций, путей эволюции и обусловленных ими общих свойств генетических систем. Используются и генетико-лингвистические аналогии.
   Предпосылки самоорганизации, которые обычно рассматриваются в той или иной науке (биологии, химии, физике), носят комплексный характер; причем синтезирующая роль по отношению к разнокачественной проблематике в этой области принадлежит понятиям и принципам кибернетики [62]. Характерно, что понятие самоорганизации помогает разъяснению многих проблем, связанных с искусственным интеллектом, машинизацией мышления, автоматизацией восприятия, усилением мыслительных способностей, с машинами для индуктивного вывода, с клеточной организацией, ростом, эволюцией и т.д. Поэтому можно считать, что не только к многочисленным феноменам самоорганизации, но и к предпосылкам собственно самоорганизации (как явления возникновения жизни) следует подходить в известном смысле как к проблемам биокибернетики. Если по признанию специалистов в области биофизики высокая сложность биологически эволюционирующих систем делает пока что нереальным построение физи
   113
   ческой теории эволюции в целом, то с помощью кибернетики эта проблема разрешима. Кибернетика ориентирована на такого рода сложные задачи. Понятие сложности, вызванное первоначально оценкой системы с позиции "из чего она состоит", постепенно с развитием кибернетики эволюционировало до понятия, включающего как структурные, так и функциональные характеристики.
   Биофизические концепции самоорганизации материи свидетельствуют о трансспецифичности материальных атрибутов жизни, выявляя тем самым псевдонаучный характер неовиталистического истолкования сущности жизни. Они смещают основание существования биологических наук в сторону биофизических и биокибернетических принципов, создавая методологическую основу для стиля мышления с существенно дедуктивно-аксиоматической ориентацией.
   3. Принципы самоорганизации и природа интеллекта
   Поведение биологических объектов отличается от поведения существующих ЭВМ наличием процессов самоорганизации. Принципы самоорганизации (в особенности эвристической самоорганизации) служат методологическим базисом в восхождении от абстрактных постулатов к конкретным разработкам проблемы искусственного интеллекта. Это непосредственно относится, например, к области эвристической теории поведения, где "работа по эвристическому программированию характеризуется поисками новых, более мощных эвристических методов для решения сложных задач и мало интересуется тем, какая физическая основа (нервная или иная) была бы минимально достаточна для реализации эвристической программы" [63].
   В понимании интеллекта необходимо найти разумный компромисс между требованиями эффективности и надежности. Понятие "эффективный" в общем плане не должно рассматриваться как нечто, противоположное понятию "надежный" [64]. Хотя вполне вероятны ситуации, в которых повышение эффективности управления достигается ценой потери надежности. Если предполагается, что среда почти независима, увеличение эффективности может быть оправдано. Если, однако, среда оказывается "противником", более целесообразно было бы пожертвовать эффективностью ради надежности [65].
   При рассмотрении понятия "интеллект" наряду с определением содержания возникает вопрос о его объеме и границах. В связи с этим обсуждается вопрос о верхнем пределе интеллекта. Помимо ограничений, обусловленных свойствами сенсорного и моторного аппаратов, есть ли какие-нибудь фундаментальные ас
   114
   пекты переработки информации, налагающие ограничения на уровень интеллекта любого существа или устройства? Было высказано предположение о том, что пределы разумности некоторого "существа" размером с галактику детерминируются скоростью света, которая вследствие своей конечности приводит к неизбежным запаздываниям в передаче сигналов [66]. Последние, правда, имеют место уже применительно к весьма локальным системам, к современным ЭВМ. Существует также мнение о том, что человеческий ум не приспособлен для понимания поведения социальных образований, относящихся к классу нелинейных многосвязных систем с обратными связями. "Эволюционный процесс, - пишет Дж. Форрестер, - не выработал в нас интеллектуальной способности, необходимой для правильного понимания динамического поведения систем, частью которых мы сами являемся" [67]. .Методы системной динамики дают возможность объединить интуицию и разум человека со способностью ЭВМ прослеживать длинные и запутанные логические цепочки.
   Интеллект в известной мере сам себя ограничивает. Это проявляется во взаимодействиях со средой. По мере того как разумная система для принятия решений приобретает все больший контроль над средой, ослабевают требования к оставшейся части задачи. Только новые цели или радикальное изменение среды позволяют полностью обнаружить возможности интеллекта. Наибольшее развитие интеллекта требует непрерывных упражнений с подходящими антагонистическими средами. Аналогично этому духовное развитие человека зависит от возможности дальнейшего совершенствования как модели "самого себя", так и модели внешнего мира. При изучении человеческого мозга "должны быть соотнесены между собой три плоскости исследования: мозг в его отношении к организму, к самому себе (ибо он есть самоорганизующаяся система) и к внешнему миру" [68]. Важнейшей необходимой предпосылкой для развития интеллекта служит способность человека к восприятию и переработке информации.
   М. Минский пишет, что рано или поздно мы сможем составить программу, обеспечивающую большую способность решения задач благодаря сложным комбинациям эвристических механизмов - многократной оптимизации, методов распознавания, алгебры планирования, процессов рекурсивного управления и т. п. [69] Но ни в одном из них мы не обнаружим локализацию интеллекта. Далее он замечает, что наша неспособность установить место нахождения интеллекта не должна привести к заключению, что вычислительные машины не могут думать, потому что работают по заданной программе. Ибо и для человека и для машины, если до конца поняты структура и программа, ощущение тайны (а вместе с ним и наше самомнение) исчезнет. Аналогично высказывание К. Штейнбуха: "Если мы откажемся считать функциональные отображения "интеллектуальными" системами, то я сомневаюсь, сможем ли мы тогда вообще найти в чем-либо этот
   8* 115
   "интеллект". Чтобы быть последовательным, мы должны тогда и человеку отказать в наличии "интеллекта", ибо получается, что понятие "интеллект" мы наделяем какими-то ирреальными свойствами" [70].
   Философски более четко, с привлечением понятий диалектического материализма этот вопрос рассмотрен Л. Б. Баженовым [71]. Он, в частности, обращает внимание на то, что мышление является функцией определенным образом организованной системы и детерминировано структурой этой системы. Подчеркивается, что, с гносеологической точки зрения, не знание функции следует из знания структуры, а наоборот, знание структуры является выводом, сделанным в результате все более полного изучения способов функционирования.
   В области искусственного интеллекта существуют различные подходы, направленные на овладение принципами естественного интеллекта. Сюда относится направление исследований по созданию перцептронных моделей мозга как сетей из искусственных нейронов, в основе которых лежат нейронные модели Маккаллока-Питтса. Другое направление исследований - попытка промоделировать саму эволюцию с помощью кибернетической машины (в ускоренном масштабе времени). Эта попытка опирается па эксперименты, в которых с использованием идей мутации и избирательного выживания моделируется процесс построения многих поколений машин с конечным числом состояний. Такая линия исследований, направленных на изучение естественного интеллекта, проводится в теории решения интеллектуальных задач, где рассматриваются методы эвристического поиска. Решение задач посредством эвристически направленного метода проб и ошибок в пространстве возможных решений - доминирующая тема в исследованиях по искусственному интеллекту [72].
   Система, которая действует и обучается разумно, предстает неадекватной, пока мы, человеческие существа, не можем пос-стичь, как она обучается, не можем следить за развитием ее понятийной структуры. Мы понимаем системы, которые строим, либо потому, что они являются автоматами, выполняющими алгоритмы, либо потому, что (когда системы похожи на нас) они механически вынуждены действовать подобно человеческим существам. "Весьма различные конструкции такого типа систем наиболее естественно взять за образцы искусственного разума... Однако... они ни в коей мере не выражают всех имеющихся здесь возможностей и не могут рассматриваться как нечто наиболее желательное" [73]. По мнению Г. Паска, в конструкции искусственной системы должно быть учтено, что хорошее обучение или тренировка дают обучаемому возможность действовать подобно самоорганизующейся системе.
   Некоторые авторы подчеркивают, однако, что неточно называть автоматом машину, работающую без участия человека. Так, И. Б. Новик приводит по этому вопросу следующие аргументы [74].
   116
   Во-первых, человек участвует в автоматизированном процессе опосредованно: автоматы - это его овеществленный прошлый труд (даже если один автомат создан другим автоматом и так далее, то и в этом случае исходный автомат создается человеком; человек является, так сказать, "перводвигателем" мира автоматов). Во-вторых, человек участвует в автоматизированном процессе и в качестве решающего управляющего начала: ведь именно человек охватывает весь процесс управления в целом, начиная от его исходного управляющего "импульса". В этом смысле мы можем сказать, что в конечном счете человеку принадлежит "пусковой механизм" автоматов. С этими доводами нельзя не согласиться.
   Понятия "автоматический" или "автомат" характеризуют устройства, которые выполняют серию предписанных действий в пределах вмешательства человека. Обычно вмешательство требуется в начале работы, чтобы пустить автомат в ход, и часто в конце, чтобы остановить его работу. Между этими двумя случаями автомат "двигает себя сам". Очевидно, что пуск и остановка кибернетической машины может определяться автономно - внутренней информационной структурой. Старые машины имитировали поведение живых организмов своей способностью к автономному движению. Существенно, что кибернетические устройства моделируют живые существа при помощи своей способности к автономным решениям.
   Способность к автономным решениям не означает разрыва со средой. Автономность поведения системы достигается лишь в определенной среде, предполагает связь между системой и средой. Система, способная вести себя автономно и разумно, очевидно, должна состоять из элементов, обладающих определенной структурой и функциональной автономией. В нервной системе человека, например, такая автономия очень сильна. В более общем плане важно заметить, что если части автономны и могут реорганизовываться, если имеются несколько органов, каждый из которых в случае необходимости способен взять на себя управление, то между частями могут развиваться внутренние противоречивые взаимоотношения. Это вновь приводит к проблеме структурно-функциональной сложности организаций с разумным поведением. Естественно принять тезис Дж. Неймана: "Сложность здесь означает не то, как сложен объект, а то, как сложны его целенаправленные действия. В этом смысле объект обладает очень высокой сложностью, если он способен решать весьма трудные и сложные задачи" [75].
   В самоорганизующихся системах функциональная организация приобретает решающее значение: в том случае, когда вычислительная машина может самоорганизовываться, способ первоначального соединения элементов не играет большой роли. Поэтому конструкторы перцептрона, например, допускают, чтобы первоначальная структура была случайной, а та структура, которая
   117
   необходима для распознавания образов, возникла в результате изменений, вызванных правилами поощрения.
   Идея полной случайности первоначальной структуры самоорганизующейся системы связана, очевидно, с сильными ограничениями. "Имеются умственные акты, доступные ребенку, но совершенно недоступные для гориллы. Это происходит, возможно, вследствие генетически детерминированных различий в структуре. Дарвиновской эволюции понадобились тысячелетия, чтобы сделать наш мозг способным узнавать образы. Было бы крайне удивительно, если бы случайная сеть приобрела такую способность за несколько часов обучения" [76]. Эти и другие аргументы (рассмотренные выше) позволяют сделать заключение о диалектической взаимосвязи механизмов жесткой детерминации с процессами стохастической оптимизации. Такое сочетание существенно зависит от целевого назначения системы и критериев оптимизации.
   Проблема искусственного интеллекта включает в себя вопрос о продолжительности жизни автомата [77]. Принципиальные идеи в этом плане высказаны, в частности, Л. Лёфгреном [78]. Он пришел к выводу о том, что конечное время существования самовосстанавливающихся полностью локализованных автоматов соответствует конечному времени жизни любого растения или животного в природе. Неограниченное время существования самовосстанавливающегося нелокализованного автомата соответствует неограниченному времени (бессмертию) развития человеческого общества.
   Проблема искусственного интеллекта сопряжена с анализом симбиоза человека и машины. Большинство ученых признают, что лишь человек, способный творчески мыслить и обладающий интуицией, усиленными кибернетической машиной, может эффективно решать сложные задачи. Иначе говоря, машина - это не альтернатива мышлению человека, а способ расширения его возможностей. Причем взаимодействие человека и машины в условиях кибернетического симбиоза основано на том, что машина не просто сверхмощный и быстродействующий арифмометр, а творение человека, во многих отношениях даже превосходящее его возможности. Так, в теории вычислительных процессов к машине, взаимодействующей с человеком при решении тех или иных задач, предъявляются следующие требования: большой запас знаний и разных сведений (констант), программ решенных задач и т. п., пригодных для непосредственного быстрого и удобного использования в исходной программе; понимание входных языков программирования высоких уровней; быстрый и адекватный ответ на сообщение пользователя; способность к самоорганизации вычислительного процесса, а также к обучению в процессе эксплуатации [79]. Совокупность этих свойств и называют машинным интеллектом - по аналогии с такими признаками человеческого интеллекта, как эрудиция, понятливость, сообразительность, про
   118
   дуктивность и организованность. Способность к самоорганизации вычислительного процесса на основе памяти и обучения выражает коренное свойство машинного интеллекта - экстраполяцию выводов с использованием исходной информации.
   В литературе по философским вопросам кибернетики возможность создания искусственного интеллекта ставится в зависимость от решения проблемы самоорганизации. При этом обычно отмечается, что самоорганизацией в строгом смысле обладают лишь живые существа. Автоматы современного типа, не отличающиеся подлинной автономностью, то есть допускающие косвенное участие человека, не являются в полном смысле слова самоорганизующимися; они реализуют лишь отдельные стороны самоорганизации. Так, В. С. Тюхтин пишет: "Создание технических систем, являющихся автономными носителями интеллектуальных функций (т. е. систем искусственного интеллекта в строгом смысле слова), возможно лишь на уровне самоорганизующихся систем. А поскольку до сих пор не созданы искусственные самоорганизующиеся системы, обладающие активностью, эквивалентной активно-потребностному началу живых систем, то современные технические системы не могут обладать интеллектуальными, творческими функциями. В строгом смысле слова термин "искусственный интеллект" применим не к машинам как таковым, а к человеко-машинным системам" [80]. Этот автор предлагает вначале создать хоть бы простейшую самоорганизующуюся систему [81], понимая под самоорганизацией самосовершающийся и самопрограммирующийся процесс, автономность которого осуществляется без вмешательства внешних по отношению к данной системе факторов и систем того же типа или выше его.
   В этом заключено, однако, некоторое противоречие: 1) требуется создать самоорганизующую систему; 2) самоорганизация происходит без вмешательства внешних по отношению к данной системе факторов. В известном смысле системы искусственного интеллекта должны "сами себя создать", что успешно осуществляется, если тем более рассматривать этот процесс с точки зрения не субъективной, а объективной логики. Однако в самоорганизующихся системах с искусственным интеллектом большое значение имеет диалектика внутреннего и внешнего.
   Необходимо также обратить внимание на то, что современные ЭВМ, не достигая еще высших уровней самоорганизации, успешно выполняют функции усилителя человеческого интеллекта. Однако дальнейший прогресс в области искусственного интеллекта, по существу, упирается в проблему самоорганизации. Как замечает В. С. Тюхтин, "проблема самоорганизации есть ключ к моделированию естественного интеллекта и к оптимизации взаимодействий человека и компьютера. Но в настоящее время еще не выявлен полный набор принципов самоорганизации, не созданы приемлемые модели и схемы, выражающие специфику самоорга
   119
   низации" [82]. Вместе с тем концептуальная модель самоорганизации [83], предложенная на основе системно-кибернетического подхода и конкретизированная применительно к различным классам самоорганизующихся систем, позволяет по-новому взглянуть на проблему искусственного интеллекта. Она раскрывает эвристическое значение для этой области таких принципов, как самоорганизующая активность, внутренняя целенаправленность, оптимальная надежность и стохастическая детерминация.
   Таким образом, самоорганизация заключает в себе проблематику, исследование которой позволяет ныне говорить о важных вопросах философии, науки и культуры. Самоорганизация питает стиль мышления, адекватный уровню общенаучных принципов, понятий и идей. Понятия организации и самоорганизации выступают как узловые категории общенаучного уровня знания и подхода к проблеме эволюции материи. Так, использование этих понятий в эволюционном учении способствует исследованию отношений между специфическими законами организации различных уровней эволюции.
   Будучи важнейшим атрибутом прогрессивного развития, самоорганизация играет важную роль в "творчестве" эволюции. Идея творческой эволюции получает на основе самоорганизации материалистическую трактовку. Эволюция живого - процесс творческий, в том смысле, что она создает новые формы, не существовавшие в прошлом. Идея творческой эволюции позволяет провести четкое различие между живым и неживым. Самоорганизация, включающая в себя факторы активности, целенаправленности, надежности и стохастичности, и есть то специфически общее, что присуще миру живого в отличие от физического мира. Вместе с тем, насколько нам удалось показать, системно-кибернетический подход дает глубокое понимание неразрывности между живым и неживым миром. Такое понимание служит необходимой предпосылкой рассмотрения проблемы искусственного интеллекта.
   ГЛАВА IV
   ПРОБЛЕМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
   1. Исторический экскурс
   В настоящее время развитие науки и техники немыслимо без кибернетики. Являясь важным фактором ускорения научно-технического прогресса, наука об управлении приобретает все возрастающую роль в решении проблем интенсификации производства, в выработке оптимальных стратегий общественного управления. Непосредственно связанная с процессами автоматизации умственного труда, кибернетика поставила на новую теоретическую и техническую основу проблему создания искусственного (машинного) интеллекта. Эта авангардная ныне проблема имеет, однако, длительную историю и предысторию - многовековой путь развития устройств и систем управления в физиологии и технике.
   Период с древних времен до XVII в. следует рассматривать как предысторию кибернетических систем. Он характеризуется появлением автоматических устройств, имитирующих внешние свойства животных и людей. Подлинная же история вопроса начинается с XVII в., который ознаменовался появлением устройств, воспроизводящих мыслительные способности человека [1].
   Простые механизмы - отдаленные прообразы кибернетических систем создавались уже в древности. Примерами могут служить механический голубь, сконструированный Архитом Тарентским в V в. до н. э., и искусственная ползающая улитка Деметрия из Фалер (IV-III вв. до н. э.). Такие устройства выражали тенденцию к техническому воспроизведению простейших свойств и функций живых организмов. Впоследствии, как известно, этот подход занял важное место в кибернетике (кибернетическое моделирование систем и функций живого). Автоматы древности использовались главным образом жрецами в качестве "чудес". Одним из наиболее известных устройств подобного рода является автомат, приписываемый Герону Александрийскому (I в. до н. э.), служивший для продажи "святой воды".
   Для всех автоматов общим было то, что конструирование их осуществлялось с использованием технических средств; имитация относилась к чисто внешним характеристикам; конструирование носило сугубо эмпирический характер и не основывалось на теории построения автоматов [2]. Дальнейший шаг в развитии автоматических устройств был невозможен до изобретения достаточно компактного аккумулятора энергии. Им стала заводная