Отдавая должное замечательным качествам волновой механики, Н. Бор и многие другие физики непрерывно полемизировали с Э. Шредингером по поводу трактовки волновой функции, для определения которой и было написано "всемогущее" уравнение.
Особую остроту этим спорам придавала та позиция, которую твердо занял Э. Шредингер. Он оказался, как говорится, "еще большим католиком, чем сам папа римский" и выдвинул идею, что в природе нет ничего, кроме волн! Это был существенный шаг за рамки исходной дебройлевской гипотезы. Никаких частиц на самом деле нет, утверждал австрийский физик, о них можно говорить лишь приближенно, с точки зрения классической физики, а для волновой механики этот образ совершенно лишен смысла!
Э. Шредингер полагал, что волновая функция описывает реальный волновой процесс в пространстве подобно тому, как формулы напряженности полей описывают электромагнитные волны. Если же концентрация дебройлевских волн в некоторой малой области пространства очень велика, то возникает "нечто", напоминающее частицу в обычном классическом понимании этого слова, своеобразный волновой сгусток, ведущий себя как частица.
Дискуссия по этому поводу затронула практически всех крупнейших физиков того времени, и большинство из них не согласилось с чисто волновой концепцией электрона, считая, что частицы так или иначе должны остаться частицами. Однако сохранять корпускулярные представления стало тоже далеко не простым делом, и решение проблемы было найдено на весьма оригинальном и неожиданном пути.
В 1927 году один из лидеров "квантовой революции", М. Борн, прославившийся рядом глубоких работ в различных разделах теоретической физики, рассматривал задачу о рассеянии электронов с помощью уравнения Шредингера. Получив формальное решение, он приступил к анализу едва ли не самого сложного вопроса: что же скрывается за красивыми математическими выражениями волновой теории? М. Борн старался взглянуть на постановку задачи и на конечный результат глазами экспериментатора. Независимо от того, что теоретики "измыслили" волновое уравнение и стараются ограничить себя только волновыми представлениями, рассуждал он, экспериментаторы всегда говорят о потоке частиц, о регистрации частиц... Может быть, это лишь вопрос удобства тех или иных слов? Может быть, люди, занятые постановкой опытов, просто не склонны к более глубокому постижению законов природы и абстрактному волновому подходу?
Нет, продолжал он, надежда на "близорукость" экспериментаторов ничем не оправдана, скорее наоборот, волновая теория не дает ясного ответа на вопрос, откуда берутся мельчайшие частицы вещества, занимающие чрезвычайно малый объем пространства. Ведь именно с ними приходится иметь дело в реальных опытах! А все слова о том, что вместо всамделишных частиц наблюдаются какие-то концентрированные волновые образования, пока не имеют под собой серьезных теоретических и экспериментальных оснований. Поэтому необходимо найти такую трактовку волновой функции, которая позволила бы, с одной стороны, сохранить естественное представление о частицах, а с другой объяснить своеобразные волновые закономерности в распределениях этих же частиц, получающихся, скажем, при исследовании рассеяния.
Исходя из таких соображений, М. Борн пришел к поразительному заключению. Оказалось, что все становится на свои места, если считать, что волновая функция характеризует вероятность того или иного состояния реальной частицы или совокупности частиц, а вовсе не какую-то реальность типа электромагнитной волны. Точнее говоря, квадрат модуля волновой функции описывает распределение вероятности определенного состояния частицы, например, ее положения в пространстве.
На первый взгляд борновская идея удивительно проста. Представим себе источник частиц, например, тех же электронов, из которого обстреливается некоторая мишень-рассеиватель, состоящая из таких же электронов и атомных ядер. За рассеивателем перпендикулярно к направлению движения пучка электронов расположен экран, реагирующий на попадание частицы слабой вспышкой света, как говорят физики - сцинтилляцией. Если источник начнет работать в одиночном режиме, то есть электроны будут выпускаться по одному, то в разных точках экрана через определенные промежутки времени будут регистрироваться отдельные вспышки, свидетельствующие о попадании отдельных частиц. Если переключить источник на генерацию интенсивного пучка электронов, то на экране появится плотное распределение вспышек. Эта картина напоминает известное распределение света, рассеянного на некотором препятствии. Итак, в первом случае электроны ведут себя как обычные частицы, а во втором демонстрируют типично волновые свойства.
Проведем теперь следующий важный эксперимент, заменив сослуживший свою службу экран специальными чувствительными фотопластинками. На первую пластинку запустим интенсивный пучок электронов - на ней должна образоваться та же волновая картина, которая была видна в аналогичной ситуации и на сцинтиллирующем экране. Сменив пластинку, включим источник в одиночный режим, и пусть установка поработает некоторое время, набирая события.
Если экспозиция была достаточно длительной, то и на второй пластинке постепенно сформируется совершенно такая же картина, как и на первой.
Теперь пора делать некоторые выводы. Во-первых, волновые свойства никак не проявлялись в каждом отдельно взятом электроне. Зато они немедленно сказываются, как только электроны соберутся в большой коллектив, то есть мы наблюдаем волновую картину для распределения большого числа событий-вспышек на сцинтиллирующем экране. Во-вторых, волновая картина не зависит от того, произошли ли все события-вспышки одновременно после запуска на экран интенсивного потока электронов, или накапливались постепенно на фотопластинке при работе источника в одиночном режиме. Как же следует трактовать получившиеся распределения с точки зрения теории?
Прежде всего отметим, что уравнение Шредингера не дает никаких предсказаний о том, в какую конкретную точку попадет электрон. Тут царит чистая случайность - каждый электрон может, испытав взаимодействие с рассеивателем-мишенью, оказаться в любой точке фотопластинки, и, как мы убедимся немного позже, не существует средств, позволяющих сделать его судьбу более определенной. Но при регистрации большого потока частиц оказывается, что одни участки фотопластинки засвечены сильнее, а другие слабее, то есть на первые участки электроны попадают чаще, чем на вторые. Это и приводит в конце концов к наблюдаемому неравномерному распределению, причем интенсивность засветки в каждой точке пластики пропорциональна частоте попадания туда отдельных частиц. Если теперь принять полную интенсивность засветки всего экрана за единицу, то доля вспышек, приходящихся на одну точку, или, как говорят физики, относительная частота попадания, определит нам вероятность того, что любой отдельно выпущенный электрон окажется в конкретной точке экрана.
Попробуем немного изменить условия опыта и поместим между источником и регистрирующей частью (экраном или фотопластинкой) мишень из другого вещества. Картина распределения изменится; ведь электроны, вылетающие из источника, взаимодействуют теперь с другими атомами, однако принцип ее формирования останется прежним. Следовательно, распределения рассеянных электронов несут сведения о том, с каким веществом происходит взаимодействие. Речь опять-таки идет о вероятностной характеристике - разные атомы, на которых рассеиваются электроны, отбрасывают их в одну и ту же точку экрана с различной вероятностью.
Разумеется, результат любого такого опыта можно рассчитать заранее, решая уравнение Шредингера.
Таким образом, дебройлевские волны оказались лишь удобным вспомогательным приемом для вывода вероятностных характеристик поведения частиц в различных процессах. Такая точка зрения М. Борна, возможно, и не вызвала бы сильного потока споров, несмотря на чрезвычайную оригинальность. Более того, научная общественность с безусловным восторгом приняла бы ее в качестве временной меры спасения волновой механики, тем более что интерпретация, которой придерживался Э. Шредингер, была слишком уязвимой. Но ведь М. Борн настаивал на том, что вероятностные закономерности носят принципиальный характер и составляют суть квантовой теории.
Чтобы постичь преобразующую роль его позиции, следует обратить внимание вот на какие обстоятельства. Вероятностная точка зрения была известна и классической науке. Со случайными явлениями люди сталкивались и сталкиваются в самых разных областях практической деятельности.
Артиллерист, выпускающий снаряд по достаточно далекой (часто не видимой глазом) цели, никогда не может быть уверен в стопроцентном успехе. Как оценить ею мастерство во время учений? Дать один снаряд и предложить в качестве мишени скрытый за небольшим холмом макет танка? Но ведь известно опытный наводчик может и не попасть, а новичку, едва ли не впервые увидевшему орудие, удастся начисто смести макет. Случайность? Совершенно верно. Но нетрудно выяснить и закономерность. Уже при стрельбе несколькими снарядами выяснится, что взрывы опытного артиллериста происходят в среднем намного ближе к мишени, чем у новичка. Можно надеяться, что в первом случае макет будет разрушен гораздо быстрее. Источник случайности в этом примере вполне ясен - не видя цели, наводчик стреляет просто на определенное расстояние, потом немного меняет наводку, и так вплоть до попадания в мишень.
Классическая физика столкнулась со случайными событиями в процессе исследования природы тепловых явлений. Теплота обусловлена движением огромного количества молекул, образующих те или иные тела. В свою очередь, температуру тела можно определить через среднюю кинетическую энергию молекул. Пользоваться средними величинами в такой ситуации просто очень удобно и чаще всего вполне достаточно для практических целей. В классической физике предполагалось, что в принципе экспериментатор может проследить за траекторией каждой молекулы и, следовательно, полностью определить состояние микроскопического тела. Но поскольку это слишком сложная (в одном грамме обычного вещества насчитывается примерно 1023 частиц!) и не очень полезная процедура, лучше пользоваться вероятностным распределением молекул по скоростям, или по энергиям, или по импульсам и т. д.
В квантовой же теории ситуация радикально меняется. Теперь уже частицы подчиняются вероятностным закономерностям не потому, что определить истинную траекторию каждой из них практически слишком трудно. Такая задача, оказывается, вообще лишена смысла, поскольку траектории, попросту говоря, нет. Так микрочастицы потеряли еще одну "нормальную" черту поведения: двигаться по определенной траектории! Даже воровские орбиты электронов в атоме оказались всего лишь приближенным понятием - квантовая теория позволяет нам только узнать, с какой вероятностью электрон может находиться на том или ином расстоянии от атомного ядра.
Глубокая причина "потери траектории" электронами и другими микрочастицами была установлена немецким физиком-теоретиком В. Гейзенбергом, доказавшим знаменитые соотношения неопределенностей (соотношения Гейзенберга). Согласно этим соотношениям точное определение положения частицы в пространстве (ее координаты) и ее импульса или скорости в один и тот же момент времени невозможно.
Как мы увидим в следующей главе, увеличение точности в определении координаты приводит к увеличению погрешности в измерениях импульса, и наоборот. А "потеря траектории" происходит потому, что классическая траектория требует непременного знания положения частицы и ее скорости (или импульса) в любой момент времени. Таким образом, "потеря" видна непосредственно из точной формулировки соотношения Гейзенберга: произведение неопределенности импульса на неопределенность координаты больше или равно постоянной Планка.
Только теперь, в самом конце путешествия в квантованный мир, в нашем рассказе прозвучало имя человека, первым ступившего на его трудные тропы. Еще в 1900 году немецкий физик М. Планк, пытаясь преодолеть серьезные трудности классической физики, натолкнулся на замечательное линейное соотношение между энергией электромагнитного поля и его частотой. В качестве коэффициента пропорциональности он предложил ввести новую фундаментальную постоянную и оценил ее величину, исходя из опытных данных. Впоследствии эта постоянная, которая входит буквально во все уравнения и соотношения квантовой теории, получила название константы Планка. Она обозначается символом h и имеет размерность произведения энергии на время или импульса на координату (h B 10-27 эрг .сек.). Константа Планка символически разделила историю физики на две части - классическую и квантовую - и, как мы только что убедились, сыграла выдающуюся роль в новом понимании закономерностей микромира.
Примерно три первых десятилетия после открытия элементарных частиц физики практически полностью занимались решением главной проблемы того времени - созданием атомной и молекулярной физики. Для планомерного наступления на тайны самих частиц еще не были готовы необходимые экспериментальные и теоретические средства. Но многие из них как раз и появились в процессе расшифровки атомно-молекулярной структуры вещества.
На рубеже 30-х годов произошел явный перелом. Воодушевленные блестящими и довольно быстрыми победами в исследовании атома, физики начали по-настоящему пристреливаться к атомным ядрам и их составляющим. И хотя очередное десятилетие стало скорее "ядерным", физика элементарных частиц успела обзавестись таким количеством новых загадок, что их решение стало совершенно безотлагательным делом. Делом чести физики XX века!
(C) Александр Потупа (Alexander Potupa) Бег за бесконечностью. Молодая гвардия (Эврика), Москва, 1977 (Run for Infinity; переводы: на венгерский - Utazas az elemi reszecskek vilagaba. Muszaki Konyvkiado,Budapest, 1980; на болгарский - Гонене на безкрайността. Наука и изкуство (Еврика), София, 1980)
ГЛАВА ТРЕТЬЯ О ВЫСОКИХ ЭНЕРГИЯХ И ГЛУБОКИХ ИДЕЯХ
Пределы наук похожи на горизонты: чем ближе подходят к ним, тем более они отодвигаются.
П. Буаст
МАСШТАБЫ БОЛЬШОГО И МАЛОГО
За последние 10-15 лет мы стали свидетелями интереснейшей филологической метаморфозы: все реже и реже в названиях конференций, учебников и обычных статей в научных журналах стало употребляться словосочетание "элементарные частицы", все чаще и чаще звучат другие слова "высокие энергии", "при высоких энергиях"... Что это - увлечение результатами экспериментов на гигантских ускорителях или окончательная потеря доверия к прилагательному "элементарный"?
Правильно будет сказать: и то и другое. Но еще правильнее - обратить внимание на те глубокие причины, которые превратили гонку за высокими энергиями в лейтмотив постижения микромира.
Прежде всего стоит обсудить масштабы интересующих нас явлений - недаром ведь говорят: все познается в сравнении. Но масштаб, в свою очередь, основа любого сравнения.
Современная физика действует в невообразимо большом диапазоне линейных размеров. Радиус наблюдаемого участка вселенной составляет примерно 1028 сантиметров, а наименьшие расстояния, доступные изучению на сегодняшний день, - 10-15 сантиметра. Представить себе столь большие и столь малые длины "в живых картинках" чрезвычайно сложно. От того, что я сообщу, например, что мерная лента длиной порядка радиуса вселенной будет весить не меньше нашей планеты, ничего к пониманию факта не прибавит. Человеческий опыт непосредственного восприятия расстояний ограничен интервалом от долей миллиметра до 1-3 километров. Вне этого интервала требуется включать некоторое воображение. Оно может быть изрядно натренировано для того, чтобы свободно измерять на глазок добрые десятки километров, как это бывает у летчиков, или считать маковое зернышко слишком большой заготовкой для вытачивания точной копии роденовского "Мыслителя", как это встречается среди умельцев - потомков великого Левши.
В сущности, аналогичную тренировку проходят и физики, для которых десятки в плюс - минус такой-то степени становятся по мере восхождения на высоты университетской премудрости чем-то вполне естественным и понятным. Как ни странно, дело здесь не в легендарных склонностях ума, а в глубоком усвоении тех понятий и образов, которые стоят за "сухой цифирью", а главное - в овладении основными принципами измерения очень больших и очень малых расстояний, масс и прочих важных характеристик. Попробуем и мы последовать по этому проверенному пути.
Прежде всего наблюдаемый диапазон размеров и расстояний следует подвергнуть традиционному разбиению на три части, каждая из которых представляет собой более или менее обособленный мир объектов и процессов.
Мегамир - вселенная в целом, галактики, звездные скопления, планетные системы.
Макромир - обычные предметы и процессы "нормальных", человеческих масштабов, воспринимаемые в целом, без особого углубления в структуру.
Микромир - большие и малые молекулы, атомы, атомные ядра, элементарные частицы.
Разумеется, такое разбиение весьма условно, а "миры" - лишь емкие художественные образы. Но в нем есть своя логика, и оно оказывается достаточно полезным.
Во-первых, огромный диапазон действительно разрезается на три непересекающихся отрезка. Например, в качестве минимального мегапромежутка мы можем принять расстояние от Земли до Луны (порядка 360 тысяч километров, то есть 3,6.1010 см). С теми, кто убежден в несолидности такого выбора и считает, что наименьшая подобающая для "мега" порция - размер галактического скопления, я не стал бы спорить, скорее всего, это дело вкуса. Скажем, мне приятно считать, что люди побывали на пороге мегамира, и на Луне отпечатались следы башмаков и колес.
Аналогичные проблемы могут возникнуть и при попытке определить границу "микро". Микромиров, в сущности, много. Для ученых, исследующих молекулы, атомы, атомные ядра и элементарные частицы, микромир начинается с примерно 10-6-10-7 сантиметра и уходит в пока еще плохо понятные глубины. Микромир биолога раз в сто (в среднем!) больше. Разумеется, все они правы - каждый из них имеет в виду особый тип процессов, и не стоит затевать длинные дискуссии на этот счет, тем более что мы успели выяснить, в каком смысле используется в этой книге образ "микро".
Во-вторых, объекты, расположенные по порядку своего размера вдоль всего диапазона, оказываются в очень важной взаимосвязи - они образуют так называемую структурную иерархию. В этом устрашающем словосочетании нет никаких особых тайн. Так принято обозначать следующую ситуацию - меньший в некотором смысле объект входит в качестве структурной единицы в больший, тот в еще больший и т. д.
Двигаясь от большого к малому, мы можем нарисовать такую упрощенную картинку: вселенная состоит из галактик; галактики - из звезд (точнее - из планетных систем); звезды и планеты - из вещества в различном состоянии; вещество - из молекул; молекулы - из атомов; структурными элементами атомов являются электроны и атомные ядра; а ядра состоят из протонов и нейтронов.
Из чего составлены известные элементарные частицы, мы пока не знаем. Похоже, что у последней ступеньки великой иерархической лестницы возникает своеобразный обрыв, и глубина открывающейся под ногами пропасти впечатляет не столько еще не добытым знанием, сколько тем предварительным пониманием, которое уже достигнуто. Но рассказ об этом еще впереди...
И наконец, третьей чрезвычайно полезной особенностью разделения диапазона линейных размеров является простая классификация измерений. До сих пор наш старый добрый макромир оставался немного в тени. Вроде бы ясно самые интересные явления происходят на самых краях этого диапазона, краях, непосредственно упирающихся в полную неизвестность
Но вот ведь в чем беда - как бы мы ни исхитрялись в штурме неведомых глубин вселенной или в непрерывных атаках на структуру вещества, все действия окажутся совершенно бессмысленными, если мы не позаботимся о путях доставки донесений с поля боя. Научные факты не носятся в безвоздушном пространстве, они добываются людьми и для людей. Иными словами, любые невообразимо малые или невообразимо большие процессы становятся достоянием науки только тогда, когда оказываются доступными нашему восприятию.
Какими бы сложными и сверхсложными приборами ни вооружались ученые, их действия на заключительном этапе снятия показаний, по существу, не будут отличаться от того, что совершали их далекие предшественники. Старинные гравюры донесли до нас неторопливые, но полные внутреннего напряжения сцены научных свершений, где главные измерения проводились с помощью обычных линеек и весов. Современные линейки могут быть существенно автоматизированы, но в конечном счете показания стрелки самого тонкого электротехнического устройства не что иное, как "прикладывание линейки" к некоторому исследуемому объекту.
Впрочем, эти показания могут непосредственно поступать в некоторый специальный автомат, переводящий их сразу в цифровые таблицы, например, в электронно-вычислительную машину. Конечно, физик, считывающий многометровые колонки чисел с длинных рулонов бумажной ленты, не особенно похож на своего древнего коллегу, задумчиво взирающего на уровень жидкости в сосуде причудливой формы. Но в этих картинах намного больше внутреннего сходства, чем внешних различий, - оба исследователя изучают явления в доступной для человеческого восприятия форме.
Поэтому одна из важнейших задач создателей приборов - свести заключительный этап измерений к обычному эксперименту с макроскопическими объектами, то есть не слишком большими и не слишком малыми по объему, массе и прочим характеристикам телами. Причем практически основную роль играет удобный, соизмеримый с человеческими возможностями линейный масштаб. Фотопластинки в специальных устройствах, подсоединенных к телескопу, переводят гигантские пути далеких звезд в маленькие черточки, доступные простым лабораторным измерениям. В уже знакомой нам камере Вильсона пролетающая частица нарушает покой огромного числа атомов, и они, потревоженные, подают коллективный "сигнал бедствия" бледными полосками сконденсировавшихся паров, после чего в ход пускаются стандартные геометрические принадлежности.
Таким образом, измерительные операции можно условно разделить на три класса. Центральное место не только по положению относительно диапазона размеров, но и по смыслу занимают обычные измерения с макроскопическими телами. Операции в "мега" и в "микро" отличаются прежде всего массой дополнительных устройств, обеспечивающих своеобразную проекцию в наш макромир. Как правило, эти устройства усиливают слишком слабые и ослабляют слишком сильные сигналы, делая их доступными для наших органов чувств. Огромные телескопы собирают свет далеких звезд и галактик, позволяя увидеть множество удивительных явлений на совершенно темных для невооруженного глаза участках неба. Специальные фильтры помогают исследовать довольно тонкие детали поведения нашего ярчайшего центрального светила
Вообще история астрономических измерений - настоящий оптико-геометрический роман с многими почти детективными поворотами сюжета; но пересказ его содержания не входит в наши цели.
Основные принципы проектирования из "микро" в "макро" фактически уже проиллюстрированы рассказами о камере Вильсона, беккерелевском открытии и мысленным экспериментом со сцинтиллирующим экраном и фотопластинками, которые приведены в предыдущей главе. Главная идея всех решений проблемы доступности - вызвать с помощью микрочастицы коллективное возмущение атомов вещества, заранее приведенного в состояние "полной боевой готовности".
Однако с измерениями в микромире связаны не только многочисленные технические трудности, бросающие вызов всем областям науки, участвующим в создании необходимых приборов. Существуют и некоторые принципиальные ограничения.
Предположим, мы хотим выяснить положение электрона в пространстве и скорость, с которой он движется. Для определения положения электрона прежде всего необходимо его осветить. Причем чем точнее мы хотим знать, где он находится, тем короче должна быть длина волны используемого освещения. Это общее правило, следуя которому создаются, например, микроскопы и любые другие приборы для обнаружения и изучения тех или иных препятствий. Скажем, для обнаружения самолета используются радиоволны дециметрового диапазона. Самолет имеет размеры порядка нескольких метров, то есть в десятки раз больше, чем длина волны "освещения", и радиолокационной установки
в дециметровом диапазоне достаточно для того, чтобы он не проскочил незамеченным. Хорошо известно, что обычные оптические микроскопы - сколь бы мощными линзами их ни снабжали - имеют предел применимости: в них нельзя рассмотреть объекты, размер которых меньше длин волн видимого света. Практически же наблюдать можно лишь объекты, размер которых раз в десять превосходит длину волны излучения, которым освещается объект.
Особую остроту этим спорам придавала та позиция, которую твердо занял Э. Шредингер. Он оказался, как говорится, "еще большим католиком, чем сам папа римский" и выдвинул идею, что в природе нет ничего, кроме волн! Это был существенный шаг за рамки исходной дебройлевской гипотезы. Никаких частиц на самом деле нет, утверждал австрийский физик, о них можно говорить лишь приближенно, с точки зрения классической физики, а для волновой механики этот образ совершенно лишен смысла!
Э. Шредингер полагал, что волновая функция описывает реальный волновой процесс в пространстве подобно тому, как формулы напряженности полей описывают электромагнитные волны. Если же концентрация дебройлевских волн в некоторой малой области пространства очень велика, то возникает "нечто", напоминающее частицу в обычном классическом понимании этого слова, своеобразный волновой сгусток, ведущий себя как частица.
Дискуссия по этому поводу затронула практически всех крупнейших физиков того времени, и большинство из них не согласилось с чисто волновой концепцией электрона, считая, что частицы так или иначе должны остаться частицами. Однако сохранять корпускулярные представления стало тоже далеко не простым делом, и решение проблемы было найдено на весьма оригинальном и неожиданном пути.
В 1927 году один из лидеров "квантовой революции", М. Борн, прославившийся рядом глубоких работ в различных разделах теоретической физики, рассматривал задачу о рассеянии электронов с помощью уравнения Шредингера. Получив формальное решение, он приступил к анализу едва ли не самого сложного вопроса: что же скрывается за красивыми математическими выражениями волновой теории? М. Борн старался взглянуть на постановку задачи и на конечный результат глазами экспериментатора. Независимо от того, что теоретики "измыслили" волновое уравнение и стараются ограничить себя только волновыми представлениями, рассуждал он, экспериментаторы всегда говорят о потоке частиц, о регистрации частиц... Может быть, это лишь вопрос удобства тех или иных слов? Может быть, люди, занятые постановкой опытов, просто не склонны к более глубокому постижению законов природы и абстрактному волновому подходу?
Нет, продолжал он, надежда на "близорукость" экспериментаторов ничем не оправдана, скорее наоборот, волновая теория не дает ясного ответа на вопрос, откуда берутся мельчайшие частицы вещества, занимающие чрезвычайно малый объем пространства. Ведь именно с ними приходится иметь дело в реальных опытах! А все слова о том, что вместо всамделишных частиц наблюдаются какие-то концентрированные волновые образования, пока не имеют под собой серьезных теоретических и экспериментальных оснований. Поэтому необходимо найти такую трактовку волновой функции, которая позволила бы, с одной стороны, сохранить естественное представление о частицах, а с другой объяснить своеобразные волновые закономерности в распределениях этих же частиц, получающихся, скажем, при исследовании рассеяния.
Исходя из таких соображений, М. Борн пришел к поразительному заключению. Оказалось, что все становится на свои места, если считать, что волновая функция характеризует вероятность того или иного состояния реальной частицы или совокупности частиц, а вовсе не какую-то реальность типа электромагнитной волны. Точнее говоря, квадрат модуля волновой функции описывает распределение вероятности определенного состояния частицы, например, ее положения в пространстве.
На первый взгляд борновская идея удивительно проста. Представим себе источник частиц, например, тех же электронов, из которого обстреливается некоторая мишень-рассеиватель, состоящая из таких же электронов и атомных ядер. За рассеивателем перпендикулярно к направлению движения пучка электронов расположен экран, реагирующий на попадание частицы слабой вспышкой света, как говорят физики - сцинтилляцией. Если источник начнет работать в одиночном режиме, то есть электроны будут выпускаться по одному, то в разных точках экрана через определенные промежутки времени будут регистрироваться отдельные вспышки, свидетельствующие о попадании отдельных частиц. Если переключить источник на генерацию интенсивного пучка электронов, то на экране появится плотное распределение вспышек. Эта картина напоминает известное распределение света, рассеянного на некотором препятствии. Итак, в первом случае электроны ведут себя как обычные частицы, а во втором демонстрируют типично волновые свойства.
Проведем теперь следующий важный эксперимент, заменив сослуживший свою службу экран специальными чувствительными фотопластинками. На первую пластинку запустим интенсивный пучок электронов - на ней должна образоваться та же волновая картина, которая была видна в аналогичной ситуации и на сцинтиллирующем экране. Сменив пластинку, включим источник в одиночный режим, и пусть установка поработает некоторое время, набирая события.
Если экспозиция была достаточно длительной, то и на второй пластинке постепенно сформируется совершенно такая же картина, как и на первой.
Теперь пора делать некоторые выводы. Во-первых, волновые свойства никак не проявлялись в каждом отдельно взятом электроне. Зато они немедленно сказываются, как только электроны соберутся в большой коллектив, то есть мы наблюдаем волновую картину для распределения большого числа событий-вспышек на сцинтиллирующем экране. Во-вторых, волновая картина не зависит от того, произошли ли все события-вспышки одновременно после запуска на экран интенсивного потока электронов, или накапливались постепенно на фотопластинке при работе источника в одиночном режиме. Как же следует трактовать получившиеся распределения с точки зрения теории?
Прежде всего отметим, что уравнение Шредингера не дает никаких предсказаний о том, в какую конкретную точку попадет электрон. Тут царит чистая случайность - каждый электрон может, испытав взаимодействие с рассеивателем-мишенью, оказаться в любой точке фотопластинки, и, как мы убедимся немного позже, не существует средств, позволяющих сделать его судьбу более определенной. Но при регистрации большого потока частиц оказывается, что одни участки фотопластинки засвечены сильнее, а другие слабее, то есть на первые участки электроны попадают чаще, чем на вторые. Это и приводит в конце концов к наблюдаемому неравномерному распределению, причем интенсивность засветки в каждой точке пластики пропорциональна частоте попадания туда отдельных частиц. Если теперь принять полную интенсивность засветки всего экрана за единицу, то доля вспышек, приходящихся на одну точку, или, как говорят физики, относительная частота попадания, определит нам вероятность того, что любой отдельно выпущенный электрон окажется в конкретной точке экрана.
Попробуем немного изменить условия опыта и поместим между источником и регистрирующей частью (экраном или фотопластинкой) мишень из другого вещества. Картина распределения изменится; ведь электроны, вылетающие из источника, взаимодействуют теперь с другими атомами, однако принцип ее формирования останется прежним. Следовательно, распределения рассеянных электронов несут сведения о том, с каким веществом происходит взаимодействие. Речь опять-таки идет о вероятностной характеристике - разные атомы, на которых рассеиваются электроны, отбрасывают их в одну и ту же точку экрана с различной вероятностью.
Разумеется, результат любого такого опыта можно рассчитать заранее, решая уравнение Шредингера.
Таким образом, дебройлевские волны оказались лишь удобным вспомогательным приемом для вывода вероятностных характеристик поведения частиц в различных процессах. Такая точка зрения М. Борна, возможно, и не вызвала бы сильного потока споров, несмотря на чрезвычайную оригинальность. Более того, научная общественность с безусловным восторгом приняла бы ее в качестве временной меры спасения волновой механики, тем более что интерпретация, которой придерживался Э. Шредингер, была слишком уязвимой. Но ведь М. Борн настаивал на том, что вероятностные закономерности носят принципиальный характер и составляют суть квантовой теории.
Чтобы постичь преобразующую роль его позиции, следует обратить внимание вот на какие обстоятельства. Вероятностная точка зрения была известна и классической науке. Со случайными явлениями люди сталкивались и сталкиваются в самых разных областях практической деятельности.
Артиллерист, выпускающий снаряд по достаточно далекой (часто не видимой глазом) цели, никогда не может быть уверен в стопроцентном успехе. Как оценить ею мастерство во время учений? Дать один снаряд и предложить в качестве мишени скрытый за небольшим холмом макет танка? Но ведь известно опытный наводчик может и не попасть, а новичку, едва ли не впервые увидевшему орудие, удастся начисто смести макет. Случайность? Совершенно верно. Но нетрудно выяснить и закономерность. Уже при стрельбе несколькими снарядами выяснится, что взрывы опытного артиллериста происходят в среднем намного ближе к мишени, чем у новичка. Можно надеяться, что в первом случае макет будет разрушен гораздо быстрее. Источник случайности в этом примере вполне ясен - не видя цели, наводчик стреляет просто на определенное расстояние, потом немного меняет наводку, и так вплоть до попадания в мишень.
Классическая физика столкнулась со случайными событиями в процессе исследования природы тепловых явлений. Теплота обусловлена движением огромного количества молекул, образующих те или иные тела. В свою очередь, температуру тела можно определить через среднюю кинетическую энергию молекул. Пользоваться средними величинами в такой ситуации просто очень удобно и чаще всего вполне достаточно для практических целей. В классической физике предполагалось, что в принципе экспериментатор может проследить за траекторией каждой молекулы и, следовательно, полностью определить состояние микроскопического тела. Но поскольку это слишком сложная (в одном грамме обычного вещества насчитывается примерно 1023 частиц!) и не очень полезная процедура, лучше пользоваться вероятностным распределением молекул по скоростям, или по энергиям, или по импульсам и т. д.
В квантовой же теории ситуация радикально меняется. Теперь уже частицы подчиняются вероятностным закономерностям не потому, что определить истинную траекторию каждой из них практически слишком трудно. Такая задача, оказывается, вообще лишена смысла, поскольку траектории, попросту говоря, нет. Так микрочастицы потеряли еще одну "нормальную" черту поведения: двигаться по определенной траектории! Даже воровские орбиты электронов в атоме оказались всего лишь приближенным понятием - квантовая теория позволяет нам только узнать, с какой вероятностью электрон может находиться на том или ином расстоянии от атомного ядра.
Глубокая причина "потери траектории" электронами и другими микрочастицами была установлена немецким физиком-теоретиком В. Гейзенбергом, доказавшим знаменитые соотношения неопределенностей (соотношения Гейзенберга). Согласно этим соотношениям точное определение положения частицы в пространстве (ее координаты) и ее импульса или скорости в один и тот же момент времени невозможно.
Как мы увидим в следующей главе, увеличение точности в определении координаты приводит к увеличению погрешности в измерениях импульса, и наоборот. А "потеря траектории" происходит потому, что классическая траектория требует непременного знания положения частицы и ее скорости (или импульса) в любой момент времени. Таким образом, "потеря" видна непосредственно из точной формулировки соотношения Гейзенберга: произведение неопределенности импульса на неопределенность координаты больше или равно постоянной Планка.
Только теперь, в самом конце путешествия в квантованный мир, в нашем рассказе прозвучало имя человека, первым ступившего на его трудные тропы. Еще в 1900 году немецкий физик М. Планк, пытаясь преодолеть серьезные трудности классической физики, натолкнулся на замечательное линейное соотношение между энергией электромагнитного поля и его частотой. В качестве коэффициента пропорциональности он предложил ввести новую фундаментальную постоянную и оценил ее величину, исходя из опытных данных. Впоследствии эта постоянная, которая входит буквально во все уравнения и соотношения квантовой теории, получила название константы Планка. Она обозначается символом h и имеет размерность произведения энергии на время или импульса на координату (h B 10-27 эрг .сек.). Константа Планка символически разделила историю физики на две части - классическую и квантовую - и, как мы только что убедились, сыграла выдающуюся роль в новом понимании закономерностей микромира.
Примерно три первых десятилетия после открытия элементарных частиц физики практически полностью занимались решением главной проблемы того времени - созданием атомной и молекулярной физики. Для планомерного наступления на тайны самих частиц еще не были готовы необходимые экспериментальные и теоретические средства. Но многие из них как раз и появились в процессе расшифровки атомно-молекулярной структуры вещества.
На рубеже 30-х годов произошел явный перелом. Воодушевленные блестящими и довольно быстрыми победами в исследовании атома, физики начали по-настоящему пристреливаться к атомным ядрам и их составляющим. И хотя очередное десятилетие стало скорее "ядерным", физика элементарных частиц успела обзавестись таким количеством новых загадок, что их решение стало совершенно безотлагательным делом. Делом чести физики XX века!
(C) Александр Потупа (Alexander Potupa) Бег за бесконечностью. Молодая гвардия (Эврика), Москва, 1977 (Run for Infinity; переводы: на венгерский - Utazas az elemi reszecskek vilagaba. Muszaki Konyvkiado,Budapest, 1980; на болгарский - Гонене на безкрайността. Наука и изкуство (Еврика), София, 1980)
ГЛАВА ТРЕТЬЯ О ВЫСОКИХ ЭНЕРГИЯХ И ГЛУБОКИХ ИДЕЯХ
Пределы наук похожи на горизонты: чем ближе подходят к ним, тем более они отодвигаются.
П. Буаст
МАСШТАБЫ БОЛЬШОГО И МАЛОГО
За последние 10-15 лет мы стали свидетелями интереснейшей филологической метаморфозы: все реже и реже в названиях конференций, учебников и обычных статей в научных журналах стало употребляться словосочетание "элементарные частицы", все чаще и чаще звучат другие слова "высокие энергии", "при высоких энергиях"... Что это - увлечение результатами экспериментов на гигантских ускорителях или окончательная потеря доверия к прилагательному "элементарный"?
Правильно будет сказать: и то и другое. Но еще правильнее - обратить внимание на те глубокие причины, которые превратили гонку за высокими энергиями в лейтмотив постижения микромира.
Прежде всего стоит обсудить масштабы интересующих нас явлений - недаром ведь говорят: все познается в сравнении. Но масштаб, в свою очередь, основа любого сравнения.
Современная физика действует в невообразимо большом диапазоне линейных размеров. Радиус наблюдаемого участка вселенной составляет примерно 1028 сантиметров, а наименьшие расстояния, доступные изучению на сегодняшний день, - 10-15 сантиметра. Представить себе столь большие и столь малые длины "в живых картинках" чрезвычайно сложно. От того, что я сообщу, например, что мерная лента длиной порядка радиуса вселенной будет весить не меньше нашей планеты, ничего к пониманию факта не прибавит. Человеческий опыт непосредственного восприятия расстояний ограничен интервалом от долей миллиметра до 1-3 километров. Вне этого интервала требуется включать некоторое воображение. Оно может быть изрядно натренировано для того, чтобы свободно измерять на глазок добрые десятки километров, как это бывает у летчиков, или считать маковое зернышко слишком большой заготовкой для вытачивания точной копии роденовского "Мыслителя", как это встречается среди умельцев - потомков великого Левши.
В сущности, аналогичную тренировку проходят и физики, для которых десятки в плюс - минус такой-то степени становятся по мере восхождения на высоты университетской премудрости чем-то вполне естественным и понятным. Как ни странно, дело здесь не в легендарных склонностях ума, а в глубоком усвоении тех понятий и образов, которые стоят за "сухой цифирью", а главное - в овладении основными принципами измерения очень больших и очень малых расстояний, масс и прочих важных характеристик. Попробуем и мы последовать по этому проверенному пути.
Прежде всего наблюдаемый диапазон размеров и расстояний следует подвергнуть традиционному разбиению на три части, каждая из которых представляет собой более или менее обособленный мир объектов и процессов.
Мегамир - вселенная в целом, галактики, звездные скопления, планетные системы.
Макромир - обычные предметы и процессы "нормальных", человеческих масштабов, воспринимаемые в целом, без особого углубления в структуру.
Микромир - большие и малые молекулы, атомы, атомные ядра, элементарные частицы.
Разумеется, такое разбиение весьма условно, а "миры" - лишь емкие художественные образы. Но в нем есть своя логика, и оно оказывается достаточно полезным.
Во-первых, огромный диапазон действительно разрезается на три непересекающихся отрезка. Например, в качестве минимального мегапромежутка мы можем принять расстояние от Земли до Луны (порядка 360 тысяч километров, то есть 3,6.1010 см). С теми, кто убежден в несолидности такого выбора и считает, что наименьшая подобающая для "мега" порция - размер галактического скопления, я не стал бы спорить, скорее всего, это дело вкуса. Скажем, мне приятно считать, что люди побывали на пороге мегамира, и на Луне отпечатались следы башмаков и колес.
Аналогичные проблемы могут возникнуть и при попытке определить границу "микро". Микромиров, в сущности, много. Для ученых, исследующих молекулы, атомы, атомные ядра и элементарные частицы, микромир начинается с примерно 10-6-10-7 сантиметра и уходит в пока еще плохо понятные глубины. Микромир биолога раз в сто (в среднем!) больше. Разумеется, все они правы - каждый из них имеет в виду особый тип процессов, и не стоит затевать длинные дискуссии на этот счет, тем более что мы успели выяснить, в каком смысле используется в этой книге образ "микро".
Во-вторых, объекты, расположенные по порядку своего размера вдоль всего диапазона, оказываются в очень важной взаимосвязи - они образуют так называемую структурную иерархию. В этом устрашающем словосочетании нет никаких особых тайн. Так принято обозначать следующую ситуацию - меньший в некотором смысле объект входит в качестве структурной единицы в больший, тот в еще больший и т. д.
Двигаясь от большого к малому, мы можем нарисовать такую упрощенную картинку: вселенная состоит из галактик; галактики - из звезд (точнее - из планетных систем); звезды и планеты - из вещества в различном состоянии; вещество - из молекул; молекулы - из атомов; структурными элементами атомов являются электроны и атомные ядра; а ядра состоят из протонов и нейтронов.
Из чего составлены известные элементарные частицы, мы пока не знаем. Похоже, что у последней ступеньки великой иерархической лестницы возникает своеобразный обрыв, и глубина открывающейся под ногами пропасти впечатляет не столько еще не добытым знанием, сколько тем предварительным пониманием, которое уже достигнуто. Но рассказ об этом еще впереди...
И наконец, третьей чрезвычайно полезной особенностью разделения диапазона линейных размеров является простая классификация измерений. До сих пор наш старый добрый макромир оставался немного в тени. Вроде бы ясно самые интересные явления происходят на самых краях этого диапазона, краях, непосредственно упирающихся в полную неизвестность
Но вот ведь в чем беда - как бы мы ни исхитрялись в штурме неведомых глубин вселенной или в непрерывных атаках на структуру вещества, все действия окажутся совершенно бессмысленными, если мы не позаботимся о путях доставки донесений с поля боя. Научные факты не носятся в безвоздушном пространстве, они добываются людьми и для людей. Иными словами, любые невообразимо малые или невообразимо большие процессы становятся достоянием науки только тогда, когда оказываются доступными нашему восприятию.
Какими бы сложными и сверхсложными приборами ни вооружались ученые, их действия на заключительном этапе снятия показаний, по существу, не будут отличаться от того, что совершали их далекие предшественники. Старинные гравюры донесли до нас неторопливые, но полные внутреннего напряжения сцены научных свершений, где главные измерения проводились с помощью обычных линеек и весов. Современные линейки могут быть существенно автоматизированы, но в конечном счете показания стрелки самого тонкого электротехнического устройства не что иное, как "прикладывание линейки" к некоторому исследуемому объекту.
Впрочем, эти показания могут непосредственно поступать в некоторый специальный автомат, переводящий их сразу в цифровые таблицы, например, в электронно-вычислительную машину. Конечно, физик, считывающий многометровые колонки чисел с длинных рулонов бумажной ленты, не особенно похож на своего древнего коллегу, задумчиво взирающего на уровень жидкости в сосуде причудливой формы. Но в этих картинах намного больше внутреннего сходства, чем внешних различий, - оба исследователя изучают явления в доступной для человеческого восприятия форме.
Поэтому одна из важнейших задач создателей приборов - свести заключительный этап измерений к обычному эксперименту с макроскопическими объектами, то есть не слишком большими и не слишком малыми по объему, массе и прочим характеристикам телами. Причем практически основную роль играет удобный, соизмеримый с человеческими возможностями линейный масштаб. Фотопластинки в специальных устройствах, подсоединенных к телескопу, переводят гигантские пути далеких звезд в маленькие черточки, доступные простым лабораторным измерениям. В уже знакомой нам камере Вильсона пролетающая частица нарушает покой огромного числа атомов, и они, потревоженные, подают коллективный "сигнал бедствия" бледными полосками сконденсировавшихся паров, после чего в ход пускаются стандартные геометрические принадлежности.
Таким образом, измерительные операции можно условно разделить на три класса. Центральное место не только по положению относительно диапазона размеров, но и по смыслу занимают обычные измерения с макроскопическими телами. Операции в "мега" и в "микро" отличаются прежде всего массой дополнительных устройств, обеспечивающих своеобразную проекцию в наш макромир. Как правило, эти устройства усиливают слишком слабые и ослабляют слишком сильные сигналы, делая их доступными для наших органов чувств. Огромные телескопы собирают свет далеких звезд и галактик, позволяя увидеть множество удивительных явлений на совершенно темных для невооруженного глаза участках неба. Специальные фильтры помогают исследовать довольно тонкие детали поведения нашего ярчайшего центрального светила
Вообще история астрономических измерений - настоящий оптико-геометрический роман с многими почти детективными поворотами сюжета; но пересказ его содержания не входит в наши цели.
Основные принципы проектирования из "микро" в "макро" фактически уже проиллюстрированы рассказами о камере Вильсона, беккерелевском открытии и мысленным экспериментом со сцинтиллирующим экраном и фотопластинками, которые приведены в предыдущей главе. Главная идея всех решений проблемы доступности - вызвать с помощью микрочастицы коллективное возмущение атомов вещества, заранее приведенного в состояние "полной боевой готовности".
Однако с измерениями в микромире связаны не только многочисленные технические трудности, бросающие вызов всем областям науки, участвующим в создании необходимых приборов. Существуют и некоторые принципиальные ограничения.
Предположим, мы хотим выяснить положение электрона в пространстве и скорость, с которой он движется. Для определения положения электрона прежде всего необходимо его осветить. Причем чем точнее мы хотим знать, где он находится, тем короче должна быть длина волны используемого освещения. Это общее правило, следуя которому создаются, например, микроскопы и любые другие приборы для обнаружения и изучения тех или иных препятствий. Скажем, для обнаружения самолета используются радиоволны дециметрового диапазона. Самолет имеет размеры порядка нескольких метров, то есть в десятки раз больше, чем длина волны "освещения", и радиолокационной установки
в дециметровом диапазоне достаточно для того, чтобы он не проскочил незамеченным. Хорошо известно, что обычные оптические микроскопы - сколь бы мощными линзами их ни снабжали - имеют предел применимости: в них нельзя рассмотреть объекты, размер которых меньше длин волн видимого света. Практически же наблюдать можно лишь объекты, размер которых раз в десять превосходит длину волны излучения, которым освещается объект.