Справочник от Автор24
Поделись лекцией за скидку на Автор24

Естественнонаучная картина мира

  • 👀 650 просмотров
  • 📌 570 загрузок
Выбери формат для чтения
Загружаем конспект в формате doc
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Естественнонаучная картина мира» doc
Лекции по курсу ЕНКМ. 1. «Две культуры» -- термин современной философии и культурологии, под которым понимается оформившееся в общественном сознании противоречие между двумя различными (и до середины 20-го века резко противоположными) традициями познания мира, вытекающими из двух типов мышления и отношения к природе – рационально-логического, закрепившегося под названием естественнонаучного, и образно-художественного, условно называемого гуманитарным. Данная проблема в целом обусловлена двумя основными и вполне объективными факторами: 1. С одной стороны - спецификой объектов и процессов «внешней» природы, которая состоит в их естественной повторяемости или лабораторной воспроизводимости и обратимости во времени. Эта сфера статистически достоверно изучается науками, традиционно считающимися естественными, - такими, как физика, химия, биология, астрономия и т.п. С другой стороны - особыми свойствами явлений, подпадающих под гуманитарное знание, составляющих сферу исторической, социальной, культурной и т.д. целенаправленной и творческой деятельности человека. Эти события часто уникальны, невоспроизводимы в эксперименте и необратимы по своим последствиям во времени. Они изучаются, соответственно, историей, культурологией, социологией, политологией. 2) Специфика методов получения и интерпретации научной информации в этих областях знания требует соответствующей ментальной ориентации, что проявляется в отношении познающего субъекта к предмету – отстраненном, объективном в естествознании и более субъективном, эмпатическим и, так сказать, неизбежно «заангажированным» в области гуманитарных исследований и социально-исторических и политических трактовок. Складывавшиеся в Европе в течение столетий (по крайней мере, начиная с 17 века) научные сообщества различных направлений, вырабатывали соответствующие традиции (составляющие «культуру мышления»), призванные, по их мнению, обеспечить максимально возможную объективность знания, вырабатывали наиболее оптимальные методы эксперимента и обработки данных, создавали специфический научный язык, при помощи которого достигалась четкость и однозначность интерпретаций полученных фактов и встраивание их в существующие теории. Таким языком в естествознании стала математика, доказавшая, как казалось с 17 века по начало 20-го, свою универсальность и тождественность законам природы («непостижимая эффективность математики в естественных науках», - Ю. Вигнер). Со временем, в среде представителей естественнонаучного знания, под влиянием выдающихся достижений в отдельных областях физики, химии, астрономии, космологии и биологии сложилось такое отношение к познанию мира вообще, которое привело к преувеличенному представлению об универсальности методов естествознания и, в частности, математического моделирования, в применении к любой научной дисциплине, в том числе и гуманитарного профиля, а попутно, к отрицанию методов гуманитарных наук, как субъективных, недостоверных и, следовательно, не отвечающих критериям научности. В философии науки это выразилось в таких течениях, как физикализм и сциентизм. Представители гуманитарного знания, в свою очередь, полемизируя с рационалистами, справедливо указывали на односторонность и схематизм, неизбежно возникающие при попытках «математизации» гуманитарных исследований, и обращали внимание физикалистов на крупные неудачи и просчеты, уже имевшие место при формальном подходе к моделированию исторических и культурных процессов, а также в прогнозировании экономических и социально-политических событий. Это отношение в наиболее резкой форме выражали представители т.н. антисциентизма, которые, наряду с чрезмерными претензиями науки на монополию в обеспечении процесса познания универсальными методами, отрицали и ценность самой науки, а заодно, и техники, списывая на них разрушение духовности, экологический кризис и прочие негативные явления, резко обозначившиеся в природе и обществе к завершению 20-го века. В конце 60-х годов эту проблему всесторонне осветил английский ученый и публицист Чарльз П. Сноу, обратив внимание на то, что за долгие годы формирования противоречий между представителями естественных и гуманитарных наук в пространстве евро-американской культуры возникли два вполне антагонистических культурных течения («две культуры», по его определению), и люди, разделяющие соответствующие культурные установки, проявляют полное взаимное непонимание и даже определенную враждебность по отношению к ценностям и традициям друг друга. Известны резкие и взаимно несправедливые высказывания естественников и гуманитариев в адрес друг друга, о чем, как о факте традиционного взаимного презрения между своими коллегами, принадлежащими к разным «факультетам», писал выдающийся австрийский этолог К. Лоренц, - так, философ-неокантианец К. Лейдер называл всё естествознание «вершиной догматической ограниченности», а крупный орнитолог О. Гейнрот считал всю философию «патологическим холостым ходом способностей, дарованных человеку для познания природы». «Если однажды в культуре произошло разделение, - заключает Ч. Сноу, - то все общественные силы действуют таким образом, чтобы сделать его не менее, а более резким». Этот феномен расслоения культурного сознания больших масс людей диалектически отразил специфику изучения природы в рамках предшествующей (17-19 вв. и первая половина 20-го века) рационально-механической или, как её еще называют, «картезианско-ньютоновской» парадигмы мышления, которая рисовала картину мира, полностью детерминированного, лишенного случайных событий и уникальных ситуаций, в котором время играло роль просто параметра, упорядочивающего последовательность обратимых событий и полностью воспроизводящихся ситуаций. Такая установка на механическое описание мира, будучи последовательно реализована философски и методологически, неизбежно должна была привести к такому общекультурному результату. Противопоставление «двух культур», - по замечанию одного из создателей синергетики И.Р. Пригожина, - в значительной мере обусловлено конфликтом между вневременным подходом классической науки и ориентированным во времени подходом, доминировавшим в подавляющем большинстве социальных и гуманитарных наук. Выдающийся современный физик Ричард Фейнман видел основу противоречий между представителями двух культур также в коренном различии тех принципов, традиций и языка описания природы, к которым разные люди по разным причинам тяготеют и которые в конце концов для них становятся приоритетными. «Сноу говорил о двух культурах, - писал Фейнман. – Я думаю, что разница между этими культурами сводится к разнице между людьми, которые понимают, и людьми, которые не понимают математики в той мере, в какой это необходимо, чтобы вполне оценить природу. Тем, кто не знает математики, трудно постичь подлинную, глубокую красоту природы. Жаль, конечно, что тут нужна математика, потому что многим людям она дается трудно. ... Физику нельзя перевести ни на какой другой язык. И если вы хотите узнать Природу, оценить её красоту, то нужно понимать язык, на котором она разговаривает. ... Никакими интеллектуальными доводами вы не сможете передать глухому ощущение музыки. Точно так же никакими интеллектуальными доводами нельзя передать понимание природы человеку «другой культуры». Философы пытаются рассказать о природе без математики. Я пытаюсь описать природу математически. Но если меня не понимают, то не потому, что это невозможно. Может быть, моя неудача объясняется тем, что кругозор этих людей чересчур ограничен и они считают человека центром Вселенной». К концу ХХ века стало, однако, очевидно, что только естественнонаучный или только гуманитарный взгляд на мир даст неполную, однобокую картину, с непропорциональным преобладанием элементов, доступных соответственно тому или иному способу мышления. В настоящее время (начиная с 70-х годов) на основе набирающей силу системно-синергетической парадигмы, возникла новая стратегия познания мира, утверждающая универсальность принципа дополнительности рационально-логического (естественнонаучного) и образно-художественного (гуманитарного) подходов к построению более полной и целостной картины мира, (т.н. эпистемологической дополнительности). Такой подход можно рассматривать как начало процесса преодоления разрыва «двух культур» и диалектически трактовать как неизбежный путь к единой культуре на основе новой синтетической философии, интегрирующей все проявления культурного сознания. Следует отметить, что эта проблема, характерная, для массового сознания «средних» или рядовых представителей как естественных, так и гуманитарных наук, не относится к выдающимся деятелям науки, которым во все времена была присуща широта образования и разносторонность интересов, что способствовало их умению видеть за стеной многочисленных и разрозненных фактов проявление фундаментальных закономерностей природы. Такими были Коперник, Кеплер, Галилей, Ньютон, Лейбниц, Гюйгенс, Ломоносов и ряд других универсальных мыслителей. Многие крупнейшие ученые 20-го века, в большинстве Нобелевские лауреаты, (Больцман, Пуанкаре, Планк, Эйнштейн, Бор, Гейзенберг, Эренфест, Шредингер, Лоренц, Гелл-Манн, Пригожин и другие) неоднократно подчеркивали роль гуманитарного знания и образно-художественного мышления в своих самых весомых и революционных достижениях и открытиях. Так, знаменитый немецкий математик Карл Вейерштрасс однажды заметил, что «математик, который вместе с тем не несет в себе частицы поэта, никогда не станет совершенным математиком». Людвиг Больцман писал о себе: «Тем, кем я стал, я обязан Шиллеру, <…> другим человеком, оказавшим на меня такое же влияние, является Бетховен». Широко известно высказывание о себе и Альберта Эйнштейна: «Достоевский дал мне больше, чем любой другой мыслитель, больше, чем Гаусс» (К.Ф. Гаусс – великий немецкий математик). И наконец, можно привести вполне “программное” изречение Эрвина Шредингера: «Существует тенденция забывать, что все естественные науки связаны с общечеловеческой культурой и что научные открытия, даже кажущиеся в настоящий момент наиболее передовыми и доступными пониманию немногих избранных, всё же бессмысленны вне своего культурного контекста». (См. также: Ньютон, Пригожин). 2. Наука – одна из важнейших сфер общекультурной творческой деятельности человечества, направленная на получение новых знаний о явлениях и закономерностях процессов эволюции как неживой, так и живой природы, о феноменах и особенностях социального, экономического и культурного развития человеческого общества, а также исследующая биологическую и психическую сущность самого человека. Понятие науки включает в себя все материальные и идеальные условия и обстоятельства, обеспечивающие процесс производства, закрепления и распространения научного знания. Сюда относятся: во-первых - научные сообщества и индивидуальные ученые с их личными способностями, знаниями, квалификацией, опытом и представлениями об идеалах научности, о профессиональных традициях и методах познания, а также о моральных, религиозных и этических ценностях, вытекающих из их социально-культурной принадлежности и приверженности соответствующей научной парадигме. Это множество ученых, разделяющихся также по принадлежности к различным сферам познания (естественным и гуманитарным), научным областям (фундаментальным и прикладным, теоретическим и экспериментальным) и многочисленным дисциплинам (как отдельным узконаучным, так и смежным междисциплинарным); во-вторых - понятийный и категориальный аппарат как универсального общенаучного значения, так и соответствующий той или иной научной области, вся уже существующая система знаний, образующая общенаучный и узкодисциплинарный познавательный фундамент, а также непрерывно образующаяся междисциплинарная среда; в-третьих - организованная система научной и технической информации, банки данных, периодические научные издания, система конференций и симпозиумов, а также всемирная компьютерная информационная сеть; в-четвертых - научно-исследовательские, проектно-конструкторские и учебные учреждения разных уровней, специализированные научно-производственные предприятия, разнообразное лабораторное оборудование и крупномасштабная экспериментальная техника, а также рабочие компьютеры, большие вычислительные машины и разнообразное программное обеспечение к ним. Всё это множество элементов представляет собой сложную иерархически организованную структуру научного познания и функционирует как динамическая самоорганизующаяся система, пронизанная многочисленными взаимными связями и потоками информации, как внутренними, так и выходящими во внешнюю социокультурную среду. Идея иерархической структуры научного познания впервые четко высказана И. Кантом с точки зрения возможных способов упорядочения информации в процессе познания и терминологически оформлена им в понятиях «наука» и «наука в собственном смысле». По Канту: «всякое учение, если оно есть система, т.е. некоторая совокупность знаний, упорядоченных согласно принципам, называется наукой», но с другой стороны, «в любом частном учении о природе, - писал Кант, - можно найти науки в собственном смысле лишь столько, сколько содержится в нём математики». Последнее утверждение имеет непосредственное отношение к естествознанию, как всей совокупности наук о природе, где одним из основных методологических принципов является возможность описания природных феноменов математическими соотношениями. Именно математическая модель становится связующим звеном между теоретическим способом осознания и описания того или иного явления природы и экспериментальной проверкой теории и доказательством её объяснительных и предсказательных возможностей. Идея о познании мира через число принадлежит Пифагору («все вещи – суть числа»). В европейской науке нового времени эта идея обогатилась понятием функции, описывающей непрерывный ряд количественных (числовых) закономерностей, и постепенно стала доминирующей, благодаря трудам Кеплера и, особенно, Галилея, которому принадлежат слова о том, что Книга природы написана языком математики, оперирующей числами и геометрическими формами. Далее, после математической революции, произведенной Ньютоном и Лейбницем (17 век), создавшими дифференциальное и интегральное исчисление, методы математического анализа стали основным инструментом в исследованиях и описаниях закономерностей природных процессов. В этом пункте естественные науки, изучающие повторяющиеся и статистически достоверные явления природы, принципиально отличаются от наук гуманитарных, предметом которых часто бывают уникальные и неповторимые события человеческой истории и произведения материальной и духовной культуры, не поддающиеся однозначным рациональным трактовкам и не вписывающиеся в строгие рамки математических методов моделирования. Несколько упрощенно этапы научного познания можно представить следующей формальной схемой: 1). Постановка проблемы, т.е. процесс осознания того, что некоторое явление природы существует, но еще в достаточной степени не познано и нуждается в адекватном описании и объяснении (например, разбегание галактик) или же, судя по косвенным данным, должно существовать, но еще достоверно не обнаружено (например, черные дыры). 2). Выдвижение гипотезы, которая представляет собой форму знания, содержащего научно обоснованные в рамках существующей парадигмы предположения, не вступающие в противоречие с установленными наукой фундаментальными принципами и правдоподобно упорядочивающие совокупность наблюдаемых фактов, относящихся к данной проблеме. Гипотезы носят вероятностный характер и требуют соответствующего обоснования и проверки. Из нескольких правдоподобных гипотез в процессе обоснования отбираются наиболее продуктивные, дающие возможность получения статистически достоверного эмпирического подтверждения. В результате анализа опытных данных, на основании существующих общенаучных принципов выбирается одна из них, которая становится основой для дальнейшего теоретического осмысления рассматриваемой проблемы. При этом может возникнуть ситуация, выводящая предложенную гипотезу за пределы существующей парадигмы и требующая новых нестандартных концепций. 3). Разработка теории, которая представляет собой наиболее развитую форму научного знания, и дает целостное и непротиворечивое отображение закономерных и существенных связей конкретной области реальности, породившей первоначальную проблему. Теоретическая система, удовлетворяющая требованиям научности, включает в себя математический аппарат, позволяющий описывать всю совокупность имеющихся эмпирических фактов и являющийся также источником прогностической информации, инициирующей дальнейший поиск и получающей экспериментальное подтверждение. Хорошая теория более общего масштаба должна включать в качестве частного случая или предельной ситуации предыдущую теорию, достоверно подтвержденную в соответствующей области реальности. Такими примерами в естествознании могут служить современная теория элементарных частиц, квантовая электродинамика, теория относительности и ряд других. 4). Эксперимент представляет собой не просто набор некоторых эмпирических фактов, а целенаправленно спланированное эмпирическое действие, для подтверждения или опровержения основных положений проверяемой теории. Эксперимент, удовлетворяющий требованиям научности, ставится в точно фиксируемых, стандартных и воспроизводимых условиях. Полученные результаты наблюдений проходят необходимую математическую обработку и снабжаются критериями статистической достоверности (точность в пределах соответствующего доверительного интервала), - только в этом случае они становятся научными данными. Как правило, эксперимент ставится в пределах некоторой ограниченной области реальности, в идеализированных и упрощенных (в рамках выбранного приближения) условиях и дает идеальный образ истинного природного явления. Тем не менее, установленные наукой и выраженные математическими соотношениями общие и частные «законы» природы, позволяют человеку оптимально упорядочить отношения в системе «человек-природа». За всю историю существования европейской культуры наука прошла через четыре основных этапа своей эволюции: 1) донаучная стадия (античная натурфилософия, естествоиспытательство Средних веков и эпохи Возрождения); 2) 2) период становления и развития классической науки (начало 17-го – конец 19-го веков), методологический фундамент которой и философское мировидение связаны с именами Галилея, Декарта, Бэкона, Ньютона, Канта, Лапласа; 3) 3) время кризиса ньютоновско-лапласовского детерминизма и развития неклассической науки (конец 19-го – конец 20-го веков), основы которой заложены Планком, Эйнштейном, Бором, Гейзенбергом, Шредингером, де Бройлем и другими; и наконец, 4) 4) завершение 20-го века характеризуется становлением постнеклассической науки, основные достижения которой привели к возникновению нового мировидения – т.н. эволюционной системно-синергетической парадигмы. 3. Парадигма – (от греч. пример, образец), одна из ключевых категорий современной философии науки и культуры, в целом соответствующая понятию образа или картины мира (мировидения) на соответствующем этапе социально-культурного развития той или иной культурно-исторической общности. В более частном смысле (касательно естествознания) этот термин введен в философию науки известным американским философом и историком науки Томасом Куном, определившим парадигмы как «признанные всеми научные достижения, которые в течение определенного времени дают модель постановки проблем и их решений научному сообществу». В рамках сложившегося научного сообщества парадигма включает в себя всю совокупность научных идей, традиций, теоретических взглядов, методологических установок, убеждений, ценностей и даже научных предрассудков, закономерно возникших и закрепившихся в научной среде, принятых и поддерживаемых членами данного научного сообщества. Парадигма, согласно Куну, призвана формировать научное видение мира, поддерживать научные традиции в научном сообществе, обеспечивать преемственность и распространение знаний и формировать иерархию приоритетов в научных исследованиях. Непосредственно действие парадигмы осуществляется через дисциплинарную матрицу, в которую входят три основных элемента: это создание теоретических моделей и интерпретация полученных научных данных, процесс символического обобщения результатов в виде «законов» различного уровня и система образования, дающая примеры и образцы решения научных проблем. С помощью таких образцов учащиеся усваивают содержание теорий, методы получения и интерпретации научных фактов в рамках соответствующей парадигмы. Тем самым приверженность определенной парадигме обеспечивает продуктивное функционирование т.н. нормальной науки – зрелой стадии развития науки. Научная парадигма функционирует как самоорганизующаяся система, пронизанная информационными обратными связями, и в своем саморазвитии проявляет консервативные черты, демонстрируя, наподобие биологической системы, что-то вроде борьбы за существование, стремясь, насколько это допустимо, интерпретировать получаемые факты в рамках доминирующей концептуальной схемы, модернизируя её в пределах существующих возможностей. С общесистемной точки зрения и в самом обобщенном толковании такое поведение научного сообщества, придерживающегося данной парадигмы, напоминает процесс естественного отбора посредством приспособления некоторой популяции к изменениям окружающей среды «обитания» (здесь - науки) и конкуренцию с другой популяцией (научным сообществом, работающим в рамках другой парадигмы). Именно по этой причине так трудно новаторам и первооткрывателям, опередившим своё время, продвигать новые идеи, идущие вразрез с доминирующей концептуальной системой, признанной научным сообществом, но зато и представителям паранауки, отвергающим фундаментальные законы природы, составляющие основу любой парадигмы, невозможно серьёзно поколебать устои науки и повлиять на процесс развития научного знания. Но всё же постепенное накопление фактов различного типа, никак не вписывающихся в существующую парадигму, (изменение условий среды) приводит к её кризису, а затем следует процесс неизбежной смены парадигмы, что Кун и отождествляет с научной революцией. С этой точки зрения он рассматривает ряд исторических примеров смены парадигм, таких, как смена аристотелевской динамики на механику Ньютона, птолемеевской геоцентрической системы на гелиоцентрическую систему Коперника, континуальной (непрерывной) картины мира на дискретную квантово-механическую, ньютоновских представлений об абсолютных и независимых друг от друга пространстве и времени на относительный пространственно-временной континуум Эйнштейна-Минковского и многое другое. Эта закономерная последовательность изменений в способах научного видения природы и интерпретации её феноменов может трактоваться как эволюционный процесс естественного отбора одних теоретических схем (в некотором смысле «видов») по принципу их преимущества по сравнению с другими в объяснительной способности (выживаемости). При всей условности и схематизме данного подхода, понятие парадигмы, историчное по своей сути, прочно вошло в современный философский язык, а куновская схема научных революций, концепция научного сообщества и нормальной науки нашли свое место в философии науки. С введением понятия научного сообщества, состоящего из конкретных живых людей -- носителей парадигмы во всём её объеме и культурного сознания той или иной исторической эпохи, вовлеченных, помимо научной работы, также и в круг вненаучных, чисто бытовых и личных отношений, т.е. с введением категории реальных исторических субъектов научной деятельности, в философию науки, наряду с общепринятыми представлениями о рациональном характере научного познания, вошел и иррациональный элемент, обусловленный эмоциональной составляющей человеческой природы. Этот подход к трактовке закономерностей научного познания мира более органично вписывает науку в общекультурный контекст, чем представления К. Поппера о науке как о внеисторическом и независимом от конкретных личностей процессе получения объективного знания о мире. В культурно-историческом аспекте процесс смены парадигм затрагивает весь комплекс элементов, формирующих взгляд на мир и место в нем человека. Не рассматривая очень специфические культуры Востока, по крайней мере, в европейской истории, можно несколько условно выделить четыре больших периода, характеризующихся парадигмальными отличиями: античную, средневековую, возрожденческую и парадигму эпохи Просвещения, которую в культурологии ещё называют картезианско-ньютоновской механической парадигмой. Согласно современным философским взглядам, на конец 20-го века пришелся кризис механической интерпретации мира и начало постепенного установления новой т.н. системно-синергетической эволюционной парадигмы, представляющей Универсум, (т.е. Вселенную и Человека в ней) как неразрывную, многосвязную и взаимообусловленную, сложную саморазвивающуюся и самоорганизующуюся систему. (См. также: Наука, Паранаука). 4. Паранаука – (от греч. пара – рядом и наука), феномен в науке, проявляющийся как результат общесистемного явления паразитизма некоторых форм, существующих за счет других, основных форм (хозяев). Паразитические формы используют для своего существования энергетические, вещественные и информационные структуры, упорядоченные в процессе антиэнтропийной деятельности «хозяина», который затрачивает для этого необходимое количество энергии. В экологии и биологии – это различные виды паразитов, в науке – это паранаучные идеи и течения, описывающие т.н. паранормальные явления. В самоорганизующейся сложной системе (любого типа) возникают тесные сообщества паразита и хозяина и на основе отбора (а в биосферных экосистемах – естественного отбора) происходит, в целом, взаимовыгодный процесс их коэволюции, причем, как показали модельные эксперименты, наличие форм-паразитов способствует большему разнообразию системы и её устойчивости. Развитию естествознания постоянно сопутствует процесс появления наукоподобных построений и целых паранаучных систем, паразитирующих на сложных и неоднозначно трактуемых наукой феноменах природы и человека, особенно в области познания микромира, космоса и явлений человеческой психики. При этом используются категории и термины из понятийного аппарата соответствующей области знания, но либо они толкуются слишком расширительно и неопределенно (что свойственно, например, для таких понятий, как энергия, информация, поле и т.д.), либо явления, рассматриваемые паранаукой, статистически недостоверны, невоспроизводимы в стандартных условиях, и «протекают» с нарушением фундаментальных законов сохранения. Так, например такое паранормальное явление, как телекинез, или телепортация, нарушает один из фундаментальных законов механики – закон сохранения количества движения (импульса), и поэтому в рамках нормальной науки рассматриваться не может. Аналогичная ситуация имеет место в области изучения т.н. биополя, («передача мысли» на расстояние, влияние биоэнергии на ход физических процессов и т.п.), где до настоящего времени экспериментально не получено воспроизводимого и статистически достоверного подтверждения наличия таких эффектов. До сих пор нет эмпирических доказательств существования т.н. каталитического («холодного») термоядерного синтеза, протекающего стабильно и в количественном масштабе, о чем, как о факте, было много сообщений и дискуссий в СМИ. Современная квантовая теория допускает этот феномен, однако, как маловероятный эффект туннельного характера. Существует множество и других общеизвестных явлений такого рода, в частности, астрология, НЛО и экстрасенсы, не говоря о таких примерах чистого шарлатанства и профанации, как поиск пропавших или лечение людей по фотографиям, бесконтактная хирургия, колдовство, сеансы магии и т.п., что появляется в определенные периоды истории и вливается, по выражению З. Фрейда, в общий «мутный поток оккультизма». Это не значит, что вообще нужно отрицать возможность слабых и очень специфических процессов взаимодействия в материальном мире, в том числе, между человеческим сознанием и внешним миром. Еще в начале века никто не мог представить себе в пределах рациональной аргументации наличие в природе космических лучей, реликтового излучения, античастиц и т.п., не говоря уже о процессах эволюции Вселенной. Квантовая физика в настоящее время исследует и пытается осмыслить невероятнейшие взаимодействия между элементарными частицами и полями, получившие название нелокальных процессов, которые свидетельствуют о том, что реальный мир неизмеримо сложнее, чем казалось в годы триумфа механики Ньютона, электродинамики Максвелла-Герца, теории атома Резерфорда-Бора, и совершенно чужд традиционной логике здравого смысла. Однако, в сферу научного естествознания могут войти лишь те сущности, право на существование которых можно обосновать, исходя из универсальных законов сохранения и второго начала термодинамики, которым можно присвоить числовое значение и формально описать математическим языком, указать методы измерения на основе известных фундаментальных взаимодействий и затем осуществить наблюдение и статистически достоверную экспериментальную проверку. Тем не менее, паранаука вообще и паранаучные идеи, в частности, будут всегда существовать и сопутствовать науке как неизбежный системно-симбиотический элемент, объяснимый неравномерностью развития и образования людей в обществе и иррациональным компонентом, присущим человеческому сознанию. Возникающие на этом поле время от времени дискуссии могут быть полезны науке, поскольку выводят обсуждение проблем за пределы традиционного для естествознания рационально-логического метода мышления, ограниченного сложившейся парадигмой, и ставят перед наукой в качестве вызова новые нетривиальные задачи, требующие определенного ответа. (См. также: Наука, Парадигма). 5. Античная натурфилософия – совокупность философских учений, развивавшихся древнегреческими мыслителями на протяжении нескольких веков (примерно от 7 века до н.э. до 6 века н.э.), в самых выдающихся образцах которых были поставлены вопросы фундаментального значения и универсального масштаба, не потерявшие в определенной степени научной актуальности (а в ряде случаев даже получившие новое смысловое наполнение) в постнеклассической науке нашего времени. В античной натурфилософии не было какой-либо одной цельной картины мира, составляющей мировоззренческую парадигму (если не считать Геоцентрическую модель мира), не существовало, конечно, и строгой методологии познания, позволявшей обеспечивать определенный уровень достоверности тех или иных (неизбежно чисто метафизических и наивных) гипотез и построений греческих мыслителей. Но тем не менее, ряд важных прозрений, высказанных греческими мыслителями, которые занимают небольшое место среди множества различных гипотез, возникавших в течение столетий в рамках тех или иных учений, объяснявших мир, до сих пор имеют принципиальное значение для понимания исторической связи и научной преемственности между современным рафинированным естествознанием и преднаучной античной натурфилософией. Первым античным философом, о котором существуют достоверные сведения, принято считать Фалеса Милетского (ок. 624 – 547 гг. до н.э.), который уже в то время ставил вопрос о существовании единого универсального первоначала мира, скрытого в видимом многообразии вещей. Фалес рассматривал это первоначало не как абстрактную идею, а как телесное, чувственно данное вещество, - в его учении такой первоосновой всего является вода. Его ученик Анаксимандр Милетский (ок. 610 – 546 гг. до н.э.) автор не дошедшего до нас философского сочинения «О природе», сделал важный шаг вперед – ввел более абстрактный образ первоначала всего сущего, – т.н. апейрон, который трактовался как некая беспредельная, бескачественная, неопределенная материальная субстанция, находящаяся в вечном движении и порождающая всё многообразие вещей в процессе выделения из неё противоположностей (бинарных оппозиций) таких, как горячее и холодное, мокрое и сухое, твердое и мягкое и т.д. В геоцентрической космологии Анаксимандра Земля, представляющая собой цилиндр, находилась в центре мира, а вокруг неё вращались три кольца – лунное, солнечное и звездное. Его ученик также из Милета – Анаксимен (ок. 588 – 525 гг. до н.э.) вернулся к более конкретному образу первоматерии, в качестве которой выступал воздух – вечное, бесконечное и подвижное начало, из которого в процессе сгущения (через последовательность: облака, вода, земля, камни и т.д.) образуются все тела, а в результате разрежения порождается огонь. Согласно Анаксимену, звезды – это также огонь, но столь далекий, что мы не ощущаем его тепла. Анаксагор из Клазомен (ок. 500 – 428 гг. до н.э.), напротив, признавал многообразие первоэлементов материи (в его трактовке – это как бы семена вещей), которые под действием некоторой универсальной сущности (проявляющейся как мировой ум – Нус), вступают в различные сочетания, в результате чего порождается всё многообразие вещей мира. В учении Анаксагора видны попытки более рационального объяснения креативных процессов в мироздании – не как результата беспорядочного или случайного движения (вихрей, сгущений, разрежений и т.п.) какой-либо более или менее наглядной вещественной субстанции (первоматерии), а как результат проявления некоторой абстрактной надматериальной силы, создающей условия для формирования конкретных упорядоченных материальных структур. Чрезвычайно важный прорыв в теории познания мира был сделан представителями Пифагорейской школы, сформировавшейся вокруг легендарного древнегреческого философа Пифагора с острова Самоса (580 – 500 гг. до н.э.), которые в основу познания положили категорию числа. Согласно их представлениям, только количественные отношения, выражаемые числами, являются сущностью вещей и явлений, поскольку самые различные объекты окружающего мира имеют математически тождественные свойства и числовые характеристики. Поэтому нет смысла изучать каждый отдельный предмет, а следует изучать математически подобные классы предметов, т.е. их математические и числовые образы, относительно которых сами предметы – это только подобия. Если отбросить возникшую на основе этих представлений и получившую широкое развитие в европейской культуре мистику чисел, то сам «эпистемологический» приём пифагорейцев, состоявший в полном абстрагировании числовой сущности предметов, т.е. в отрыве числа от вещи, имел положительное значение, поскольку открывал путь к чисто формальным математическим исследованиям (как к некоторому архетипу чистой математики) и вырабатывал такие принципы познания, которые в наше время привели к развитию теории чисел, теории множеств, теории групп симметрий, топологии и т.п. абстрактных математических дисциплин, а также легли в основу методов имитационного математического моделирования. Учение о мире Гераклита Эфесского (544 – 483 гг. до н.э.) также включало категорию первовещества, в роли которого выступал огонь как сущность самая подвижная и способная к изменениям и превращениям. Из огня, по Гераклиту, произошел весь мир, все отдельные вещи и даже души людей. Весьма примечательна почти современная формулировка Гераклитом идеи о происхождении Вселенной из вечного огня и циклически саморазвивающейся вплоть до нового превращения (античный образ модели Большого взрыва): «Этот космос один и тот же для всего существующего, не создан никем из богов, никем из людей, но всегда был, есть и будет вечным живым огнем, в свое время загорающим и в свое время потухающим». В основе последовательности возникновения из огня вещей, согласно учению Гераклита, лежит необходимость, и для её осуществления и поддержания циклического миропорядка космических процессов он вводит высшее организующее начало – Логос. Эта многозначная категория (обозначающая слово, мысль, разум, план, закон), делает учение Гераклита ещё более созвучным некоторым современным постнеклассическим представлениям о происхождении Вселенной посредством специфического фазового перехода информации в энергию и вещество. Идея о цикличности процессов превращения (вещи по окончании цикла вновь становятся огнем, жизнь природы – это непрерывная цепь движений и взаимопревращений предметов и их свойств, - теплое становится холодным, влажное сухим, и наоборот), но тем не менее, время – это необратимо текущая река – всё изменяется, и «нельзя дважды войти в одну и ту же воду». Таким образом, несмотря на представление мира в циклических категориях (архетип устойчивости), учение Гераклита диалектически сочетает бинарные оппозиции («обратимое и необратимое», «состояние и процесс», «вещь, предмет и мысль, план» и т.д.), указывая не только на их существование, но и на их постоянный взаимный переход, и в целом представляет мир, если ещё не как эволюцию, то по крайней мере, уже в определенном смысле как процесс. Учение о мире Эмпедокла из Агригента (483 – 423 гг. до н.э.) сводило всё многообразие природы к взаимодействию четырех первоэлементов – земли, воды, воздуха и огня, которым управляют две противоположных стихии или силы – притяжения и отталкивания (дружбы и вражды), в результате чего первоэлементы мира могут соединяться и разделяться, порождая всё многообразие вещей. Различные стадии развития Вселенной, по Эмпедоклу, соответствуют преобладанию той или иной силы в природе, различные виды живых существ также образуются в результате таких сочетаний, причем из всего возможного многообразия в природе остаются более жизнеспособные сочетания. Эту догадку Эмпедокла, равно как и представления Анаксимандра о том, что человек, подобно другим существам, произошел от рыбы, можно расценивать как первые наивные попытки создать образ эволюции живых существ и их естественного отбора. Учение Эмпедокла о дружбе и вражде элементов, создающих условия при образовании сочетаний, в дальнейшем, приобретя весьма рафинированные формы, стало основой представлений средневековой алхимии о т.н. сродстве или взаимном тяготении элементов (также и об избирательном сродстве). Эти представления, имеющие общеизвестное важное значения для развития химии как науки, сыграли ещё одну интересную роль, натолкнув Ньютона (который был прекрасно осведомлен во всех тонкостях алхимии), на мысль об универсальной силе взаимного тяготения (гравитации) между всеми материальными объектами. Очень важный шаг в представлениях о строении материи сделали древнегреческие атомисты – Левкипп (500 – 440 гг. до н.э.) и Демокрит (460 – 370 гг. до н.э.). Первоэлементы мира – атомы (неделимые), из которых состоят все предметы, различаются весом, формой, размерами и взаимным расположением в телах, но сами по себе в силу своей малости принципиально ненаблюдаемы. Из этих первичных свойств, принадлежащих атомам, происходят все прочие, вторичные свойства предметов (теплота, вкус, запах, цвет и т.д.), которые атомам не принадлежат, а возникают в процессе восприятия окружающего мира нашими органами чувств. Именно это обстоятельство делает человеческое знание, основанное на чувственном восприятии, ненадежным и субъективным, поскольку вторичные свойства предметов зависят от способностей к восприятию того или иного конкретного субъекта. Левкипп в качестве истинной реальности признавал два первоначала – атомы и пустоту, в которой они вечно движутся по причине присущей им механической необходимости. Ввиду отсутствия текстов самого Левкиппа, трудно сказать, каким конкретным механизмом он обосновывал процесс возникновения вещей из атомов, но известно, что в основе этого процесса лежала идея необходимости, причины и достаточного основания. «Ни одна вещь, - утверждал Левкипп, - не возникает беспричинно, но всё возникает на каком-нибудь основании и в силу необходимости». Демокрит также признавал два первоначала мира – атомы и бесконечную пустоту, в которой движется бесконечное множество атомов, которые сталкиваясь, порождают вихри, их которых образуется также бесконечное множество тел и миров, рождающихся при соединениях атомов и умирающих при распаде этих комбинаций. Атомы не сотворены богами, а возникают сами по необходимости, также по необходимости создают вихри и рождают тела; уничтожаются атомы также сами естественным путем. Ничего случайного, считал Демокрит, в мире нет, всё имеет свою причину. Случайность, которая на первый взгляд, присутствует в мире – это только видимость и результат недостаточного знания, поскольку основной источник нашего познания – это чувственное восприятие, которое дает недостоверное и субъективное («темное») знание о вторичных свойствах предметов, тогда как истинное («светлое») знание приобретается только посредством разума и именно оно ведет к познанию сущности самих атомов и пустоты. Это учение о строении мира и его познании, несмотря на его умозрительность и наивность, не только предвосхитило самое значительное открытие ХХ века (атомную теорию), но и заложило ментальную основу для введения в науку идеи редукционизма и механического причинно-следственного детерминизма, который на волне успехов ньютоновской механики приобрел в Европе 17-19 вв. масштаб философской парадигмы (т.н. картезианско-ньютоновско-лапласовской парадигмы). Дальнейшее развитие атомистические идеи Левкиппа и Демокрита получили в трудах Эпикура (341 – 270 гг. до н.э.), который внес в это учение принципиально важное дополнение. Чтобы более рационально объяснить возможность столкновения атомов, движущихся в пустоте он ввел совершенно новое для этой схемы понятие спонтанного, но не обусловленного чем-то внешним, а внутренне присущего атомам свойства отклоняться от прямолинейной траектории, получившего название клинамен. Это позволило Эпикуру использовать «запрещенную» Левкиппом категорию случайности, что во-первых, существенно расширило модельные возможности атомистического учения, а во-вторых, поставило важный для всей философии вопрос о соотношении необходимого и случайного в природных процессах. Идею Эпикура относительно клинамена (дошедшую до нас в поэме крупнейшего просветителя Римской эпохи Лукреция Кара (ок. 99 – 55 гг. до н.э.) «О природе вещей»), которая вводит в картину мира представление о созидающей роли случайности и которую античный мыслитель ввел чисто метафизически, один из создателей синергетики Илья Пригожин считает одной из самых революционных и продуктивных идей в науке, особенно в теории самоорганизации как основе постнеклассической эволюционной парадигмы. Эпикур, в отличие от предшественников, считал чувственное восприятие внешнего мира истинным, а недостоверность полученных знаний объясняется, по его мнению, ошибками, которые возникают при истолковании ощущений. Философия Эпикура ставила во главу человеческой деятельности познание мира, которое освобождает человека от суеверий и невежества, избавляет от страха перед неизвестным и от неуверенности в жизни, а следовательно, делает его счастливым. (См. также: Аристотель). 6. Солнечная система – компактная космическая система, состоящая из восьми больших планет и их спутников, обращающихся по эллиптическим орбитам вокруг центральной звезды – Солнца, а также множества малых планет (спутников больших), астероидов, комет, метеоритов и межпланетной пыли. Солнце – типичная звезда нашей Галактики (желтый карлик), имеющая средний диаметр 1,4*107 км, массу 1,99*1030 кг, среднюю плотность вещества 1,41 г/см3, температуру поверхности 5780о К и средний период вращения вокруг оси 25,38 земных суток, причем Солнце, как плазменное образование, не является твердым телом и поэтому заметно деформировано – растянуто по экватору и сжато на полюсах. В Солнце сосредоточено 99,866% всей массы Солнечной системы. Процессы, протекающие на Солнце характеризуются 11-летним циклом активности. Среднее количество лучистой энергии, поступающей за 1 минуту на поверхность 1 см2 на расстоянии в 1 астрономическую единицу (т.е. расстояние до Земли) называется солнечной постоянной и равно 1,95 калории на см2 в мин. Планеты Солнечной системы делятся на два класса – планеты земной группы, обладающие сходным химическим составом, и планеты-гиганты, в основном состоящие из застывших газов. А) Планеты земной группы: Меркурий – ближайшая к Солнцу планета (57,1 млн. км) имеет средний диаметр 4865 км, массу 3,3*1023 кг, период обращения вокруг Солнца 88 суток, со средней скоростью 48 км/сек, период вращения вокруг оси 59 суток. Средняя плотность 5,4 г/см3 , атмосфера практически отсутствует. Венера – вторая планета (108 млн. км), имеет диаметр 12 100 км, массу 4,9*1024 кг, период обращения 224,7 суток со средней скоростью 35 км/сек, период собственного вращения 243,2 суток. Венера обладает мощной атмосферой, состоящей на 96,5% из углекислого газа, на 3,5% из азота и практически лишенной кислорода, средняя величина атмосферного давления примерно в 70 раз больше земного, температура поверхности вследствие парникового эффекта достигает 450о Цельсия. Земля – третья планета Солнечной системы (149,5 млн. км – 1 астрономическая единица - а.е.). Период обращения вокруг Солнца равен 365,24 суток со средней скоростью 30 км/сек, период вращения вокруг собственной оси равен 23 часа 56 минут 4,1 сек. Масса Земли составляет 5,976*1024 кг, средний диаметр земного шара, а точнее т.н. геоида равен 12 742,064 км, средняя плотность земного вещества равна 5,52 г/см3. Атмосфера состоит из азота – 78,1%, кислорода – 21%, углекислого газа – 0,034%, аргона – 0,9%, водяного пара – 0,1% и незначительного количества некоторых инертных газов, а также ряда органических и неорганических соединений. Основные элементы земной коры: кислород – 46,6%, кремний – 27,7%, алюминий – 8,13%, железо – 5%, кальций – 3,63%, натрий – 2,83%, калий – 2,6%, магний – 2,1%, титан – 0,6%. Земля по количеству воды, находящейся в жидком состоянии, является уникальной планетой Солнечной системы. Мировой океан занимает более 71% её поверхности. Если выровнять поверхность земного шара, убрать горы и впадины океанов, то слой образовавшейся водной поверхности достигал бы 2,4 км. Кроме Мирового океана водные ресурсы Земли представлены реками, озерами и ледниками Гренландии и Антарктиды – всё это относится к поверхностной гидросфере, где на долю океана приходится 97,48%, на ледники – 2,5%, а ничтожная остальная часть приходится на реки, озера и атмосферную влагу. Сама же поверхностная гидросфера составляет примерно 58% всей земной гидросферы, остальная часть воды составляет подземную гидросферу, куда входят как свободные подземные воды, так и вода, которая физически и химически связана в минералах и горных породах. В литосфере (земной коре) и на её поверхности содержится около 2,5 миллиардов кубических километров воды, что составляет примерно 0,04% всей массы Земли. Из этого количества всего около 420 млн. куб. км. приходится на воду, связанную в породах и минералах. Луна – спутник Земли, находящийся на расстоянии 384 400 км, имеющий массу 7,35*1022 кг, средний диаметр 3476 км, среднюю плотность вещества 3,35 г/см3. Луна полностью лишена атмосферы, её поверхность покрыта многочисленными кратерами от ударов метеоритов, температурные перепады на поверхности варьируют от +130о на дневной стороне до –170о Цельсия на ночной. Исследования лунного грунта показали полное отсутствие на Луне живого вещества. Марс – последняя планета земной группы, четвертая от Солнца (примерно 225 млн. км или 1,5 а.е.). Масса 6,4*1023 кг, средний диаметр 6776 км. Период обращения по орбите - 1,88 лет со средней скоростью 24,1 км/сек, период собственного вращения - 24 ч. 39 мин. 35 сек. Марс обладает весьма разреженной атмосферой, состоящей на 95% из углекислого газа и на 2,5% из азота. На Марсе присутствует вода в виде вечномерзлых пород, находящихся под покровом песка, хорошо различимы в телескоп полярные шапки. Существуют предположения, что на Марсе могут быть примитивные формы живого вещества. Марс имеет два небольших спутника – Фобос (27 км) и Деймос (15 км) неправильной формы. Пояс астероидов – образование между Марсом и Юпитером, состоящее из большого количества астероидов, мелких обломков и космической пыли, на таком расстоянии от Солнца, на котором, согласно закону Кеплера, должна была бы находиться планета. В 1804 году немецкий астроном Г.В. Ольберс выдвинул гипотезу, что на этом месте была планета Фаэтон, которая впоследствии разрушилась под воздействием сил гравитации. В настоящее время эта гипотеза считается спорной. На движение астероидов оказывается значительное гравитационное воздействие со стороны Юпитера, поэтому орбиты тел в поясе астероидов со временем изменяются. По современным оценкам число всех астероидов с размерами более 1 км. с надежно определенными орбитами превосходит 3000, причем количество тех, орбиты которых пересекаются с орбитой Земли превышает 1300. Отсюда следует, что средняя частота падения на Землю больших астероидов равна примерно 1 раз в 100 000 лет. Б) Планеты-гиганты: Юпитер – пятая планета от Солнца (778,3 млн. км), совершающая полный оборот за 11, 9 земного года, движущаяся по орбите со средней скоростью 13,1 км/сек. Период собственного вращения (по измерениям облачного слоя) составляет 11 часов, причем Юпитер вращается не как твердое тело, а подобно Солнцу, и сильно сжат на полюсах. Экваториальный диаметр Юпитера примерно 141 700 км, состав почти полностью определяется водородом – 74% и гелием – 26%, масса около 1,9*1027 кг, а средняя плотность 1,33 г/см3, что практически не отличается от солнечной. Юпитер получает от Солнца в 27 раз меньше энергии, чем Земля, но при этом сам излучает энергии примерно в 2,7 раза больше того, что получает. Возможно, что аномальное тепловыделение обусловлено медленным, но постоянным его гравитационным сжатием (по астрофизическим оценкам около 1 мм в год), но также может быть, что внутри планеты-гиганта идут термоядерные реакции, - и тогда это дает основания считать Юпитер очень холодной звездой, а нашу Солнечную систему – системой двойной звезды. Юпитер имеет 14 спутников, из которых четыре самых больших были открыты Галилеем. Это огромные тела размеры и масса которых превышают лунные параметры. Так, в условных «лунных» единицах измерения диаметр и масса этих спутников соответственно равны: Ио – 1 и 1,14; Европа – 0,89 и 0,64; Ганимед – 1,44 и 2,09; Каллисто – 1,35 и 1,18. Обладая огромной массой (в 317 раз большей, чем масса Земли), Юпитер силой своего тяготения, подобно Солнцу, может изменять гиперболические орбиты комет, залетевших в область Солнечной системы из дальнего космоса, на вытянутые эллиптические, и тем самым, как показал ещё Лаплас, увеличивать состав Солнечной системы. Сатурн – шестая планета, отстоящая от Солнца на 1420 млн. км, совершающая полный оборот за 29,4 года, со средней скоростью движения по орбите 9,6 км/сек. Период собственного вращения (облачный слой) равен около 10 часов. Экваториальный диаметр равен примерно 120 200 км, масса – 5,7*1026 кг, а средняя плотность вещества всего 0,7 г на куб. см. У Сатурна 17 спутников, самый крупный из которых Титан, примерно в 1,5 раза больше Луны, а также хорошо различимое в телескопы (еще Гюйгенсом в 1659 году) кольцо, точнее семь концентрических плоских колец, разделенных темными промежутками. Эти кольца состоят из огромного количества метеоритов и мелких метеорных и ледяных частиц, их толщина по космическим меркам ничтожна – всего около трех километров, и будучи примерно через каждые 15 лет обращенными к Земле ребром, становятся невидимыми. Последнее «исчезновение» колец было отмечено в 1994 году. Уран – седьмая планета Солнечной системы, удаленная на 2871 млн. км от Солнца, имеющая период обращения около 84 года и среднюю скорость движения по орбите 6,8 км/сек. Собственный период вращения равен около 11 часов, экваториальный диаметр примерно 50 700 км, масса около 8,7*1025 кг, средняя плотность 1, 27 г/см3. Видимо, внутренние слои Урана состоят из более тяжелых элементов, чем Юпитер и Сатурн. В отличие от других планет Уран вращается в обратном направлении, лежа почти на боку, тогда как оси вращения других планет почти перпендикулярны плоскостям орбит. По последним данным (американский аппарат «Вояджер-2», 1986 год) вокруг Урана движется 15 спутников и имеется 11 колец. Самые крупные из них – Оберон и Титания были открыты У. Гершелем в 1787 году, они имеют диаметр примерно по 1500 км и движутся в обратном направлении относительно собственного вращения Урана. Нептун – восьмая планета, находящаяся на расстоянии примерно 4500 млн. км от Солнца, совершающая полный оборот за примерно за 165 лет, со скоростью 5,43 км/сек. Собственный период вращения около 16 часов, диаметр 49500 км, масса примерно 1.05*1026 кг, плотность больше, чем у других планет-гигантов – 2,7 г/см3, что свидетельствует о наличии внутри Нептуна ядра, видимо, сложенного из пород, содержащих кремний, а также тяжелые элементы, характерные для планет земной группы. Нептун имеет два спутника Тритон (диаметр примерно 4000 км, обратное направление движения) и Нереида (300 км, прямое). В истории науки Нептун известен как планета, открытая «на кончике пера» – её орбита и положение на небесной сфере были предсказаны путем математических расчетов, проделанных в 1846 году независимо друг от друга англичанином Дж. Адамсом и французом У.Ж.Ж. Леверье на основании законов Ньютона по наблюдаемым возмущениям движения Урана. Используя эти данные немецкий астроном И.Г. Галле обнаружил Нептун 23 сентября 1846 года. Этот день вошел в науку как момент торжества механики Ньютона и стал началом становления механической парадигмы мышления. Плутон – последняя самая далекая малая планета (около 5950 млн. км от Солнца), делающая полный оборот по очень вытянутой орбите за 248 лет со средней скоростью 4,74 км/сек. Период собственного вращения составляет 6,4 земных суток, средний диаметр 6000 км, масса около 1,1*1024 кг. У планеты Плутон, который в настоящее время выведен из числа собственно планет Солнечной системы, есть соизмеримый по величине спутник Харон, поэтому эту систему можно считать двойной планетой. Плотность вещества Плутона превышает величины, характерные для планет-гигантов и приближается к параметрам, характерным для планет земной группы. Это позволяет делать предположения, что Плутон образовался в области Солнечной системы, соответствующей внутренним планетам, а потом в результате катастрофической гравитационной перестройки занял нынешнее положение, или даже считать, что он странник далеких миров и был некогда захвачен тяготением Солнечной системы. В 2006 году на Всемироном съезде астрономов было решено перевести Плутон из класса настоящих планет в класс малых планет Солнечной системы – таких, как Луна, спутники Юпитера и Сатурна и т.п. Пояс Койпера. За орбитой Плутона располагается т.н. пояс Койпера – область космического пространства, заполненная огромным количеством астероидов различных размеров, которые в современной астрофизике принято считать чем-то вроде «строительного мусора», оставшегося после образования Солнечной планетной системы и выброшенного на периферию силами гравитации. Эта далекая область представляет большой интерес для теории образования Солнечной системы, и туда в 2006 году был направлен американский исследовательский аппарат, который попутно проведет исследования спутников Юпитера, а потом, используя гравитацию огромной планеты, изменит траекторию и отправится в зону Койпера, достичь которой в центре управления рассчитывают к 2010 году. Облако Оорта (кометное облако) – скопление орбит множества комет (порядка 100 млрд.) в области космического пространства, находящейся за орбитой Плутона, что ещё можно считать самой периферией Солнечной системы. Эти кометы время от времени срываются со своих орбит и могут войти во внутренние районы Солнечной системы. Это кометное образование получило свое название по имени голландского астронома Яна Хендрика Оорта, который в 1927 году доказал, что наша Галактика вращается. С облаком Оорта связана весьма дискуссионная теория о том, что когда через него (примерно раз в 30 млн. лет) проходит гипотетический спутник Солнца – малая звезда Немезида (очень вытянутая орбита которой находится где-то между орбитой Плутона и ближайшей к нам звездой Альфой Центавра, и якобы составляющая с нашим светилом систему двойной звезды), то она увлекает за собой силой тяготения большое количество комет, которые меняют свои орбиты и входят во внутренние области Солнечной системы. Некоторые из них уже могли сталкиваться с Землей, что приводило к резким катастрофическим изменениям климата и соответствующим биосферным последствиям, некоторые столкновения ещё впереди и могут стать причиной уничтожения всего человечества (Немезида – богиня возмездия в древнегреческой мифологии). Сама по себе идея двойной звезды и катастрофических столкновений вполне научна, поскольку в Галактике это не такая уж редкость (есть астрономические наблюдения даже целых сталкивающихся галактик), однако в данном конкретном случае реальной научной информации по этому поводу очень мало, и эта проблема требует дальнейших исследований. 7. Ньютона законы (законы механики) – три уравнения движения, позволяющие полностью описать закономерности процесса перемещения тела под действием какой-либо силы или комбинации сил. 1). Закон инерции (закон Галилея): тело сохраняет состояние покоя или равномерного прямолинейного движения, если на него не действуют внешние силы. Таким образом, инерция – это способность тела сопротивляться любому изменению состояния его движения, - как ускорению, так и замедлению. Пример: шайба, пущенная хоккеистом по льду (идеальное скольжение), двигалась бы вечно с приобретенной начальной скоростью, не требуя никакой новой силы для поддержания своего прямолинейного движения; для изменения этого состояния требуется приложить внешнюю силу. Космический аппарат, имея необходимую начальную скорость, будет вечно двигаться в безвоздушном пространстве. 2). Закон ускорения: ускорение a, приобретаемое телом, прямо пропорционально величине действующей силы F и обратно пропорционально массе m этого тела: F=ma. Пример: на тело, свободно падающее на землю, действует постоянная сила гравитации. При отсутствии прочих сил (сопротивления воздуха и т.д.) тело будет двигаться с постоянным ускорением свободного падения g, и его скорость v будет увеличиваться прямо пропорционально ускорению и времени падения: v=gt, а пройденное им расстояние h расти пропорционально квадрату времени: h=gt2/2. 3). Закон равновесия (стационарности): в стационарном состоянии всякая сила, действующая на тело, вызывает равную ей по величине и противоположную по направлению (противодействующую) силу. Пример: предмет, падающий вниз или погружающийся в воду под действием силы тяготения, может двигаться равномерно (с некоторой постоянной скоростью), если сила тяжести будет уравновешена силой сопротивления воздуха или воды (прыжок человека с парашютом, процесс погружения подводного аппарата на дно и т.п.). Законы динамики Ньютона представляют собой математический язык механики, которому свойственны внутренняя непротиворечивость и полнота, что позволяет однозначно сформулировать и решить любую правильно поставленную задачу, допускающую использование классического макроскопического приближения. Применение математических методов дифференциального исчисления вместе с численными методами интегрирования и современным компьютерным программным обеспечением расширяет его возможности и позволяет в рамках этих законов решать любые задачи механики с любой, заданной степенью точности, начиная от расчета режимов работы обычных машин и кончая расчетами траекторий движения космических аппаратов к удаленным объектам Солнечной системы. Движение планет по орбитам вокруг Солнца, а также движение спутников по орбитам вокруг больших планет описывается законами Кеплера. Эти законы были открыты в 1619 году австрийским астрономом Иоганном Кеплером и сыграли решающую роль в утверждении гелиоцентрической системы мира Коперника (1543 год). Все они вытекают из теории движения Ньютона, дополненной законом всемирного тяготения, и в современном изложении формулируются так: Первый закон – каждая планета движется по орбите, представляющей собой эллипс (а не окружность как в античной геоцентрической системе), в одном из фокусов которого находится Солнце. Второй закон – каждая планета движется в плоскости, проходящей через центр Солнца, причем за одно и то же время, дуги (части эллипса), пройденные планетой по орбите, ограничивают в её плоскости секторы равной площади. Третий закон – отношение квадратов времен обращения планет вокруг Солнца t равно отношению кубов их средних расстояний от Солнца (t1/t2)2 = (R1/R2)3 (среднее расстояние планеты от Солнца R равно большой полуоси эллипса). Из второго закона естественно вытекает, что планеты движутся по орбитам с переменной скоростью, что наблюдали еще древние греки, но в рамках представлений античной натурфилософии о высшем совершенстве кругового движения (а поэтому, для небесных тел единственно возможного), объяснить это явление не могли. Таким образом, именно исследования Кеплера привели к пересмотру античных представлений о круговом движении как самом совершенном и единственно возможном для планет. Высокая точность предсказаний положения планет, следующая из законов Кеплера, и явная простота по сравнению с геоцентрической системой Птолемея, обеспечила широкое признание гелиоцентрической системы Коперника среди астрономов уже в 17-м веке, несмотря на явные противоречия с очевидностью и всё ещё сильное влияние авторитета Аристотеля. Еще раз заметим, что Кеплер не вывел свои законы из более общей теории, а получил их методом математической аппроксимации (т.е. подгонки) данных астрономических наблюдений, поэтому он не мог объяснить, почему планеты движутся именно так, а не иначе. Ответ на этот вопрос дал Ньютон на основе фундаментального закона всемирного тяготения. 8. Космические скорости – скорости космических аппаратов, позволяющие им преодолевать силы тяготения тех космических объектов и систем, от которых они должны оторваться для выхода на орбиту. 1). При достижении первой космической скорости, равной для Земли 7,91 км/сек, запускаемый аппарат может выйти на околоземную орбиту и стать искусственным спутником Земли. Величина первой космической скорости зависит от гравитационного ускорения свободного падения g (для Земли – 9,81 м/сек2) и радиуса планеты R (для Земли – среднее значение радиуса равно 6371 км) и, следовательно, для разных планет имеет различное значение. Общая формула имеет вид: v=(gR)1/2. 2). Приобретя вторую космическую скорость, запускаемый аппарат полностью преодолевает тяготение соответствующей планеты и может выйти на параболическую траекторию полета к другим планетам Солнечной системы. Для запуска с Земли эта скорость равна 11,2 км/сек, общая формула такова: w=v2. При старте аппарата с других планет наблюдаются те же закономерности, что и в первом случае. 3). Достигнув третьей космической скорости, равной для Солнечной системы 16,7 км/сек, запускаемый аппарат преодолеет притяжение Солнца и может уйти в межзвездное космическое пространство по гиперболической траектории. (См. также: Циолковский). 9. Космические лучи – это поток стабильных частиц и фотонов высоких энергий, приходящих на Землю из космического пространства, а также вторичное излучение, порожденное ими при столкновениях с атомами газов, входящих в состав атмосферы. В него входят в той или иной мере все известные элементарные частицы. Первичное излучение представлено в основном протонами (ядрами атома водорода, - 91,5%), альфа-частицами (ядрами атома гелия, - 7,8%) и небольшого количества ядер атомов прочих элементов, имеющих галактическое происхождение, и в некоторой степени обусловленных солнечной активностью. При взаимодействии космического излучения с ядрами атомов азота в атмосфере образуется радиоактивный изотоп углерод-14, который затем входит в состав углекислого газа. Общий поток первичного заряженного космического излучения, попадающего в атмосферу эквивалентен электрическому току 0,1 Ампера. В целом, первичная компонента космических лучей изотропна в пространстве и неизменна во времени (по крайней мере в течение геологических эпох), интенсивность и состав вторичных потоков зависят от состава и плотности атмосферы и изменяются с высотой над поверхностью Земли. Некоторые сезонные вариации интенсивности связаны с изменениями магнитного поля Земли под влиянием солнечной активности. Как и любая проникающая радиация, космические лучи вызывают ионизацию атомов вещества, разрывая молекулярные связи, создают химически активные радикалы и могут изменять структуру молекул, в частности производить изменения в структуре молекулы ДНК – носителе генетической информации, обусловливая этим естественный процесс мутации. Открыл космические лучи в 1912 году австрийский физик Виктор Франц Гесс и провел много исследований вариации их интенсивности в зависимости от высоты, при помощи высотных подъемов на воздушном шаре. В дальнейшем, изучение состава космических лучей и их реакций с ядрами специально приготовленных мишеней привело к открытию многих, до этого неизвестных, нестабильных элементарных частиц, таких как мезоны и гипероны. Важным компонентом космических лучей являются солнечные, галактические и внегалактические нейтрино, с которыми, несмотря на исключительные трудности их регистрации, связываются надежды астрофизики и космологии на получение информации из самых глубин Вселенной, в частности, по проблеме возможности существования в пределах горизонта событий значительных количеств антивещества. (См. также: Нейтрино, Радиация). 10. Внутреннее строение Земли – это геологическая модель, описывающая структуру земного шара. Согласно современным геофизическим (в основном сейсмическим) данным, земной шар разделяется на три основные области – земную кору, оболочку и ядро. Под корой понимают верхний твердый слой, который имеет среднюю толщину на континентах примерно 30-40 км, тогда как в океанах она значительно меньше и составляет 10-20 км. Масса земной коры составляет менее 1% всей массы планеты, а её объем – примерно 1,5% от объема земного шара. Оболочка, или т.н. мантия, Земли расположена ниже коры и состоит из верхней мантии (примерно до 400 км. вглубь земного шара) и нижней мантии (достигающей около 3600 км. глубины). Мантия самая большая структура земного шара, она отделена от коры т.н. зоной Мохоровичича или как ее обычно сокращенно называют зоной Мохо, которая была открыта сравнительно недавно. Внутри верхней мантии располагается т.н. астеносфера – слой пониженных скоростей распространения сейсмических волн, что свидетельствует о более низкой плотности и более высокой вязкости вещества, из которого этот слой состоит. Астеносфера имеет большую толщину под тектонически активными областями – геосинклиналями, и его верхняя граница несколько приподнята по сравнению с т.н. платформами – территориями, характеризуемыми более спокойным тектоническим режимом. На массу оболочки приходится примерно 68% всей массы Земли и около 82% объема. Ядро, состоящее из внутренней и внешней частей, занимает центральную область земного шара и составляет около 31% всей его массы и 16% всего объема. Полная масса Земли равна примерно 5,596*1024 кг, а её объем составляет около 1,083*1012 куб. км. Ядро состоит из расплавленных металлов, в том числе и радиоактивных изотопов, при распаде которых выделяется огромное количество энергии (например, при радиоактивном распаде 1 г. радия выделяется примерно 140 калорий в минуту), вследствие чего температура ядра достигает 6000 градусов. Температура на границе оболочки и ядра считается равной 4000-5000 градусов, а температура Земли на глубине около 100 км. оценивается примерно в 1800 градусов. Более легкая твердая земная кора, имеющая среднюю плотность около 2,8 г/см3, как бы плавает на расплавленном и гораздо более плотном веществе мантии, и эти соображения лежат в основе теории дрейфа материков, или мобилизма. Горные породы – естественные твердые природные образования, составляющие земную кору. В геологии горные породы подразделяются на несколько типов: а). Осадочные породы, накапливающиеся на дне морей и прочих водоемов, - песчаники, известняки, глины, мергели и т.д., и аллювиальные (наносные) осадочные отложения постоянных и временных водных потоков, накапливающиеся в руслах и поймах рек и ручьев, - рыхлые пески, галечники, слабоуплотненные глины и т.п. Отличительной особенностью осадочных пород является их слоистая структура; б). Магматические породы, образовавшиеся на поверхности Земли при застывании и кристаллизации магмы – расплава глубинного вещества планеты, вытекающего на поверхность в процессе вулканической деятельности. Магматизм как процесс образования магмы и её взаимодействия с горными породами и внешней средой подразделяется на геосинклинальный, платформенный и океанический; в). Метаморфические породы, возникающие в результате переработки (метаморфизма) как первично-осадочных, так и магматических пород, происходящего с полным или почти полным изменением их минерального состава, структуры и пр. в условиях высоких температур и давлений, а также под действием химических факторов. К метаморфическим породам относятся гнейсы, кристаллические и глинистые сланцы, кварциты, различные виды мрамора и др. Литосфера – верхняя твердая оболочка Земли, включающая земную кору и часть верхней мантии, подстилаемой астеносферой. На континентах толщина литосферы достигает 400 км., под океанами – примерно 150-200 км. Обширные области литосферы, разделенные крупными глубинными разломами, называются в геологии литосферными плитами. Геологи выделяют семь крупных литосферных плит, т.е. таких частей земной коры, которые ведут себя как единые твердые образования – Антарктическая, Африканская, Евразиатская, Индо-Австралийская, Северо-Американская, Тихоокеанская, Южно-Американская плиты, на которые, согласно теории мобилизма, примерно 200 млн. лет назад раскололся древний единый суперматерик – Пангея. Литосферные плиты медленно движутся друг относительно друга (в среднем на несколько сантиметров в год), сходясь или расходясь на некоторых своих границах (т.н. дрейф материков). В результате тесного соприкосновения границ проскальзывающих с трением плит возникают резкие толчки, порождающие землетрясения. Разломы (или дизъюнктивы) – это тектонические нарушения сплошности горных пород с перемещением друг относительно друга частей, которые были разделены разрывом. В результате тектонических разрывов в процессе общей деформации горных пород возникают складки, т.е. изгибы пластов осадочных и метаморфических пород, которые могут быть обращены выпуклостью вниз (синклинали) или вверх (антиклинали). К границам плит приурочены горные хребты, глубоководные желоба, места активной вулканической деятельности, очаги мощных землетрясений. Землетрясения – природные геотектонические катастрофы, состоящие в резких кратковременных вибрациях земной поверхности, которые возникают в результате трения литосферных плит при тесном соприкосновении их границ при движении. В тех случаях, когда плиты сходятся слишком быстро, вместо медленного процесса общей деформации земной поверхности – коробления и изгиба горных пород, приводящих к горообразованию, когда постепенно возникают складки пластов осадочных и метаморфических пород, энергия деформации плит высвобождается рывком. В процессе движения вдоль разлома край одной плиты с огромной силой надвигается на край другой плиты, энергия деформации плит постепенно накапливается и некоторое время не находит выхода, затем в течение очень короткого времени (нескольких секунд) накопленная энергия выделяется в виде сейсмических толчков. Мощность каждого из таких толчков в эпицентре землетрясения может сравниться с мощностью одновременного взрыва нескольких атомных бомб. Для оценки силы землетрясений в сейсмологии используется т.н. шкала Рихтера, названная по имени американского сейсмолога Чарльза Рихтера (1900-1985). Это шкала логарифмического типа, в которой общей (суммарной) энергии упругих колебаний поверхности, вызванных землетрясением – т.н. магнитуде, поставлены в соответствие натуральные числа (от 1 до 10), имеющие смысл характеристик десятичного логарифма. Это значит, что при увеличении магнитуды на единицу, величина смещения колеблющегося грунта (амплитуда сейсмических волн) возрастет в 10 раз. Энергия, которая выделяется в очаге землетрясения, при возрастании магнитуды на единицу, увеличивается примерно в 30 раз. При магнитуде, равной 1 высвобождаемая энергия землетрясения равна примерно 2*106 Дж, тогда как при магнитуде 9 – она равна 2*1018 Дж. 11. Теория относительности – физическая теория пространства и времени и их взаимосвязи с материей и законами её движения. Та часть теории относительности, в которой не рассматриваются эффекты, обусловленные гравитацией, называется специальной, или частной, теорией относительности (СТО), в то время, как т.н. общая теория относительности (ОТО) представляет собой современную теорию тяготения, в которой ньютоновское понятие гравитационной силы, свойственной массам всех материальных тел и описываемой законом всемирного тяготения, трактуется как проявление геометрической кривизны пространства, искривленного в данной области находящимися там массами. 1). СТО выдвинута А. Эйнштейном в 1905 году с целью преодолеть трудности, возникшие в классической физике при попытках интерпретации оптических явлений в движущихся средах или при движении источника света. Основным парадоксом в рамках классической физики была независимость (неаддитивность) скорости света с от скорости источника v, т.е. с=c, экспериментально доказанная в 1887 году американскими физиками Майкельсоном и Морли. Это нарушает преобразования Галилея (в частности, аддитивность скоростей движущихся друг относительно друга материальных тел), а также свидетельствует о невозможности обнаружения светоносной среды – эфира эмпирическим методом. Последнее обстоятельство позволило Эйнштейну отказаться от концепции эфира как принципиально ненаблюдаемой сущности, а значит не являющейся объектом естественных наук. В основу СТО Эйнштейн положил два постулата: все инерциальные системы отсчета равноправны и скорость света в вакууме постоянна и не зависит от скорости источника. Причем эта величина является пределом для скоростей любых материальных процессов, по крайней мере, в наблюдаемой области реальности. Математическую основу СТО составляют, альтернативные галилеевским, преобразования координат и времени при переходе из одной инерциальной системы отсчета в другую - т.н. преобразования Лоренца, полученные выдающимся голландским физиком Х.А. Лоренцом, из которых следуют эффекты замедления времени: t=t0/ (1-b2)1/2 и сокращения длины: s=s0(1-b2)1/2, где b=v/c. К этому Эйнштейн дополнительно вывел формулы увеличения массы движущегося тела по сравнению с массой покоя: m=m0/(1-b2)1/2 и связи энергии с массой покоя материальных тел: E=mc2. Эти соотношения показывают, что в движущейся системе отсчета, время течет медленнее, линейные размеры тел в направлении движения меньше, а масса тел больше по отношению к тем же величинам в покоящейся системе. Поскольку в макромире c>>v, то b<<1, и эффекты, связанные с СТО (т.н. релятивистские эффекты) практически никогда не проявляются, поэтому для описания процесса движения вполне достаточно классической ньютоновской механики. Объекты микромира часто движутся с субсветовыми скоростями, поэтому эффекты СТО там сильно выражены. Все они в настоящее время подтверждены экспериментально (например, на ускорителях), а СТО стала одной из общепринятых теорий современной неклассической физики. 2). ОТО разработана Эйнштейном в 1915 - 1917 годах под влиянием выдающегося немецкого физика и математика Германа Минковского, который в 1908 году выдвинул идею об объединении трех измерений пространства и времени в один четырехмерный пространственно-временной континуум, в котором справедлив один из вариантов неевклидовой геометрии (псевдоевклидова геометрия) – т.н. пространство Минковского. Таким образом Минковский ввел представление о четырехмерном мире, элементы которого (события) имеют физическую реальность независимо от какой бы то ни было системы отсчета. Эйнштейн добавил к этому постулат о тождественности гравитационной и инертной масс, откуда следует, что гравитация и ускорение эквивалентны, а также выдвинул идею о том, что геометрия пространства-времени учитывает распределение материи, а то, что в ньютоновской картине мира понимается как сила гравитации, в новых представлениях соответствует искривлению пространства-времени тяготеющими массами. Для описания конфигурации искривленного пространства-времени (пространственно-временной метрики) Эйнштейн воспользовался римановой криволинейной геометрией, - неэвклидовой геометрией пространства с переменной кривизной и математическим аппаратом тензорного анализа. Записанные в тензорных обозначениях законы сохранения инвариантны относительно любых реально существующих систем отсчета. Понятие прямых линий, по которым в классической механике движется луч света, заменено в ОТО на понятие наиболее прямых траекторий (т.е. геодезических линий в данном кривом пространстве), форма которых определяется структурой искривленного пространства-времени. Например, все тела, свободно падающие в поле тяготения Земли или любого другого объекта, движутся по геодезическим траекториям пространства-времени. На основании ОТО Эйнштейн предсказал три астрономических эффекта, в частности, искривление траектории светового луча, проходящего вблизи массивных тел, например, звезд. Этот эффект получил экспериментальное подтверждение в 1919 году, когда английский астроном Артур Эддингтон, наблюдая положение далеких звезд во время солнечного затмения, сравнил его с фотографиями звездного неба в обычное время и обнаружил предсказанное Эйнштейном отклонение на 1,75”. Красное смещение частоты света при движении луча против сил гравитационного поля и фиолетовое смещение, возникающее в противном случае, которое было предсказано на основании ОТО, также доказано экспериментально в прецизионных измерениях с использованием излучения лазера. Необходимо заметить, что факт независимости скорости света (в вакууме) от относительной скорости источника и приемника не нарушает закон сохранения энергии, поскольку в результате эффекта Допплера происходит изменение длины волны (и, следовательно, частоты) света так, что при относительном движении источника и приемника навстречу друг другу, частота электромагнитных колебаний увеличивается (фиолетовое смещение), а при движении в противоположном направлении частота уменьшается (красное смещение). Поскольку энергия электромагнитных колебаний Е связана с частотой n по формуле E=hn, где h – постоянная Планка, то очевидно, что при встречном движении энергия фотонов (квантов электромагнитного поля) возрастает, а в обратном случае – уменьшается, хотя скорость относительного движения фотонов во всех системах отсчета всегда равна скорости света. В настоящее время существуют и альтернативные теории тяготения, но достаточно широкие объяснительные возможности теории относительности пока оставляют за ней право считаться универсальной моделью гравитации. (См. также: Неевклидова геометрия, Лобачевский, Эйнштейн). 12. Элементарные частицы – субатомные объекты, представляющие собой специфическую форму структурной организации вещества в микромире. Могут быть стабильными: электрон, протон, нейтрино, фотон и нестабильными: нейтрон, различные мезоны и гипероны, а также представлять класс особенно короткоживущих, (порядка 10-24 сек.), называемых резонансными. Лептоны составляют класс легких частиц, мезоны – это промежуточные по массе между барионами (т.е. тяжелыми или, правильнее, массивными частицами) и лептонами, а гипероны – это «сверхмассивные» частицы. В настоящее время с помощью ускорителей обнаружено очень большое количество элементарных частиц (несколько сотен), представляющих класс адронов (т.е. сильно взаимодействующих), среди которых только барионы – протон и нейтрон широко распространены и составляют основу строения мира. Все остальные объекты микромира короткоживущи и практически мгновенно распадаются за счет слабого или сильного взаимодействия. В действительности (кроме лептонов – фотона и нейтрино и м.б. электрона) все эти объекты элементарными не являются, а имеют сложную внутреннюю структуру. Согласно современной теории элементарных частиц, все частицы (кроме лептонов) можно «построить» посредством известной комбинации «истинно элементарных» частиц – т.н. кварков (см.). Следует заметить, что введенное в физику микромира название лептоны (легкие), соответствующее подразделению объектов по массе, относительно более тяжелых протона и нейтрона (барионов), не отражает современное положение вещей – так, например, «тау»-частица, относящаяся по всем признакам к лептонам, имеет массу, превышающую массу типичных барионов и даже гиперонов. Все элементарные частицы (кроме фотона) имеют соответствующие античастицы, фотон является сам себе античастицей. Поведение элементарных частиц, их взаимодействие с полями и процессы их взаимопревращений достаточно хорошо описываются законами квантовой механики. Все, представленные в таблице частицы, согласно принципу симметрии, имеют соответствующие античастицы. Таблица некоторых основных элементарных частиц: Название масса (э.м.) заряд время жизни (сек) А). Лептоны: Электрон 1 -1 стабилен Мюон 206,7 -1 2,2*10-6 Тау-лептон 3536,0 -1 10-12 Электронное нейтрино 0 0 стабильно Мюонное нейтрино 0 0 стабильно Тау-нейтрино 0 0 стабильно Б). Мезоны – (пионы и каоны): Пи-мезон (заряж.) 273,2 -1 2.56*10-8 Пи-мезон (нейтр.) 260 0 4*10-16 Ка-мезон (заряж.) 966,5 -1 1,22*10-8 Ка-мезон (нейтр.) 966 0 10-10 В). Гипероны: Лямбда-ноль 2182 0 2,63*10-10 Сигма-плюс 2333 +1 0,8*10-10 Сигма-минус 2348 -1 1,48*10-10 Сигма-ноль 2339 0 6,0*10-20 Кси-ноль 2220 0 2,9*10-10 Кси-минус 2592 -1 1,65*10-10 Омега-минус 3280 -1 1,1*10-10 Одной из самых фундаментальных характеристик элементарных частиц является спин. Спин (от англ. вращаться) – это собственный механический момент количества движения (импульса) элементарных частиц или атомных ядер, имеющий квантово-механическую природу и не связанный с движением частицы как целого. Спин имеет векторный характер (т.е. характеризуется величиной и направлением) и может служить для ориентации частицы в данной системе координат. Спиновое квантовое число измеряется в единицах постоянной Планка и может иметь целое, полуцелое и нулевое значение. В соответствии с этим по статистическим закономерностям поведения ансамбля частиц их относят к фермионам или бозонам. Представление о спине возникло на заре развития квантовой механики и связано с классической аналогией, согласно которой частица (в виде шарика) вращается вокруг своей оси (как волчок), что и приводит к появлению вектора момента импульса. По той же аналогии вводится другой квантовый параметр, характеризующий движение электрона вокруг атомного ядра по соответствующим орбитам – т.н. орбитальный момент количества движения. На самом деле и спин частиц, и орбитальный момент количества движения электрона являются чисто квантовыми понятиями, имеющими очень отдаленное сходство с их прототипами из мира классической механики. Концепция спина была введена в физику элементарных частиц в 1925 году американскими физиками Дж. Уленбеком и С. Гаудсмитом, исходившими из экспериментальных данных по магнитным свойствам отдельных электронов. Однако здесь выявился квантовомеханический парадокс, заключающийся в аномальной величине собственного магнитного момента электрона, который оказался в два раза больше, чем следует из классической электродинамики в модели вращающегося вокруг своей оси электрически заряженного шарика. Из ряда других экспериментов со спином электрона при вращении его в магнитном поле следует, что электрону свойственна особая форма вращательной симметрии, состоящая в том, что для возвращения электрона в исходное состояние необходимо совершить полный поворот не на 360 градусов, как в макромире, а на 720, т.е. по нашим понятиям совершить не один, а два полных оборота. Интересно то, что при, условно говоря, движении электрона по атомным орбитам, которое характеризуется орбитальным механическим моментом количества движения, связанная с этим «вращением» величина магнитного момента никаких аномалий не проявляет. Это свидетельствует о том, что такие особенности пространственной метрики микромира, как особого уровня реальности, которые в современной физике принято считать его фундаментальными свойствами, недоступны классическому сознанию и требуют для описания и интерпретации использования строгого математического языка квантовомеханического формализма. Любые попытки наглядного толкования этих и других необычных свойств мира элементарных частиц в доступных человеку образах и понятиях здравого смысла с привлечением привычных аналогий из классической науки для введения новых знаний в общекультурный контекст в целом искажают и огрубляют картину микромира, часто закрепляя в сознании удобные популярные заблуждения. В некоторых случаях в картину микромира даже вносятся элементы антропоморфизма, вроде представлений о свободе воли электрона при трактовке вероятностного и неоднозначного поведения квантовых объектов. Такие гипотезы довольно серьезно обсуждались неспециалистами в первой половине 20-го века, однако в действительности подобные эффекты, характерные для микромира, подпадают под действие принципа неопределенности и объясняется чисто естественнонаучным образом. (См. также: Электрон, Позитрон, Нейтрон, Кварки). 13. Квантовая механика – (также волновая механика), неклассическая теория, позволяющая описать закономерности различных процессов движения, взаимодействия и превращения элементарных частиц вещества и полей в масштабах микромира – субатомной реальности. В основе квантового подхода лежит гипотеза выдающегося немецкого физика Макса Планка, выдвинутая в 1900 году (позднее подтвержденная экспериментально), о том, что в микромире все процессы изменения и превращения энергии происходят не непрерывно, а скачками, т.е. квантами (порциями), причем наименьшая порция энергии соответствует т.н. кванту действия и выражается фундаментальной величиной - постоянной Планка h = 6,626*10-34 Дж*сек. Любой энергетический переход измеряется только целым числом квантов энергии, например, энергия электромагнитного излучения, испускаемого или поглощаемого орбитальными электронами атомов, равна произведению постоянной Планка на частоту колебаний его волны, -эту закономерность впервые осознал Эйнштейн в 1905 году, а в 1913 году ее применил Н. Бор для объяснения структуры атома. Из этой модели следовало, что движение электронов в атоме квантовано, т.е. в аналогиях классической механики (для наглядности) это соответствует тому, что радиусы орбит электронов вокруг ядра, а значит и их потенциальная энергия, могут принимать только дискретные значения, кратные натуральному ряду чисел (квантовым числам). Числу 1 соответствует основное энергетическое состояние, следующим числам – возбужденные. Квантование не нарушает закон сохранения энергии, он в квантовой механике выполняется дискретно и описывает переход электрона с одной орбиты на другую (энергетический скачок) с излучением фотона (кванта электромагнитного поля) с энергией, равной разности потенциальных энергий электрона на этих орбитах: hn=E2 -E1 , где n – частота электромагнитных колебаний. Динамическое поведение частиц, взаимодействующих с полями, (в частности электрически заряженной частицы с электромагнитным полем), описывает т.н. волновое уравнение Шредингера, - квантовомеханический аналог классического гамильтониана, описывающего в ньютоновской механике поведение макроскопической динамической системы. Уравнение Шредингера наиболее просто моделирует поведение одной элементарной частицы в силовом поле, но применяется и для системы многих частиц, для которых задана потенциальная энергия во внешнем поле и энергия их взаимодействия. Решением уравнения Шредингера является набор волновых функций, аналогичных таким, которые в классической механике описывают процесс распространения волновых колебаний в среде (т.н. «пси»-функций), но собственные частоты которых подчиняются законам квантования. Задача нахождения волновой функции в общем случае может быть очень сложной, а в ряде случаев (большие, сложные системы атомов – т.н. статистические квантовые ансамбли) волновое описание недостоверно и, как и в классической механике, требует статистических подходов. Помимо дискретности энергетических состояний объектов микромира, существует еще одно принципиальное отличие его от макромира – это наличие у частиц материи волновых свойств, а у волн электромагнитного поля – корпускулярных (т.н. корпускулярно-волновой дуализм). Волновое уравнение Шредингера как раз соответствует волновому характеру движения в пространстве объектов микромира, а решения его в виде волновых функций («пси»-функций) в квантовой механике описывают специфические особенности вероятностного поведения микрообъектов, обусловленные явлением нелокальности, несуществующим в классической механике, но совершенно обычном в мире элементарных частиц. (См. также: Шредингер). 14. Корпускулярно-волновой дуализм – явление двойственности или двуединости, совмещающее корпускулярное и волновое поведение объектов микромира – элементарных частиц и фотонов (квантов электромагнитного поля). Оно состоит в том, что в зависимости от энергии, электромагнитное излучение (в частности, свет), в оптических опытах проявляющее волновые свойства – дифракцию и интерференцию, в других случаях проявляет корпускулярные свойства, т.е. волны ведут себя как частицы, передавая импульс другим частицам, например, выбивая электроны из металлов. Это явление т.н. фотоэффекта, необъяснимого с точки зрения классической оптики, в 1905 году объяснил Эйнштейн, который, используя квантовую гипотезу М. Планка, ввел понятие фотона – кванта электромагнитного поля, т.е. как бы элементарной частицы света. В этом вопросе у Эйнштейна были предшественники, - так например, Ньютон, в отличие от Гюйгенса, считал свет потоком крошечных частиц. Корпускулярно-волновой дуализм электромагнитных процессов, таким образом, стал научным фактом, получившим теоретическое объяснение и экспериментальное подтверждение. В 1924 году выдающийся французский физик Луи де Бройль распространил представления об универсальности корпускулярно-волнового дуализма на закономерности поведения всех объектов микромира. Он, на основании аналогии с фотоном, математически доказал, что любые элементарные частицы обладают, наряду с корпускулярными, также и волновыми свойствами. Эти выводы были настолько революционны, что даже Эйнштейн писал о диссертации де Бройля одному из коллег: «Прочтите её. Хотя и кажется, что ее писал сумасшедший, написана она солидно». Однако, после выдвижения идеи об универсальности корпускулярно-волнового дуализма необходимо было поставить соответствующий эксперимент, который подтвердил бы или опроверг теорию де Бройля. Такой опыт был проведен в 1927 году американскими физиками Девиссоном и Джермером, наблюдавшими дифракцию электронов (частиц!) на кристаллах. Впоследствии волновые свойства частиц, проявляющиеся в зависимости от их массы и энергии в большей или меньшей степени, были обнаружены у всех элементарных частиц. Волновые свойства электрона лежат в основе действия электронного микроскопа, дающего в тысячи раз большее увеличение, чем оптические приборы, поскольку длина волны электрона в тысячи раз меньше, чем у фотонов видимого света. Волны де Бройля не соответствуют понятию волны в классической физике. Там волна – это распространяющиеся в пространстве колебания вещества (среды) как целого (например, звук в воздухе) или поля (радиоволны), а в физике микромира - это некоторое состояние частицы, формально описываемое при помощи математики волновых процессов. Физическое истолкование волновых свойств самих частиц долгое время вызывало дискуссии, - некоторые физики объясняли это как признак нелокализованности микрообъектов (т.е. как бы «размазанность» частиц по всему пространству). В настоящее время принята трактовка, данная известным немецким физиком Максом Борном, который установил, что по волновому закону изменяется некая характеристика микрообъекта, которую он назвал амплитудой вероятности нахождения частицы в данной области пространства или «пси»-функцией, - она как раз и входит в волновое уравнение Шредингера как волновая функция, параметры которой принимают дискретные значения т.е. квантуются. Она выступает в квантовой механике как основной носитель информации и о корпускулярных, и о волновых свойствах частиц и отражает фундаментальное свойство квантовомеханических систем, проявляющееся при измерении их параметров, и не имеющее аналога в классической физике – т.н. принцип неопределенности. Философский смысл трактовки Борном этих волн вероятности исключает размазанность частиц по пространству, а сводится к тому, что свободный электрон или другая частица продолжают фигурировать в теории в виде точечного объекта, но вероятность обнаружить его в любой точке пространства в принципе не равна нулю. В связанной системе частиц (например, в пространстве атома), имеются области, где вероятность нахождения электрона в одном месте гораздо больше, чем в каком-либо другом. Такое более адекватное опыту понятие «сгустков» вероятности заменило первоначальное представление об орбитах электронов, которые можно теперь воспринимать как пережиток стремления к классическому способу интерпретации фактов, встраиваемых в картину мира на основе наглядности и привычных (в данном случае планетарных) аналогий. 15. Неопределенности принцип – фундаментальное положение квантовой теории, утверждающее, что любая физическая система в микромире или отдельная элементарная частица не могут находиться в состояниях, в которых координаты их положения в пространстве и импульс, характеризующий динамику процесса, одновременно принимают вполне определенные и точные значения. Сформулирован в 1927 году выдающимся немецким физиком Вернером Гейзенбергом на основе разработанного им матричного варианта квантовой механики (Нобелевская премия за 1932 год). Обычно любому физическому измерению, приводящему к некоторому результату Zi, всегда сопутствует некоторая погрешность dZi, и окончательный результат эксперимента, «имеющий право» считаться научным, представляется в виде: ZidZi. В классической механике не существует никаких принципиальных причин, которые препятствуют уменьшению погрешности измерений как координат, так и импульсов движущихся объектов, - были бы соответствующие приборы и достаточная статистика. В квантовой механике существует принципиальное (т.е. связанное с фундаментальными свойствами материи) ограничение на одновременное улучшение точности измерений параметров системы, которое описывается т.н. соотношением неопределенностей и абсолютно не зависит от совершенства или несовершенства измерительной техники. Количественно оно формулируется так: если dx - неопределенность значения координаты x квантовомеханического объекта, а dp - то же для проекции его импульса p на ось х (одномерный случай), то произведение неопределенностей этих параметров по порядку величины не может быть меньше постоянной Планка, - dx*dpхh. Для двух других координат y и z соотношение аналогично. Существует и другая формулировка соотношения неопределенностей: если dE - неопределенность энергии системы E, а dt - неопределенность времени существования данного энергетического состояния t, то справедливо неравенство: dE*dth. Из этих соотношений вытекает, что любые попытки увеличить точность измерений одного параметра, т.е. уменьшить его неопределенность, неизбежно приводит к потере точности определения значения другого. Это принципиальное для явлений микромира положение связано с корпускулярно-волновым характером движения квантовых объектов, и не проявляется в макромире. Таким образом, согласно традиционной (копенгагенской) интерпретации квантовой механики, пока не указаны условия эксперимента, т.е. наблюдения, спланированного наблюдателем, невозможно сказать, является ли объект микромира волной или частицей. Следующий пример поясняет принципиальную разницу между закономерностями движения объектов макро- и микромира. Рассмотрим движение макрообъекта – пули, диаметром 1 см, массой m=10 г, летящей со скоростью v=400 м/сек. Среднеквадратичная ошибка (неопределенность) при измерении скорости движения пули пусть будет равна 1% или dv= 4 м/сек или 400 см/сек. Электрон (микрообъект), имеющий массу порядка 10–27 г, средний диаметр порядка 10–13 см, движется со скоростью примерно 100 км/сек. Если масса электрона неизменна (релятивистские эффекты малы), то при той же погрешности измерений, неопределенность его скорости составляет dv= 105 см/сек. Тогда, согласно принципу неопределенности, имеем: dv*dx=h или dx=h/m*dv, откуда, следует, что неопределенность положения (координаты) пули равна примерно dx=10– 30 см, что в сравнении с её размерами – исчезающе малая величина, тогда как для электрона неопределенность координаты составляет dx=10–5 см, что превышает его собственные размеры на 8 порядков! Именно поэтому все квантовомеханические эффекты никак не проявляются в макромире, но принципиально неустранимы в микромире. Принцип неопределенности лежит в основе объяснения всех виртуальных процессов и является научной опорой космогонических теорий типа Большого взрыва при объяснении возможности спонтанных энергетических переходов такого рода в первичном квантовом вакууме. Он входит в качестве концепции фундаментального значения в т.н. копенгагенскую интерпретацию квантовой механики. Ряд крупнейших физиков и философов (научных противников Копенгагенской школы Н. Бора) неоднократно пытались разработать схемы мысленных экспериментов, в которых можно было бы обойти неопределенность микромира. Выдающийся английский философ Карл Поппер, пытаясь «спасти» детерминизм в явлениях микромира, придумал идею о т.н. предрасположенности частицы проявить корпускулярные или волновые свойства при взаимодействии с детектором как объективном её свойстве. «Эти предрасположенности, - писал он, - определяются всей целостной структурой измерительной установки. Нет необходимости приписывать индетерминизм отсутствию точности в определении состояния частицы и, стало быть, соотношениям неопределенностей. Последние сами возникают в виде соотношений рассеяния, вследствие того, что детерминистическое взаимодействие замещается предрасположенностями к взаимодействию. Мы, таким образом, не только отвергаем ошибочную веру в то, что неопределенность возникает (или частично возникает) из-за нашего вмешательства, измерения и т.д., но также объясняем эту веру. Ибо каждое измерение основывается на взаимодействии частиц и, следовательно, действительно в соответствии с распределением предрасположенностей создает рассеяние. Но то же самое бесчисленное множество раз случается и тогда, когда нет ни наблюдателя, ни наблюдения». В сущности, все такие попытки основывались на том, что квантовая механика не является полной фундаментальной теорией, т.е. её вероятностный характер и индетерминизм результатов обусловлен тем, что она не учитывает некоторые т.н. скрытые параметры, которых как раз не хватает для полноты описания явлений микромира и получения в экспериментах с частицами детерминированных результатов. Наиболее известен эксперимент с двумя частицами, придуманный Эйнштейном, Подольским и Розеном (результат знаменитой многолетней дискуссии Эйнштейна с Бором), который, как казалось Эйнштейну, стоявшему на позициях детерминизма, может опровергнуть соотношение неопределенностей. Суть эксперимента состоит в том, что если точно измерить один параметр у первой частицы (другой параметр при этом неизвестен), а после их взаимодействия точно измерить другой параметр у второй частицы (первый параметр при этом также неизвестен), то для каждой частицы в отдельности соотношение неопределенностей Гейзенберга выполняется, зато для системы двух частиц, применяя законы сохранения энергии и импульса, эту неопределенность можно обойти. При этом предполагалось, что поведение микрочастиц (например, двух фотонов) локально, - т.е. на большом расстоянии они некоторое время друг друга не «чувствуют», потому, что если даже повторное взаимодействие между ними и произойдет, то его скорость, согласно специальной теории относительности, не может превысить скорость света. Именно за это время, пока они друг друга не чувствуют, и следует произвести измерения нужных параметров. В 1964 году известный физик из ЦЕРНа (Женева) Джон Белл, проанализировав квантовомеханическое описание микромира в копенгагенском виде и все имеющиеся модели со скрытыми параметрами, доказал теорему о несовместимости традиционной квантовой механики и любых локальных теорий со скрытыми параметрами, он вывел также необходимые критерии для экспериментальной проверки этих положений. В результате многолетней подготовки группа французских физиков из Оптического института Парижского университета под руководством Алена Аспека смогла в 1982 году провести двухфотонный эксперимент по проверке соотношений Белла, который во времена Бора и Эйнштейна был невозможен. Это эксперимент показал, что обойти соотношение Гейзенберга невозможно, все локальные модели со скрытыми параметрами несостоятельны, тогда как квантовая механика дает настолько адекватное описание микромира, насколько это вообще возможно, а корпускулярно-волновой дуализм, вероятностный характер (индетерминизм) поведения частиц и фотонов и неопределенность квантовых параметров – суть то, что можно назвать объективными свойствами квантовомеханических объектов. 16. Динамические и стохастические системы. Динамическая система – система элементов различного типа, причины движения которой можно свести к действию каких-либо конкретных движущих сил, которые, в свою очередь, можно свести к некоторой равнодействующей (эффективной) силе, обусловливающей закономерности развития этой системы. Все свойства динамических систем могут быть выражены с помощью одной функции – т.н. гамильтониана, который с учетом начальных условий конкретно поставленной задачи позволяет однозначно и непротиворечиво описать эволюцию системы в пределах любого интервала времени. Физический смысл гамильтониана (или функции Гамильтона) – это полная энергия системы, т.е. сумма кинетической и потенциальной энергии, всегда остающаяся постоянной (инвариант, сохраняющийся при любых изменениях во времени координат и импульсов всех элементов внутри данной системы). Математическая формулировка задач динамики, соответствующая гамильтонову формализму, дает интегрируемые уравнения и системы уравнений, позволяющие получать точные решения задач механики с любым количеством элементов. Это явилось математической основой подхода к описанию мира, получившего название механистического детерминизма (П.С. Лаплас, Г.Р. Кирхгоф и др.), сводящего движение и изменения любого типа к только механическому движению, и трактующему весь мир как динамическую систему отношений, допускающую точные и однозначные прогнозы развития. Однако в начале 20-го века было показано (А. Пуанкаре и др.), что понятие динамических систем является физической идеализацией, с высокой точностью моделирующей и математически описывающей ограниченный круг реальных механических процессов, причем главным образом для тех систем, к которым можно применить приближенное допущение о внутренней динамической стабильности и однородности. Реальные системы оказались принципиально сложнее, поскольку наличие в их поведении внутренней нестабильности и стохастичности не поддавалось формализму динамики, а требовало статистических методов моделирования и соответствующей этому вероятностной интерпретации. Стохастический – (от греч. угадывать), то же, что неопределенный, случайный, вероятностный. Интересно то, что первоначальный смысл греческого слова «стохастикос» – это умеющий целить, попадать, умеющий верно отгадывать, судить, - в европейском мышлении трансформировался в противоположный. Понятие стохастический процесс или стохастическая система меняется по отношению к каким-либо процессам, событиям или сложным системам, закономерности поведения которых не описываются детерминистскими законами ньютоновской динамики, а подчиняются статистическим моделям. 17. Гравитация, (тяготение) – универсальное взаимодействие (только притяжение) между любыми видами материи – частицами вещества и физическими полями. Из четырех известных фундаментальных взаимодействий гравитационное самое слабое. Гравитация, подобно электромагнитному взаимодействию, является дальнодействующим эффектом, выражаемым универсальным законом всемирного тяготения (Ньютон, 1687 г.): сила тяготения между двумя телами F прямо пропорциональна произведению масс этих тел Mi, умноженных на универсальную гравитационную константу G = 6,673*10-8 см3 с-2 г-1, и обратно пропорциональна квадрату расстояния R между ними: F=G*(M1 M2)/R2, - таким образом радиус действия сил тяготения равен бесконечности. Вклад сил тяготения по отношению к силам электростатического взаимодействия примерно в 1040 раз меньше, поэтому в современной теории элементарных частиц (в явлениях микромира) влияние гравитации не учитывается, однако, в макро- и, особенно, в мегамире роль тяготения принципиальна и фактически определяет все закономерности движения тел как в ближнем, так и в дальнем космосе, а также многие особенности процесса эволюции звезд и галактик. По аналогии с любыми, известными в физике полями, переносчиком сил тяготения в квантовой теории считается квант гравитационного поля – т.н. гравитон, имеющий нулевую массу покоя (аналогично фотону) и спин, равный 2. Предпринимаются попытки зарегистрировать гравитационные волны (представляющие собой, согласно теории, поток гравитонов), которые могут создаваться массивными, быстро движущимися телами, однако ни то, ни другое пока экспериментально не обнаружено. В общей теории относительности (ОТО, - А. Эйнштейн, 1915 год) представления о гравитации как о силе были заменены принципиально новыми представлениями, согласно которым причиной взаимного тяготения тел в пространстве является геометрическое искривление самого пространства массами этих тел. Согласно ОТО, любая траектория движения тел в том или ином поле тяготения, какой бы причудливой она ни казалась со стороны, в системе отсчета, связанной с локально искривленным пространством, представляет собой самый короткий путь (т.н. геодезическую кривую), - своего рода «прямую линию», соответствующую данной метрике пространства. На основании ОТО получили объяснение некоторые тонкие эффекты, порождаемые гравитационным взаимодействием, но необъяснимые в рамках ньютоновской теории тяготения. Философское осознание такого «конфликта интерпретаций» в области гравитации, приводит, как и в ряде других случаев современной физики, к мысли о принципиальной невозможности дать описание сложных и противоречивых явлений внешнего мира языком какой-либо одной универсальной теории. Пусть даже теория (в данном случае ньютоновская теория тяготения) позволяет упорядочить огромный массив информации и создать модель движения всего видимого мира, более двухсот лет успешно объяснявшую наблюдаемые факты (в рамках существовавших экспериментальных возможностей проверки) и даже предсказывавшую факты, ранее неизвестные. Тем не менее, по мере совершенствования методов наблюдения появляется информация из таких уровней реальности, которые раньше были недоступны для восприятия и для которых в сложившейся понятийной матрице нет каких-либо удовлетворительных коррелятов. Попытка объяснить и упорядочить эти факты приводит к появлению нового языка и новой теории, очень часто семантически несоизмеримой со старой, хотя и формально сводимой к ней в предельных случаях, как, например, общая теория относительности Эйнштейна в пределе (при слабых полях тяготения) сводится к классической теории гравитации Ньютона. (См. также: Аристотель, Галилей, Ньютон). 18. Трофические цепи (или цепи питания) – это пути перехода энергии пищевых веществ от первичных продуцентов через ряд организмов, каждый из которых кем-то или чем-то питается и становится пищей для других. Через экосистему вдоль трофической цепи поддерживается поток энергии, который начинается со связывания энергии солнечных лучей и заканчивается полным разложением органических соединений, причем на каждой стадии часть энергии теряется. Так осуществляется биоэнергетический каскад. Каждая способная к самостоятельному функционированию экосистема, состоит, по крайней, мере из двух биологических компонентов – продуцентов и сапротрофов. Между ними обычно существует цепь консументов различной последовательности, разнообразия и сложности. 1). Первичные продуценты – (производители), это автотрофные организмы, которые, используя солнечную энергию, переводят неорганическое вещество в органические соединения и таким образом повышают степень их упорядоченности и поднимают их на более высокий энергетический уровень. Зеленые растения и некоторые бактерии путем фотосинтеза образуют из углекислого газа и воды углеводы – исходный материал для дальнейших реакций синтеза более сложных органических соединений. 2). Консументы – (потребители), это гетеротрофные организмы, которые питаются непосредственно или посредством использования других организмов органическим веществом, синтезированным первичными продуцентами. К консументам относятся прежде всего растительноядные животные и паразиты растений. Растительноядными питаются плотоядные (хищники), а те и другие, в свою очередь, также имеют паразитов. 3). Сапротрофы – (или редуценты, разрушители), это такие организмы, которые в конце концов разлагают растительные и животные остатки до уровня исходных неорганических веществ. Сюда относятся, главным образом, бактерии и грибы, а также почвенные животные. Сапротрофы, наряду с растительноядными животными и иными консументами, могут служить пищей другим организмам, - в этом случае они играют роль вторичных продуцентов. Таким образом, один и тот же организм может быть, в зависимости от его положения в пищевой цепи, вторичным продуцентом, консументом или сапротрофом. Консументы и сапротрофы редко бывают строго специализированны по отношению к одному определенному источнику пищи. В большинстве случаев растительноядные животные питаются разными видами растений, а жертвами хищников становятся разные виды животных. И наоборот, - один вид растений становится пищей для различных консументов, как животных, так и микроорганизмов. Сложившееся многообразие видов в природе построено по такому принципу, что, для поддержания оптимальной устойчивости данной экосистемы, оно приводит к максимальному увеличению числа степеней свободы и допускает переключение её членов на многие источники питания. Так в экосистеме формируются обратные связи и создаются условия для процессов самоорганизации и саморегулирования, которые поддерживают автоколебания её характеристик около среднего значения и обеспечивают её квазистационарное состояние в течение длительного времени. И хотя трофические связи между организмами одной экосистемы переплетаются самыми разнообразными способами, тем не менее внутри этой пищевой цепи поток энергии идет в определенном направлении, соответствующем самоорганизовавшейся и упорядочившейся структуре. (См. также: Экосистема). 19. Система – одно из ключевых понятий эволюционно-синергетической парадигмы, обозначающее множество элементов, находящихся во взаимных динамических отношениях и связях, образующее целостную структуру, свойства которой не сводимы к свойствам отдельных элементов и поведение которой характеризуется закономерностями, однозначно не выводимыми из характеристик этих элементов и типа взаимодействия между ними. Такие представления, в общем, были свойственны еще античным мыслителям (целое больше суммы своих частей по утверждению Аристотеля), но настоящую научную основу приобрели только в 20-м веке. Для интерпретации структурных особенностей систем и изучения происходящих в них процессов характерно представление об иерархии уровней сложности. Понятие многоуровневости состоит в том, что различные элементы, составляющие систему, можно рассматривать как подсистемы, состоящие, в свою очередь из элементов более глубокого уровня реальности, которые по той же аналогии могут рассматриваться дальше и т.д. Каждому из этих уровней соответствуют свои законы движения и развития, в целом не сводимые к законам соседних уровней и не выводимые из них, хотя все они принадлежат к объективным законам природы. Этот прием не только практически удобен, но и обусловлен эпистемологически, поскольку, не существует одного универсального научного языка, на котором одновременно можно описать закономерности развития любой достаточно сложной системы как целого и в тех же понятиях моделировать поведение различных составляющих её частей, хотя существует ряд универсальных свойств и закономерностей (изоморфизм), в целом характерных для эволюции разнообразных типов систем – термодинамических, биологических, экономических, экологических и даже социальных. Это приводит к принципу иерархического структурного деления всей суперсистемы (Универсума) по ряду различных оснований, выбираемых, исходя из задач построения модели, например: А). Деление на: 1) микромир, 2) макромир, 3) мегамир соответствует принципиально отличным структурным формам организации и движения материи, описание которых ведется соответственно: 1). По законам квантовой механики с учетом дискретной природы и вероятностного характера происходящих процессов, где «властвует» принцип неопределенности, отсутствует понятие точных и однозначных траекторий движения частиц, действуют законы сохранения весьма специфических параметров, не имеющих наглядных аналогий. При описании процессов, протекающих в этом мире необходимо учитывать релятивистские эффекты, поскольку скорость света вполне соизмерима со скоростью других процессов, а эффект замедления времени является обычным явлением; 2). По детерминистским законам классической ньютоновской динамики, когда процессы считаются непрерывными, поскольку постоянную Планка в силу её малости по сравнению с энергетическими характеристиками этих процессов можно без потери точности приравнять к нулю, скорость света можно считать равной бесконечности, пространство рассматривать как евклидово, абсолютное и трехмерное, а время считать линейным и также абсолютным; 3). Согласно принципам общей теории относительности, в которой пространство и время связаны в один неразделимый континуум, материальные массы космических тел искривляют геометрию пространства-времени, а скорость света становится фундаментальной мерой наблюдаемости или ненаблюдаемости объектов, порождая понятие горизонта событий и ставя предел возможности получения информации об объектах и познанию Вселенной научными методами. Б). Своеобразные особенности выявляются при разделении мира по типу происходящих в нем процессов организации структур на: а) простые, равновесные, замкнутые и вполне предсказуемые системы однородных элементов и б) сложные, неравновесные, открытые и, часто уникальные, системы стохастического типа. Такая классификация происходит по принципу “стабильность и порядок” и “нестабильность и хаос”. В последнем случае, как оказалось, возникают совершенно особые состояния, приводящие к самоорганизации и возникновению новых структур, т.е. - «порядка из хаоса», что не описывается динамическими моделями, а требует рассмотрения системных свойств более высокого уровня. В). Аналогичные, но неизмеримо более сложные проблемы возникают при рассмотрении природы как системы двух миров - косного и живого вещества, когда оказывается, что существование последнего не противоречит всем известным законам физики и химии, в некоторых проявлениях описывается ими, но не выводится из них, а основано на пока еще скрытых от науки закономерностях системного характера самого высокого уровня. Еще сложнее ситуация, возникающая при исследовании закономерностей в системе «мир человека-мир природы» или «мир индивидуума-мир общества», где, помимо всего прочего, существуют феномены иррационального характера, недоступные моделированию формализованными логико-математическими методами. Общепризнано, что первую в современной науке попытку создать цельную теорию, которая описывала бы соответствующим математическим аппаратом общие и универсальные закономерности системного поведения различных систем, установила бы условия их изоморфизма, методы оптимального регулирования и т.п., предпринял в 1968 году австрийский биолог Людвиг фон Берталанфи в труде «Общая теория систем». Мало известна более ранняя (20-е годы) фундаментальная работа А.А. Богданова (Малиновского) «Тектология. Всеобщая организационная наука», изданная только в 1989 году, в которой закладывались философские основы общесистемных методов исследования культурных, социально-политических и коммуникативных процессов. В тот же период аналогичные идеи развивал и П.А. Сорокин в труде «Система социологии», - 1920 г., Н.Д. Кондратьев в области экономики - «Основные проблемы экономической статики и динамики», издана только в 1991 г. и В.М. Бехтерев в области медицины и нейрофизиологии – «Коллективная рефлексология», - 1921 г. Современная постнеклассическая наука интегрирует все предыдущие достижения в области системного мышления и видит категорию системности как одну из основных в создании адекватной картины мира, широко используя методы описания и анализа процессов самоорганизации и саморазвития сложных систем, предоставляемые синергетикой. 20. Экосистема. Особый тип системы являет собой экосистема. Это сложная диссипативная самоорганизующаяся и информационно саморазвивающаяся, термодинамически открытая и структурно организованная совокупность биотических компонентов и абиотических источников вещества и энергии, (занимающая определенное пространство и существующая на определенном отрезке времени), единство и функциональная связь которых обеспечивает в пределах характерной для неё пространственно-временной области превышение потоков вещества, энергии и информации, обусловленное внутренними алгоритмами самоорганизации и упорядочения, над спонтанными термодинамическими процессами диссипации (т.е. рассеяния), которые постепенно приводят систему к тепловому хаосу. Вся биосфера может быть представлена как совокупность многих экосистем (самого различного масштаба), находящихся в постоянном взаимодействии. Структура экосистемы любого масштаба – это не просто иерархически организованная многоуровневая система типа «особи - популяции - сообщества - биоценоз». Это система, характеризуемая как кибернетическим, так и синергетическим типами поведения, включающая в себя живые и неживые компоненты, хаотические энергетические потоки и упорядоченные потоки вещества и энергии, которые можно рассматривать как информационные. Экосистему кратко можно охарактеризовать как сложную диссипативную систему косного вещества, растений и животных, связанных нелинейными метаболическими физико-химико-биологическими процессами, протекающими в пределах некоторой пространственно-временной единицы любого ранга, пронизанную многочисленными положительными и отрицательными обратными связями, которые обеспечивают её целостность и эволюционность. Как и любые сложные самоорганизующиеся системы, экосистемы подчиняются общим законам, проявляющимся в процессе эволюции неравновесных открытых систем стохастического типа. Их развитие характеризуется более или менее длительными периодами квазиравновесных состояний, определяемых набором соответствующих параметров порядка, оптимально сформированными трофическими цепочками и другими характеристиками, обеспечивающими устойчивость, но при некоторых неблагоприятных условиях (например, воздействии техногенного характера и т.д.) траектория развития экосистемы может выйти в область, всё более удаляющуюся от равновесия. При недостаточной буферности и исчерпании компенсационных возможностей той или иной экосистемы это чревато переходами к новым состояниям в результате бифуркаций, которые в этих случаях имеют вид экологических стрессов и даже катастроф. Экосистемы как таковые при этом не исчезают, а перестраиваются и приобретают новые черты, компоненты и закономерности, причем каждый такой переход необратим во времени. С точки зрения теории эволюции сложных неравновесных стохастических систем точно воспроизвести некогда существовавшую, но затем по каким-либо причинам разрушившуюся экосистему невозможно, равно как и воспроизвести полностью исчезнувший вид любого организма. Эволюция биосферы в этом смысле представляет собой обусловленную естественными причинами, (как общекосмическими, так и циклическими явлениями «местного масштаба», а также случайными причинами) неизбежную и закономерную череду экологических бифуркаций и необратимых перестроек, в результате чего и осуществляется процесс саморазвития биосферы. В ряду этих явлений локальное и глобальное экологическое воздействие «разумной» человеческой деятельности на биосферу можно, в зависимости от общей точки зрения, рассматривать и как случайное (ведь разум мог и не возникнуть), и как закономерное явление, обусловленное, согласно антропному принципу, универсальными и фундаментальными алгоритмами развития Вселенной. С точки зрения универсальных законов сохранения глобальная экосистема, по словам известного эколога Б. Коммонера, представляет собой единое целое, в рамках которого ничего нельзя ни приобрести, ни потерять без того, чтобы это не повлияло на всю систему в целом. Биосферная экосистема не может являться объектом всеобщего улучшения, и всё, что из неё было извлечено человеческим трудом, взято как бы взаймы и должно быть со временем возвращено. - «Платежа по этому векселю нельзя избежать, он может быть только отсрочен». (См. также: Бифуркация, Трофические цепи, Эволюция). 21. Принцип дополнительности – сформулированная выдающимся датским физиком Нильсом Бором (в 1927 г.) принципиальная концепция квантовой механики, согласно которой получение экспериментальной информации о каких-либо физических величинах, описывающих объект, принадлежащий микромиру (частицу, атом, квант поля и т.п.), неизбежно влечет за собой потерю информации о некоторых других параметрах этого объекта, дополнительных к первым. Такими взаимно дополнительными друг к другу параметрами являются, например, координата движущейся частицы и величина ее скорости (или импульс), величины кинетической и потенциальной энергии одной и той же частицы и т.п. некоммутирующие параметры. Согласно представлениям Бора (т.н. копенгагенская интерпретация), такое явление объясняется влиянием измерительного прибора (который всегда является объектом макромира и подчиняется законам классической физики), на состояние микрообъекта, причем сам результат измерений порождается в процессе взаимодействия этих двух несоизмеримых сущностей. При точном измерении одной характеристики элементарной частицы, другой параметр, вследствие взаимодействия частицы с прибором, претерпевает такое изменение, что последующее его измерение вообще теряет смысл, т.к. вся предыдущая информация полностью и необратимо исчезает. Принцип дополнительности с физической точки зрения непосредственно связан с фундаментальным для микромира принципом неопределенности и отражает неклассические, вероятностные закономерности поведения микрообъектов, определяемые в физике микромира термином «корпускулярно-волновой дуализм». Философская интерпретация принципа дополнительности отражает научно установленный факт невозможности точно описывать объекты микромира и их свойства с помощью понятий классической физики, которые соответствуют реальности макромира – т.е. мира больших величин. Поскольку человек неспособен к непосредственному чувственному восприятию объектов микромира и их характеристик, весь его предшествующий опыт, закрепленный в категориях, ставших основой понятийного аппарата классической физики, может быть адекватно использован только для упорядочения информации и построения картины макромира, который воспринимается непосредственно и трактуется в рамках здравого смысла и классической логики. Парадоксальный с точки зрения привычных понятий, но, тем не менее, реально существующий глубинный уровень организации материи, (микромир) поддается восприятию и познанию только путем косвенных измерений и описания на языке математического формализма. Его объекты имеют такие свойства, которые весьма условно соответствуют привычным терминам классического научного языка, используемым (за неимением других) и в новой неклассической физике. Однако они требуют для упорядочения этой специфической информации новой неклассической логики. Таким образом, такие традиционные понятия классической физики, как масса, заряд, момент импульса, траектория и т.п. аналогии, наполняются новым непривычным содержанием, теряют связь с очевидным, и это дает основания некоторым философам науки (например, американскому философу П. Фейерабенду) говорить не только о логической несовместимости некоторых альтернативных теорий, но и о принципиальной несоизмеримости различных научных языков, описывающих природные феномены. Диалектическое значение концепции дополнительности как методологического принципа естествознания состоит в том, что она позволяет не только осознать противоречивый характер взаимоотношений фактов макромира и микромира в человеческом сознании, но и создать целостную, более упорядоченную картину, объединив две, на первый взгляд, взаимоисключающие друг друга, но на самом деле взаимодополнительные стороны единой реальности материального мира. Весьма абстрактный и формальный характер языка неклассической физики, доступный далеко не каждому, свидетельствует об ограниченных описательных возможностях естественного языка, который сформировался в процессе биологической эволюции человека на материале, непосредственно доступном органам чувств. Возникшие в этом процессе ментальные конструкции и сложившаяся на этой основе понятийная матрица классической науки, помогают осознавать и упорядочивать информацию, получаемую из непосредственного восприятия результатов опыта, что всегда было достаточно для интерпретации явлений макромира. Язык квантовой механики, пригодный для описания феноменов микромира, противоречит классической научной традиции, всему повседневному опыту и логике здравого смысла. Эти языки несводимы друг к другу и представляют собой несовместимые семантические системы, и то, что является логическим парадоксом в одной схеме интерпретации явлений, вообще не создает противоречия в другой. Такое положение наводит на мысль о невозможности описания всего реального мира каким-либо одним универсальным языком (также идея Н. Бора) и приводит к философским выводам о необходимости использования в познании мира эпистемологически дополнительной методологии. Аналогичная ситуация отмечается не только в квантовой физике - области познания микромира, но и в теории гравитации, а также в синергетике – науке о самоорганизации и саморазвитии сложных неравновесных систем с резко нелинейным характером протекающих в них процессов, принадлежащих при этом макромиру. В последнем случае дополнительными друг к другу являются два способа описания: частные закономерности поведения отдельных элементов системы, - с одной стороны, и общие законы эволюции её самой как целого, - с другой стороны. Это соответствует динамическому и статистическому методам моделирования реальных процессов в сложных системах. В конце 80-х годов, в связи со становлением новой системно-синергетической парадигмы познания природы, этот принцип приобрел самое широкое толкование как общая эпистемологическая концепция универсальной дополнительности рационально-логического («естественнонаучного») и образно-художественного («гуманитарного») методов познания в процессе создания целостной «синтетической» или «холистической» картины мира. Таким образом, принцип дополнительности выступает в роли общеметодологической концепции современной постнеклассической науки, помогающей создать наиболее адекватную, на данный момент, картину мира, преодолеть разрыв между двумя типами мышления и, как следствие этого, ослабить и даже со временем снять оппозицию «двух культур». (См. также: Бор; Корпускулярно-волновой дуализм, Черные дыры). 22. Ионизирующее излучение (радиация) – это поток заряженных частиц или жестких фотонов (квантов электромагнитного поля), которые способны ионизировать атомы вещества, передавая им соответствующую энергию. Альфа-излучение – поток атомных ядер химического элемента гелия – т.н. «альфа-частиц» (2 протона + 2 нейтрона), возникающий при альфа-распаде тяжелых радиоактивных элементов (радий, радон, полоний, торий, уран, плутоний и т.п.). Открыто выдающимся английским физиком Эрнестом Резерфордом в 1899 году. Современная теория объясняет его механизм проявлением т.н. туннельного эффекта. Альфа-излучение обладает высокой энергией (от 4 до 5 Мэв), но малой проникающей способностью через вещество, что обусловлено очень интенсивным взаимодействием альфа-частиц с электронными оболочками атомов (высокой плотностью ионизации атомов поглотителя) и, следовательно, быстрой отдачей окружающей среде своей кинетической энергии при поглощении. Интересной особенностью процесса поглощения альфа-частиц веществом является резкий максимум потерь энергии непосредственно перед окончательной остановкой частицы. Это делает альфа-излучающие изотопы особо опасными в радиобиологическом отношении при попадании их внутрь организма, когда, находясь в непосредственном контакте с тканями органов, даже при малой концентрации, они создают в небольшом объеме очень высокую дозу облучения, приводящую к гибели клеток. Бета-излучение – поток быстрых электронов (или позитронов) – т.н. бета-частиц, образующихся при бета-распаде атомных ядер в результате т.н. слабого взаимодействия. Впервые бета-распад экспериментально изучался Эрнестом Резерфордом в 1899 году, а в 1933 Энрико Ферми разработал количественную теорию бета-распада. Новая теория бета-распада (она же объединенная теория электрослабого взаимодействия) была разработана С. Вайнбергом и А. Саламом в 1967 году посредством введения в рассмотрение неизвестных ранее силовых полей специфического типа и, соответственно, новых частиц – квантов-переносчиков энергии этих полей. Простейшим примером бета-распада является распад свободного нейтрона на протон, отрицательную бета-частицу (электрон) и антинейтрино. Бета-распад характерен для широкого класса радиоактивных элементов как искусственных, так и естественных (реликтовых). Энергия бета-излучения и его проникающая способность (пробег) в веществе варьируют в широких пределах, достигая в некоторых случаях, например, для искусственных радиоактивных изотопов фосфор-32 (максимальная энергия бета-спектра 1,7 Мэв) или иттрий-90 (максимальная энергия бета-спектра 2,27 Мэв) нескольких метров в воздухе или нескольких сантиметров в воде и теле человека, что может создавать значительную дозу облучения. С бета распадом, из-за исчезающе малой вероятности регистрации антинейтрино и нейтрино, связаны философские дискуссии в первой четверти 20 века о возможности нарушения закона сохранения материи-энергии в некоторых физических процессах. Однако, именно осознание этого закона сохранения как фундаментального принципа естествознания позволило теоретически обосновать существование электрически нейтральной и чрезвычайно легкой (а может быть и не имеющей массы покоя) частицы вещества, а затем (в 50-х годах) экспериментально обнаружить эту элементарную частицу. Её предсказал еще в 1931 году швейцарский физик Вольфганг Паули, и назвал, в честь выдающегося итальянского физика Энрико Ферми, нейтрино (по-итальянски - маленький нейтрон). Гамма-излучение – поток фотонов (квантов электромагнитного поля) высокой энергии, возникающих при т.н. изомерных переходах в атомных ядрах, когда в результате предшествующего альфа- или бета-распада образуется ядро-продукт в возбужденном состоянии, и избыток энергии с большей или меньшей вероятностью «высвечивается» в виде гамма-фотонов. При этом не происходит «изотопных» превращений в структуре ядра, а только переход ядра в основное энергетическое состояние. Гамма излучение, как не имеющее электрического заряда, относительно слабо взаимодействует с атомами вещества и поэтому обладает высокой проникающей способностью – до нескольких десятков сантиметров в свинце, (в зависимости от начальной энергии), и соответственно до многих сотен метров в воздухе. Это позволяет наблюдать за радиационной обстановкой в различных районах Земли со спутников, а также вести радиогеологоразведку. Изучение потоков гамма-излучения в составе космических лучей имеет большое значение в астрофизике, позволяя исследовать закономерности процессов, происходящих в звездах и ядрах галактик. 23. Атом – (неделимый), мельчайшая часть химического элемента, сохраняющая его свойства. Состоит из ядра, содержащего протоны и нейтроны (общее название – нуклоны) и электронных оболочек, число электронов в которых равно числу протонов в ядре. Атом в целом электронейтрален, химические свойства его в основном определяются конфигурацией внешних оболочек и количеством электронов на них. Энергетические характеристики орбитальных электронов обладают свойством дискретности и изменяются скачкообразно путем т.н. квантового перехода, посредством поглощения или испускания квантов электромагнитного излучения – фотонов. В первом приближении модель атома можно изобразить в виде сферического образования, весьма условно характеризуемого средним диаметром порядка 10-8 см, причем фактически вся атомная масса сосредоточена в ядре, имеющем размеры порядка 10-13 см. Атомы всех существующих химических элементов расположены в периодической системе в порядке возрастания их атомных номеров. Выдающийся английский физик Эрнест Резерфорд пришел к планетарной модели атома на основе эксперимента, анализируя распределение траекторий рассеянных альфа-частиц, которыми он бомбардировал атомы мишени. Некоторые частицы вели себя так, будто отражались от ничтожной по размерам, но твердой преграды, большинство других лишь слегка рассеивалось гораздо большей в диаметре, но очень «рыхлой» областью. Интересно то, что еще за семь лет до Резерфорда, в 1904 году известный японский физик Хантаро Нагаока (1865 – 1950) предложил модель атома, построенную по типу планеты Сатурн, согласно которой атом состоит из положительно заряженного ядра, вокруг которого вращается кольцо электронов. Однако эта чисто умозрительная модель, не имея экспериментального обоснования, не произвела в то время впечатления на научное сообщество, хотя сейчас её можно считать предшественницей планетарной модели атома Резерфорда. Изучение закономерностей внутриструктурного поведения атома показало, во первых, принципиальную ограниченность описательных возможностей ньютоновской классической физики (высшего достижения человеческой мысли с античных времен), а во вторых - тех принципов мышления и аналогий, которые базируются на здравом смысле и предшествующем опыте естествознания. В настоящее время существует несколько моделей атома, отражающих несводимые друг к другу особенности его поведения в различных ситуациях, более адекватно описывающих процессы взаимодействия атомов в вероятностных терминах квантовой механики, но, конечно, не обладающих той наглядностью, которая свойственна более простой и доступной обыденному сознанию, но слишком упрощенной и поверхностной планетарной модели. Последняя, отражавшая структуру атома в привычных мышлению 19-го века аналогиях, выдвинутая в 1911 году Резерфордом, произвела, тем не менее, переворот в естествознании, хотя являлась очень грубым приближением. Став началом мировоззренческой революции 20-го века, вообще, и послужив мощным импульсом для развития атомной науки, в частности, планетарная модель атома была модернизирована в 1913 году выдающимся датским ученым Нильсом Бором, выдвинувшим для объяснения парадоксальных свойств атома два постулата, основанных на квантовых представлениях и полностью отвергавших традиционные подходы классической физики. Первый постулат состоит в том, что электроны могут находиться только на т.н. разрешенных орбитах, стационарное состояние которых обеспечивается тем, что электрон неограниченно долго может не излучать энергию и, при отсутствии воздействий извне, не поглощать ее. Второй постулат утверждает, что при энергетических воздействиях электрон способен поглощать энергию только дискретными порциями – квантами, переходя при этом как бы на более высокую орбиту (возбужденное состояние), откуда он непременно возвращается в основное состояние (квантовый скачок), излучая избыток энергии в виде квантов электромагнитного поля (фотонов). Этот подход позволил упорядочить и объяснить все необъяснимые ранее экспериментальные данные и теоретически предсказать новые необычные свойства атомов, подтвержденные в дальнейшем экспериментально, хотя многие, взятые в качестве знаков из арсенала классической науки термины и понятия, имеют совершенно другие референты в субатомном мире. Модель атома Резерфорда-Бора и дальнейшее развитие атомной физики по своему революционному влиянию на всю культуру 20-го века сравнимы, пожалуй, только с воздействием на европейское мышление 16-17 веков гелиоцентрической системы Коперника-Кеплера. Эти исследования стали началом следующего за ньютоновской физикой этапа в развитии науки, они привели к появлению новой парадигмы, выходящей далеко за пределы собственно естествознания, и позволили заложить основы нового философского неклассического воззрения на мир как на иерархическую последовательность несводимых друг к другу форм структурной организации материи (микромир, макромир и мегамир), требующих, наряду с традиционными общеметодологическими принципами науки, использования специфических для каждого данного уровня реальности приемов познания и методов интерпретации, а также рационального выбора фундаментальных оснований и логико-семантических ограничений. Впервые идея об атомном строении вещества была высказана чисто метафизически еще в 4-5 веках до н.э. древнегреческими философами Анаксагором, Левкиппом и Демокритом – «весь мир состоит из атомов, непрерывно движущихся в пустоте». В те же античные времена она была отвергнута Платоном и Аристотелем, которые сводили мир к четырем первоэлементам – земле, воде, воздуху и огню. Атомистическая идея строения материи возродилась веком позже в философии Эпикура, получила поэтическое отражение и дошла до нашего времени в поэме древнеримского поэта Лукреция Кара «О природе вещей». Пережив столетия, она возникла, уже на научных основаниях, в начале 19 века в трудах Джона Дальтона по химии, который доказывал атомистическое строение вещества на основе эмпирического закона кратных отношений масс реагентов, претерпевающих химические превращения. Затем в обновленном виде, начиная с конца 19-го – начала 20-го веков, преодолевая сопротивление даже самых крупных ученых (таких, как Мах и Оствальд), атомистическая идея стала основным концептуальным фундаментом современной физики и химии. Исследованием закономерностей поведения атомных электронных оболочек (орбиталей) занимается атомная физика, в частности, атомная спектроскопия, позволяющая идентифицировать атомный состав вещества светящихся космических объектов – Солнца, комет, далеких звезд, газопылевых облаков и туманностей и т.п. по спектральным характеристикам электромагнитного излучения, испускаемого возбужденными атомами вещества этих объектов, и ставшая важнейшим подспорьем современной астрофизики и космологии. Все атомы характеризуются атомной массой и атомным номером. Атомная масса (а.е.м.) – это масса атома химического элемента, выраженная в атомных единицах массы, в качестве которых принята 1/12 часть массы изотопа углерода с массовым числом 12. Приблизительно 1 а.е.м. = 1,66*10-24 г. Атомный номер – это порядковый номер атомов Z (или т.н. зарядовое число) различных химических элементов в периодической системе элементов (например, в таблице Менделеева). Соответствует числу протонов в ядре и, следовательно, - электронов на атомных орбиталях. Последние, согласно модернизированной модели атома Резерфорда-Бора, представляют собой локализованные в соответствующих областях атома облака электронов. Атомный номер характеризует периодичность химических свойств элементов. Для всех известных на Земле природных элементов величина атомного номера изменяется в пределах от 1 (водород) до 92 (уран). Вместе с массовым числом М (суммой протонов и нейтронов в ядре) атомный номер характеризует химический элемент (как набор изотопов) в периодической системе элементов: символически: МХZ , где Х – соответствующий символ того или иного химического элемента. Понятие химического элемента ввел в науку в 1661 году английский физик и химик Роберт Бойль (1627 – 1691), который был сторонником атомистической гипотезы и считал, что все тела состоят из более мелких и совершенно одинаковых частиц (атомов). В последние годы методом последовательных ядерных реакций были получены искусственные (т.н. трансурановые, до 114-го включительно) радиоактивные элементы, все из которых, за исключением 92-го (плутоний, альфа-распад, период полураспада 24000 лет), весьма нестабильны и «короткоживущи». 23/1. Атомное ядро. Центральной структурой атома является атомное ядро. Оно состоит из протонов, имеющих положительный электрический заряд, и электронейтральных нейтронов (общее название – нуклоны). Число протонов определяет порядковый номер того или иного химического элемента в периодической таблице Менделеева, различное количество нейтронов в ядре при данном числе протонов обусловливает наличие изотопов у одного и того же химического элемента. При образовании ядра атома из определенного количества нуклонов результирующая масса ядра всегда меньше суммы масс нуклонов, составляющих его, на величину энергии связи, делающей ядра устойчивыми структурами. Согласно теории относительности, эта энергия связана с недостающей массой соотношением E=mc2 (дефект массы, - обнаружен английским физиком Ф.У. Астоном в 1927 г.)., она в миллионы раз превышает энергию связи электронов в атомных оболочках и выделяется при ядерном взрыве или в ядерных реакторах на АЭС из тех ядер, которые способны к реакции деления. Связь между нуклонами в ядре осуществляется посредством сильного взаимодействия в результате обмена виртуальными мезонами (пи-мезонами или сокращенно пионами). Существует эмпирически найденная зависимость энергии связи нуклонов в ядре от его атомной массы – т.н. кривая Астона (1927 г.), имеющая максимум в районе атома железа (примерно 8,2 Мэв на один нуклон). Энергия связи для атомных ядер изотопов урана, тория или плутония составляет примерно 7 Мэв на нуклон – и эта разница (с учетом атомной массы этих нуклидов - около 200 Мэв на одно ядро) как раз и выделяется при цепной реакции делении ядер в реакторах или бомбах. Пересчет значений энергетического выхода реакции ядерного деления на обычные энергоносители, показывает, что один килограмм урана или плутония выделяет энергию, эквивалентную сжиганию примерно 2000 тонн нефти или взрыву 20000 тонн тротила. Некоторые конфигурации ядер обладают повышенной устойчивостью и называются магическими, - это те, которые содержат по 2, 8, 20, 28, 50, 82 и 126 нуклонов. Они наиболее распространены в природе и наиболее устойчивы в процессах ядерных превращений. Изотопы химических элементов бывают стабильные и радиоактивные. Последние представлены небольшим количеством реликтовых элементов, среднее время жизни которых соизмеримо с геологическим возрастом Земли (уран-235, уран-238, торий-232, калий-40 и некоторые другие). Все же остальные радиоактивные нуклиды (а их огромное количество), для использования в науке и технике, получают искусственным путем в разнообразных ядерных реакциях. Ядра с четным числом нуклонов имеют целочисленное и нулевое значения спина, а с нечетным – полуцелое, и проявляют соответствующие магнитные свойства. Будучи квантовомеханическими системами, ядра характеризуются дискретными энергетическими состояниями, - каждый переход из возбужденного в основное состояние сопровождается испусканием гамма-фотона – жесткого электромагнитного излучения соответствующей энергии, представляющей разность между энергиями основного и возбужденного состояний или между энергиями двух соседних уровней при каскадном переходе. Совокупность возможных энергетических переходов образует спектр ядерного излучения, с характерными линиями для ядер каждого химического элемента. Например, часто используемый в медицинской практике для радиотерапии онкологических заболеваний радиоактивный изотоп кобальт-60 (т.н. кобальтовая пушка), после бета-распада дает дочерний продукт – изотоп никель-60 в возбужденном состоянии, который, переходя в основное, излучает спектр гамма-фотонов двух энергий – 1,17 Мэв и 1,33 Мэв. Используемый в гамма-дефектоскопии материалов изотоп цезий-137 дает после бета-распада в качестве дочернего продукта радиоактивный нуклид барий-137, который переходит в основное состояние, испуская гамма-фотоны с энергией 0,6 Мэв. Атомное ядро очень сложная система, проявляющая различные, часто противоречивые и даже взаимоисключающие, свойства в процессах, протекающих при различных энергетических условиях. Это отражается и в имеющихся моделях атомного ядра, которые хорошо описывают закономерности поведения ядра в определенных энергетических диапазонах, при выходе за пределы которых «описательная сила» этих моделей резко убывает. Таковы: модель составного ядра (Н. Бор, 1936 г.), гидродинамическая модель ядра (М. Борн, 1936 г.), оболочечная модель (М. Гепперт-Майер, И. Йенсен, 1950 г.), обобщенная модель, как бы примиряющая вторую и третью (О. Бор, Б. Моттельсон, 1953 г.), сверхтекучая модель (те же, 1958 г.) и еще несколько других моделей, все из которых имеют один общий недостаток – необходимость введения значительного количества параметров, которые приходится эмпирически подбирать для обеспечения наилучшего согласования теоретических расчетов с экспериментальными данными. Тем не менее, вся практика использования ядерной энергии как в мирных, так и в военных целях опирается на существующую и продолжающую активно развиваться в настоящее время теорию атомного ядра. Возможно, что общая непротиворечивая теория атомного ядра будет построена на основе кварковой модели элементарных частиц. (См. также: Ядерный реактор). 24. Деление атомного ядра. а) спонтанное деление – процесс самопроизвольного распада тяжелых радиоактивных элементов на два ядра-осколка и два или три нейтрона. Этот процесс имеет для природных радиоизотопов урана или тория вероятность на несколько порядков меньшую, чем свойственный им же альфа-распад, однако для ряда искусственных очень нестабильных трансурановых элементов – это основной канал распада; б) вынужденное деление – процесс деления атомных ядер тяжелых элементов под действием внешних нейтронов различной энергии, захватываемых ядром и переходящим при этом в возбужденное состояние с образованием впоследствии двух ядер-осколков и двух или трех нейтронов. Конкурирующим процессом при захвате нейтрона недостаточной энергии может быть бета-распад возбужденного ядра. Способность к делению тяжелых ядер нейтронами характеризуется т.н. параметром деления – отношением квадрата атомного номера к атомной массе: Р=Z2/М, который, как следует из опыта, должен быть несколько больше 36. При подходящих условиях и наличии т.н. критической массы соответствующего радионуклида (например, урана-235, плутония-239 и т.п.) возникает и лавинообразно нарастает цепная реакция деления, вовлекающая в этот процесс практически все атомы, сосредоточенные в данном объеме, и приводящая к ядерному взрыву. В энергетических ядерных реакторах, используемых на АЭС, посредством специальных устройств, конфигурации активной зоны и оптимальной концентрации делящегося материала достигается медленное, долговременное и управляемое энерговыделение. При этом исходная смесь изотопов урана постепенно «выгорает», превращаясь в самые разнообразные радиоактивные продукты деления (до 200 радиоизотопов различных элементов), среди которых два долгоживущих: стронций-90 и цезий-137 с периодами полураспада примерно 28 лет и 32 года. Эти радиоизотопы представляют серьезную экологическую опасность как химические аналоги жизненно важных элементов – соответственно кальция (двухвалентный) и натрия с калием (одновалентные). Эти радионуклиды включаются вместе с ними в соответствующие биохимические реакции и проникают в трофические цепочки (см.), доходя до человека. Проведение ядерной реакции деления со сдвигом в сторону конкурирующего бета-распада (реакторы-размножители) позволяет из природного урана получать долгоживущий трансурановый радиоизотоп плутоний-239 (период полураспада 24000 лет) с высоким значением параметра деления (36,97), удобный для создания ядерного оружия. (См. также: Ядерный реактор). 25. Радиоактивность; радиоактивный распад - самопроизвольное превращение неустойчивых атомных ядер естественных химических элементов (и их искусственных изотопов) в ядра других элементов, сопровождающееся испусканием ядерного излучения различного типа. Впервые явление радиоактивности обнаружено в 1896 году французским физиком Анри Беккерелем в природных соединениях урана, из которых в 1902 году выдающийся французский физикохимик польского происхождения дважды лауреат Нобелевской премии Мария Склодовская-Кюри, (которая и ввела в научный обиход термин «радиоактивность»), получила сначала соль радиоактивного элемента радия – одного из дочерних продуктов распада урана, а в 1910 году совместно с французским химиком А. Дебьерном выделила чистый металлический радий. Она же в эти годы открыла и радиоактивный элемент полоний. Величина активности радионуклидов измеряется в Беккерелях; 1 Бк =1 распад в секунду в системе СИ, иногда применяется и внесистемная единица: 1 Кюри =3,7*1010 Бк. Известно четыре типа самопроизвольных ядерных превращений: альфа-распад, бета-распад, электронный захват и спонтанное деление тяжелых ядер – урана, тория и трансурановых искусственных элементов. Изомерный ядерный переход из возбужденного энергетического состояния в основное, например, после предшествующего бета-распада, в результате чего испускается ядерное гамма-излучение, в строгом смысле распадом не является, т.к. при этом атомное ядро химического элемента не изменяется. Радиоактивный распад – явление статистической природы, обусловленное внутренней неустойчивостью ядер, имеющих избыток или недостаток нейтронов, по сравнению со стабильными изотопами этих элементов. Числовой характеристикой неустойчивости является т.н. постоянная распада k, имеющая физический смысл вероятности распада. Часто используется понятие периода полураспада T1/2 – времени, в течение которого распадется в среднем половина исходного количества данного радионуклида. Эти параметры связаны соотношением T1/2=ln2/k. Среднее число распавшихся радиоактивных атомов N(t) зависит от времени экспоненциально, N(t)=N0*e-kt, но при условии достаточно большого количества радиоактивного вещества, когда справедлив закон больших чисел. О моменте распада изолированного атома, даже зная период полураспада, ничего определенного сказать нельзя. Периоды полураспада различных радионуклидов (искусственных и природных) колеблются в пределах от тысячных долей секунды до миллиардов лет. Долгоживущие естественнорадиоактивные изотопы остались в земной коре со времени образования Земли и служат материалом для геохронологии (например, калий-40 – 1,3*109 лет, уран-238 – 4,5*109 лет, торий-232 – 1,4*1010 лет). Используя закономерности радиоактивного распада реликтовых радионуклидов, Э. Резерфорд и П. Кюри предложили в 20-х годах абсолютную геохронологическую шкалу. Анализируя данные по распаду природных радиоизотопов, геофизики оценили возраст Земли примерно в 4,5 – 4,6 млрд. лет. В археологии также широко применяется метод радиоуглеродного датирования древесных образцов по степени распада накопившегося в них природного радиоизотопа углерод-14 (T1/2 = 5500 лет). (См. также: Доза облучения). 26. Поле, (физическое поле) – особая форма материи, физическая система, обладающая бесконечным числом степеней свободы. Примерами могут быть электромагнитное поле, гравитационное поле (поле тяготения), поле ядерных сил, волновые квантованные поля элементарных частиц. Понятие поля, пронизанного силовыми линиями, введено в физику выдающимся английским физиком Майклом Фарадеем в 30-е годы Х1Х века для описания механизма действия электрических и магнитных сил в качестве альтернативы ньютоновским представлениям о дальнодействии, т.е. о процессах взаимодействия тел на расстоянии без какого-либо посредника – переносчика силы. Согласно представлениям о дальнодействии, сила притяжения или отталкивания между двумя зарядами возникает только при наличии двух заряженных частиц вещества. Пространству около этих частиц не отводится никакой активной роли в передаче взаимодействия. Концепция поля, напротив, подразумевает, что само наличие заряженной частицы или массы вещества меняет свойства пространства, создавая в нем силовое поле, и каждая точка измененного пространства обладает потенциальной способностью проявить действие силы. Поле выполняет роль посредника, передавая от точки к точке пространства действие одного тела или заряда на другой, - такой процесс передачи силового взаимодействия получил название близкодействия. По мнению Эйнштейна идея поля была самым важным открытием в физике со времён Ньютона. В 60-е годы Х1Х века другой выдающийся английский физик Дж.К. Максвелл дал концепции поля математическую интерпретацию и построил на этой основе классическую теорию электромагнитного поля (система четырех фундаментальных уравнений Максвелла), исходя из которой сумел предсказать наличие в природе электромагнитных волн, передающих энергию поля со скоростью света и сделать вывод о том, что свет есть частный случай электромагнитных волн определенной длины и частоты. Согласно теории относительности Эйнштейна, ни один сигнал не может распространяться быстрее света, поэтому все процессы взаимодействия между зарядами, происходящие по типу близкодействия, имеют конечную скорость передачи силового воздействия, т.е. посредничество поля в передаче энергии от одного тела к другому создает определенное запаздывание, тогда как в теории дальнодействия взаимодействие между телами происходит мгновенно. В течение всего времени запаздывания именно полю принадлежит часть энергии, отданной первым телом или зарядом, но еще не полученная вторым. При таком механизме передачи энергии поле является физической реальностью, одной из форм существования материи. В отличие от вещества (частиц материи) физические величины, характеризующие поле (энергия, импульс, момент импульса и т.д.), не сосредоточены в некоторой точке, где в данный момент находится тело, а распределены по всему пространству, и в каждый момент времени их следует задавать для каждой точки пространства. Эта операция упрощается путем введения полевой функции, по которой определяются все необходимые физические характеристики поля. Для электрического поля такой функцией пространственных координат является вектор напряженности, характеризующий величину и направление силы в данной точке, а для гравитационного – потенциал поля, скалярная (т.е. не имеющая направления) характеристика. Движение частицы в пространстве – это механическое перемещение дискретного объекта, обладающего в декартовой системе координат тремя поступательными степенями свободы и тремя вращательными (по трем независимым направлениям). Движения поля – это распространяющиеся колебания полевой функции, т.е. волновой процесс, которому свойственны все волновые явления, такие, как дифракция, интерференция, суперпозиция. Эти явления, характерные для поля (континуальность), в рамках классической физики принципиально невозможны для частиц (дискретность), таким образом классическая наука и философия при рассмотрении категории материи оперирует дихотомией «поле-вещество». Квантовая механика на пути к единому описанию природы сделала важный шаг для устранения этого противопоставления, введя т.н. пси-функцию Шредингера (волновую квантовомеханическую функцию координат и времени), но она отразила только волновые свойства элементарных частиц, - феномен микромира, известный как корпускулярно-волновой дуализм. Переход к единой корпускулярно-волновой модели материи осуществляется в квантовой теории поля при помощи метода вторичного квантования, когда реальному физическому полю того или иного типа ставятся в соответствие дискретные кванты, отвечающие различным возможным состояниям этого поля. В терминах такого абсолютно неклассического физического объекта – квантованного поля, - в современной физике описываются частицы, которые теперь представляют собой кванты-переносчики соответствующего взаимодействия. При таком подходе, например, электроны и позитроны – это кванты электрон-позитронного поля, фотоны – кванты электромагнитного поля, глюоны – кванты глюонного поля и т.д. Переносчиком гравитационного взаимодействия в поле тяготения являются гравитоны – кванты поля гравитации. Они обладают всеми им присущими физическими характеристиками такими, как масса покоя, заряд, энергия, импульс, спин, четность, странность, цвет и т.д. Квантованное поле – это совершенно новое фундаментальное понятие современной физики, описывающее реально существующий физический объект микромира, лишенный дихотомии «поле-вещество» и органично обладающий присущей ему совокупностью корпускулярных и волновых свойств, часть которых при переходе к классическому пределу неизбежно теряется. С эпистемологической точки зрения это соответствует несводимости квантовомеханической реальности к реальности макромира и семантической несоизмеримости понятий, используемых для моделирования и интерпретации объектов и явлений, принадлежащих различным масштабам сложности в иерархии уровней структурной организации материи. 27. Структурные уровни организации материи – иерархическая система описания закономерностей поведения объектов материального мира, обусловленная невозможностью в рамках современной науки создать целостное представление о природе. Деление материального мира на: 1) микромир, 2) макромир, 3) мегамир соответствует принципиально отличающимся структурным формам организации и движения материи, описание которых методами современной науки также принципиально отличается и ведется по следующим принципам: 1). По законам квантовой механики с учетом дискретной природы и вероятностного характера происходящих процессов, где «властвует» принцип неопределенности, отсутствует понятие точных и однозначных траекторий движения частиц, действуют законы сохранения весьма специфических параметров, не имеющих наглядных аналогий. Скорость света в этом мире равна определенной величине, вполне соизмеримой со скоростью других процессов, а эффект замедления времени является обычным явлением; 2). По детерминистским законам классической ньютоновской динамики, когда процессы считаются непрерывными, поскольку постоянную Планка можно без потери точности приравнять к нулю, скорость света практически равна бесконечности, пространство евклидово, абсолютно и трехмерно, а время линейно и также абсолютно; 3). Согласно принципам общей теории относительности, в которой пространство и время связаны в один неразделимый континуум, материальные массы космических тел искривляют геометрию пространства-времени, а скорость света становится фундаментальной мерой наблюдаемости или ненаблюдаемости объектов, порождая понятие горизонта событий и ставя предел возможности получения информации об объектах и познанию Вселенной научными методами. (См. также: Атом, Вселенная, Элементарные частицы). 28. Античастицы – субъядерные элементарные частицы вещества, имеющие одинаковое значение ряда основных параметров, таких, как масса, время жизни, величина электрического заряда, собственного момента импульса (спина), но противоположный знак электрического заряда и некоторых других квантовых параметров. При взаимодействии претерпевают аннигиляцию. Самым простым примером такой пары являются электрон и позитрон. Вещество, составленное из соответствующих античастиц, называют антивеществом в противоположность «нормальному» или обычному веществу, составляющему наш мир, в котором мы существуем. По химическим свойствам антивещество неотличимо от вещества, являясь как бы его зеркальным отражением (в лабораториях, например, получен и исследован антиводород, состоящий из антипротона и позитрона). С позиций различных гипотез происхождения Вселенной, а также с философской точки зрения, наличие в природе античастиц и антивещества, а также проблема антиматерии вообще, рассматривается под углом зрения общих вопросов, касающихся проявления симметрии и асимметрии в природе. Проблема возможности или невозможности существования «антимиров» где-нибудь во Вселенной, или даже целых «антивселенных» (например, в рамках концепции множественности миров) - одна из важнейших в современной космологии. Разрабатываемый в настоящее время общепризнанный вариант стандартной модели Большого взрыва в сочетании с теорией объединения фундаментальных взаимодействий дает объяснение несимметрии вещества и антивещества, наблюдаемое в «нашей» Вселенной, спецификой процессов, имевших место на самых ранних стадиях её возникновения. Предсказанный этой теорией «коэффициент асимметрии», равный 1/1,000000001 в пользу «вещества», из которого и состоит наблюдаемая область Вселенной, получил подтверждение в изучении состава всего космического вещества и пропорции составляющих его компонентов. Оказалось, что на каждый электрон или нуклон во Вселенной приходится 109 фотонов – продуктов первичной аннигиляции почти (но не совсем) равного начального количества вещества и антивещества, образовавшегося при Большом взрыве. То вещество, из которого состоит Вселенная, по крайней мере, в пределах горизонта событий, есть малая часть (по современным оценкам порядка 1080 нуклонов), оставшаяся после первичной аннигиляции, в результате чего всё остальное вещество перешло в гамма-фотоны, наблюдающиеся в наше время как реликтовое излучение. Этот подход не исключает возможности существования других, ненаблюдаемых нами, Вселенных с другим составом вещества и свойствами. (См. также: Симметрия). 29. Аннигиляция – (уничтожение), процесс взаимодействия и превращения элементарных частиц одного вида, но с противоположным электрическим зарядом (пара: «частица-античастица»), в результате чего выделяется т.н. энергия массы покоя этих частиц (Е=2М0 с2), - при этом вещество в конечном счете исчезает и «превращается» в кванты электромагнитного поля - фотоны. Существует также и обратный процесс – рождение электрон-позитронной пары при соответствующих энергиях возбуждения электромагнитного поля (из гамма-фотона с энергией превышающей 1,02 Мэв вблизи атомного ядра). В процессах аннигиляции и рождения пар «частица-античастица» строго выполняются законы сохранения энергии и импульса, а также всех известных квантовых параметров. Аннигиляция и рождение пар «частица-античастица» - одно из принципиальных физических явлений микромира, не имеющих аналогов в реальности, описываемой законами классической физики. Философская сторона данного явления может быть осознана в терминах диалектики, как единство двух противоположностей, - двух ипостасей одной сущности, называемой «материя», и зафиксированных в процессе упорядочивания информации в человеческом опыте и языке в качестве бинарной оппозиции «поле-вещество». (См. также: Античастицы, Электрон, Позитрон). 30. Дарвинизм – теория происхождения и эволюции видов живых организмов, разработанная в 1858-1859 годах английскими учеными Ч. Дарвином и независимо от него А.Р. Уоллесом (1823 – 1913) (интересно, что они оба опирались на идеи, высказанные ранее Томасом Мальтусом (1766 – 1834) в его известном труде «Опыт о законе народонаселения», 1798 г.). Согласно традиционному дарвинизму, эволюция осуществляется в результате взаимодействия трех основных факторов («движущих сил эволюции») – изменчивости, наследственности и естественного отбора. Изменчивость является основой для образования новых признаков и особенностей строения и функционирования организмов, наследственность служит закреплению этих признаков в потомстве, а в процессе естественного отбора с течением времени происходит устранение организмов, чьи признаки препятствуют или не способствуют оптимальному приспособлению к условиям среды обитания. Взаимодействуя между собой в течение длительного времени, эти факторы постепенно в процессе отбора способствуют формированию организмов, которые накапливают всё новые и новые приспособительные признаки, что в итоге приводит к появлению новых видов живых организмов. Таким образом, все ныне существующие виды произошли от ранее существовавших (ныне уже несуществующих), путем постоянного и непрекращающегося процесса их эволюции. Основы своего учения Дарвин изложил в эпохальном труде «О происхождении видов путем естественного отбора или сохранение благоприятствуемых пород в борьбе за жизнь», вышедшем в 1859 году. Это было первое учение антикреационистского характера, т.е. вполне материалистическое, поскольку в нем был предложен механизм создания видов самой природой - естественным путем без участия Творца. Его эволюционистская часть не являлась главным открытием, поскольку уже Ламарк (1809 г.) не отрицал эволюции, хотя его представления о наследуемости приобретенных индивидом способностей были ошибочными. Истинной мировоззренческой революцией, сравнимой только с коперниканской, были идеи Дарвина о происхождении человека от обезьяноподобного предка в результате длительного эволюционного процесса, а не сотворения его Богом по своему образу и подобию. Сейчас понятно, что это была упрощенная теория, не учитывающая многие мелкие и важные закономерности популяционных процессов и далекая от тонкостей современной генетики. Так, не зная истинного механизма передачи генетической информации, считая, что наследственность основана на принципе смешивания признаков (ни Дарвин, ни Уоллес, ни их окружение не знали о работах Менделя), Дарвин не мог с полной аргументацией дискутировать со своим современником – инженером и физиком Ф. Дженкином, который строго математически доказал, что в случае смешивания и усреднения признаков родителей у потомков, дарвиновский механизм естественного отбора «работать» не будет. Современный уровень знаний в смежных дисциплинах (генетике, физике, биологии, экологии и т.д.) позволяет устранить многие трудности эволюционной теории Дарвина (неодарвинизм и постнеодарвинизм) и делает её основным научным подходом в изучении процессов эволюции живого вещества в биосфере. Следует отметить, что концепцию эволюции как универсального свойства любых систем, в частности, и биологических, впервые сформулировал выдающийся английский философ Герберт Спенсер (1820 – 1903), что признавал и сам Дарвин. Отдельные прозрения эволюционного типа высказывали ещё в середине 18-го века некоторые французские естествоиспытатели, - Бенуа де Малье (1748 год), который утверждал, что природа естественным путем порождает различные формы жизни, и Жорж де Бюффон (1749 год), высказывавший идею о том, что некогда существовал общий предок для всех форм живых организмов. (См. также: Дарвин, Ламаркизм). 31. Энтропия – (от греч. поворот, превращение), функция состояния термодинамической системы, определяемая для обратимого процесса как отношение количества тепловой энергии Q, сообщенной системе или отведенной от неё к абсолютной температуре T, при которой проходил этот обратимый процесс: S=(Q2-Q1)/T0 K. Например, при плавлении твердого тела энтропия равна количеству теплоты, затраченной на этот процесс, деленному на температуру плавления по абсолютной шкале Кельвина. Основной принцип термодинамики (т.н. второе начало термодинамики) гласит, что в замкнутой системе в необратимых процессах энтропия всегда возрастает или в случае идеального циклического процесса без тепловых потерь (полностью обратимого), её изменение равно нулю. Энтропия характеризует направление тепловых процессов, причем самопроизвольно тепло может переходить только от более нагретого тела к менее нагретому, что соответствует возрастанию энтропии и приводит к выравниванию температуры во всей системе тел, т.е. к равновесному состоянию, или состоянию теплового хаоса, которое характеризуется максимальным значением энтропии. Обратный процесс без затраты энергии извне невозможен, и если на замкнутую систему не оказывать никакого воздействия, она постепенно придет в такое состояние, в котором кроме малых флуктуаций, никаких процессов не происходит – т.н. равновесное термодинамическое состояние теплового хаоса, или «тепловой смерти». Понятие энтропии в 1865 году ввел в термодинамику выдающийся немецкий физик Рудольф Клаузиус, он же сформулировал второе начало термодинамики и, считая Вселенную замкнутой системой, пришел к выводу о её неизбежной «тепловой смерти», поскольку, согласно его формулировке: «Энергия Вселенной есть величина постоянная, энтропия Вселенной стремится к максимуму». В 1872 году выдающийся австрийский физик Людвиг Больцман на основании статистической модели сложных термодинамических систем связал энтропию с вероятностью того или иного состояния системы, т.е. показал, что энтропия с точки зрения статистической физики – это мера упорядоченности или неупорядоченности элементов системы. Если в данной системе осуществилось W элементарных состояний, то величина энтропии S равна: S=k*ln W , где k = 1,381*10-23 Дж/Кельвин – постоянная Больцмана. Отсюда видно, что наиболее вероятное состояние любой системы – это состояние равновесного хаоса, т.е. беспорядка, когда количество микросостояний её элементов очень велико и отсутствуют какие-либо различия между отдельными областями системы. Такое состояние характеризуется большим значением энтропии и следовательно, отсутствием порядка в структуре, в то время как уникальная, идеально упорядоченная (м.б. почти невероятная), система с одним возможным устойчивым состоянием или какая-нибудь редчайшая, но очень продуктивная флуктуация имеют очень малое или нулевое значение энтропии, (т.к. логарифм единицы в формуле Больцмана равен нулю). Современная трактовка понятия энтропии в больцмановском виде на основе идей синергетики считает Вселенную такой суперсистемой, к которой нельзя приложить понятие замкнутой системы и в которой, при её практической бесконечности и неравновесности, могут в качестве больших флуктуаций происходить редкие и необратимые во времени диссипативные процессы самоорганизации и самоупорядочения структур с локальным уменьшением энтропии. И наконец, загадка антиэнтропийной деятельности живого вещества, создающего и поддерживающего свою структуру в порядке длительное время, объясняется тем, что живой организм также не является замкнутой системой, а наоборот – принципиально открытой, участвующей в постоянном обмене веществ, энергии и информации с внешней средой. К деятельности живых организмов применимы все выводы теории самоорганизации в сложных неравновесных системах. Трофические цепи в биосфере сложились таким образом, что каждый вид на каждой стадии, начиная с автотрофов, всё в большей степени упорядочивает вещество, служащее пищей организмам более высокой ступени, т.е. затрачивая внешнюю энергию, живые организмы с определенным (и в принципе не очень высоким) КПД как бы создают в природе запас отрицательной энтропии, повышая при этом энтропию и, следовательно, беспорядок в окружающей среде. По образному выражению одного из создателей квантовой механики Э. Шредингера, живые организмы питаются отрицательной энтропией (т.н. негэнтропией), заключенной в высокоупорядоченном органическом веществе. С точки зрения физики жизнь протекает в постоянной борьбе деградирующего и хаотизирующего влияния процессов самопроизвольной термодинамической деструкции и распада менее вероятных сложных структур в более вероятные простые (согласно второму началу термодинамики) и противоэнтропийной деятельности живых организмов, восстанавливающей порядок в нарушенных структурах, за счет использования внешних источников энергии. Это происходит согласно тому принципу порядка, который закодирован в самой упорядоченной структуре, созданной природой – молекуле ДНК, носительнице генетической наследственной информации о принципах строения и развития каждого данного вида организмов. Естественная смерть одного организма – это локальная победа энтропии и равновесного хаоса над индивидуальной сложностью, гармонией и порядком, но это вместе с тем и залог возникновения новых параметров порядка, появления и развития в природе новых форм, а значит, и новых разнообразных видов организмов и типов экосистем. Универсальность понятия энтропии стала особенно осознаваться с появлением в информатике формулы, выведенной в 1947 году американским математиком и специалистом по передаче информации Клодом Шенноном, которая аналогична формуле Больцмана, где информация получает количественную меру, а энтропия трактуется как мера первоначальной неопределенности исхода какого-либо опыта стохастического типа, - т.е. как мера статистического разнообразия исходов операций со случайной величиной в процессах передачи информации. Этот вывод Шеннона вполне соответствует высказыванию самого Больцмана о том, что энтропия вообще есть мера недостающей информации о состоянии сложной системы. В этой трактовке информация уже выступает в качестве меры порядка, а всякий процесс получения информации становится инструментом упорядочивания хаотических потоков различной природы в соответствующих сложных системах любого типа и создает условия для появления в них устойчивых организованных структур. Аналогия, использующая формальное сходство между разнообразием термодинамических микросостояний физических систем и разнообразием вероятностных исходов в информационных системах, оказалась универсальной и весьма продуктивной в общенаучном смысле. Так, считая разумную человеческую культурную деятельность процессом, создающим целенаправленные энергетические потоки и упорядоченные структуры, ранее не существовавшие в природе, в которых актуализирована или закреплена конкретная информация, резко уменьшающая меру неопределенности, можно согласиться с мнением выдающегося отечественного культуролога Ю.М. Лотмана о том, что «культура есть устройство, вырабатывающее информацию». Любой текст или изделие, созданные разумной деятельностью человека представляют собой упорядоченные структуры, возникшие как результат антиэнтропийных процессов локального масштаба, требующие соответствующих затрат энергии и повышающие энтропию и хаос в окружающей среде (суперсистеме). Причем, чем "уникальнее" творение, тем, в некотором смысле, величина энтропии, характеризующая это состояние упорядоченного материала, меньше и тем «необратимее» во времени «траектория развития» этого процесса. Антиэнтропийная деятельность культуры, происходящая аналогично жизнедеятельности организмов, отмечена Лотманом так: «Основная работа культуры состоит в структурной организации окружающего человека мира. Культура – это генератор структурности и этим она создает вокруг человека социальную сферу, которая, подобно биосфере, делает возможной жизнь, но не органическую, а общественную». Таким образом, на основе этой аналогии проводится важная общесистемная параллель между антиэнтропийным характером совокупных процессов самоорганизации в «первой природе» - биосфере, где определяющим фактором прогрессивной эволюции видов является спонтанное самоупорядочение биологической информации, и также антиэнтропийной, но только уже целенаправленной структурной организацией окружающей человека среды и создания в процессе этой деятельности «второй природы» – т.е. сферы человеческой культуры. В таких же антиэнтропийных понятиях, (называя упорядоченные структуры стройностями), выражал смысл эволюции живой материи и человеческого культурного развития один из представителей русской космической философии естественнонаучного направления, – известный физик и математик Н.А. Умов: «Эволюция живой материи в общих чертах увеличивает количество и повышает качество стройностей в природе. По отношению к человеку эволюция выражается тем, что он вводит в круг своих стройностей растительное и животное царство, в своих орудиях и машинах распространяет эти стройности на неорганизованную материю и борется во имя этих стройностей со случайным распорядком событий в природе <…> Стройность есть необходимый признак живой материи». Общий принцип самоорганизации в сложных неравновесных системах как процесс создания упорядоченных психо-информационных структур, использует в своих теориях личности и выдающийся швейцарский психолог Карл Густав Юнг. По Юнгу упорядочивание отношений в системе «индивидуальное сознание - коллективное бессознательное» происходит в процессе индивидуации личности. Этот процесс, как и любой процесс упорядочивания, представляет собой антиэнтропийную деятельность индивидуума, прилагающего энергию для преодоления энтропийного хаоса бессознательного и создания условий для самоидентификации. Таким образом, Юнг кладет в основание психологии, а Лотман – в основание культурологии один из универсальных принципов всего естествознания, и этот подход к трактовке психических процессов и важнейших феноменов человеческого поведения – с одной стороны, и закономерностей совокупной историко-культурной деятельности человечества – с другой, интегрирует гуманитарные науки в самый широкий контекст человеческого знания и служит преодолению оппозиции «двух культур». Общий закон возрастания энтропии в замкнутых системах, отражающий переход термодинамической или информационной системы к состоянию равновесного теплового или информационного хаоса, распространяется и на социально-культурную сферу существования человечества. Развитие любой изолированной от мирового сообщества тоталитарной закрытой государственной системы требует для поддержания равновесного состояния минимума творческой энергии, но со временем неизбежно, в силу возрастания энтропии, обречено на культурный застой и деградацию (равновесный хаос). Открытая социальная структура, испытывая постоянные влияния извне (флуктуации различной природы), может в своей траектории развития выйти в область, далекую от равновесия (состояние турбулентного хаоса). Однако именно (и только) при таком неравновесном состоянии государственной системы, целенаправленно приложив «социальную энергию», можно повысить вероятность появления новых параметров порядка и, следовательно, пусть через социальные потрясения (бифуркации) создать условия для процесса самоорганизации новых структур. Пути эволюции или траектории развития самоорганизующейся государственной или социальной системы также, как и для любого сложного нелинейного процесса, определяются существующими для таких структур аттракторами, или притягивающими множествами решений. Таковыми являются известные в истории мировой цивилизации типы государственного устройства, вероятность осуществления каждого из которых зависит от многих факторов - как внутренних, так и внешних. Эти известные в истории события (эмпирические факты), хоть каждое из которых по-своему уникально и неповторимо, имеют похожие общесистемные черты. Их энтропийный характер и бифуркационная необратимость во времени получают, с данной точки зрения, общенаучное теоретическое объяснение. Таким образом, понятие энтропии, так же как и понятие энергии, приобретает в современной постнеклассической науке универсальный и фундаментальный смысл одной из основных категорий познания мира и человека. 32. Информация – потоки вещества и (или) энергии, которые, упорядочиваясь в процессе восприятия органами чувств человека или регистрирующими приборами, расширяющими пределы восприятия, могут быть в соответствующем знаково-семантическом пространстве (языке) перекодированы в смыслосодержащие структуры. Бытовое и общекультурное представление об информации наделяет это понятие очень широким смысловым спектром. В житейском, повседневном смысле оно означает некоторое количество сведений, которое человек получает из окружающей среды – из своих наблюдений, от других людей, книг, СМИ и т.д. В результате, с помощью этих сведений человек упорядочивает свои отношения с окружающим миром, а человечество в целом создает информационно-культурное пространство, в котором осуществляются социальные процессы и которое постепенно превращается как бы во вторую природу, преодолевающую хаос и энтропию первой природы. По определению известного отечественного культуролога Ю.М. Лотмана вся человеческая культура есть устройство, создающее информацию. Это, конечно, структурно-сциентистская трактовка культуры, которая однако, позволяет использовать методы естествознания для изучения соответствующих аспектов культурных явлений в той их части, которая естественным наукам доступна. В этом контексте любое произведение, созданное человеком, или любой природный феномен, осваиваемый человеком в сфере языка, или природная структура, преобразованная людьми с определенной целью, несут информацию постольку, поскольку могут быть восприняты и осмыслены в уже сложившейся системе образов, представлений и понятий. Язык, понимаемый в самом широком смысле этого слова, служит для закрепления информации и является открытой активной средой, в которой осуществляются процессы спонтанного смыслопорождения, т.е. процессы самоорганизации семантически упорядоченных информационных структур, ранее в этой системе не существовавших. Такое толкование поведения знаковых систем (или семиосфер) вписывается в общую синергетическую модель, описывающую закономерности развития сложных неравновесных самоорганизующихся систем любого типа. Содержание понятия информации в естественных науках неоднозначно и зависит от того научного контекста, в котором оно определяется. Так, в кибернетике обычно абстрагируются от содержательной (смысловой) стороны информации и рассматривают процессы взаимодействия элементов любой кибернетической системы, обеспечивающие устойчивость и управляемость этой системы, с точки зрения теории передачи сигналов, когда на первый план выступает проблема оптимальной взаимной передачи и приема данных о состоянии отдельных элементов системы. При этом материальная форма, в которую облечены эти сведения, имеет второстепенное значение и является делом техники (в искусственных системах) или определяется спецификой тех или иных естественных природных сред (сообществ организмов, ценозов, экосистем и даже всей биосферы в целом). В естествознании информация трактуется как некоторая совокупность данных, полученных в процессе эксперимента в прямых или косвенных измерениях, а также в результате обработки и обобщения данных в рамках какой-либо гипотезы или теории. В этом смысле то, что недоступно измерениям, что не является источником научных данных, не может быть предметом естествознания и научной информацией не обладает. С такой точки зрения, все явления природы, недоступные наблюдению невооруженными органами чувств, содержат метаинформацию, которая актуализируется при использовании человеком соответствующих приборов, расширяющих пределы восприятия скрытых энергетических потоков. Например, количество информации «оптического» происхождения можно увеличить, применяя, помимо телескопа и микроскопа, детекторы инфракрасного, ультрафиолетового и рентгеновского излучения, недоступного человеческому глазу. В гуманитарной сфере любой информации, кроме смыслового содержания, присущ еще и ценностный аспект, зависящий от системы мировидения, в которую эта информация встраивается. Отвлекаясь от смыслового и ценностного аспектов сообщения, можно любую информацию формально рассматривать как совокупность сведений о некотором определенном событии, которое в принципе может произойти в рассматриваемой системе. Событием в кибернетике называют состояние системы в определенный момент времени. Передаваемые и принимаемые сведения содержат данные о том, в каком из множества возможных состояний находилась эта система в конкретный момент времени. Эти данные могут быть закодированы определенным образом с использованием некоторого количества элементарных символов, составляющих алфавит кода, а число таких символов называется основанием кода. Из теории передачи сообщений следует, что каким бы ни было основание используемого кода, длина последовательности сигналов, необходимой для передачи некоторого конкретного сообщения, прямо пропорциональна логарифму числа всех возможных сообщений. Такой формализованный подход к информации позволяет производить измерение её количества, но без учета смысла, а только с точки зрения возможности кодировки её при помощи последовательности сигналов, построенной, как принято в кибернетике, на основании двоичной системы счисления, где существуют только числа 0 и 1 – т.н. двоичный код. Тогда за единицу измерения принимается то количество информации, которое заключается в одном двоичном разряде и определяется выбором одного из двух возможных сообщений, т.е. «да / нет», - эта единица называется бит. Эти соображения привели К. Шеннона к выводу, что количество информации в битах Н связано со степенью неопределенности в сообщении следующей формулой: H=log2 N. Здесь она приводится в упрощенном виде для случая, когда все «трактовки» равновероятны, а 1/N - вероятность каждого варианта. Данная формула аналогична выражению для энтропии как мере беспорядка или хаоса в термодинамической системе, полученному Л. Больцманом в рамках статистической физики. Обнаружившая себя аналогия далеко не случайна, - она вскрывает факт глубокой связи между теорией информации и статистической физикой и вводит информатику, как науку, в контекст всего естествознания. Отсюда также следует, что устойчивая циркуляция потоков информации в живых и неживых системах обеспечивает их стабильность и управляемость, а получение информации о внешнем мире в процессе человеческой деятельности приводит к упорядочиванию отношений в суперсистеме «человек-природа». Существующая в настоящее время сциентистская тенденция абсолютизировать понятие информации и распространять его на все без исключения процессы, в которых существуют хотя бы некоторые формы самоорганизации, связана с желанием иметь некоторый универсальный научный язык, описывающий любые системные феномены как в неживой, так и в живой природе. Это, в целом, весьма удобно, т.к. данный подход позволяет одним термином охватить широкий спектр конкретных понятий, и к тому же поддается количественному описанию. Однако все процессы, происходящие в неживых системах, могут быть вполне адекватно описаны и традиционным способом - на языке фундаментальных законов сохранения и соответствующих конкретному случаю физико-химических законов, и не требуют никаких дополнительных понятий. В то же время в области изучения системных закономерностей эволюции живых организмов (и тем более социально-культурных феноменов человеческой истории), принципиально необходима категория информации, но не столько с формальным количественным учетом её объема, сколько с анализом смыслового и ценностного содержания, поскольку эти процессы, хотя и не противоречат законам физики и химии, но полностью ими не описываются. 33. Большой взрыв, (модель большого взрыва), - современная общепринятая теория происхождения и эволюции Вселенной, суть которой сводится к тому, что вся видимая область космического пространства возникла примерно 15-20 миллиардов лет назад из т.н. «сингулярности» – специфического состояния материи, характеризующегося ядерными размерами и плотностью вещества порядка 1095 г/cм3 (плотность воды = 1 г/см3). Метафора "взрыв", в результате которого видимая часть Вселенной находится в процессе расширения (разбегание галактик), весьма условна и скорее преследует цель наглядности. С точки зрения современной физики это явление трактуется в терминах квантового перехода из состояния т.н. первичного квантового вакуума через ряд промежуточных форм к состоянию известных на сегодняшний день форм материи – вещества, состоящего из атомов и молекул, субъядерных «элементарных» частиц и некоторых видов полей, достаточно адекватно описываемых современной квантовой механикой. При этом, в отличие от взрыва в привычном понимании, разлетается не вещество и объекты Вселенной из какой-то центральной точки пространства, а как бы «раздувается» само пространство – межгалактические области Вселенной, причем условно выбранным центром для удобства математического описания процесса может быть любая точка пространства, - например, наша планета Земля. Вопрос об историческом развитии Вселенной возник в 20-е годы нашего века, когда российский ученый А.А. Фридман получил ряд нестационарных решений уравнений общей теории относительности А. Эйнштейна, соответствующих расширению или сжатию пространства. Аналогичные варианты моделей вселенных были также исследованы еще в 1916 году голландцем В. де Ситтером и в 30-х годах французом Ж. Леметром. В 1927 году американский астроном Эдвин Хаббл, зная уже о теории Фридмана и других моделях нестационарной Вселенной, экспериментально установил факт разбегания далеких галактик и предложил формулу зависимости скорости разбегания космических объектов V от расстояния R: V=HR, где H по современным данным равно примерно 15 - 25 км /сек на 1 миллион световых лет (т.н. постоянная Хаббла). Величина, обратная постоянной Хаббла, представляет собой время, в течение которого расширялась Вселенная, т.е. её возраст ( 15 млрд. лет). Идею типа “Большого взрыва” в первоначальном виде (теория “горячей Вселенной”) выдвинул на основе предшествующих идей Леметра в сороковых годах американский физик русского происхождения Георгий Гамов, предсказав существование следов этого взрыва – т.н. реликтового излучения, открытого в середине 60-х американскими радиоинженерами Пензиасом и Вильсоном. В настоящее время это очень сложная теория, позволяющая удовлетворительно объяснить многие экспериментальные данные и внутренне непротиворечиво, и научно правдоподобно воссоздать историю эволюции Вселенной. Независимо от того, насколько достоверно эта теория позволяет объяснить некоторые отдельные детали процесса, ее огромное философское значение бесспорно. Созданием этой концепции завершился тысячелетний спор о том, что в мире неизменно, а что подвержено изменениям, в пользу глубокого убеждения, основанного на научных доказательствах, о принципиальной историчности Вселенной и эволюционном пути развития любых сущностей как живой, так и неживой природы в характерном для каждого явления собственном темпоральном мире. Таким образом, не существует в мире ничего неизменного, и само мироздание – Космос, идеал гармонии и порядка древних греков, во все времена считавшийся вечным и неизменным, - является одной из стадий нескончаемого процесса изменения и превращения материи. (См. также: Вселенная, Галактика, Фридман). 34. Уравнение Шредингера –.основное уравнение квантовой механики, описывающее эволюцию квантовомеханического объекта во времени. Оно записывается через оператор Гамильтона (т.н. гамильтониан) и утверждает, что производная волновой функции (t) («пси»-функции) по времени совпадает с результатом действия на (t) оператора Гамильтона  = Ноп. Это уравнение было постулировано Э. Шредингером на основе аналогии с уравнениями классической оптики, но полученное решение (собственные функции и собственные значения) соответствуют не непрерывно, а дискретно изменяющимся частотам волнового процесса. Уравнение Шредингера имеет вид: ih*(t)/ t=Ноп(t), где i – мнимая единица, h – постоянная Планка, и его решение с учетом соответствующих начальных и граничных условий описывает квантовый характер тех или иных процессов микромира. Так, например, из общего вида уравнения Шредингера при определенных условиях следует т.н. стационарное решение: (x,y,z,t)=e-i(E/h)t(x,y,z), где e-i(E/h)t – экспонента, Е – собственные значения волновой функции, представляющие собой совокупность энергетических уровней, (x,y,z) – функция только пространственных координат. Уравнение Шредингера линейно, следовательно, если его решением являются две любые собственные функции 1 и 2, то его решением является и их линейная комбинация (суперпозиция волновых функций): а11+а22 , - это математическое выражение принципа суперпозиции. Уравнение Шредингера не выводится логически непротиворечиво из более фундаментальных оснований или соображений, а постулируется, поэтому его описательные возможности можно проверить только эмпирическим путем. В ряде экспериментов (где осуществлялись т.н. чистые состояния, для которых волновая функция существует, например, отдельный атом водорода) были получены очень хорошие результаты, в более сложных случаях – при исследовании поведения больших систем или т.н. квантовых ансамблей (смешанное состояние, где выделить волновую функцию не представляется возможным) приходится прибегать к вероятностно-статистическому описанию состояния объекта, - тем не менее, только аппарат квантовой механики, развитый на основе волнового подхода Шредингера (или аналогичного, матричного варианта Гейзенберга), позволяет получить адекватные результаты при математическом моделировании парадоксальной реальности микромира. Сознавая фундаментальный характер квантовомеханических закономерностей в микромире, в частности, принципиально непредсказуемый в детерминистском смысле, чисто вероятностный характер поведения микрообъектов, обоснованный принципом неопределенности, Шредингер пытался обнаружить следы этой неопределенности в феноменах макромира и таким образом установить связь между этими двумя уровнями реальности и философски обосновать неразрывность и единство всех структурных уровней организации природы. Эти размышления нашли выражение в знаменитом мысленном эксперименте, получившем название «Кошка Шредингера» (1935 год), цель которого состояла в логическом доказательстве принципиального существования таких модельных ситуаций, в которых квантовомеханическая неопределенность, внутренне присущая микромиру, транслируется на реальность макроуровня. Модель «Кошка Шредингера» выглядит так. Представим, что в закрытой коробке, снабженной устройством, содержащим отравляющее вещество, сидит живая кошка. Это устройство реагирует на световой импульс, создаваемый отдельным квантом света (единичным фотоном). Этот фотон падает на т.н. полуотражающее зеркало, которое способно как отражать свет, так и пропускать его с вероятностью 1/2. Если фотон отразится, то ничего не произойдет, но если он пройдет сквозь зеркало, то запустит механизм, который убивает кошку, но пока коробка не открыта, невозможно узнать, жива кошка или уже мертва. Если бы речь шла о ситуации, в которой прохождение фотона сквозь зеркало носило бы вероятностный характер в классическом смысле, ничего парадоксального в этом рассуждении не было бы, но в квантовомеханическом случае, когда, согласно соотношению неопределенностей, исход опыта в микромире (прохождение фотона) нельзя предсказать принципиально, его результат, проецируемый на макромир (жизнь или смерть кошки) носит такой же квантовомеханический характер, и получается, что принцип неопределенности распространяется в некоторых случаях (пусть сугубо модельных) на реальность макромира! Иными словами, если судьба фотона (микромир) описывается как результат суперпозиции двух его состояний, выражаемых «пси»-функциями Шредингера (прошел через зеркало – (1) или отразился – (2), то получается, что и судьба кошки (макромир) описывается также суперпозицией двух состояний (но уже макрообъекта – жива или мертва кошка), которая (суперпозиция), соответствуя квантовой неопределенности микромира, проецирует эту неопределенность на поведение объектов макромира. Т.е., другими словами, кошка в этих условиях находится между жизнью и смертью до тех пор, пока не будет подвергнута прямому наблюдению, а её существование в этом эксперименте также представляет собой суперпозицию (т.е. квантовомеханическую смесь (а11+а22) двух макроскопических «пси»-функций состояния (т.е. 1 – жизни и 2 – смерти) макрообъекта, полученных как бы посредством увеличения квантовых микросостояний. И точно так же, как вопрос, «что было на самом деле в квантовомеханической системе до опыта над ней?», с точки зрения квантовой механики некорректен, поскольку ответить на него можно только после измерений, дающих необратимый результат (т.е. «самое дело» возникает только в процессе измерений и интерпретации результатов эксперимента наблюдателем, а до этого можно говорить лишь о виртуальных возможностях), также и здесь – вопрос о жизни и смерти макроскопического существа в этом мысленном эксперименте тесно связан с наличием наблюдателя, производящего измерения, – в его отсутствие этот вопрос лишается смысла и речь может идти только о квантовой неопределенности и суперпозиции состояний. Реальный ответ рождается в акте наблюдения и в некотором смысле является результатом коллапса волновой функции, описывающей «квантовомеханическое» состояние кошки как одного из элементов совокупной системы: «фотон – кошка – наблюдатель». Эту же ситуацию «макроскопической неопределенности» можно повторить, рассматривая несколько иную систему: «атом – кошка – наблюдатель», в которой сигнал к «убийству» кошки подается при акте распада отдельно взятого радиоактивного атома. Дело в том, что обладая вероятностной природой, процесс радиоактивного распада может характеризоваться периодом полураспада или вероятностью распада только в среднем, т.е. при наличии достаточно большого, статистически значимого, количества атомов. Отдельный акт распада – это типично квантовомеханическое явление, подчиняющееся соотношению неопределенностей, и это событие, следовательно, принципиально непредсказуемо. Сам Шредингер по этому поводу говорил, что момент распада отдельного радиоактивного атома ещё менее предсказуем, чем момент смерти здорового воробья. Поэтому и в данном опыте жизнь или смерть кошки, т.е. судьба макроскопического объекта полностью обусловлена принципом неопределенности, свойственным микромиру, т.е. квантовые закономерности как бы транслируются на макромир. Отмечаемая многими физиками и философами трудность интерпретации этого парадокса квантовой механики связана с тем, что все попытки ввести эту ситуацию в контекст, выходящий за пределы квантовой механики, неизбежно связаны с использованием понятий, имеющих смысловое содержание, обусловленное доминантами классической парадигмы. Именно поэтому неопределенное двойственное состояние кошки воспринимается как парадокс и требует той или иной интерпретации. Однако это не более, чем парадокс классического мышления, связанный с проявлением устойчивых стереотипов обыденного сознания. Если воспринимать квантовую механику как специфический язык, необходимый для описания совершенно несопоставимой с макромиром квантовой и вероятностной реальности микромира, тогда проблема парадоксов полностью исчезает, поскольку в семантике языка квантовой механики таких парадоксов не существует. Разъясняя специфический характер логики, свойственной языку квантовой механики, в связи с трудностями понимания феноменов микромира (в частности, модели «Кошка Шредингера»), которые резко противоречат здравому смыслу и познавательным традициям классической парадигмы, выдающийся физик современности Стивен Хокинг пишет о том, что философам науки, не говоря уже о простых людях, очень трудно допустить в качестве реальной такую ситуацию, когда кошка как бы наполовину жива, а наполовину мертва. «Эта трудность, - указывает он, - возникает оттого, что они косвенно пользуются классической концепцией реальности, где объект имеет определенную и единственную предысторию. Но весь фокус в том, что у квантовой механики другой взгляд на реальность. Согласно ему, объект имеет не единственную предысторию, но все возможные предыстории. В большинстве случаев вероятность какой-то одной предыстории отменяется вероятностью несколько иной предыстории, но в определенных случаях вероятности соседних предысторий усиливают друг друга. И одну из этих усиленных предысторий мы видим как предысторию объекта». Это один из примеров т.н. квантовой логики, описывающей суперпозицию неопределенных состояний квантовомеханического объекта, а также яркое свидетельство того, как сложно ввести категории фундаментальной неклассической науки, доступные немногим профессионалам, в общекультурный контекст и какую кардинальную ломку стереотипов обыденного сознания это предполагает, - сознания, базирующегося на интуитивно понятной бинарной аристотелевской логике («да» или «нет»), истоки которой восходят к архетипу порядка и которая на протяжении столетий служила опорой здравому смыслу и повседневному опыту. В 90-е годы ХХ века несколько групп ученых экспериментально воплотили ситуацию, соответствующую этому парадоксу, на примере эффекта сверхпроводимости, когда оказалось, что макроскопическая система может при определенных обстоятельствах находиться в таком состоянии, когда некоторая сугубо макроскопическая величина (например, величина магнитного потока) проявляет закономерности, свойственные типичному квантовомеханическому процессу микромира – туннельному эффекту. Эта величина (магнитный поток) в данных экспериментах не имеет определенного значения, т.е. её поведение не описывается законами классической электродинамики (как ожидалось для обычных процессов макромира), а носит квантовый характер, соответствующий поведению объектов микромира, и подчиняется квантовомеханическому принципу неопределенности. Отсюда следует, что в общем случае переход от реальности микромира на уровень макромира, т.е. фактор «увеличения» сам по себе, не избавляет результат макропроцесса от квантовомеханической неопределенности, лежащей в основе составляющих его элементарных микропроцессов. Некоторые современные исследователи считают, что для объяснения детерминизма процессов макроуровня и той динамической необратимости, которая приводит к определенности результатов событий, происходящих в макромире, требуются новые физические принципы. Одним из таких принципов, по мнению одного из создателей синергетики бельгийского ученого Ильи Пригожина, видимо может стать принцип неограниченного возрастания энтропии при переходе от микроуровня (элементарных частиц, атомов, полей) к реальности макромира, представленной предметами, содержащими колоссальное количество элементов микромира (т.н. эффект сборки) и процессами, энергия которых несоизмерима с характерной квантовомеханической величиной – фундаментальной постоянной Планка. (См. также: Квантовая механика, Наблюдение, Шредингер). 35. Ноосфера – сфера разума, высшая стадия естественного развития биосферы Земли, её новое гармоничное состояние, осуществленное при непосредственном воздействии человека как крупнейшей геологической силы общепланетарного масштаба, т.е. область нашей планеты, охваченная разумной человеческой деятельностью. Понятие ноосферы ввел в 1927 году французский математик и философ-бергсонианец Эдуард Леруа на основе учения о биосфере В.И. Вернадского и учения о «феномене человека» и «божественной среде» выдающегося французского ученого и католического мыслителя Пьера Тейяр де Шардена. Этим термином Леруа обозначал современную стадию, переживаемую биосферой. Дальнейшее развитие этой идеи и превращение её в научную и философскую концепцию универсального масштаба связано с именем выдающегося русского ученого В.И. Вернадского, который сейчас воспринимается как один из крупнейших мыслителей ХХ века. В своей статье «Несколько слов о ноосфере», Вернадский, утверждая наступление этой особой эры как закономерный этап геологической и биологической эволюции планеты, писал об этом так: «Ноосфера есть новое геологическое явление на нашей планете. В ней впервые человек становится крупнейшей геологической силой. Он может и должен перестраивать своим трудом и мыслью область своей жизни, перестраивать коренным образом по сравнению с тем, что было раньше. <…> Ноосфера - последнее из многих состояний эволюции биосферы в геологической истории – состояние наших дней. Ход этого процесса только начинает нам выясняться из изучения её геологического прошлого в некоторых своих аспектах. Пятьсот миллионов лет тому назад, в кембрийской геологической эре, впервые в биосфере появились богатые кальцием скелетные образования животных, а растений – более двух миллиардов лет назад. Это кальциевая функция живого вещества, ныне мощно развитая, была одной из важнейших эволюционных стадий геологического изменения биосферы. ... Не менее важное изменение биосферы произошло 70-110 млн. лет тому назад, во время меловой системы и особенно, третичной. В эту эпоху впервые создались в биосфере наши зеленые леса, всем нам родные и близкие. Это другая большая эволюционная стадия, аналогичная ноосфере. Вероятно, в этих лесах эволюционным путем появился человек около 15-20 млн. лет тому назад. ... Сейчас мы переживаем новое геологическое эволюционное изменение биосферы. Мы входим в ноосферу. Мы вступаем в неё – в новый стихийный геологический процесс…». Таким образом, по Вернадскому, процесс ноогенеза – с одной стороны, естественный и закономерный результат общей эволюции биосферы, с другой – для него необходимы сознательные и целеустремленные действия всего человечества, предполагающие осознание статистическим большинством соответствующей системы ценностей. Основоположники учения о ноосфере полагали, что процесс перехода к высшим формам развития биосферы (точка Омеги как осуществление окончательного идеала Божественной среды у П. Тейяр де Шардена) неизбежен и с необходимостью ведет к упорядочению природной и социальной среды, к более совершенным формам бытия и всеобщему благу на основе гармоничного соединения для этой цели науки, общественного сознания, экономики и политики государств. Однако, именно здесь, по мнению ряда современных интерпретаторов этого учения, научная трактовка проблемы уступает место «мифологии разума», и проявляются утопические черты этого учения, - желаемое заслоняет действительное. В самом деле, заранее неясно, насколько когерентно будут сочетаться стихийные, но в целом, высокоупорядоченные системным образом биогеосферные силы и объективные, но не менее стихийные и часто вполне хаотические социально-экономические тенденции реального процесса развития цивилизаций. Есть вполне научные основания считать, что процесс ноогенеза, в том виде, как он описан Вернадским, Тейяр де Шарденом, Циолковским и русскими космистами, в принципе, возможен, но далеко не обязателен. С точки зрения синергетических представлений о специфике эволюции сложных неравновесных систем (в данном случае, условно говоря, по формуле: «биосфера + техносфера + некая сфера духа, например, пневматосфера Флоренского = ноосфера»), можно допустить, что в процессе самоорганизации и саморазвития такой сверхсложной и еще недостаточно глубоко понимаемой человеком системы, как эта, в результате появления неожиданных бифуркаций, обусловленных скрытыми аттракторами, возникнут и другие, непредвиденные и нежелательные, но более реальные траектории развития. Некоторые современные исследователи также полагают, что существует опасность постепенной и, в целом, антигуманистической подмены идеи ноосферы в традиционном, несколько романтическом её понимании, идеей артесферы – искусственного мира, созданного технократической и информационнократической цивилизацией, подавляющей и трансформирующей научно-техническими методами естественные биологические условия жизни человека, и под видом высокой цели - разрешения биологических и экологических противоречий (загрязнение окружающей среды, болезни, старость, смерть), заменяющей природу её окультуренным суррогатом. Это идея экологического императива, концепция «мир как сад», в котором на основе достижений науки искусственно создается гармония, и прочие им подобные научно-рационалистические построения утопического характера. Эти исследователи утверждают, что некритическое отношение к учению о переходе биосферы в ноосферу современных его энтузиастов, считающих этот процесс закономерным, неуклонным и единственно возможным, приводит к дезориентации общественного сознания и закреплению в нем сциентистских мифов рационально-прогрессистского толка. Тем самым в значительной степени маскируется истинная сложность проблемы дальнейшего развития системы «человек-природа», поскольку предлагается более или менее определенная и как бы научно обоснованная, вполне радужная перспектива ее решения. Но, несмотря на существующие разногласия, а возможно и благодаря им, имеющий место конфликт интерпретаций этого учения привел к осознанию огромной сложности данной проблемы, и дискуссии вокруг неё раскрывают большое философское значение концепции ноосферы. Очевидно, что философская и естественнонаучная задача состоит в необходимости дальнейшего всестороннего анализа самой фундаментальной оппозиции нашего времени - «биосфера - артесфера», т.е. в изучении возможности ослабить неизбежные противоречия между универсумом природы и универсумом человеческой деятельности таким способом, чтобы одно не подавлялось другим, а имело достаточно степеней свободы для бесстрессового развития. В свете современных экологических исследований, сложились определенные представления о зависимости как человека от природы, так и природы от человека, и разорвать эти связи уже невозможно без ущерба для человеческой цивилизации, поэтому оптимальным путем развития биосферы в эпоху ноогенеза видится коэволюция человека и природы в условиях уже объективно осуществившемся между ними структурно-системном комплексе отношений. (См. также: Вернадский, Тейяр де Шарден, Экосистема). 36. Кибернетика – общая теория управления, применяемая к любой системе взаимодействующих элементов, образующих единое целое. Основоположник кибернетики, выдающийся американский математик Норберт Винер, определял её как науку об управлении и связи в механизмах, организмах и обществе. Кибернетика, которая появилась в 50-е годы ХХ века, как наука изучает не все системы вообще, а именно управляемые системы, причем это могут быть технические, биологические, экономические, экологические системы, в которых осуществляется саморегуляция и самоуправление при помощи совокупности факторов, (таких, как передача и обмен энергии или информации), прямо или косвенно влияющих на скрытое от непосредственного наблюдения взаимодействие элементов, что и определяет результирующее поведение и общие закономерности развития этих систем как целого. При этом сами элементы большой системы могут для более детального анализа рассматриваться как подсистемы, а в других случаях большая система может оказаться элементом суперсистемы. Таким образом кибернетика, (в зависимости от масштабов поставленной задачи), представляет мир как регулируемую и самоуправляемую суперсистему с иерархической структурой элементов-подсистем, (состоящих, в свою очередь, из элементов следующего уровня и т.д.), организованную посредством взаимодействия обратных информационных и энергетических связей, обеспечивающих долговременное устойчивое её развитие как целого. Не любая система может обладать свойством управляемости. Необходимым условием наличия в ней хотя бы потенциальных возможностей к управлению является организованность системы, т.е. существование определенной иерархии структур и взаимосвязей между ними, результирующая совместная деятельность которых может интерпретироваться в терминах целесообразности поведения. Как правило, кибернетика изучает действие т.н. отрицательных обратных связей, которые представляют собой механизмы или процессы, использующие часть энергии или информации данной системы, чтобы затем вводя их в эту же систему уменьшить или подавить хаотическое влияние случайных факторов или постоянных тенденций, вызывающих разрегулировку и разупорядочение в процессах саморазвития системы. Роль отрицательных обратных связей состоит в обеспечении долговременного устойчивого состояния системы, находящейся не в статическом состоянии, а в процессе движения и развития, т.е. динамически активной системы, причем, используя энергию и информацию, эти связи должны обеспечить сохранение структурной организации системы, несмотря на хаотизирующие энтропийные процессы, обусловленные термодинамическими факторами. Рождение кибернетики как науки обычно относят к 1948 году, когда вышла в свет основополагающая книга Н. Винера («отца кибернетики») «Кибернетика или управление и связь в животном и машине», в которой излагалась общая теория управления сложными системами на основе представлений об универсальных свойствах и закономерностях поведения любых систем, независимо от их природы. В частности, именно Винер со всей определенностью выдвинул идею об универсальности и общности принципа отрицательной обратной связи как для искусственных систем автоматического регулирования различных технологических процессов, так и для биологических процессов, позволяющих живым организмам поддерживать состояние устойчивого существования (гомеостаза) при изменяющихся внешних условиях, хотя, следует заметить, что разработки по теории регулирования с обратной связью имеют почти столетнюю историю. Становление и развитие кибернетики непосредственно связано также с идеями еще двух выдающихся умов 20-го века. Один из них английский математик Алан Тьюринг, создатель теории обучения вычислительных машин, автор пионерских работ по проблемам, касающимся сущности мышления, оригинальных работ по моделированию биологических процессов и еще ряда основополагающих работ. Другой – американский математик и логик Джон фон Нейман – создатель первой цифровой вычислительной машины, автор теории игр, обосновавший возможность построения сколь угодно надежных систем из ненадежных элементов посредством введения структурной избыточности, доказавший принципиально важную теорему о способности достаточно сложных автоматов к самовоспроизведению и созданию более сложных машин, (что имеет прямые коннотации в биологии – например, принцип Дана), а также автор многих оригинальнейших исследований по проблемам квантовой механики, логики, политэкономии и социологии. Основные цели, стоящие перед кибернетикой – установить законы, общие для всех управляемых систем вообще и частные закономерности, характерные для систем данного класса, обнаружить границы, в пределах которых можно обеспечить устойчивое развитие различных систем, разработать прикладные методы, которые позволяют оптимизировать процессы тех или иных систем в заданных пределах и т.д. С учетом специфических особенностей определенных классов управляемых систем современная кибернетика разделилась на такие прикладные дисциплины, как техническая кибернетика, экономическая кибернетика и биологическая кибернетика. Если задачей кибернетики является изучение условий управляемого поведения и равновесия имеющихся структур, то проблемами самоорганизации и возникновения новых структур из хаотических состояний занимается синергетика. Синергетика (от греч. сотрудничество, совместное действие) – междисциплинарное научное направление, изучающее общие и частные закономерности процессов самоорганизации в сложных открытых неравновесных системах самой различной природы: термодинамических, биологических, экологических, экономических, социальных и т.п. В основе феномена самоорганизации в таких системах лежат внутренне присущие им спонтанность и нестабильность, которые при внешнем воздействии резонансного типа могут стать причиной лавинообразного и часто необратимого во времени процесса перехода системы из одного квазиравновесного состояния в другое, но уже совершенно нового типа, со свойствами и характеристиками (параметрами порядка), не выводимыми из свойств и характеристик предыдущих состояний и составляющих систему элементов. Возникшая в начале 70-х годов ХХ века, на основе нелинейной термодинамики, синергетика как наука общесистемного характера, приобрела со временем концептуальное значение, став основой новой эволюционно-синергетической парадигмы. Особые достижения синергетики связаны с именами выдающихся ученых ХХ века, Нобелевских лауреатов: немецкого физика специалиста по лазерам Германа Хакена (предложившего этот термин в 1973 году), бельгийского физико-химика Ильи Пригожина (исследователя диссипативных структур) и немецкого биофизика Манфреда Эйгена (создавшего теорию гиперцикла – процесса самообразования сложных органических молекул из простых компонентов). Синергетический тип мышления рисует качественно новую картину мира, представляя его, в отличие от механико-динамических детерминистских трактовок классической науки, как подвижную неравновесную систему, гармонически, конструктивно и продуктивно сочетающую в качестве своих элементов как случайные, нестабильные и хаотические, так и стабильные, упорядоченные структуры, связанные сложной сетью положительных и отрицательных обратных связей. Эта система развивается по внутренне ей присущим нелинейным законам, проявляющимся в антиэнтропийной деятельности как живых, так и неживых её частей. Неизменный, обратимый во времени и точно предсказуемый мир механического движения предметов (в представлениях Лапласа, Кирхгофа, Гельмгольца и др. последователей ньютонианства), синергетика заменила на вечно развивающийся и обновляющийся, необратимый во времени, целостный и незамкнутый мир процессов (в представлениях Спенсера, Дарвина, Бергсона, Уайтхеда, в ряде философских учений Востока и т.п.), в котором не существует резких граней между порядком и хаосом, в котором новые упорядоченные структуры рождаются из неравновесных хаотических состояний, причем последние являются принципиально необходимыми для общего саморазвития и сотворения новых форм. «Материя становится активной: она порождает необратимые процессы, а необратимые процессы организуют материю», - писал о новом синергетическом мировидении И. Пригожин и подчеркивал, что «творческая формообразующая деятельность природы» опирается не столько на закономерно повторяющиеся процессы, (что естественно), сколько на маловероятные и потому достаточно редкие. Но самое главное в «творческом процессе» природы – это использование уникальных событий, которые, согласно законам термодинамики, столь маловероятны, что случаются может быть лишь однажды, причем большинство из таких событий часто проходит без последствий. Но в благоприятном случае их реализации в специфических условиях нелинейных открытых систем (нуклеация), они порождают целую цепь событий, структур и траекторий, необратимо вписывающихся в природный контекст и выводящих всю систему к маловероятным аттракторам на новый путь развития. В свете этих философских идей, синергетика выдвинула ряд научных принципов и создала соответствующий математический аппарат, позволяющий моделировать процессы эволюции в некоторых важных химических, биологических и социальных самоорганизующихся системах. Синергетический метод интерпретации процессов самоорганизации, как внутренне присущих материальному миру, пока единственный, на основе которого можно научно ставить вопрос о естественном пути самозарождения и дальнейшем саморазвитии живого вещества в условиях Земли, хотя пока еще успехи науки в этом направлении оцениваются как весьма скромные. В современной синергетике сложился ряд ведущих научных направлений, таких как философско-методологическое, культурологическое, междисциплинарных исследований и новой системной медицины. Синергетика как наука о процессах саморазвития сложных систем постепенно занимает важные позиции в системе других естественных наук, в гуманитарных исследованиях, создает научные предпосылки для решения экологических проблем и вообще глобальных проблем современной цивилизации. В контексте культуры и образования синергетика способствует синтезу естественнонаучного и гуманитарного мышления, соединяя физику, математику, информатику и логику с изобразительным искусством, литературой, музыкой, психологией, педагогикой и эстетикой, создавая продуктивный междисциплинарный научный подход, который позволяет по-новому исследовать и интерпретировать структуру художественных текстов и прочих произведений искусства, а также предложить инновации в сфере образования. Этот новый подход, приводящий к созданию более адекватной картины мира, принципиально плюралистичен, поскольку сам мир в этой трактовке неоднозначен и недоступен описанию каким-либо одним универсальным языком. В нём есть место и динамике обратимых состояний, и термодинамике необратимых процессов, кибернетике, моделям т.н. квантового хаоса и бутстрэпа и объединяющему все эти и прочие частные подходы и модели - общеэпистемологическому принципу дополнительности. «Я назвал новую дисциплину синергетикой, - писал Г. Хакен, - не только потому, что в ней исследуется совместное действие многих элементов систем, но и потому, что для нахождения общих принципов, управляющих самоорганизацией, необходимо кооперирование многих различных дисциплин», а Илья Пригожин назвал этот новый постнеклассический период в современном естествознании и философии «новым диалогом человека с природой». (См. также: Аттрактор, Бифуркация, Пригожин). 37. Универсальный эволюционизм – фундаментальный философский принцип саморазвития, получивший обоснование в синергетике посредством обобщения дарвиновской концепции биологической эволюции и экстраполяции её на закономерности развития любых сложных неравновесных самоорганизующихся систем. Принцип универсального эволюционизма рассматривает процессы самоорганизации и развития неживых, живых и социальных систем как единый и целостный эволюционный процесс, охватывающий всю суперсистему – Универсум (т.е. Вселенную и встроенного в неё Человека), и подчиненный единому универсальному алгоритму всеобщего саморазвития. Этот принцип на основе критерия дополнительности соединяет в себе такие важнейшие отрасли постнеклассической науки 20-го века, как постнеодарвинизм и синергетику, основные положения которых – это глобальная информационность, системность, самоорганизация и необратимость времени. Он также учитывает концепцию ноосферы и антропно-космологические идеи, исходя из которых современное естествознание и философия совместными усилиями пытаются осмыслить «феномен человека» (термин П. Тейяр де Шардена) как фундаментальный аттрактор, притягивающий траекторию эволюции Вселенной. Подход к концепции универсального эволюционизма с информационно-алгоритмических позиций, позволяет трактовать развитие Универсума как сложную и нестабильную систему последовательных событий, стохастически реализующихся на основе предыдущей информации и генерирующих информацию следующего уровня. Это есть неравновесный процесс континуально-дискретного разворачивания своеобразного креода (т.е. пучка траекторий) от Большого взрыва до современной структуры космоса, которая, по современным космологическим представлениям, обеспечила уникальное сочетание необходимых условий для появления в некоторой области Вселенной разумной материи. Вдоль этих траекторий развития по законам вероятности происходит самоорганизация материи от хаоса к порядку, от простых неорганических структур к более сложным органическим, а затем и живым, усложняющимся в процессе цефализации. Многие траектории развития, несмотря на кажущуюся их уникальность и антиэнтропийный характер отдельных процессов и возникающих при этом структур, направлены в целом к наиболее вероятным в данных условиях состояниям тех или иных структур, которые задаются соответствующими аттракторами, хотя и повышают энтропию всей суперсистемы. В силу возникновения неизбежных ситуаций случайного выбора (через бифуркацию) одной из нескольких возможных траекторий, в результате чего нарушается информационная симметрия предшествующих состояний и изменяется ход эволюции, этот процесс в целом необратим во времени. На современном этапе познания природы в рамках эволюционно-синергетической парадигмы принцип универсального эволюционизма стал одним из основных методологических подходов к построению картины мира, представляя Вселенную и человека в ней как единую, целостную и взаимообусловленную систему, развивающуюся по универсальным алгоритмам, заключающим в себе конструктивное и формообразующее сочетание стабильности и нестабильности, повторяющегося и уникального, что и задаёт наблюдаемую «стрелу времени» и определяет ход универсальной истории. «Возмущения, случайные взаимодействия критических флуктуаций и бифуркация, наступающая вслед за нуклеацией некоторых флуктуаций, - таковы ключевые элементы, которые определяют интерактивную динамику, отвечающую за эволюцию сильно неравновесных систем в природе, - пишет известный синергетик Э. Ласло. - Мир, который мы наблюдаем сегодня, возник на нашей планете и, возможно, где-нибудь еще во Вселенной из общих начальных условий и дошел до своего современного диверсифицированного (но не упорядоченного) состояния». Этот процесс саморазвития материи имеет универсальные системные черты, проявляющиеся в эволюции как неживой природы, так и мира живого вещества, а также в развитии сферы человеческого познания и всей культуры в целом. Общие закономерности, свойственные универсальной системно-синергетической эволюции, применимы к самому широкому кругу способов научно-теоретического и образно-художественного осмысления окружающего мира и составляют предмет и один из методов постнеклассической науки и философии. В середине 70-х годов ХХ века многие ученые и философы стали интенсивно обсуждать картину мира на основе т.н. антропного принципа. Это антропоцентристская космологическая гипотеза, которая утверждает, что все известные фундаментальные характеристики внешнего мира (физические константы, параметры взаимодействий, свойства силовых полей, элементарных частиц, атомов и всей Вселенной в целом) «подобраны» таким образом, чтобы в результате саморазвития материи неизбежно появились высшие формы живого вещества – носители сознания (в частности, человек как свидетель данной формы Вселенной). Такие выводы основаны на том, что, как показывают расчеты, основанные на последних достижениях современной физики, малейшие изменения известных величин фундаментальных квантовых и космологических констант, таких как скорость света, постоянная Планка, гравитационная постоянная, масса и заряд электрона, разница масс протона и нейтрона, соотношение интенсивности четырех фундаментальных взаимодействий, число пространственных измерений (крупномасштабная трехмерность мира) и т.д., привели бы к общей неустойчивости Вселенной, резко ускорили бы процесс эволюции космического вещества, обусловливающий образование галактик, звезд и планет, нарушился бы механизм создания ядер тяжелых химических элементов, стабильных атомов и т.п. Такое изменение хода ядерных и космических процессов, в конечном счете, исключило бы всякие возможности для возникновения и развития сложных атомно-молекулярных структур, не говоря уже о биологических формах. То есть устойчивое существование и развитие сложных систем критически зависит от соотношения фундаментальных констант, численные значения которых в настоящее время известны, благодаря научному естествознанию. Так, например, астрофизик Б. Картер в 1973 году показал, что равновесие между гравитационными и электромагнитными взаимодействиями внутри звезд соблюдается с высочайшей точностью, порядка 10-38 %, - и это ему и многим другим ученым представляется отнюдь не случайным явлением природы. Тогда же Картер выдвинул идею о том, что Вселенная должна быть такой системой, чтобы на определенном этапе её развития фундаментальные параметры допускали существование наблюдателей. Аналогичная строгость баланса сил и «подобранность» численных значений, характерна и для всех остальных типов взаимодействий и параметров микромира и космоса. Современная трактовка антропного принципа сводится, в основном, к трем формулировкам, последовательно усиливающим телеологическую направленность: 1) слабая версия: «Наблюдаемое значение всех физических и космологических констант не случайно, но продиктовано требованием обеспечить существование таких областей пространства, где могла бы возникнуть жизнь на углеродной основе, а также требованием того, чтобы возраст Вселенной был достаточно велик, т.е. чтобы это событие уже произошло». Эту формулировку вполне можно отнести к высказываниям телеологического типа, в которых признается наличие в мире целевого замысла, осуществляемого какими-либо высшими силами, недоступными рациональному познанию. Здесь также накладываются ограничения на возможность появления живого вещества на другой (например, кремниевой) основе, что можно трактовать как биокарбоцентризм. 2) сильная версия: «Вселенная должна обладать такими свойствами, которые на определенном этапе ее истории позволяют жизни развиться». В этой формулировке телеологическая и биоцентристская направленность усиливаются, но данная картина мира не настаивает на единственности нашей Вселенной и уникальности земных форм жизни, и не исключает возможности существования иных миров, в которых по их типу мироустройства наличие наблюдателя не является обязательным условием. И сильная, и слабая версия антропного принципа, в некотором смысле, подразумевают существование Бога, осуществляющего свой замысел. 3) категорическая версия: «Разумный информационный процесс неизбежно должен возникнуть во Вселенной, и однажды возникнув, он уже не может исчезнуть». Эта формулировка самая широкая по содержанию, и не связана с антропоцентризмом и биоцентризмом, поскольку не накладывает никаких ограничений на свойства объекта – носителя разумной информации. Здесь отсутствуют также телеологические и теологические коннотации, т.к. не делаются акценты на факте появления разума как осуществлении замысла высших сил, а утверждается естественный характер процессов самоорганизации и саморазвития материи в том варианте Вселенной (например, в нашем, где уже есть наблюдатель), который реально осуществился наряду со всеми другими возможными (виртуальными мирами). Такие гипотезы о возможности существования множества других миров, организованных по другим законам, имеют некоторую научную опору в современной космологии и синергетике, и согласно этим представлениям, существование различных типов Вселенных, в принципе, современной теорией не запрещается, но эти миры как бы «существуют без свидетелей», т.е. никем не воспринимаются. Научный статус антропного принципа не очевиден и вызывает дискуссии как среди физиков и космологов, так и среди биологов и философов, многие из которых считают его современным научно модифицированным вариантом религиозного мышления, опирающегося в неявном виде на признание идеи существования Бога. Здесь научное естествознание входит в несвойственную для него область – пытается ответить на вопрос «зачем?», «с какой целью?», вместо обычного «как?», «по какому закону?». И хотя антропный принцип не является ни эмпирическим обобщением, ни логически вытекающим следствием из известных научных фактов, тем не менее, поскольку на данном этапе развития науки однозначного решения этой проблемы не существует, то исходя из универсального познавательного метода эпистемологической дополнительности, следует считаться и с теми подходами к созданию более полной картины мира, которые открывает антропный принцип. «Настал момент понять, что удовлетворительное истолкование Универсума, даже позитивистское, должно охватывать не только внешнюю, но и внутреннюю сторону вещей, не только материю, но и дух. Истинная физика та, которая когда-либо сумеет включить всестороннего человека в цельное представление о мире», - писал в прологе к трактату «Феномен человека» Тейяр де Шарден. Идеи, близкие к антропному принципу, содержатся также в учениях русских философов (православных: Н.Ф. Федорова, С.Н. Булгакова, Н.А. Бердяева, П.А. Флоренского и «естественников-материалистов»: Н.А. Умова, В.И. Вернадского, К.Э. Циолковского, А.Л. Чижевского, В.Н. Муравьев и др.). Общий свод этих учений известен под названием философии русского космизма. (См. также: Ноосфера, Хокинг). 38. Клетка – это элементарная живая система, которая является первичной структурной основой всех живых организмов или фундаментальным уровнем структурной иерархии живого. Как один из основных структурных, функциональных и воспроизводящих элементов живого вещества, некоторые клетки способны существовать изолированно и воспроизводить себе подобных (одноклеточные организмы), другие входят в состав многоклеточных организмов или в структуру какого-либо органа, формируя более сложную живую систему. В каждой клетке различают две основные части – ядро, содержащее наследственную информацию в виде молекулы ДНК, и цитоплазму, в которой функционируют различные органеллы клетки, обеспечивающие необходимый для жизненного цикла обмен веществ (метаболизм). Клетки любого типа покрыты оболочкой, представляющей т.н. мембрану – белково-липидную структуру молекулярных размеров, роль которой, в силу её избирательной проницаемости для различных химических соединений и элементов, состоит в защите клетки от внешней среды и регуляции уровня концентрации в клетке различных продуктов обмена веществ. С термодинамической и синергетической точек зрения клетки живых организмов – это сложные саморегулирующиеся открытые неравновесные системы, осуществляющие антиэнтропийную деятельность, упорядочивая свои внутренние структуры и производя практически точные копии себе подобных. В сложных организмах существуют т.н. соматические клетки, которые отличаются по строению и функциям, выполняемым в организме – нервные клетки, мышечные, костные, секреторные и пр. Они содержат весь набор генетической информации и передают его посредством удвоения при делении дочерним клеткам (митоз). Половые клетки (гаметы), функция которых осуществлять размножение, отличаются тем, что при их делении отсутствует процесс удвоения и происходит уменьшение (редукция) числа хромосом, в результате чего передается только половина наследственной информации (мейоз). При слиянии мужских и женских половых клеток в процессе оплодотворения полное количество генетической информации, кодирующей свойства данного организма, восстанавливается. В биосфере существуют и неклеточные организмы (вирусы), а также организмы, вторично потерявшие в процессе эволюции клеточное строение (некоторые водоросли). Термин «клетка» впервые использовал в 1665 году знаменитый английский физик и изобретатель Роберт Гук (1635 – 1703), который изучал строение растений при помощи усовершенствованного им микроскопа. Однако он не сумел осознать фундаментальное значение сделанного им наблюдения. Развитие учения о клетке связано с именами двух немецких ученых – ботаника М.Я. Шлейдена (1804 – 1881), обобщившего обширные материалы о клеточном строении растений, что послужило важным подспорьем для дальнейшего прогресса в этой области, и биолога Теодора Шванна (1810 – 1882), который, изучая клетки животных и растений, обнаружил их структурное и функциональное сходство и установил, что именно клетка является общей для всех живых организмов элементарной структурной единицей их строения. В классическом труде «Микроскопические исследования о соответствии в строении и росте животных и растений», опубликованном в 1883 году, он сформулировал клеточную теорию строения живых организмов. В начале 19-го века выдающийся естествоиспытатель, основатель эмбриологии, Карл Бэр (1792 – 1876) открыл яйцеклетку у млекопитающих и изучил процесс эмбриогенеза птиц. Это открытие показало, что клетка – это универсальная структурная единица не только строения организмов, но и их развития. К особому типу организмов относятся т.н. анаэробные организмы (или анаэробы). Это живые организмы, способные существовать в условиях отсутствия свободного кислорода. Различают облигатных анаэробов, постоянно живущих в бескислородной среде, и факультативных – способных жить как в условиях отсутствия кислорода, так и при его наличии. Представлены некоторыми видами бактерий, дрожжей, инфузорий, червей (в частности, к ним относится кишечная палочка, обеспечивающая процесс пищеварения у высших организмов). Типичными представителями являются также сине-зеленые водоросли, которые рассматриваются в теории происхождения биосферы как одни из первых форм живого вещества. На ранних стадиях формирования биосферы они осуществляли реакцию фотосинтеза, поглощая углекислый газ, которого в первичной атмосфере Земли было в избытке, и выделяя кислород, которого в ней не было. Таким образом, весь кислород земной атмосферы имеет биологическое происхождение. Следующую стадию эволюции открывают аэробные организмы. Аэробные организмы (или аэробы) – это живые организмы, способные (в отличие от анаэробных) активно существовать и развиваться только при наличии свободного молекулярного кислорода, в частности, атмосферного. К ним относятся все эукариоты – высшие и низшие животные, растения, грибы и большинство микроорганизмов. Аэробы появились на Земле и стали бурно развиваться примерно 600 млн. лет назад (Кембрийский период по геохронологической шкале), когда содержание кислорода в атмосфере достигло примерно 1% от нынешнего уровня (первая критическая стадия развития жизни). По генетической классификации организмы делятся на прокариотов и эукариотов. Прокариоты – это примитивные анаэробные организмы, не обладающие, в отличие от эукариотов, оформленным клеточным ядром и обычным хромосомным аппаратом. Типичные представители – сине-зеленые водоросли, которые рассматриваются в теории происхождения биосферы как первые представители живого вещества. Они способны осуществлять реакцию фотосинтеза, поглощая углекислый газ, которого в первичной атмосфере Земли было в избытке, и выделяя кислород. Наследственная информация передается у прокариотов посредством ДНК, но, в отличие от эукариотов, этот процесс проще и при простом клеточном делении воспроизводится полная копия предыдущего организма. Интересно то, что, образно говоря, смерть в генетический аппарат прокариотов не встроена, - их можно уничтожить, но биологически прокариоты бессмертны и могут существовать и размножаться в подходящих условиях неограниченно долго, тогда как клетки эукариотов могут выдержать конечное число делений до своей биологической кончины. Прокариотная биосфера, по современным данным, существовала на Земле около 3,5 млрд. лет, до тех пор, пока количество кислорода в атмосфере не достигло такой концентрации, когда могли не только появиться, но и активно развиваться более сложноорганизованные эукариотные организмы, использующие кислородное дыхание. Примерно 600 млн. лет назад концентрация кислорода в атмосфере Земли, созданного прокариотами, достигла т.н. точки Пастера (около 1% от нынешней), когда кислородное дыхание становится более чем на порядок эффективнее анаэробного в процессах усвоения солнечной энергии. Такого, а далее всё возрастающего, количества кислорода стало достаточно, чтобы приспособительные преимущества перешли к эукариотам, которые и составляют в настоящее время практически всё живое вещество биосферы. Эукариоты – это организмы, обладающие, в отличие от прокариотов, самостоятельным, оформленным клеточным ядром, отграниченным от цитоплазмы клетки ядерной оболочкой. Представлены всеми животными и подавляющим большинством растений. Появились в биосфере Земли около 600 млн. лет назад, в начале Палеозойской эры по геохронологической шкале, когда концентрация кислорода в атмосфере достигла примерно 0,2%. Нет научных оснований считать, что эукариоты возникли независимо от существовавшей в то время мощной прокариотной среды, однако, нет и никаких данных о существовании переходных форм. Согласно современным синергетическим идеям об универсальном характере процессов самоорганизации в сложных неравновесных системах, возникновение эукариотов представляется как специфическая бифуркация в эволюции земной биосферы, направившая траекторию её развития к одному из возможных аттракторов. Еще через 200 млн. лет, когда концентрация кислорода возросла до приблизительно 2% и возник озоновый слой, экранирующий поверхность земли от жесткого ультрафиолета, эукариотные организмы стали выходить из воды и занимать сушу. Поскольку резко возросла и эффективность фотосинтеза, темп пополнения атмосферы кислородом усилился по экспоненте, и анаэробные прокариоты были практически полностью вытеснены из биосферы. Генетический материал эукариотов заключен в хромосомах и передается посредством полового размножения. Более сложные и высокоорганизованные эукариоты биологически смертны, однако именно это обстоятельство плюс особенности передачи генетической информации резко интенсифицировали необратимый во времени эволюционный процесс и постепенно привели биосферу к чрезвычайному разнообразию существующих видов живых организмов. 39. Вселенная – весь существующий доступный нашему наблюдению материальный мир (космическое пространство). Предел оптической видимости объектов наблюдаемой части Вселенной около 6,5*1026 см, предел «видимости» в радиотелескопы примерно в сто раз больше. В видимой области находится около 108 галактик, подобных нашей (Млечному пути), каждая из которых содержит в среднем 1011 звезд, количество галактик в зоне «радиовидимости» приблизительно оценивается как 1011. По современным астрофизическим данным количество вещества во Вселенной (без учета скрытой массы) оценивается по порядку величины как 1080 нуклонов, средняя же плотность космического вещества в наблюдаемой современными методами области Вселенной (Метагалактике) очень мала и составляет около 3*10–31 г/ см3, что на полтора порядка меньше т.н. критической плотности и эквивалентно содержанию в десяти литрах пространства всего лишь одного - двух электронов. В настоящее время существуют веские основания утверждать, что видимое вещество Вселенной (звезды, планеты и прочее вещество барионного типа) составляет примерно 5%, а остальное приходится на т.н. скрытую или темную материю, природа которой пока неизвестна, но ее гравитация вполне определенно себя проявляет. Согласно т.н. космологическому принципу, видимая Вселенная изотропна и однородна, не имеет какого-либо выделенного центра и по последним данным, расширяется, находясь примерно в первой трети своего цикла эволюции (см. Большой взрыв). Крупномасштабная однородность Вселенной сочетается с локальной неоднородностью и наличием среди огромных пространств космической пустоты сложных и упорядоченных структур – галактик, двойных звезд и планетных систем. Будучи, по современным астрофизическим данным, в целом геометрически плоской (т.е. удовлетворяющей постулату о параллельных прямых евклидовой геометрии) системой, Вселенная может характеризоваться локальной кривизной пространства, зависящей от массы находящихся в той или иной её области космических объектов. В современной науке существует (и до сих пор окончательно не решена) важная философская проблема относительно конечности или бесконечности Вселенной, а также ограниченности или безграничности ее. Общая теория относительности допускает существование конечной, но безграничной Вселенной, т.е. такого пространства, которое имеет конечный объем, но не имеет видимых границ. Наличие во Вселенной распределенного космического вещества, которому всегда свойственно гравитационное взаимодействие (притяжение), может вызвать такое специфическое искривление пространства-времени, что оно замкнется само на себя. Тогда, например, луч света, направленный в каком-либо заданном направлении, должен, в принципе, согласно теории, вернуться в точку, из которой он вышел, так и не покинув пределы Вселенной. В этом случае Вселенная для условного стороннего наблюдателя выглядела бы как черная дыра, радиус которой определяется как R*=2GМ/с2. Помимо этих соображений, рассматривая проблему ограниченности Вселенной, необходимо учитывать закон разбегания галактик Э. Хаббла: V=HR и, как его следствие, физическое явление красного смещения частот испускаемого звездами света. Этот эффект кладет принципиальный предел возможности получения информации в любом диапазоне электромагнитных волн, испускаемых объектами, расположенными, начиная в среднем с некоторого расстояния R* от них до Земли, (когда скорость разбегания V формально превысит скорость света, - при этом формула Хаббла теряет физический смысл). Это расстояние связывают с т.н. космологическим горизонтом событий, с которым условно можно отождествить понятие «границы» Вселенной. Наличие горизонта событий (информационной границы) делает вопрос «а что же находится дальше?» научно несостоятельным как в физическом, так и в философском смысле, поскольку любой ответ на него, по крайней мере, в рамках самых передовых теорий, в настоящее время оказывается принципиально за пределами возможности научной проверки и становится, главным образом, предметом псевдонаучных и паранаучных спекуляций или основой сюжетов для научно-фантастической литературы. Наша Галактика (Млечный путь) – звездная система, состоящая в среднем примерно из 1011 звезд различного класса, межзвездной среды, содержащей разреженное газопылевое вещество, пронизанной магнитными полями, потоками космического излучения и т.п. Наша Галактика, в которую входит Солнечная система, относится к спиральным галактикам; диаметр ее диска оценивается примерно в 100000 световых лет, она состоит из центральной части – ядра, где плотность звезд весьма велика, и периферии, состоящей из нескольких рукавов, где примерно на расстоянии 30-35 тыс. световых лет от центра, на внутреннем краю т.н. рукава Ориона, расположена наша Солнечная система. Ближайшая к нам звезда – красноватая Проксима Центавра, входящая в систему звезд, известную под названием Альфа Центавра (или Кентавра), находится на расстоянии около 4,2 световых года. В 1927 году голландский астроном Ян Оорт доказал, что наша Галактика, как и все объекты Вселенной, обращается вокруг своей оси, период обращения вокруг своей оси (галактический год), по современным данным, составляет примерно 220 –250 млн. лет. Нет оснований считать Солнечную планетную систему уникальным явлением, однако вполне достоверных подтверждений наличия у каких-либо звезд Галактики сложной планетной системы, типа нашей Солнечной, пока нет. Помимо спиральных, существуют эллиптические, шаровые галактики и галактики неправильной формы. В радиообозримом пространстве Вселенной насчитывается примерно 1011 галактик различного типа. Наша Галактика входит в скопление, называемое Местной группой галактик, а самый удаленный объект, входящий в эту же группу и видимый с Земли невооруженным глазом, - это т.н. туманность Андромеды, отстоящая от нас почти на 2,2 млн. световых лет. Звезды – самосветящиеся космические объекты сферической формы, состоящие из плазмы – полностью или в значительной мере ионизированного газа и в которых при высоких температурах и давлениях протекают термоядерные реакции синтеза более тяжелых элементов из более легких (до железа включительно). Образуются из газо-пылевых облаков (в основном водорода и гелия) путем гравитационной конденсации, и при достижении соответствующих условий внутреннего давления и, следовательно, температуры в их недрах начинаются термоядерные процессы. Характеризуются массой (от 0,04 до 60-80 солнечных) и светимостью (от 0,5 до нескольких десятков тысяч солнечных). Звезды, обладающие особо большими размерами и массой, называются гигантами, например красный гигант звезда Бетельгейзе в созвездии Ориона имеет диаметр, превышающий солнечный примерно в 850 раз, а звезда Антарес в созвездии Скорпиона – в 450 раз. Звезды проходят этапы эволюции, характерные для объектов соответствующей массы, и в конце существования могут стать белыми карликами (Солнце и ему подобные), нейтронными звездами или гипотетическими черными дырами В результате ряда неравновесных процессов, происходящих в конце цикла существования, некоторые звезды взрываются (т.н. вспышки сверхновых звезд), и порождают туманности. Так, например, известная Крабовидная туманность в созвездии Тельца образовалась после вспышки сверхновой звезды, наблюдаемой с Земли в 1054 году и зафиксированной в хрониках. Последний случай вспышки сверхновой звезды (СН 1987А), находящейся в Большом Магеллановом облаке, которое отстоит от Земли на расстоянии 16 тыс. световых лет и видно в южном полушарии, был зафиксирован 23 февраля 1987 года и детально изучен. Эта вспышка сопровождалась, помимо электромагнитного излучения, испусканием колоссального потока нейтрино, которые были зарегистрированы одновременно в лабораториях Японии, США и СССР. В настоящее время вещество взорвавшейся звезды разлетается во все стороны с огромной скоростью, но образовавшаяся туманность будет видна еще не скоро. В процессе взрыва сверхновой звезды происходят многоступенчатые реакции активации нейтронами ядер более легких химических элементов, образовавшихся в звезде за время её жизни в результате термоядерного синтеза. Именно этот вполне закономерный и обычный процесс обеспечивает появление во Вселенной, в общем, небольшого количества тяжелых элементов, без которых не могли бы образоваться сложные биологические молекулярные структуры, а следовательно, и живое вещество. Это наводит на мысль о том, что Солнечная система образовалась на месте и из материала сверхновой звезды первого поколения, и таким образом, само Солнце принадлежит ко второму поколению звезд, а все тела Солнечной системы – это как бы «пепел» ранее сгоревшей звезды. Планеты – наиболее массивные тела Солнечной системы, движущиеся вокруг Солнца по эллиптическим орбитам и светящиеся отраженным светом. Малые планеты Солнечной системы – это или спутники больших планет или очень крупные астероиды. Все планеты т.н. земной группы (Меркурий, Венера, Земля, Марс) более или менее близки по размерам, имеют примерно одинаковый химический состав, и среднюю плотность вещества (около 5 г/см3), тогда как планеты-гиганты, состоящие из застывших газов, имеют плотность примерно 1,4 г/см3, что мало отличается от средней плотности вещества Солнца. Планета-гигант Юпитер характерна тем, что излучает энергии несколько больше, чем поглощает, что позволяет рассматривать её как очень холодную звезду. Будучи несамосветящимися объектами, планеты, которые, согласно космологическому принципу, вполне могут существовать и около других звезд Галактики, очень трудно поддаются наблюдению астрономическими методами. (См. также: Астероиды, Белые карлики). 40. Генетика – наука, изучающая законы наследственности и изменчивости живых организмов, закономерности передачи наследственной информации из поколения в поколение, а также возможности целенаправленного воздействия на эти процессы. Термин «генетика» как наука о явлениях наследственности и изменчивости ввел в научный обиход в 1905 году английский биолог Уильям Бэтсон. Но основоположником генетики считается Грегор Иоганн Мендель (1822 – 1884), открывший в 1865 году один из основных законов передачи генетической информации – закон дискретной наследственности. Смысл его состоит в том, что в результате скрещивания гибрид наследует родительские признаки специфическим образом, в результате чего у него явно проявляется т.н. доминантный (преобладающий) признак, а рецессивный (подавленный) остается в скрытом состоянии. В следующем же поколении (у внуков) эти признаки со статистической достоверностью (т.е. на достаточно большом материале) распределяются в соотношении три к одному. Научный мир не смог оценить в то время это выдающееся открытие, о нем не знал и Дарвин, что затрудняло ему понимание природы «движущих сил», приводящих к появлению новых видов живых организмов в процессе эволюции, и препятствовало продуктивной полемике с антидарвинистами. В 1900 году Гуго де Фриз, Карл Коренс и Эрик Чермак, не зная работ Менделя, переоткрыли эти законы, но впоследствии, узнав о них, вернули Менделю принадлежащий ему по праву приоритет. Голландский ботаник Гуго де Фриз, изучая процессы наследственной изменчивости, ввел в науку понятие мутации и объяснял при помощи этой концепции процесс эволюции видов живых организмов. В конце Х1Х – начале ХХ веков знаменитый немецкий зоолог Август Вейсман (1834 – 1914) обнаружил, что половые клетки организмов (носители наследственной информации) как бы обособлены от соматических (телесных) клеток, в целом не изменяются в процессе жизнедеятельности организма и слабо подвержены обычным внешним влияниям. В 10-е годы ХХ века крупный американский биолог Томас Хант Морган (1866 – 1945) с помощью экспериментов с мушкой дрозофилой обосновал хромосомную теорию наследственности и открыл явление кроссинговера, когда две хромосомы при сближении обменивались фрагментами. В 20-30-е годы американский генетик Герман Меллер (основоположник радиационной генетики) экспериментально обнаружил эффект увеличения количества мутаций при повышении температуры среды и доказал возможность возникновения искусственных мутаций под действием определенной дозы рентгеновских лучей. В 1925 году русские ученые Г.А. Надсон и Г.С. Филипченко положили начало новой науки – радиобиологии, изучая влияние рентгеновского излучения на клетки простых организмов. В 40-е годы нашего века выяснилось, что носителем наследственной информации является макромолекула ДНК, поскольку после трансплантации ДНК одного штамма бактерий в другой, в нем стали появляться признаки донора. И наконец, в 1953 году в Кембридже, в знаменитой Кавендишевской лаборатории, англичанин Френсис Крик – физик (р. 1916 г.) и американец Джеймс Уотсон – биолог (р. 1928 г.), используя результаты рентгеноструктурного анализа, выполненного английским физиком Маршаллом Уилкинсом (р. 1916 г.), предложили модель структуры ДНК, общеизвестную теперь как двойная спираль (Нобелевская премия за 1962 год). С этого момента началось лавинообразное развитие генетики как фундаментальной дисциплины, вобравшей в свои методы самые передовые достижения теоретической и прикладной физики, химии и математики. В последние годы ХХ века получили широкое развитие её прикладные аспекты - генная инженерии и генная технология. Некоторые генетические эксперименты, такие, как клонирование организмов высших млекопитающих и принципиальная возможность клонирования человека, вторжение в генные структуры высших организмов и искусственное изменение их генома и т.п., по своим возможным последствиям выходят за пределы собственно науки и попадают в область религии, этики и морали, порождая дискуссии общекультурного значения и философского масштаба. Клонирование (от греч. клон - ветвь, отпрыск) – создание последовательности следующих друг за другом поколений наследственно однородных потомков одной исходной особи какого-либо вида живых организмов (микроорганизма, растения, животного), образованной путем бесполого (вегетативного) размножения. Такие организмы являются практически полными генетическими копиями исходного предка. Клоном также является культура какой-либо ткани организмов (совокупность клеток), полученная посредством митотического деления (митоза). В естественных условиях процесс клонирования происходит при делении клеток различных микроорганизмов, вегетативном (например, посредством укоренения черенков) размножении растений, в результате партеногенеза у насекомых, ракообразных и т.п., и характеризуется теоретически полной передачей генетической информации от предка к потомку. Любой орган тела животных и человека в этом смысле представляет собой клон, однояйцовые близнецы, сколько бы их ни было – это тоже клон. В последние годы в связи с общими успехами, достигнутыми в науке, особенно в медицине, биологии, генетике и генной инженерии, возник интерес к изучению возможности клонирования (т.е. создания генетической копии) высших животных и даже человека, мотивацией чего является проблема пересадки больным абсолютно биологически совместимых (в сущности своих собственных и потому неотторгаемых) «запасных» органов в терапевтически безнадежных случаях. Появились сообщения об определенных успехах в этой области (клонирование овцы Долли из клетки взрослой особи и обезьянки Тетры путем деления оплодотворенной яйцеклетки на несколько частей и внедрения их другим матерям, т.д.). Существуют и многие другие менее известные и даже закрытые работы по этой проблеме, направленные на клонирование человека. Некоторые известные специалисты утверждают, что перспективы клонирования человека вполне реальны, однако реакция общества оказалась неоднозначной, поскольку эта проблема далеко выходит за пределы естествознания, биологии и медицины и требует осознания с точки зрения морали, этики, философии и религии. Важной негативной особенностью процесса клонирования высших организмов (овца Долли) оказалось то, что возраст клонированного организма изначально не может быть меньше, чем возраст особи, являющейся клеточным донором, поскольку в ДНК исходной клетки, помимо необходимой генетической информации, содержатся и все ошибки, накопившиеся за годы существования организма-донора. Это может привести к тому, что клонированный организм получит по наследству не только генетические дефекты, в той или иной мере изначально присущие донору, но и новые болезни, которые могут возникнуть у клона в результате приобретенных по разным причинам донором в течение его жизни деструктивных изменений на клеточном уровне. В самой возможности клонирования того или иного отдельного органа ничего аморального нет, однако на данном этапе развития биологии это вряд ли осуществимо, поскольку любой орган как законченная полноценно функционирующая структура может сформироваться только в системе всего организма. Что касается клонирования клеточной культуры, то польза таких исследований очевидна. Эти клетки можно будет вводить в поврежденный орган, в котором они будут встраиваться в его структуру, заменяя поврежденные или дефектные клетки. (См. также: Аксиомы биологии, Дарвин, Мендель). 41. Фундаментальные взаимодействия – четыре физических взаимодействия, к которым сводится всё многообразие процессов макромира, микромира и мегамира. 1). Сильное ядерное, - переносчик обменный пи-мезон (пион), масштаб действия примерно – 10– 15 м, связывает нуклоны в атомном ядре. 2). Электромагнитное, - переносчик фотон, дальнодействующее выражается законом Кулона. 3). Слабое ядерное, - переносчик промежуточный векторный бозон, средний радиус действия примерно – 10– 17 м, приводит к бета-распаду ядер. 4). Гравитационное, - переносчик гравитон, дальнодействующее, выражается законом всемирного тяготения Ньютона. Фундаментальные константы – основные физические параметры, которые характеризуют все процессы, происходящие в природе на разных уровнях реальности (таких, как микромир, макромир, мегамир), и известные значения которых, в свете современных теорий, принципиальны для обеспечения устойчивости Вселенной и её долговременного развития. К основным фундаментальным константам относятся: 1) скорость света с=3*108 м/сек, 2) гравитационная постоянная G=6,627*10 –11 м3 кг-1сек-2, 3) постоянная Планка h=6,62377*10 –34 кг м2 сек-2, 4) масса протона mp=1,6224*10 –27 кг, 5) масса нейтрона mn=1,6749*10 –27 кг, 6) масса электрона me=9,106*10 –31 кг, 7) масса альфа-частицы m=6,6444*10 –27 кг, 8) заряд электрона qe=1,602*10 –19 Кулона, 9) постоянная тонкой структуры =2qe2c-1h-1=1/137, характеризующая электромагнитное взаимодействие элементарных частиц (см.). 10) Сюда относится также и соотношение между интенсивностями четырех фундаментальных взаимодействий – сильное / электромагнитное / слабое / гравитационное = 1 / 0,01 / 10-5 / 10-39, некоторые важные резонансные характеристики термоядерных реакций, а также крупномасштабная геометрическая размерность пространства Вселенной (см.), равная 3 (определяемая в прямоугольной декартовой системе координат через три независимые переменные {x,y,z} и условно обозначаемая терминами длина, ширина и высота). В настоящее время серией модельных экспериментов показано, что значения фундаментальных констант могут быть только такими, какими они представлены в той или иной системе физических единиц, - в противном случае (если бы они даже незначительно отличались от известных величин) структура Вселенной на всех уровнях её организации была бы совершенно иной, причем такой мир был бы несовместим с возможностью существования человека. Никакая научная теория не может объяснить причину, по которой в природе выполняется столь точная «подстроенность» этих величин. Значения этих констант также невозможно получить теоретически, исходя из некоторых более общих представлений, - их определяют экспериментально, причем неизвестно, являются ли эти числа истинными константами, или они медленно изменяются по мере эволюции Вселенной.
«Естественнонаучная картина мира» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ
Получи помощь с рефератом от ИИ-шки
ИИ ответит за 2 минуты

Тебе могут подойти лекции

Смотреть все 920 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot