Основные понятия, связанные со знаковыми моделями
Знаковые информационные модели базируются на знаковых системах - абстрактных совокупностях сигналов, из которых могут быть сформированы сообщения о состоянии окружающих объектов или внутреннем состоянии субъекта (т.е. того, кто передает сообщение).
Сигналы - извещения или предупреждения. Ими пользуются не только люди. Например, птицы подают друг другу звуковые сигналы об опасностях, источниках пищи, внутривидовых отношениях. Светлячки в период спаривания обмениваются для нахождения партнера световыми импульсами. Хорошо известны опыты академика Павлова, вырабатывавшего у собак рефлексы на определенные раздражители. Однако у животных обмен сигналами обусловлен эволюционными и физиологическими факторами. Человеческие же сообщества создают знаковые системы и построенные на их основании модели безотносительно к процессу выживания. Напротив, очень часто знаковые системы и модели появляются в таких "факультативных" сферах жизнедеятельности, как игры, музыка, литература, этикет, коллекционирование.
Знак — предмет (явление, событие), заменяющий другой предмет и используемый для приобретения, хранения, переработки и передачи информации.
Рисунок 1. Японские иероглифы - знаки, заменяющие целые понятия. Автор24 — интернет-биржа студенческих работ
Выделяют следующие типы знаковых систем:
- естественные;
- функциональные;
- иконические;
- конвенциальные;
- вербальные;
- системы записи.
Знаковые системы и модели невозможны без алфавитов - наборов символов, применяемых для специфических целей. Символы могут нести в себе добавочный смысл. Значения символов указывают на их ценность для отдельного человека, а также групп людей (народов, государств, человечества в целом): гербы, флаги, гимны — символические знаки достоинства государств.
Из знаков (символов) складываются алфавиты. В узком смысле под алфавитами понимают буквы для записи речи. В информатике же алфавитом называется набор знаков, предназначенный для решения информационных задач: десятичные цифры, музыкальные ноты, иероглифы. Совокупность нуля и единицы, предназначенная для записи бинарных последовательностей в памяти компьютеров, тоже является с точки зрения информатики простейшим алфавитом.
Семиотика как учение о знаковых системах
Семиотика - междисциплинарная наука о знаках и знаковых системах, возникшая на стыке теории информации, лингвистики, психологии, биологии, литературы, социологии. В ней выделяют три раздела:
- синтактика — изучение законов устройства знаковых систем и отношений между элементами и правилами языка;
- семантика — исследование смыслов (отношений между знаками и значениями);
- прагматика — изучение отношений субъектов, использующих исследуемую знаковую систему (т.е. отношения между языком, пользователем и правилами употребления языка).
Семиотика рассматривает культурные феномены как тексты. Она исходит из того, что неотъемлемой составляющей культуры является информация, хранимая и передаваемая с помощью знаков, образующих текст. «Текстом» называют любой носитель информации. Языки культуры называют моделирующими системами. Они выступают средствами, с помощью которых люди познают, объясняют и пытаются изменить окружающий мир. При этом они трактуются в широком смысле: и как естественные языки (первичные моделирующие системы), и как производные (вторичные) моделирующие системы.
Одним из основоположников семиотики был выдающийся советский ученый Юрий Михайлович Лотман, основоположник Тартуско-московской семиотической школы. Он считал, что основным стремлением культуры является преодоление энтропии и сохранение информации, а также поддержание коммуникации между людьми. Искусство при этом является не менее важной частью культуры, чем наука.
Рисунок 2. Юрий Михайлович Лотман. Автор24 — интернет-биржа студенческих работ
Лингвистическая теория Ноама Хомского
Большой вклад в формирование учения о знаковых системах и моделях внес американский исследователь второй половины XX в. Ноам Хомский. Основу своей теории он заложил в 1957 г. в книге «Синтаксические структуры», где сформулировал теорию универсальной грамматики.
Рисунок 3. Ноам Хомский. Автор24 — интернет-биржа студенческих работ
До Хомского в гуманитарных науках господствовало мнение о том, что владение языком — результат научения: человек производит высказывания опираясь на рефлексы. Хомский же заметил, что уже в раннем детстве ребенок способен выражать мысли фразами, которых никогда не слышал. Набор высказываний бесконечен, поэтому не может быть результатом научения.
Хомский описал язык как вычислительную систему. К моменту появления его теории уже были сформулированы теории Тьюринга и Шеннона, опираясь на которые Хомский создал свою универсальную грамматику. Он считал, что язык — это структурная иерархия, а не просто совокупность слов. Важнее самих слов синтаксические правила, с помощью которых можно построить любое высказывание.
Во время Второй мировой войны американцы использовали для шифрования язык навахо: индейцы переводили сообщения с английского на навахо при отправке, и с навахо на английский — при получении, при этом серьёзных ошибок индейцы не допустили. Навахо и английский сильно отличаются друг от друга, но, с другой стороны, они достаточно похожи — иначе адекватный перевод с одного языка на другой был бы невозможен. Такими парадоксами как раз и занимается теория Хомского.
Согласно теории Хомского, язык развился до современного состояния благодаря рекурсии и логической операции соединения (merge). При рекурсии одна единица высказывания вкладывается в другую, как, например, в стихотворении «Дом, который построил Джек». Соединение превращает отдельные синтаксические единицы в новую, как, например, фраза «сын брата учителя». Хомский считал, что рекурсия и соединение возникли в результате небольшого изменения нейронных сетей мозга, но её последствия оказались колоссальными. Т.е. развитие языка носило скачкообразный, а не плавный характер.