Выбери формат для чтения
Загружаем конспект в формате docx
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Лекция №1
Общие теоретические основы информатики
Фундаментальной чертой цивилизации является рост производства, потребления и накопления информации во всех отраслях человеческой деятельности. Вся жизнь человека так или иначе связана с получением, накоплением и обработкой информации. Что бы человек не делал: читает ли он книгу, смотрит ли он телевизор, разговаривает ли - он постоянно и непрерывно получает и обрабатывает информацию.
Для нашего века - века автомобиля, электричества, авиации, атомной энергии, космонавтики, электронной техники – характерна небывалая скорость развития науки, техники и новых технологий. Так от изобретения книгопечатания (середина XV века) до изобретения радиоприемника (1895 год) прошло около 440 лет, а между изобретением радио и телевидения - около 30 лет. Разрыв во времени между изобретением транзистора и интегральной схемы составил всего 5 лет.
В области накопления научной информации ее объем начиная с XVII века удваивался примерно каждые 10 - 15 лет. Поэтому одной из важнейших проблем человечества является лавинообразный поток информации в любой отрасли его жизнедеятельности. Подсчитано, например, что в настоящее время специалист должен тратить около 80% своего рабочего времени, чтобы уследить за всеми новыми печатными работами в его области деятельности. Увеличение информации и растущий спрос на нее обусловили появление отрасли, связанной с автоматизацией обработки информации - ИНФОРМАТИКИ.
Информатика – это наука, изучающая структуру и наиболее общие свойства информации, её поиск, хранение, передачу и обработку с применением ЭВМ.
Объектами изучения информатики являются технические, программные и алгоритмические средства. Технические средства представляют собой аппаратуру компьютеров, в английском языке они обозначаются словом hardware. Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их разработке и применению, используется слово software, которое подчеркивает способность программного обеспечения модифицироваться, приспосабливаться и развиваться. Программированию задачи всегда предшествует разработка алгоритма ее решения в виде последовательности действий, ведущих от исходных данных к искомому результату. Для обозначения части информатики, связанной с разработкой алгоритмов и изучением методов и приемов их построения, применяют термин brainware (от англ. brain – интеллект).
Основная цель исследований в области информатики состоит в разработке способов решения задач информационной обработки на компьютерах, а также в разработке, модернизации, организации и эксплуатации вычислительных систем. Кроме того, достижения этой «компьютерной науки» имеют практически неограниченный спектр применения в прикладных областях. Вот лишь некоторые научные направления, использующие методы и средства информатики:
• математическое и имитационное моделирование, методы вычислительного эксперимента и их применение к фундаментальным и прикладным исследованиям в различных областях знаний;
• искусственный интеллект – раздел информатики, изучающий алгоритмическую реализацию человеческих способов решения задач. Иными словами, в рамках искусственного интеллекта изучают способы решения компьютером задач, не имеющих явного алгоритмического решения;
• биоинформатика, изучающая информационные процессы в биологических системах;
• социальная информатика, изучающая процессы информатизации общества;
• машинная графика, анимация, средства мультимедиа;
• системы автоматизированного проектирования;
• телекоммуникационные системы и сети, в том числе, глобальные компьютерные сети;
• разнообразные приложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.
Формирование моделей информатики нацелено на представление определенных структур, взаимодействий и процессов в какой-либо области применения (предметной области) с помощью формальных средств – таких как структуры данных, языки программирования или логические формулы.
История развития информатики
Обратимся к истории вопроса, восходящей ко времени появления электронных вычислительных машин.
После второй мировой войны возникла, и начала бурно развиваться кибернетика как наука об общих закономерностях в управлении и связи в различных системах: искусственных, биологических, социальных. Рождение кибернетики принято связывать с опубликованием в 1948 г. американским математиком Норбертом Винером ставшей знаменитой книги «Кибернетика или управление и связь в животном и машине». В этой работе были показаны пути создания общей теории управления и заложены основы методов рассмотрения проблем управления и связи для различных систем с единой точки зрения. Развиваясь одновременно с развитием электронно-вычислительных машин, кибернетика со временем превращалась в более общую науку о преобразовании информации. Под информацией в кибернетике понимается любая совокупность сигналов, воздействий или сведений, которые некоторой системой воспринимаются от окружающей среды (входная информация X), выдаются в окружающую среду (выходная информация У), а также хранятся в себе (внутренняя, внутрисистемная информация Z), рис. 1.1.
Развитие кибернетики в нашей стране встретило идеологические препятствия. Как писал академик А.И.Берг, «... в 1955-57 гг. и даже позже в нашей литературе были допущены грубые ошибки в оценке значения и возможностей кибернетики. Это нанесло серьезный ущерб развитию науки в нашей стране, привело к задержке в разработке многих теоретических положений и даже самих электронных машин». Достаточно сказать, что еще в философском словаре 1959 года издания кибернетика характеризовалась как «буржуазная лженаука». Причиной этому послужили, с одной стороны, недооценка новой бурно развивающейся науки отдельными учеными «классического» направления, с другой - неумеренное пустословие тех, кто вместо активной разработки конкретных проблем кибернетики в различных областях спекулировал на полуфантастических прогнозах о безграничных возможностях кибернетики, дискредитируя тем самым эту науку.
Дело к тому же осложнялось тем, что развитие отечественной кибернетики на протяжении многих лет сопровождалось серьезными трудностями в реализации крупных государственных проектов, например, создания автоматизированных систем управления (АСУ). Однако за это время удалось накопить значительный опыт создания информационных систем и систем управления технико-экономическими объектами. Требовалось выделить из кибернетики здоровое научное и техническое ядро и консолидировать силы для развития нового движения к давно уже стоящим глобальным целям.
Подойдем сейчас к этому вопросу с терминологической точки зрения. Вскоре вслед за появлением термина «кибернетика» в мировой науке стало использоваться англоязычное «Computer Science», а чуть позже, на рубеже шестидесятых и семидесятых годов, французы ввели получивший сейчас широкое распространение термин «Informatique». В русском языке раннее употребление термина «информатика» связано с узко-конкретной областью изучения структуры и общих свойств научной информации, передаваемой посредством научной литературы. Эта информационно-аналитическая деятельность, совершенно необходимая и сегодня в библиотечном деле, книгоиздании и т.д., уже давно не отражает современного понимания информатики. Как отмечал академик А.П.Ершов, в современных условиях термин информатика «вводится в русский язык в новом и куда более широком значении - как название фундаментальной естественной науки, изучающей процессы передачи и обработки информации. При таком толковании информатика оказывается более непосредственно связанной с философскими и общенаучными категориями, проясняется и ее место в кругу "традиционных" академических научных дисциплин».
Попытку определить, что же такое современная информатика, сделал в 1978 г. Международный конгресс по информатике: «Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия».
Понятие информации. Свойства информации.
Центральным понятием информатики является информация. Этот термин происходит от латинского слова «information», что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока оно во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:
• в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют, например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше»;
• в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
• в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, то есть в целях сохранения, совершенствования, развития системы (Н. Винер).
Клод Шеннон, американский учёный, заложивший основы теории информации – науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, – рассматривает информацию как снятую неопределенность наших знаний о чем-либо.
Норберт Винер, «отец» кибернетики, сформулировал следующее определение: «Информация – это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств».
В рамках науки информация является первичным и неопределяемым понятием. Оно предполагает наличие материального носителя информации, источника информации, передатчика информации, приемника и канала связи между источником и приемником. Понятие информации используется во всех сферах: науке, технике, культуре, социологии и повседневной жизни. Конкретное толкование элементов, связанных с понятием информации, зависит от метода конкретной науки, цели исследования или просто от наших представлений.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде.
Более узкое определение дается в технике, где это понятие включает в себя все сведения, являющиеся объектом хранения, передачи и преобразования.
Наиболее общее определение имеет место в философии, где под информацией понимается отражение реального мира. Информацию как философскую категорию рассматривают как один из атрибутов материи, отражающий ее структуру.
В эволюционном ряду вещество -> энергия -> информация каждое последующее проявление материи отличается от предыдущего тем, что людям было труднее его распознать, выделить и использовать в чистом виде. Именно сложность выделения различных проявлений материи обусловила, наверное, указанную последовательность познания природы человечеством.
С понятием информации связаны такие понятия, как сигнал, сообщение и данные.
Сигнал (от латинского signum – знак) представляет собой любой процесс, несущий информацию.
Сообщение – это информация, представленная в определенной форме и предназначенная для передачи.
Данные – это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ.
Различают две формы представления информации – непрерывную и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т. д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.
Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.
Следует различать непрерывность или дискретность сигнала по уровню и во времени.
Рис. 1.2 – Виды информационных процессов
На рис. 1.2 в виде графиков изображены: а) непрерывный по уровню и во времени сигнал Хнн; б) дискретный по уровню и непрерывный во времени сигнал Хдн; в) непрерывный по уровню и дискретный во времени сигнал Хнд; г) дискретный по уровню и во времени сигнал Хдд.
Наконец, все многообразие окружающей нас информации можно сгруппировать по различным признакам, т. е. классифицировать по видам. Например, в зависимости от области возникновения информацию, отражающую процессы и явления неодушевленной природы, называют элементарной, процессы животного и растительного мира – биологической, человеческого общества – социальной.
По способу передачи и восприятия различают следующие виды информации: визуальную – передаваемую видимыми образами и символами, аудиальную – звуками, тактильную – ощущениями, органолептическую – запахами и вкусом, машинную – выдаваемую и воспринимаемую средствами вычислительной техники, и т. д.
Среди основных свойств информации можно выделить следующие: объективность; достоверность; полнота; ценность; своевременность; доступность; краткость и др.
Объективность и субъективность информации. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитывают, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем. В не меньшей степени объективность информации учитывают в исторических дисциплинах. Одни и те же события, зафиксированные в исторических документах разных стран и народов, выглядят совершенно по-разному. У историков имеются свои методы для тестирования объективности исторических данных и создания новых, более достоверных данных путем сопоставления, фильтрации и селекции исходных данных. Здесь речь идет не о повышении объективности исторических данных, а о повышении их достоверности.
Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных при принятии решений или создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапазон методов, которые можно использовать, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса.
Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» – всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определенным уровнем «информационного шума». Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае для передачи того же количества информации требуется использовать либо больше данных, либо более сложные методы.
Адекватность информации – это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании новой информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.
Доступность информации – мера возможности получить ту или иную информацию. На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации. Отсутствие доступа к данным или отсутствие адекватных методов обработки данных приводят к одинаковому результату: информация оказывается недоступной. Отсутствие адекватных методов для работы с данными во многих случаях приводит к применению неадекватных методов, в результате чего образуется неполная, неадекватная или недостоверная информация.
Актуальность информации – это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска (или разработки) адекватного метода для работы с данными может приводить к такой задержке в получении информации, что она становится неактуальной и ненужной. На этом, в частности, основаны многие современные системы шифрования данных с открытым ключом. Лица, не владеющие ключом (методом) для чтения данных, могут заняться поиском ключа, поскольку алгоритм его работы доступен, но продолжительность этого поиска столь велика, что за время работы информация теряет актуальность и, соответственно, связанную с ней практическую ценность.
Понятие количества информации
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).
Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.
Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).
Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit – сокращенное от binary digit – двоичная единица). Бит – минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.
В качестве других моделей получения такого же количества информации могут выступать электрическая лампочка, двухпозиционный выключатель, магнитный сердечник, диод и т. п. Включенное состояние этих объектов обычно обозначают цифрой 1, а выключенное – цифрой 0.
Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:
Лампа А 0 0 1 1
Лампа В 0 1 0 1
Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» – по лампочке А и лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы – 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т. д.
Связь между количеством информации и числом состояний системы устанавливается формулой Хартли:
i =log2N,
где i – количество информации в битах; N – число возможных состояний. Ту же формулу можно представить иначе:
N =2i.
Группа из 8 битов информации называется байтом. Если бит – минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (кбайт, кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб).
1 кб =1024 байта = 210 (1024) байтов.
1 Мб = 1024 кбайта = 220(1024 1024) байтов.
1 Гб = 1024 Мбайта = 230 (1024 1024 1024)байтов.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие единицы, как:
• 1 терабайт = 1024 Гбайт = 240 байт,
• 1 петабайт = 1024 Тбайт = 250 байт
и еще более крупные: экзабайт, зеттабайт, йоттабайт.
С информатикой, как правило, связывают такие понятия, как информационные процессы, технологии и ресурсы. Технологии накопления, обработки и передачи информации с использованием определенных технических средств (прежде всего ЭВМ) получили название информационных технологий (последние иногда выделяют в отдельную дисциплину применительно к конкретной предметной области).
Эти единицы чаще всего используют для указания объема памяти ЭВМ.
Информационные процессы и технологии
Информационные процессы всегда играли важную роль в науке, технике и жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов, хотя их внутреннее содержание по существу осталось неизменным. Информационными процессами называют процессы передачи, накопления и обработки информации в общении людей, в живых организмах, технических устройствах и жизни общества.
Сбор информации – это деятельность субъекта, в ходе которой он получает сведения об интересующем его объекте. Сбор информации может производиться или человеком, или с помощью технических средств и систем – аппаратно. Например, пользователь может получить информацию о движении поездов или самолетов сам, изучив расписание, или же от другого человека непосредственно, либо через какие-то документы, составленные этим человеком, или с помощью технических средств (автоматической справки, телефона и т. д.). Задача сбора информации не может быть решена в отрыве от других задач, – в частности, задачи обмена информацией (передачи).
Обмен информацией – это процесс, в ходе которого источник информации ее передает, а получатель – принимает. Если в передаваемых сообщениях обнаружены ошибки, то организуется повторная передача этой информации. В результате обмена информацией между источником и получателем устанавливается своеобразный «информационный баланс», при котором в идеальном случае получатель будет располагать той же информацией, что и источник.
Обмен информации производится с помощью сигналов, являющихся ее материальным носителем. Источниками информации могут быть любые объекты реального мира, обладающие определенными свойствами и способностями. Если объект относится к неживой природе, то он вырабатывает сигналы, непосредственно отражающие его свойства. Если объектом-источником является человек, то вырабатываемые им сигналы могут не только непосредственно отражать его свойства, но и соответствовать тем знакам, которые человек вырабатывает с целью обмена информацией.
Принятую информацию получатель может использовать неоднократно. С этой целью он должен зафиксировать ее на материальном носителе (магнитном, фото, кино и др.). Процесс формирования исходного, несистематизированного массива информации называется накоплением информации. Среди записанных сигналов могут быть такие, которые отражают ценную или часто используемую информацию. Часть информации в данный момент времени особой ценности может не представлять, хотя, возможно, потребуется в дальнейшем.
Хранение информации – это процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки.
Обработка информации – это упорядоченный процесс ее преобразования в соответствии с алгоритмом решения задачи. Обработка информации на ЭВМ обычно состоит в выполнении огромного числа элементарных технических операций.
После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Выдача информации, как правило, производится с помощью внешних устройств ЭВМ в виде текстов, таблиц, графиков и пр.
Информационная техника представляет собой материальную основу информационной технологии, с помощью которой осуществляется сбор, хранение, передача и обработка информации. До середины XIX века, когда доминирующими были процессы сбора и накопления информации, основу информационной техники составляли перо, чернильница и бумага. Коммуникация (связь) осуществлялась путем направления пакетов (депеш). На смену «ручной» информационной технике в конце XIX века пришла «механическая» (пишущая машинка, телефон, телеграф и др.), что послужило базой для принципиальных изменений в технологии обработки информации. Понадобилось еще много лет, чтобы перейти от запоминания и передачи информации к ее переработке. Это стало возможно с появлением во второй половине нашего столетия такой информационной техники, как электронные вычислительные машины, положившие начало «компьютерной технологии».
Древние греки считали, что технология (techne – мастерство + togos – учение) – это мастерство (искусство) делать вещи. Более емкое определение это понятие приобрело в процессе индустриализации общества.
Технология – это совокупность знаний о способах и средствах проведения производственных процессов, при которых происходит качественное изменение обрабатываемых объектов.
Технологиям управляемых процессов свойственны упорядоченность и организованность, которые противопоставляются стихийным процессам. Исторически термин «технология» возник в сфере материального производства. Информационную технологию в данном контексте можно считать технологией использования программно-аппаратных средств вычислительной техники в данной предметной области.
Информационные ресурсы – это идеи человечества и указания по их реализации, накопленные в форме, позволяющей воспроизводить их. Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.
Информационная технология – это совокупность методов, производственных процессов и программно-технических средств, объединенных в технологическую цепочку, обеспечивающую сбор, обработку, хранение, распространение и отображение информации с целью снижения трудоемкости процессов использования информационного ресурса, а также повышения их надежности и оперативности.
Информационные технологии характеризуются следующими основными свойствами:
• предметом (объектом) обработки (процесса) являются данные;
• целью процесса является получение информации;
• средствами осуществления процесса являются программные, аппаратные и программно-аппаратные вычислительные комплексы;
• процессы обработки данных разделяются на операции в соответствии с данной предметной областью;
• выбор управляющих воздействий на процессы должен осуществляться лицами, принимающими решение;
• критериями оптимизации процесса являются своевременность доставки информации пользователю, ее надежность, достоверность, полнота.
Из всех видов технологий информационная технология сферы управления предъявляет самые высокие требования к «человеческому фактору», оказывая принципиальное влияние на квалификацию работника, содержание его труда, физическую и умственную нагрузку, профессиональные перспективы и уровень социальных отношений.
Представление информации в компьютере
Современные средства вычислительной техники способны обрабатывать различные виды информации: числовую, текстовую, графическую, звуковую. Каждый из этих видов имеет свои способы кодирования для представления внутри ЭВМ. Тем не менее с точки зрения аппаратуры компьютера любая информация – это последовательность сигналов, кодируемая с помощью нулей и единиц. Таким образом, все вычисления и преобразования информации в компьютере происходят в двоичной системе счисления.
Системы счисления
Система счисления – это совокупность приемов обозначения (записи) чисел.
Наиболее часто используются позиционные системы счисления. В них значение каждой цифры в изображении числа зависит от ее положения (позиции) в последовательности цифр, изображающей число. В непозиционных системах счисления значение цифры (знака) не зависит от места, которое она занимает в числе (например, римская система счисления).
Основание системы счисления – количество различных цифр (знаков), используемых для представления чисел в данной системе.
Принято основание системы счисления указывать в виде нижнего индекса рядом с числом. Например, запись 3410 означает, что число 34 представлено в системе счисления по основанию 10.
Пусть необходимо представить положительное число X в системе счисления с основанием q в виде полинома:
, (1.1)
где аi – цифры системы счисления;
n – число цифр в целой части числа X; m – число цифр в дробной части числа X.
Основание часто указывают в виде индекса либо определенного символа в зависимости от системы программирования. На практике принята сокращенная запись чисел: .
Например, число 863,52 (q = 10, n = 3, m = 2) представляется в виде:
863,52 = 8·102 + 6·101 + 3·100 + 5·10–1 + 2·10–2.
Наиболее распространены двоичная, десятичная и шестнадцатеричная системы счисления.
Двоичная система счисления
Основание q = 2, используются цифры 0 и 1.
Система счисления по основанию 2 аналогична десятичной, за исключением того, что разряды числа в ней соответствуют не степеням 10, а степеням 2. Значения чисел, большие 1, представляются многоразрядными числами точно так же, как в десятичной системе представляются значения, большие 9. Любая цифра двоичного числа является битом. Каждый бит соответствует какой-либо степени 2. Например, разложение двоичного числа 1001,1 по степеням 2 (в виде полинома) имеет вид:
1001,12 = 1·23 + 0·22 + 0·21 + 1·20 + 1·2–1 = 9,510.
Арифметические операции в двоичной системе счисления выполняются по следующим правилам:
Сложение: 0 + 0 = 0; 0 + 1 = 1; 1 + 0=1; 1 + 1 = 10;
Вычитание: 0 – 0 = 0; 1 – 0 =1; 1 – 1 = 0; 10 – 1 = 1;
Умножение: 0·0 = 0; 0·1=0; 1·0 = 0; 1·1 = 1.
Примеры:
11101,01 + 110,11 = 100100,00;
1001 – 110= 11;
110·101 = 11110.
Использование только двух символов для кодирования информации дало возможность технической реализации компьютера на основе использования устройств, имеющих всего два устойчивых состояния.
Шестнадцатеричная система счисления
Основание q = 16, используются цифры 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, а также буквы латинского алфавита А, В, С, D, E, F.
Пример:
247,616 = 2·162 + 4·161 + 7·160 + 6·16–1 = 583,37510.
Каждая цифра в 16-ричном представлении может иметь значение 0...15, каждый разряд соответствует степени 16. 16-ричное представление является компактным и удобным методом записи двоичной информации, так как для перевода из двоичной системы счисления в шестнадцатеричную и обратно не требуется специальных процедур. В табл. 1.1 дано представление некоторых целых чисел в различных системах счисления.
Таблица 1.1
Соответствие чисел в различных системах счисления
10
1
2
3
4
5
6
7
8
2
0000
0001
0010
0011
0100
0101
0110
0111
1000
16
1
2
3
4
5
6
7
8
10
9
10
11
12
13
14
15
16
2
1001
1010
1011
1100
1101
1110
1111
10000
16
9
A
B
C
D
E
F
10
Правила перевода чисел из одной системы счисления в другую
Перевод целого числа из системы счисления с основанием q = 10 в систему счисления с основанием q
Разделить число Х10 нацело на основание новой системы q до получения целого частного. Остаток отделения будет разрядом единиц (в новой системе счисления).
Полученное частное вновь делится на основание q до получения в остатке очередного разряда искомого числа.
Процесс продолжается до тех пор, пока частное не станет меньше основания q. Последнее частное и будет старшим разрядом числа в системе с основанием q.
При делении необходимо основание q новой системы записывать в исходной системе с основанием p, и само деление выполнять в исходной системе.
При наличии у числа дробной части сначала выполняется перевод целой части числа, а дробная часть может быть переведена в другую систему счисления с точностью до некоторого числа разрядов. При переводе дробной части числа её разряды умножаются на основание новой системы счисления, и процесс останавливается при достижении заданной точности представления результата.
Пример:
Перевести число 2710 в двоичную и шестнадцатеричную системы счисления.
1. р = 10, q = 2.
27/2 = 13 и 1 в остатке;
13/2 = 6 и 1 в остатке;
6/2 = 3 и 0 в остатке;
3/2=1 и 1 в остатке.
Следовательно, 2710 = 110112.
2. р = 10, q = 16.
27/16 = 1 и 11 в остатке. Числу 11 в шестнадцатеричной системе счисления соответствует обозначение В, следовательно, 2710 = 1В16.
Перевод целого числа из системы счисления с основанием q в систему счисления с основанием р=10
Пусть известна запись числа X в q-й системе: . Число X можно представить в виде полинома (1.1).
Для получения представления числа X в десятичной системе счисления необходимо:
1. Каждый из коэффициентов и основание системы q представить в 10-ричной системе счисления.
2. Выполнить действия по правилам десятичной арифметики.
3. Полученное значение полинома даст значение числа X в десятичной системе счисления.
Пример:
Осуществить проверку предыдущего примера: перевести полученные в двоичной и шестнадцатеричной системах счисления числа в десятичную.
1. 110112 = 1·24 + 1·23 + 0·22 + 1·21 + 1·20 = 2710.
2. 1В16.= 1·161 + 11·160 = 2710.
Для преобразования шестнадцатеричных чисел в двоичную форму записи и обратно используются более простые правила. Перевод шестнадцатеричного числа в двоичную форму записи осуществляется следующим образом: каждая цифра шестнадцатеричного числа заменяется соответствующим четырехразрядным двоичным числом, при этом отбрасываются ненужные нули (крайние слева в целой части и крайние справа – в дробной).
Пример.
Переход от двоичной к шестнадцатеричной системе осуществляется в таком порядке: вначале, двигаясь от запятой влево и вправо, разбивают двоичное число на группы по четыре разряда (при необходимости крайние левая и правая группа заполняются нулями), затем каждая группа из четырех разрядов заменяется соответствующей шестнадцатеричной цифрой.
Примеры:
Формы представления данных
Представление целых чисел
Для представления целых чисел в микропроцессоре выделяется байт, слово, двойное слово и т. д. Эта величина, как правило, не превышает разрядности основного машинного слова микропроцессора.
Для представления беззнаковых типов используются все имеющиеся разряды, например:
Для представления знаковых типов знак кодируется в старшем бите. Если старший бит равен 0 – число положительное, если равен 1 – число отрицательное.
– знак числа
Положительные числа хранятся в памяти и вступают в операции в прямом коде (т.е. обычном двоичном представлении числа). Отрицательные числа хранятся в памяти компьютера в дополнительном коде.
Правило получения дополнительного кода
Модуль отрицательного числа записывается в прямом коде, «прижатым» вправо. В неиспользуемые старшие биты записываются нули.
Формируется обратный код битов (кроме знакового разряда). Для этого 0 заменяется на 1, а 1 – на 0.
К обратному коду числа прибавляется 1.
Таким образом, диапазон представления знаковых чисел с помощью N разрядов определяется как 2N–1, а беззнаковых – 2N.
Пример:
Получим 8-разрядный дополнительный код числа -52:
00110100 – число |-52|=52 в прямом коде
11001011 – число -52 в обратном коде
11001100 – число -52 в дополнительном коде
Представление символьных данных
В персональных компьютерах и телекоммуникационных системах применяется международный байтовый код ASCII (American Standard Code for Information Interchange). В справочной литературе имеются таблицы кодов ASCII, где каждому символу соответствует код, состоящий из 8 бит (или 1 байта).
Первые 32 кода (от 0 до 1F16) в ASCII являются управляющими. Они служат для представления символов, имеющих специальное назначение. Другие символы (2016... 7F16) используются для кодирования цифр, букв латинского алфавита, знаков пунктуации и арифметических операций. Остальные коды (8016... 0FF16) означают расширение стандарта ASCII и в разных моделях ЭВМ реализуются по-разному, в частности, для кодирования символов кириллицы. Для этой части также имеются стандарты, например, для символов русского языка это КОИ-8.
Фирма Microsoft для операционной системы Windows разработала собственную русскую кодировку ANSI-1251.
В настоящее время получил распространение также международный стандарт кодировки – Unicode. Для представления каждого символа в нем отводится 2 байта. Такая длина кода обеспечивает включение в первичный алфавит 65536 знаков. Это, в свою очередь, позволяет создать и использовать единую для всех распространенных алфавитов кодовую таблицу.
Представление вещественных данных
Различают две формы представления вещественных чисел:
1) представления чисел с плавающей точкой,
2) представления чисел с фиксированной точкой.
Формой представления чисел с фиксированной точкой называется запись числа в виде последовательности цифр, входящих в изображение данного числа, где в качестве разделителя целой и дробной части используется точка (запятая).
Примеры:
11.994310; 111.010012.
Формой представления чисел с плавающей точкой представление числа в виде двух множителей N = М ВР, где М – мантисса числа; В – основание системы счисления; Р – порядок, записываемый в выбранной системе счисления.
Если М удовлетворяет неравенству 1/В ≤ М < 1, то число N и само представление нормализованное. В любой системе счисления это неравенство означает, что мантисса числа меньше 1, и ее первая цифра после запятой отлична от нуля. При этом порядок числа может быть как положительным, так и отрицательным. Порядок указывает, на какое количество позиций и в каком направлении должна «переплыть», т. е. сместиться десятичная точка в мантиссе. Отсюда название «плавающая точка».
Пример.
Десятичные числа 0.00379; 0.0379; 0.379; 3.79; 37.9 в нормализованном виде записываются соответственно: 0.379·10–2; 0.379·10–1; 0.379; 0,379·101; 0.379·102.
В современных компьютерах используются обе формы представлении чисел.
Число бит для хранения мантиссы и порядка зависит от типа данных с плавающей точкой.
В отличие от целых чисел, которые всегда представляются в памяти ЭВМ абсолютно точно, значения вещественных данных определяют числа лишь с некоторой конечной точностью, зависящей от внутреннего представления числа.
Алгоритм представления числа с плавающей запятой
1) перевести число из р-ичной системы счисления в двоичную;
2) представить двоичное число в нормализованной экспоненциальной форме;
3) рассчитать смещённый порядок числа;
4) разместить знак, порядок и мантиссу в соответствующие разряды сетки.
Пример:
Представить число – 25,625 в машинном виде с использованием 4-битового представления (где 1 бит отводится под знак числа, 8 бит – под смещённый порядок, остальные биты – под мантиссу).
2510=1000112
0,62510=0,1012
-25,62510= -100011,101,
-100011,1012 = -1,000111012·24
В разряд S записывается 12. В разряды порядка Р записывается кодовая комбинация 100002(24). В разряды мантиссы М записывается кодовая комбинация 000111012.
Представление графической информации
Существует два способа представления графической информации: растровая и векторная графика.
Растровое изображение состоит из множества маленьких точек, у каждой из которых может быть свой цвет и яркость. Точки выстроены как в таблице: по строкам и столбцам. Из них получается изображение (рис. 1.1). Благодаря маленькому размеру, отдельные точки не видны (или малозаметны), и создаётся впечатление однородной картины. Минимальный элемент, из которого состоит растровое изображение, называется пикселем (от англ. picture element).
Для хранения растрового изображения в памяти компьютера необходимо хранить информацию о цвете каждого пикселя.
Растровый способ представления изображений прекрасно подходит для хранения фотографий и видеофрагментов.
Редактирование растровой графики заключается в изменении цветов пикселей. Это удобно в том случае, когда нужно изменить мелкие детали изображения или применить какой-либо визуальный эффект (например, эффект «размытия» изображения).
Однако изображение, представленное в растровом виде, не хранит никакой информации о форме объектов. Форма получается в мозгу человека за счёт разницы цветов соседних пикселей. Поэтому редактировать форму объектов, представленных растровым способом, достаточно сложно.
Другой способ представления графической информации – векторная графика. Основными элементами векторной графики являются простые геометрические фигуры, которые хранятся в памяти компьютера в виде математических формул и числовых параметров. Например, отрезок задаётся координатами первой и второй точки, а окружность – координатами центра и радиусом. Из простейших фигур складываются более сложные. Каждая фигура может иметь собственный цвет. Область, ограниченная несколькими линиями, может быть закрашена определенным цветом или особым способом (например, заштрихована). Простейшие элементы, из которых состоит векторное изображение, называются примитивами
Обычно примитивами являются самые базовые геометрические объекты: точки и отрезки. Иногда к примитивам относят и другие фигуры: квадрат, окружность, прямоугольник, эллипс и т. д. Отрезок может быть как прямым, так и кривым (рис. 1.2). Прямые отрезки задаются координатами крайних точек, а для кривых отрезков задаются дополнительные параметры, которые определяют степень и форму кривизны. Отрезки могут иметь и другие параметры, например, цвет и толщину. Из отрезков можно получить различные фигуры, в том числе и замкнутые. Замкнутые фигуры могут иметь определённый цвет или стиль внутренней закраски. Совокупность фигур и отрезков может изображать какой-то объект, который тоже может иметь определенные параметры, например, название, размер, угол наклона.
Таким образом, для хранения векторного изображения необходимо хранить координаты и дополнительные параметры примитивов, фигур и объектов и взаимосвязи между ними.
Представление звуковой информации
Приёмы и методы работы со звуковой информацией пришли в вычислительную технику наиболее поздно. К тому же, в отличие от числовых, текстовых и графических данных, у звукозаписей не было столь же длительной и проверенной истории кодирования. В итоге методы кодирования звуковой информации двоичным кодом далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, но среди них можно выделить два основных направления.
Метод FM {Frequency Modulation) основан та том, что, теоретически, любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, то есть кодом. В природе звуковые сигналы имеют непрерывный спектр (являются аналоговыми). При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным и соответствует качеству звучания простейших электромузыкальных инструментов с окрасом, характерным для электронной музыки. В то же время данный метод кодирования обеспечивает весьма компактный код, поэтому он нашёл применение ещё в те годы, когда ресурсы средств вычислительной техники были явно недостаточны.
Метод таблично волнового (Wave- Table) синтеза лучше соответствует современному уровню развития техники. В заранее подготовленных таблицах хранятся образцы звуков множества различных музыкальных инструментов. В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звучания. Поскольку в качестве образцов используются реальные звуки, то его качество получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.