1. Информатика в экономике: Учебное пособие/Под ред. Б. Е. Одинцова, А. Н. Романова. М.: Вузовский учебник, 2008. Информатика: Базов - pismo.netnado.ru o_O
Главная
Поиск по ключевым словам:
страница 1
Похожие работы
Название работы Кол-во страниц Размер
Учебное пособие под редакцией Е. Б. Моргунова 86 7412.31kb.
Кафедра автоматизированных систем обработки информации и управления 1 393.07kb.
Учебное пособие под ред докт экон наук, проф. Моисеевой Н. К. 8 1338.5kb.
История зарубежной литературы XIX века: Учебное пособие / Н. 1 263.83kb.
Управление качеством продукции: Учебное пособие. М: Изд-во мгап "Мир... 3 850.37kb.
Абрамов Н. Р., Маркова М. Ф., Шлыков В. Н., Рябова В. Е./Под ред. 16 3521.44kb.
Учебное пособие Челябинск 2015 11 923.8kb.
Учебное пособие Москва 2004 г. Составители: д т. н., проф. Е. 1 184.36kb.
Учебное пособие Москва 2005 г. Ббк 65. 9(2)-80 (075. 8) Хомутова Е. 3 492.36kb.
Учебное пособие по курсу «основы теории цепей» 1 728.5kb.
Учебное пособие Для подготовки частных охранников 3 691.89kb.
Требования к оснащению образовательного процесса в соответствии с... 1 230.48kb.
Урок литературы «Война глазами детей» 1 78.68kb.
1. Информатика в экономике: Учебное пособие/Под ред. Б. Е. Одинцова, А. Н. Романова. - страница №1/1

Тема 2. Основы представления и обработки информации в компьютере

Литература

1. Информатика в экономике: Учебное пособие/Под ред. Б.Е. Одинцова, А.Н. Романова. – М.: Вузовский учебник, 2008.

2. Информатика: Базовый курс: Учебное пособие/Под ред. С.В. Симоновича. – СПб.: Питер, 2009.

3. Информатика. Общий курс: Учебник/Соавт.:А.Н. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; Под общ. ред. В.И. Колесникова. – М.: Дашков и К, 2009.

4. Информатика для экономистов: Учебник/Под ред. Матюшка В.М. - М.: Инфра-М, 2006.

5. Экономическая информатика: Введение в экономический анализ информационных систем.- М.: ИНФРА-М, 2005.



  1. Меры информации (синтаксическая, семантическая, прагматическая)

Для измерения информации могут применяться различные подходы, но наибольшее распространение получили статистический (вероятностный), семантический и прагматический методы.

Статистический (вероятностный) метод измерения информации был разработан К. Шенноном в 1948 году, который предложил количество информации рассматривать как меру неопределенности состояния системы, снимаемой в результате получения информации. Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию о системе Х, то неопределенность уменьшилась. Дополнительно полученное количество информации определяется как:

,

где - дополнительное количество информации о системе Х, поступившее в форме сообщения;



- начальная неопределенность (энтропия) системы X;

- конечная неопределенность (энтропия) системы X, наступившая после получения сообщения.

Если система X может находиться в одном из дискретных состояний, количество которых n, а вероятность нахождения системы в каждом из них равна и сумма вероятностей всех состояний равна единице , то энтропия вычисляется по формуле Шеннона:



,

где - энтропия системы Х;



а - основание логарифма, определяющее единицу измерения информации;

n – количество состояний (значений), в котором может находится система.
Энтропия величина положительная, а так как вероятности всегда меньше единицы, а их логарифм отрицательный, поэтому знак минус в формуле К.Шеннона делает энтропию положительной. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Взаимосвязь информации и энтропии можно понимать следующим образом: получение информации (ее увеличение) одновременно означает уменьшение незнания или информационной неопределенности (энтропии)

Таким образом, статистический подход учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Количество информации достигает максимального значения, если события равновероятны.

Р. Хартли предложил следующую формулу для измерения информации:



I=log2n ,

где n - количество равновероятных событий;



I – мера информации в сообщении о наступлении одного из n событий

Измерение информации выражается в ее объёме. Чаще всего это касается объёма компьютерной памяти и объёма данных, передаваемых по каналам связи. За единицу принято такое количество информации, при котором неопределённость уменьшается в два раза, такая единица информации получила название бит.

Если в качестве основания логарифма в формуле Хартли используется натуральный логарифм (), то единицей измерения информации является нат (1 бит = ln2 ≈ 0,693 нат). Если в качестве основания логарифма используется число 3, то - трит, если 10, то - дит (хартли).

На практике чаще применяется более крупная единица - байт (byte), равный восьми битам. Такая единица выбрана потому, что с ее помощью можно закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Кроме байтов информация измеряется полусловами (2 байта), словами (4 байта) и двойными словами (8 байт). Широко используются также еще более крупные единицы измерения информации:

1 Килобайт (Кбайт - kilobyte) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт - megabyte) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт - gigabyte) = 1024 Мбайт = 230 байт.

1 Терабайт (Тбайт - terabyte) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт - petabyte) = 1024 Тбайт = 250 байт.

В 1980 году российский математик Ю. Манин предложил идею построения квантового компьютера, в связи с чем появилась такая единица информации как кубит (quantum bit, qubit) – «квантовый бит» – мера измерения объема памяти в теоретически возможном виде компьютера, использующем квантовые носители, например - спины электронов. Кубит может принимать не два различных значения ("0" и "1"), а несколько, соответствующих нормированным комбинациям двух основных состояний спина, что дает большее число возможных сочетаний. Так, 32 кубита могут закодировать около 4 млрд состояний.

Семантический подход. Синтаксической меры не достаточно, если требуется определить не объем данных, а количество нужной в сообщении информации. В этом случае рассматривается семантический аспект, позволяющий определить содержательную сторону сведений.

Для измерения смыслового содержания информации можно воспользоваться тезаурусом ее получателя (потребителя). Идея тезаурусного метода была предложена Н. Винером и развита нашим отечественным ученым А.Ю. Шрейдером.



Тезаурусом называется совокупность сведений, которыми располагает получатель информации. Соотнесение тезауруса с содержанием поступившего сообщения позволяет выяснить, насколько оно снижает неопределенность..

Зависимость объема смысловой информации сообщения от тезауруса получателя

Согласно зависимости, представленной на графике, при отсутствии у пользователя какого-либо тезауруса (знаний о существе поступившего сообщении, то есть =0), или наличия такого тезауруса, который не изменился в результате поступления сообщения (), то объем семантической информации в нем равен нулю. Оптимальным будет такой тезаурус (), при котором объем семантической информации будет максимальным (). Например, семантической информации в поступившем сообщении на незнакомом иностранном языке будет ноль, но и такая же ситуация будет в том случае, если сообщение уже не является новостью, так как пользователю уже все известно.

Прагматическая мера информации определяет ее полезность в достижении потребителем своих целей. Для этого достаточно определить вероятность достижения цели до, и после получения сообщения и сравнить их. Ценность информации (по А.А. Харкевичу) рассчитывается по формуле:

,

где - вероятность достижения цели до получения сообщения;



- вероятность достижения цели поле получения сообщения;

  1. Информация и неопределенность. Измерение неопределенности

Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию, то неопределенность уменьшилась.(смотри предыдущий параграф)

Информацио́нная энтропи́я — мера неопределённости или непредсказуемости информации. Например, в последовательности букв, составляющих какое-либо предложение на русском языке, разные буквы появляются с разной частотой, поэтому неопределённость появления для некоторых букв меньше, чем для других. Если же учесть, что некоторые сочетания букв встречаются очень редко, то неопределённость уменьшается еще сильнее.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Измерение неопределенности смотри предыдущий билет

  1. Кодирование информации и формы ее представления в памяти компьютера

Современный компьютер может обрабатывать

числовую,

текстовую,

графическую,

звуковую

и видеоинформацию.

Все эти виды информации в компьютере представляются в двоичном коде (с помощью двух символов 0 и 1:

Целые числа в компьютере кодируются двоичным кодом (путем деления числа на два).

Существуют два формата представления чисел в памяти компьютера: с фиксированной точкой и с плавающей точкой.

Первый способ применяется к целым числам, а второй - к вещественным числам (целым и дробным).

Под точкой подразумевается знак-разделитель целой и дробной части числа. Для представления целых используются форматы, кратные байту: 1, 2 и 4 байта.

Представление целых чисел в формате с фиксированной точкой. Однобайтовое представление (8 битов) применяется только для положительных целых чисел. Например, число в двоичной системе счисления А2 = 111100012 будет храниться в ячейке памяти следующим образом:

Наибольшее положительное целое число, которое может быть записано в 1 байтовом формате равно 25510 или 111111112.

В 16-разрядном представлении число 200210 = 111110100102 имеет вид:


0

0

0

0

0

1

1

1

1

1

0

1

0

0

1

0

Для положительных и отрицательных целых чисел обычно используется 2 и 4 байта, при этом старший бит выделяется под знак числа: 0 – плюс, 1 – минус.

Для представления отрицательных чисел используется дополнительный код, который существенно упрощает работу процессора и увеличивает его быстродействие.



Дополнительный код для отрицательного числа равен дополнению его величины до числа, возникающего при переполнении его разрядной сетки.

Использование такого кода удобно тем, что процессору достаточно уметь лишь складывать числа, так как операция вычитания двух чисел сводится к сложению с дополнительным кодом вычитаемого, что можно записать следующим образом:



,

где А – положительное число;



В – отрицательное число;

- дополнительный код числа В.

Пример. Необходимо найти дополнительный код для отрицательного числа -2012 в 16-разрядном компьютерном представлении. В соответствии с приведенным правилом получим:

- прямой код числа |-2012| по модулю равен 2012, в двоичной системе счисления оно равно: 00000111110111002;

- инвертирование разрядов числа: 11111000001000112;

- прибавление единицы: 11111000001001002;



Прямой код

00000111110111002

Инверсия

11111000001000112

Дополнительный код

11111000001001002

Представление чисел в формате с плавающей точкой. Вещественные числа хранятся и обрабатываются в компьютере в формате с плавающей точкой. Формат чисел с плавающей точкой базируется на экспоненциальной форме записи, в которой может быть представлено любое число. Так, число А можно записать в виде:

,

где m - мантисса числа;



 - основание системы счисления;

n - порядок числа.
Числа с плавающей точкой должны записываются в нормализованной форме, требующей представление мантиссы в виде правильной дроби и имеющей после запятой цифру, отличную от нуля.

Кодирование текстовой информации

Текстовая информация состоит из символов: букв, цифр, знаков препинания и др. Одного байта достаточно для хранения 256 различных значений, что позволяет размещать в нем любой из алфавитно-цифровых символов. Первые 128 символов (занимающие семь младших бит) стандартизированы с помощью кодировки ASCII (American Standart Code for Information Interchange). Суть кодирования заключается в том, что каждому символу ставят в соответствие двоичный код от 00000000 до 11111111 или соответствующий ему десятичный код от 0 до 255. Для кодировки русских букв используют различные кодовые таблицы (КОI-8R, СР1251, CP10007, ISO-8859-5):



KOI8R — восьмибитовый стандарт кодирования букв кириллических алфавитов (для операционной системы UNIX). Разработчики KOI8R поместили символы русского алфавита в верхней части расширенной таблицы ASCII таким образом, что позиции кириллических символов соответствуют их фонетическим аналогам в английском алфавите в нижней части таблицы. Это означает, что из текста написанного в KOI8R, получается текст, написанный латинскими символами. Например, слова «дом высокий» приобретают форму «dom vysokiy»;

СР1251 – восьмибитовый стандарт кодирования, используемый в OS Windows;

CP10007 - восьмибитовый стандарт кодирования, используемый в кириллице операционной системы Macintosh (компьютеров фирмы Apple);

ISO-8859-5 – восьмибитовый код, утвержденный в качестве стандарта для кодирования русского языка.

Кодирование графической информации

Графическую информацию можно представлять в двух формах: аналоговой и дискретной. Живописное полотно, созданное художником, - это пример аналогового представления, а изображение, напечатанное при помощи принтера, состоящее из отдельных (элементов) точек разного цвета, - это дискретное представление.

Путем разбиения графического изображения (дискретизации) происходит преобразование графической информации из аналоговой формы в дискретную. При этом производится кодирование - присвоение каждому элементу графического изображения конкретного значения в форме кода. Создание и хранение графических объектов возможно в нескольких видах - в виде векторного, фрактального или растрового изображения. Отдельным предметом считается 3D (трехмерная) графика, в которой сочетаются векторный и растровый способы формирования изображений.

Векторная графика используется для представления таких графических изображений как рисунки, чертежи, схемы.

Они формируются из объектов - набора геометрических примитивов (точки, линии, окружности, прямоугольники), которым присваиваются некоторые характеристики, например, толщина линий, цвет заполнения.

Изображение в векторном формате упрощает процесс редактирования, так как изображение может без потерь масштабироваться, поворачиваться, деформироваться. При этом каждое преобразование уничтожает старое изображение (или фрагмент), и вместо него строится новое. Такой способ представления хорош для схем и деловой графики. При кодировании векторного изображения хранится не само изображение объекта, а координаты точек, используя которые программа каждый раз воссоздает изображение заново.

Основным недостатком векторной графики является невозможность изображения фотографического качества. В векторном формате изображение всегда будет выглядеть, как рисунок.



Растровая графика. Любую картинку можно разбить на квадраты, получая, таким образом, растр - двумерный массив квадратов. Сами квадраты — элементы растра или пиксели (picture's element) - элементы картинки. Цвет каждого пикселя кодируется числом, что позволяет для описания картинки задавать порядок номеров цветов (слева направо или сверху вниз). В память записывается номер каждой ячейки, в которой хранится пиксель.

Рисунок в растровом формате

Каждому пикселю сопоставляются значения яркости, цвета, и прозрачности  или комбинация этих значений. Растровый образ имеет некоторое число строк и столбцов. Этот способ хранения имеет свои недостатки: больший объём памяти, необходимый для работы с изображениями.

Объем растрового изображения определяется умножением количества пикселей на информационный объем одной точки, который зависит от количества возможных цветов. В современных компьютерах в основном используют следующие разрешающие способности экрана: 640 на 480, 800 на 600, 1024 на 768 и 1280 на 1024 точки. Яркость каждой точки и ее координаты можно выразить с помощью целых чисел, что позволяет использовать двоичный код для того чтобы обрабатывать графические данные.

В простейшем случае (черно-белое изображение без градаций серого цвета) каждая точка экрана может иметь одно из двух состояний — «черная» или «белая», то есть для хранения ее состояния необходим 1 бит. Цветные изображения формируются в соответствии с двоичным кодом цвета каждой точки, хранящимся в видеопамяти. Цветные изображения могут иметь различную глубину цвета, которая задается количеством битов, используемым для кодирования цвета точки. Наиболее распространенными значениями глубины цвета являются 8, 16, 24, 32, 64 бита.

Для кодирования цветных графических изображений произвольный цвет делят на его составляющие. Используются следующие системы кодирования:

HSB (H - оттенок (hue), S - насыщенность (saturation), B - яркость (brightness)),

RGB (Red - красный, Green - зелёный, Blue - синий) и

CMYK (Cyan - голубой, Magenta – пурпурный, Yellow - желтый и Black – черный).

Первая система удобна для человека, вторая - для компьютерной обработки, а последняя - для типографий. Использование этих цветовых систем связано с тем, что световой поток может формироваться излучениями, представляющими собой комбинацию "чистых" спектральных цветов: красного, зеленого, синего или их производных.



Фрактал – это объект, отдельные элементы которого наследуют свойства родительских структур. Поскольку более детальное описание элементов меньшего масштаба происходит по простому алгоритму, описать такой объект можно всего лишь несколькими математическими уравнениями. Фракталы позволяют описывать изображения, для детального представления которых требуется относительно мало памяти.

Рисунок в фрактальном формате



Трёхмерная графика (3D) оперирует с объектами в трёхмерном пространстве. Трёхмерная компьютерная графика широко используется в кино, компьютерных играх, где все объекты представляются как набор поверхностей или частиц. Всеми визуальными преобразованиями в 3D-графике управляют с помощью операторов, имеющих матричное представление.

Кодирование звуковой информации

Музыка, как и любой звук, является не чем иным, как звуковыми колебаниями, зарегистрировав которые, её можно достаточно точно воспроизвести. Для представления звукового сигнала в памяти компьютера, необходимо поступившие акустические колебания представить в цифровом виде, то есть преобразовать в последовательность нулей и единиц. С помощью микрофона звук преобразуется в электрические колебания, после чего можно измерить амплитуду колебаний через равные промежутки времени (несколько десятков тысяч раз в секунду), используя специальное устройство - аналого-цифровой преобразователь (АЦП). Для воспроизведения звука цифровой сигнал необходимо превратить в аналоговый с помощью цифро-аналогового преобразователя (ЦАП). Оба эти устройства встроены в звуковую карту компьютера. Указанная последовательность превращений представлена на рис. 2.6.[41].    

Трансформация аналогового сигнала в цифровой и обратно

Каждое измерение звука записывается в двоичном коде. Этот процесс называется дискретизацией (семплированием), выполняемым с помощью АЦП.

Семпл (sample англ. образец) - это промежуток времени между двумя измерениями амплитуды аналогового сигнала. Кроме промежутка времени семплом называют также любую последовательность цифровых данных, которые получили путем аналого-цифрового преобразования. Важным параметром семплирования является частота - количество измерений амплитуды аналогового сигнала в секунду. Диапазон частоты дискретизации звука от 8000 до 48000 измерений за одну секунду.

Графическое представление процесса дискретизации

На качество воспроизведения влияют частота дискретизации и разрешение (размер ячейки, отведённой под запись значения амплитуды). Например, при записи музыки на компакт-диски используются 16-разрядные значения и частота дискретизации 44032 Гц.  

На слух человек воспринимает звуковые волны, имеющие частоту в пределах от 16 Гц до 20 кГц (1 Гц - 1 колебание в секунду). 

В формате компакт-дисков Audio DVD за одну секунду сигнал измеряется 96 000 раз, т.е. применяют частоту семплирования 96 кГц. Для экономии места на жестком диске в мультимедийных приложениях довольно часто применяют меньшие частоты: 11, 22, 32 кГц. Это приводит к уменьшению слышимого диапазона частот, а, значит, происходит искажение того, что слышно.

4. Системы счисления. Операции над числами в различных системах счисления

Кроме десятичной существует неизмеримое количество других систем, при этом некоторые из них используются для представления и обработки информации в компьютере. Существуют два вида систем счисления: позиционные и непозиционные.

Непозиционными системами называются такие, у которых каждая цифра сохраняет свое значение независимо от места нахождения в числе. Примером может служить римская система счисления, в которой используются такие цифры как I, V, X, L, C, D, M и т.д.

Позиционными называются системы счисления, в которых значение каждой цифры зависит от её места положения. Позиционная система характеризуется основой исчисления, под которой будет пониматься такое число £, которое показывает, сколько единиц какого-либо разряда необходимо для получения единица старшего порядка.

Например, можно записать



.

Что соответствует числам в десятичной системе счисления





,

Индекс снизу указывает на основу счисления.

Для перевода положительных чисел, из одной системы счисления в другую известны два правила:

- перевод чисел из системы , в систему с использованием арифметики системы ;

- перевод чисел из системы , в систему с использованием арифметики системы ;

Рассмотрим первое правило. Допустим, число в десятичной системе необходимо представить в двоичной системе . Для этого данное число делится на основание системы представленное в системе , т.е. на 210. Остаток от деления будет младшим разрядом двоичного числа. Целая часть результата от деления вновь делится на 2. Операцию деления повторять столько раз, пока частное не будет меньше двух.

Пример: 8910 перевести в двоичное число, пользуясь арифметикой десятичной системы счисления



8910 → 10110012

Обратный перевод, согласно того же правила, следующий:

10110012 перевести в десятичное число, пользуясь арифметикой двоичной системы счисления



Двоичные числа 1000 и 1001 согласно таблице 2.1 соответственно равны 8 и 9. Поэтому 10110012 → 8910

Иногда обратный перевод удобнее осуществлять, пользуясь общим правилом представления числа в какой-либо системе исчисления.

Рассмотрим второе правило. Перевод чисел из системы , в систему с использованием арифметики системы . Для осуществления перевода необходимо каждую цифру числа в системе умножить на основание системы счисления представленной в системе счисления и в степени позиции этого числа. После чего полученные произведения суммируются.

Арифметические и логические операции

Арифметические операции

Рассмотрим арифметику двоичной системы счисления, так как именно она используется в современных компьютерах по следующим причинам:

- существуют простейшие физические элементы, которые имеют только два состояния и которые можно интерпретировать как 0 и 1;

- арифметическая обработка очень проста.

Числа в восьмеричной и шестнадцатеричной системах счисления обычно используется как средство замены длинного и поэтому неудобного представления двоичных чисел.

Операции сложения, вычитания и умножения в двоичной системе имеют вид:



Как уже было продемонстрировано ранее, чтобы обойтись только сумматором, то есть выполнять лишь операции сложения, операция вычитания заменена на сложение. Для этого код отрицательного числа формируется как дополнение до чисел 2, 10, 100 и т.д.


Операции с плавающей точкой


Правило сложения (вычитания):

пусть, – два нормализованных двоичных числа, и (в противном случае мы можем просто поменять их местами). В результате их сложения или вычитания будет получено следующее выражение:



.

Последовательность вычислений следующая:



  1. Порядки чисел A и B выравниваются по большему из них (в нашем случае это nA). Для этого мантисса числа B сдвигается на nA-nB разрядов вправо (часть значащих цифр при этом могут оказаться утерянными), а его порядок становится равным nA.

  2. Выполняется операция сложения (вычитания) над мантиссами с округлением по значению n+1-ой значащей цифры результата.

  3. Мантисса результата должна быть нормализована (получившийся после нормализации порядок может отличаться от nA как в меньшую, так и в большую сторону).

Если порядки равны, сложение-вычитание выполняется следующим образом:

A1 = m1pn

A2 = m2pn

Тогда:


A1 + A2 = m1pn + m2pn = (m1 + m2)pn

A1 - A2 = m1pn - m2pn = (m1 - m2)pn

Если порядки отличаются, то необходимо вначале их выровнять:



A1 = m1 pn1

A2 = m2 pn2

Тогда A1 + A2 = m1 pn1 + m2 pn2 = (m1 + m2pn2-n1) pn1

После чего нужно привести m2pn2-n1 к нормальному (т.е. к обычному, без показателя степени) виду, сложить с m1, полученный результат и будет мантиссой суммы, а порядком суммы будет n1.

Умножение-деление


A1 = m1pn1; A2 = m2pn2

Тогда:


A1 * A2 = m1pn1 * m2pn2= m1 * m2 * pn1* pn2 = (m1 * m2) * pn1+n2

A1 / A2 = m1pn1 / m2pn2 = m1 / m2 * pn1 / pn2 = (m1 / m2) * pn1-n2

То есть, при умножении нужно перемножить мантиссы и сложить показатели степени, при делении – разделить мантиссы и вычесть из показателя степени делимого показатель степени делителя. Например:



(1,2·105) · (2·10-2) = (1,2 · 2) ·105-2 =2,4·103

5. Основные понятия алгебры высказываний. Логические операции

Логические операции

Компьютер выполняет не только арифметические, но и логические операции, используя понятие истины (1, True, T) или ложь (0, False, F). Большое количество технических устройств компьютера, а также программных систем (экспертных, поддержки управленческих решений, интеллектуальных и т.д.) работают на основании математической логики, из всех разделов которой наибольшую популярность приобрели исчисление высказываний и исчисление предикатов.



Исчисление высказываний.

Цель исчисления высказываний состоит в определении их истинности или ложности на основании исходных посылок. В основе такого рода исчислений находится понятие «высказывание», связном повествовательном предложении, о котором можно сказать, истинно оно или ложно. Например, среди следующих предложений:

  1. Два умножить на три равно шесть.

  2. 5 > 7.

  3. Река Волга впадает в Балтийское море.

  4. Какая завтра будет погода?

высказываниями являются 1, 2 и 3 предложения и среди них лишь 1 будет истинным. Пример 4 не является высказыванием, так как нельзя сказать истинно оно или ложно.

Логику высказываний не интересует то, о чем идет речь в высказывании. Ее интересует лишь его истинность или ложность, так как она необходима для рассмотрения суждений без учета их внутренней структуры. Логика высказываний использует содержательные символы – выражения языка, имеющие смысл даже в том случае, если они взяты сами по себе. Высказывания обозначаются большими буквами латинского алфавита. Если высказывание A истинно, то пишут A = 1, если ложно, то используют запись A = 0.

На естественном языке из простых связных повествовательных предложений с помощью некоторых стандартных связок можно образовывать составные предложения. В логике высказываний таким связкам соответствуют логические операции.

Операция отрицания

Операция логического отрицания осуществляется над одним высказыванием. Выполнить операцию логического отрицания (обозначается ) – значит получить из данного высказывания новое, присоединяя слова «неверно, что …» ко всему высказыванию. Например, если А = «Луна спутник Земли», то = «неверно, что Луна спутник Земли», что ложно. Истинность высказывания определяется таблицей:



Отрицание

А



1

0

0

1

Отсюда следует, что отрицание высказывания истинно тогда и только тогда, когда высказывание А ложно.

Операция конъюнкции

Конъюнкция (логическое умножение) соответствует союзу 'и' в русском языке. Конъюнкция двух высказываний истинна тогда и только тогда, когда оба составляющих высказывания истинны. Например, пусть у нас есть два истинных высказывания А= «Земля круглая» и В= «Луна –спутник Земли», тогда их конъюнкцией будет так же истинное высказывание «Земля круглая и Луна – спутник Земли» (А=1, В=1; 1·1=1). В случае, если хотя бы одно из высказываний ложно, например В = «Марс - спутник Земли», их конъюнкция «Земля круглая и Марс – спутник Земли» так же будет ложным высказыванием (А=1, В=0; 1·0)=0. Истинность конъюнкции определяется таблицей:



Конъюнкция

А

В

АВ

0

0

0

0

1

0

1

0

0

1

1

1

Операция дизъюнкции

Дизъюнкция (логическое сложение) соответствует союзу 'или' в русском языке.

Например, высказывание A – «Декабрь – зимний месяц», В – «В январе сильный мороз», определим высказывание A+B как «Декабрь – зимний месяц или в январе сильный мороз» (А=1; В=1 или В=0; 1+1=1 или 1+0=1). Дизъюнкция истинна, если хотя бы одно из высказываний истинно. Установить истинность логической суммы можно с помощью следующей таблицы:


Дизъюнкция

А

В

А+В

0

0

0

0

1

1

1

0

1

1

1

1

То есть дизъюнкция двух высказываний ложна тогда и только тогда, когда оба высказывания ложны.

Эквиваленция высказываний А, В - это высказывание, обозначаемое и определяемое следующей таблицей:

Эквиваленция истинна тогда и только тогда, когда образующие её высказывания А, В имеют одинаковые значения.

Импликация

Импликации соответствуют конструкции 'Если ..., то ... ' (' Из ... следует ...').

Импликация высказываний А и В обозначается как . Ее истинность определяется следующей таблицей:


Импликация

А

В



0

0

1

1

0

0

0

1

1

1

1

1

Импликация ложна тогда и только тогда, когда А - истина, В - ложь.

Допустим А = «Цены высоки» и В = «Товаров продано мало». Тогда импликация является истинным. Элементы высказывания, образующего импликацию, имеют специальные названия: А - посылка (гипотеза, антецедент), В - заключение (вывод, консеквент ).



Формулы исчисления высказываний. Таблицы истинности

Формулы исчисления высказываний – это высказывания, которые могут быть получены из элементарных высказываний (например A, B, 1, 0) посредством применения логических операций отрицания, конъюнкции, дизъюнкции, импликации и эквиваленции. Формулы необходимы для исчисления истинности или ложности составных высказываний, то есть решения логических задач.

Особое значение в логике исчисления высказываний имеют тождественные высказывания и эквивалентные высказывания (формулы де Моргана). Если высказывания в таблице истинности характеризуются либо одними единицами, либо только нулями, то это означает, что они, либо всегда истинны, либо ложны, независимо от истинности входящих в них высказываний. Например, высказывание всегда истинно, а высказывание всегда ложно. Сложные высказывания, истинные при любых значениях входящих в них других высказываний, называются тождественно истинными, а высказывания, ложные при любых значениях входящих в них других высказываний, называются тождественно ложными. Правила де Моргана имеют вид:



;

.

Полезными также являются следующие законы:



(закон склеивания),

(закон поглощения),

(закон обобщенного склеивания).



Тождественно истинные или тождественно ложные высказывания, если они встречаются в формулах, заменяются в них, соответственно единицей или нулем:



, .

Среди высказываний встречаются также и такие, в которых таблицы истинности совпадают. Эти высказывания называются эквивалентными. Эквивалентными являются, например, высказывания и .