Семантическая и прагматическая меры информации. Уровни и структура экономической информации. Синтаксический, семантический и прагматический уровни экономической информации

06.07.2019

Тема 2. Основы представления и обработки информации в компьютере

Литература

1. Информатика в экономике: Учебное пособие/Под ред. Б.Е. Одинцова, А.Н. Романова. – М.: Вузовский учебник, 2008.

2. Информатика: Базовый курс: Учебное пособие/Под ред. С.В. Симоновича. – СПб.: Питер, 2009.

3. Информатика. Общий курс: Учебник/Соавт.:А.Н. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; Под общ. ред. В.И. Колесникова. – М.: Дашков и К, 2009.

4. Информатика для экономистов: Учебник/Под ред. Матюшка В.М. - М.: Инфра-М, 2006.

5. Экономическая информатика: Введение в экономический анализ информационных систем.- М.: ИНФРА-М, 2005.

Меры информации (синтаксическая, семантическая, прагматическая)

Для измерения информации могут применяться различные подходы, но наибольшее распространение получили статистический (вероятностный), семантический и прагматический методы.

Статистический (вероятностный) метод измерения информации был разработан К. Шенноном в 1948 году, который предложил количество информации рассматривать как меру неопределенности состояния системы, снимаемой в результате получения информации. Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию о системе Х, то неопределенность уменьшилась. Дополнительно полученное количество информации определяется как:

где - дополнительное количество информации о системе Х , поступившее в форме сообщения;

Начальная неопределенность (энтропия) системы X ;

Конечная неопределенность (энтропия) системы X, наступившая после получения сообщения.

Если система X может находиться в одном из дискретных состояний, количество которых n , а вероятность нахождения системы в каждом из них равна и сумма вероятностей всех состояний равна единице , то энтропия вычисляется по формуле Шеннона:

где - энтропия системы Х;

а - основание логарифма, определяющее единицу измерения информации;

n – количество состояний (значений), в котором может находится система.

Энтропия величина положительная, а так как вероятности всегда меньше единицы, а их логарифм отрицательный, поэтому знак минус в формуле К.Шеннона делает энтропию положительной. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Взаимосвязь информации и энтропии можно понимать следующим образом: получение информации (ее увеличение) одновременно означает уменьшение незнания или информационной неопределенности (энтропии)

Таким образом, статистический подход учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Количество информации достигает максимального значения, если события равновероятны.

Р. Хартли предложил следующую формулу для измерения информации:

I=log 2 n ,

где n - количество равновероятных событий;

I – мера информации в сообщении о наступлении одного из n событий

Измерение информации выражается в ее объёме. Чаще всего это касается объёма компьютерной памяти и объёма данных, передаваемых по каналам связи. За единицу принято такое количество информации, при котором неопределённость уменьшается в два раза, такая единица информации получила название бит .

Если в качестве основания логарифма в формуле Хартли используется натуральный логарифм (), то единицей измерения информации является нат (1 бит = ln2 ≈ 0,693 нат). Если в качестве основания логарифма используется число 3, то - трит , если 10, то - дит (хартли).

На практике чаще применяется более крупная единица - байт (byte ), равный восьми битам. Такая единица выбрана потому, что с ее помощью можно закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

Кроме байтов информация измеряется полусловами (2 байта), словами (4 байта) и двойными словами (8 байт). Широко используются также еще более крупные единицы измерения информации:

1 Килобайт (Кбайт - kilobyte ) = 1024 байт = 2 10 байт,

1 Мегабайт (Мбайт - megabyte ) = 1024 Кбайт = 2 20 байт,

1 Гигабайт (Гбайт - gigabyte ) = 1024 Мбайт = 2 30 байт.

1 Терабайт (Тбайт - terabyte ) = 1024 Гбайт = 2 40 байт,

1 Петабайт (Пбайт - petabyte ) = 1024 Тбайт = 2 50 байт.

В 1980 году российский математик Ю. Манин предложил идею построения квантового компьютера, в связи с чем появилась такая единица информации как кубит (quantum bit, qubit) – «квантовый бит» – мера измерения объема памяти в теоретически возможном виде компьютера, использующем квантовые носители, например - спины электронов. Кубит может принимать не два различных значения ("0" и "1"), а несколько, соответствующих нормированным комбинациям двух основных состояний спина, что дает большее число возможных сочетаний. Так, 32 кубита могут закодировать около 4 млрд состояний.

Семантический подход. Синтаксической меры не достаточно, если требуется определить не объем данных, а количество нужной в сообщении информации. В этом случае рассматривается семантический аспект, позволяющий определить содержательную сторону сведений.

Для измерения смыслового содержания информации можно воспользоваться тезаурусом ее получателя (потребителя). Идея тезаурусного метода была предложена Н. Винером и развита нашим отечественным ученым А.Ю. Шрейдером.

Тезаурусом называется совокупность сведений , которыми располагает получатель информации. Соотнесение тезауруса с содержанием поступившего сообщения позволяет выяснить, насколько оно снижает неопределенность..

Зависимость объема смысловой информации сообщения от тезауруса получателя

Согласно зависимости, представленной на графике, при отсутствии у пользователя какого-либо тезауруса (знаний о существе поступившего сообщении, то есть =0), или наличия такого тезауруса, который не изменился в результате поступления сообщения (), то объем семантической информации в нем равен нулю. Оптимальным будет такой тезаурус (), при котором объем семантической информации будет максимальным (). Например, семантической информации в поступившем сообщении на незнакомом иностранном языке будет ноль , но и такая же ситуация будет в том случае, если сообщение уже не является новостью, так как пользователю уже все известно.

Прагматическая мера информации определяет ее полезность в достижении потребителем своих целей. Для этого достаточно определить вероятность достижения цели до, и после получения сообщения и сравнить их. Ценность информации (по А.А. Харкевичу) рассчитывается по формуле:

где - вероятность достижения цели до получения сообщения;

Вероятность достижения цели поле получения сообщения;

Информации - это что такое? На чем он базируется? Какие цели преследует и задачи выполняет? Обо всём этом мы и поговорим в рамках данной статьи.

Общая информация

В каких случаях применяется семантический способ измерения информации? Используется сущность информации, интересует содержательная сторона полученного сообщения - вот показания для его применения. Но для начала давайте дадим изъяснение того, что он собой представляет. Следует отметить, что семантический способ измерения информации - это трудно формализованный подход, который до сих пор полностью не сформировался. Используется он для того, чтобы измерять количество смысла в данных, которые были получены. Иными словами, какой объем информации из полученной является необходимым в данном случае. Такой подход используется для определения содержательной стороны получаемых сведений. И если мы говорим про семантический способ измерения информации, используется понятие тезауруса, которое неразрывно связано с рассматриваемой темой. Что же оно собой представляет?

Тезаурус

Хочется сделать небольшое введение и дать ответ на один вопрос про семантический способ измерения информации. Кем введен он? Предложил использовать этот метод основатель кибернетики Норберт Винер, но значительное развитие он получил под влиянием нашего соотечественника А. Ю. Шрейдера. Чем же является название используется для обозначения совокупности сведений, которые есть у получателя информации. Если соотнести тезаурус с содержанием сообщения, которое поступило, то можно выяснить, насколько оно снизило неопределённость. Хочется исправить одну ошибку, под влияние которой часто попадает большое количество людей. Так, они считают, что семантический способ измерения информации введен Клодом Шенноном. Неизвестно, как именно возникло это заблуждение, но это мнение неверно. Клод Шеннон ввёл статистический способ измерения информации, «наследником» которого и считается семантический.

Графический подход для определения объема смысловой информации в полученном сообщении

Для чего нужно что-то рисовать? Семантический способ измерения использует такую возможность для наглядного предоставления данных о полезности данных в виде легко понимаемых рисунков. Что же это значит на практике? Для пояснения положения дел строят зависимость в виде графика. Если у пользователя отсутствуют знания о сути сообщения, которое было получено (равняется нулю), то объем семантической информации будет равен этому же значению. Можно ли найти оптимальное значение? Да! Так называется тезаурус, где объем семантической информации максимальный. Давайте рассмотрим небольшой пример. Допустим, пользователю поступило сообщение, написанное на незнакомом иностранном языке, или же человек может прочитать, что там написано, но это для него уже не является новостью, поскольку всё это известно. В таких случаях говорят о том, что в сообщении содержится ноль семантической информации.

Историческое развитие

Вероятно, об этом следовало поговорить немного выше, но наверстать упущенное ещё не поздно. Первоначально семантический способ измерения информации введен Ральфом Хартли в 1928 году. Ранее упоминалось, что в качестве основателя часто упоминают Клода Шеннона. Почему же возникла такая путаница? Дело в том, что, хотя семантический способ измерения информации и был введён Ральфом Хартли в 1928 году, обобщили его в 1948 году именно Клод Шеннон и Уоррен Уивер. После этого основоположник кибернетики Норберт Винер сформировал идею тезаурусного метода, которая получила наибольшее признание в виде меры, разработанной Ю. И. Шнейдером. Следует отметить, что для того чтобы разобраться в этом, необходим достаточно высокий уровень знаний.

Результативность

Что же нам даёт тезаурусный метод на практике? Он является реальным подтверждением тезиса о том, что информация обладает таким свойством, как относительность. При этом следует отметить, что она обладает относительной (или же субъективной) ценностью. Для того чтобы можно было объективно оценивать научную информацию, ввели понятие общечеловеческого тезауруса. Его степень изменения и показывает значительность знаний, которые получает человечество. При этом нельзя точно сказать, какой конечный результат (или же промежуточный) можно будет получить от информации. Возьмём, к примеру, компьютеры. Вычислительная техника создавалась на основе ламповой технологии и битового состояния каждого структурного элемента и первоначально использовалась для осуществления расчетов. Сейчас же почти у каждого человека есть что-то, что работает на основании данной технологии: радио, телефон, компьютер, телевизор, ноутбук. Даже современные холодильники, плиты и умывальники содержат в себе немного электроники, в основе работы которой лежит информация об облегчении использования человеком данных бытовых устройств.

Научный подход

Где же изучается семантический способ измерения информации? Информатика - вот та наука, которая занимается различными аспектами этого вопроса. В чём же заключается особенность? В основу способа положено использование системы «истина/ложь», или же битовая система «единица/ноль». Когда поступает определённая информация, то она разбивается на отдельные блоки, которые именуются подобно единицам речи: слова, слоги и тому подобное. Каждый блок получает определённое значение. Давайте рассмотрим небольшой пример. Рядом стоят два друга. Один обращается ко второму со словами: «Завтра у нас выходной». Когда дни для отдыха - знает каждый. Поэтому ценность этой информации нулевая. Но если второй скажет, что он завтра работает, то для первого это будет неожиданность. Ведь в таком случае может оказаться, что будут нарушены планы, которые строил один человек, например, сходить поиграть в боулинг или же покопаться в мастерской. Каждую часть описанного примера можно описать с помощью единиц и нулей.

Оперирование понятиями

Но что же используется ещё, кроме тезауруса? Что ещё нужно знать, чтобы понимать семантический способ измерения информации? Основные понятия, которые дополнительно можно изучить ещё, - это знаковые системы. Под ними понимают средства выражения смысла, вроде правил интерпретации знаков или же их сочетаний. Давайте рассмотрим ещё один пример из информатики. Компьютеры оперируют условными нулями и единицами. По сути, это низкое и высокое напряжение, которое подаётся на компоненты техники. Причем передают они эти единицы и нули без конца и края. Как же делать различие между ними технике? Ответ на это был найден - прерывания. Когда передаётся эта же самая информация, то получаются различные блоки вроде слов, словосочетаний и отдельных значений. В устной человеческой речи для разбивки данных на отдельные блоки тоже используются паузы. Они настолько незаметны, что большинство из них мы замечаем на «автомате». В письме для этой цели служат точки и запятые.

Особенности

Давайте затронем ещё и тему свойств, которые есть у семантического способа измерения информации. Мы уже знаем, что так называется специальный подход, которые оценивает важность информации. Можно ли говорить, что данные, которые будут оцениваться таким способом, будут объективными? Нет, это не верно. Информация является субъективной. Давайте рассмотрим это на примере школы. Есть отличник, который идёт впереди утверждённой программы, и среднестатистический середнячок, который изучает то, что излагается на занятиях. Для первого большинство информации, которую он будет получать в школе, будет представлять достаточно слабый интерес, поскольку он это уже знает и не впервые слышит/читает. Поэтому на субъективном уровне для него это будет не очень ценно (за счёт разве что отдельных замечаний учителя, которые он подметил за время изложения своего предмета). Тогда как середнячок о новой информации что-то слыхал только отдаленно, поэтому для него ценность данных, которые будут излагаться на уроках, на порядок больше.

Заключение

Следует отметить, что в информатике семантический способ измерений информации - это не единственный вариант, в рамках которого можно решать имеющиеся задачи. Выбор должен зависеть от поставленных целей и присутствующих возможностей. Поэтому, если тема заинтересовала или же в ней существует потребность, то можно только настоятельно порекомендовать изучить её более подробно и узнать, какие ещё способы измерения информации, кроме семантического, существуют.

Информационное взаимодействие. Способы передачи информации. Классификация информации.

Понятие информации. Свойства информации. Формы представления информации.

Информация (от лат. informatio - «разъяснение, изложение, осведомлённость») - сведения о чём-либо, независимо от формы их представления.

Информацию можно разделить на виды по различным критериям:

по способу восприятия:

Визуальная - воспринимаемая органами зрения.

Аудиальная - воспринимаемая органами слуха.

Тактильная - воспринимаемая тактильными рецепторами.

Обонятельная - воспринимаемая обонятельными рецепторами.

Вкусовая - воспринимаемая вкусовыми рецепторами.

по форме представления:

Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка.

Числовая - в виде цифр и знаков, обозначающих математические действия.

Графическая - в виде изображений, предметов, графиков.

Звуковая - устная или в виде записи и передачи лексем языка аудиальным путём.

по назначению:

Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.

Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.

Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

по значению:

Актуальная - информация, ценная в данный момент времени.

Достоверная - информация, полученная без искажений.

Понятная - информация, выраженная на языке, понятном тому, кому она предназначена.

Полная - информация, достаточная для принятия правильного решения или понимания.

Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

по истинности:

истинная

В информатике предметом изучения информации являются именно данные: методы их создания, хранения, обработки и передачи.

Передачей информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) - ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.



Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы - наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.

Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации - электромагнитные колебания (электрические колебания, радиоволны, свет). Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Единицы измерения информации служат для измерения различных характеристик, связанных с информацией.

Чаще всего измерение информации касается измерения ёмкости компьютерной памяти (запоминающих устройств) и измерения объёма данных, передаваемых по цифровым каналам связи. Реже измеряется количество информации.

Бит (англ. binary digit - двоичное число; также игра слов: англ. bit - кусочек, частица) - единица измерения количества информации, равная одному разряду в двоичной системе счисления. Обозначается по ГОСТ 8.417-2002

Клод Шэннон в 1948 г предложил использовать слово bit для обозначения наименьшей единицы информации:

Бит - это двоичный логарифм вероятности равновероятных событий или сумма произведений вероятности на двоичный логарифм вероятности при равновероятных событиях; см. информационная энтропия.

Бит - базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода; см. информационная энтропия. Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).

Синтаксическая мера информации

Возникновение информологии как науки можно отнести к концу 50-х годов нашего столетия, когда американским инженером Р. Хартли была сделана попытка ввести количественную меру информации, передаваемой по каналам связи. Рассмотрим простую игровую ситуацию. До получения сообщения о результате подбрасывания монеты человек находится в состоянии неопределенности относительно исхода очередного броска. Сообщение партнера дает информацию, снимающее эту неопределенность. Заметим, что число возможных исходов в описанной ситуации равно 2, они равноправны (равновероятны) и каждый раз передаваемая информация полностью снимала возникавшую неопределенность. Хартли принял «количество информации», передаваемое по каналу связи относительно двух равноправных исходов и снимающее неопределенность путем оказания на один из них, за единицу информации, получившую название «бит».

Семантическая мера информации

Новый этап теоретического расширения понятия информации связан с кибернетикой - наукой об управлении и связи в живых организмах, обществе и машинах. Оставаясь на позициях шенноновского подхода, кибернетика формулирует принцип единства информации и управления, который особенно важен для анализа сути процессов, протекающих в самоуправляющихся, самоорганизующихся биологических и социальных системах. Развитая в работах Н. Винера концепция предполагает, что процесс управления в упомянутых системах является процессом переработки (преобразования) некоторым центральным устройством информации, получаемой от источников первичной информации (сенсорных рецепторов) и передачи ее в те участки системы, где она воспринимается ее элементами как приказ для выполнения того или иного действия. По совершении самого действия сенсорные рецепторы готовы к передаче информации об изменившейся ситуации для выполнения нового цикла управления. Так организуется циклический алгоритм (последовательность действий) управления и циркуляции информации в системе. При этом важно, что главную роль играет здесь содержание информации, передаваемой рецепторами и центральным устройством. Информация, по Винеру - это «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств».

Прагматическая мера информации

В прагматических концепциях информации этот аспект является центральным, что приводит к необходимости учитывать ценность, полезность, эффективность, экономичность информации, т.е. те ее качества, которые определяющим образом влияют на поведение самоорганизующихся, самоуправляющихся, целенаправленных кибернетических систем (биологических, социальных, человеко-машинных).

Одним из ярких представителей прагматических теорий информации является поведенческая модель коммуникации - бихевиористская модель Акоффа-Майлса. Исходным в этой модели является целевая устремленность получателя информации на решение конкретной проблемы. Получатель находится в «целеустремленном состоянии», если он стремится к чему-нибудь и имеет альтернативные пути неодинаковой эффективности для достижения цели. Сообщение, переданное получателю иформативно, если оно изменяет его «целеустремленное состояние».

Так как «целеустремленное состояние» характеризуется последовательностью возможных действий (альтернатив), эффективностью действия и значимостью результата, то передаваемое получателю сообщение может оказывать воздействие на все три компонента в различной степени. В соответствии с этим передаваемая информация различается по типам на «информирующую», «инструктирующую» и «мотивирующую». Таким образом, для получателя прагматическая ценность сообщения состоит в том, что оно позволяет ему наметить стратегию поведения при достижении цели построением ответов на вопросы: что, как и почему делать на каждом очередном шаге? Для каждого типа информации бихевиористская модель предлагает свою меру, а общая прагматическая ценность информации определяется как функция разности этих количеств в «целеустремленном состоянии» до и после его изменения на новое «целеустремленное состояние».

Тема 2. Основы представления и обработки информации в компьютере

Литература

1. Информатика в экономике: Учебное пособие/Под ред. Б.Е. Одинцова, А.Н. Романова. – М.: Вузовский учебник, 2008.

2. Информатика: Базовый курс: Учебное пособие/Под ред. С.В. Симоновича. – СПб.: Питер, 2009.

3. Информатика. Общий курс: Учебник/Соавт.: А.Н. Гуда, М.А. Бутакова, Н.М. Нечитайло, А.В. Чернов; Под общ. ред. В.И. Колесникова. – М.: Дашков и К, 2009.

4. Информатика для экономистов: Учебник/Под ред. Матюшка В.М. - М.: Инфра-М, 2006.

5. Экономическая информатика: Введение в экономический анализ информационных систем.- М.: ИНФРА-М, 2005.

Меры информации (синтаксическая, семантическая, прагматическая)

Для измерения информации могут применяться различные подходы, но наибольшее распространение получили статистический (вероятностный), семантический и прагматический методы.

Статистический (вероятностный) метод измерения информации был разработан К. Шенноном в 1948 году, который предложил количество информации рассматривать как меру неопределенности состояния системы, снимаемой в результате получения информации. Количественно выраженная неопределенность получила название энтропии. Если после получения некоторого сообщения наблюдатель приобрел дополнительную информацию о системе Х, то неопределенность уменьшилась. Дополнительно полученное количество информации определяется как:

где - дополнительное количество информации о системе Х , поступившее в форме сообщения;

Начальная неопределенность (энтропия) системы X ;

Конечная неопределенность (энтропия) системы X, наступившая после получения сообщения.

Если система X может находиться в одном из дискретных состояний, количество которых n , а вероятность нахождения системы в каждом из них равна и сумма вероятностей всех состояний равна единице, то энтропия вычисляется по формуле Шеннона:

где - энтропия системы Х;

а - основание логарифма, определяющее единицу измерения информации;

n – количество состояний (значений), в котором может находится система.

Энтропия величина положительная, а так как вероятности всегда меньше единицы, а их логарифм отрицательный, поэтому знак минус в формуле К.Шеннона делает энтропию положительной. Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Взаимосвязь информации и энтропии можно понимать следующим образом: получение информации (ее увеличение) одновременно означает уменьшение незнания или информационной неопределенности (энтропии)

Таким образом, статистический подход учитывает вероятность появления сообщений: более информативным считается то сообщение, которое менее вероятно, т.е. менее всего ожидалось. Количество информации достигает максимального значения, если события равновероятны.

Р. Хартли предложил следующую формулу для измерения информации:

I=log2n ,

где n - количество равновероятных событий;

I – мера информации в сообщении о наступлении одного из n событий

Измерение информации выражается в ее объёме. Чаще всего это касается объёма компьютерной памяти и объёма данных, передаваемых по каналам связи. За единицу принято такое количество информации, при котором неопределённость уменьшается в два раза, такая единица информации получила название бит .

Если в качестве основания логарифма в формуле Хартли используется натуральный логарифм (), то единицей измерения информации является нат (1 бит = ln2 ≈ 0,693 нат). Если в качестве основания логарифма используется число 3, то - трит , если 10, то - дит (хартли).

На практике чаще применяется более крупная единица - байт (byte ), равный восьми битам. Такая единица выбрана потому, что с ее помощью можно закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Кроме байтов информация измеряется полусловами (2 байта), словами (4 байта) и двойными словами (8 байт). Широко используются также еще более крупные единицы измерения информации:

1 Килобайт (Кбайт - kilobyte ) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт - megabyte ) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт - gigabyte ) = 1024 Мбайт = 230 байт.

1 Терабайт (Тбайт - terabyte ) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт - petabyte ) = 1024 Тбайт = 250 байт.

В 1980 году российский математик Ю. Манин предложил идею построения квантового компьютера, в связи с чем появилась такая единица информации как кубит (quantum bit, qubit) – «квантовый бит» – мера измерения объема памяти в теоретически возможном виде компьютера, использующем квантовые носители, например - спины электронов. Кубит может принимать не два различных значения («0» и «1»), а несколько, соответствующих нормированным комбинациям двух основных состояний спина, что дает большее число возможных сочетаний. Так, 32 кубита могут закодировать около 4 млрд состояний.

Семантический подход. Синтаксической меры не достаточно, если требуется определить не объем данных, а количество нужной в сообщении информации. В этом случае рассматривается семантический аспект, позволяющий определить содержательную сторону сведений.

Для измерения смыслового содержания информации можно воспользоваться тезаурусом ее получателя (потребителя). Идея тезаурусного метода была предложена Н. Винером и развита нашим отечественным ученым А.Ю. Шрейдером.

Тезаурусом называется совокупность сведений , которыми располагает получатель информации. Соотнесение тезауруса с содержанием поступившего сообщения позволяет выяснить, насколько оно снижает неопределенность..

Зависимость объема смысловой информации сообщения от тезауруса получателя

Согласно зависимости, представленной на графике, при отсутствии у пользователя какого-либо тезауруса (знаний о существе поступившего сообщении, то есть =0), или наличия такого тезауруса, который не изменился в результате поступления сообщения (), то объем семантической информации в нем равен нулю. Оптимальным будет такой тезаурус (), при котором объем семантической информации будет максимальным (). Например, семантической информации в поступившем сообщении на незнакомом иностранном языке будет ноль , но и такая же ситуация будет в том случае, если сообщение уже не является новостью, так как пользователю уже все известно.

Прагматическая мера информации определяет ее полезность в достижении потребителем своих целей. Для этого достаточно определить вероятность достижения цели до, и после получения сообщения и сравнить их. Ценность информации (по А.А. Харкевичу) рассчитывается по формуле:

где - вероятность достижения цели до получения сообщения;

Вероятность достижения цели поле получения сообщения;

Уровни и структура экономической информации. Синтаксический, семантический и прагматический уровни экономической информации. Структурные элементы экономической информации - реквизиты, показатели, составные единицы информации (СЕИ), документы, массивы и базы данных

Предметом рассмотрения настоящего курса является маркетинговая информация как составная часть экономической информации.

Экономическая информация – это совокупность сведений, характеризующих производственные отношения в обществе. Эти сведения можно фиксировать, хранить, передавать, обрабатывать и использовать в процессах планирования, учета, контроля и анализа экономической системы или процесса.

Экономическая информация включает различные сведения о составе и значениях трудовых, материальных и финансовых ресурсов и состоянии объекта управления на некоторый момент времени. Экономическая информация позволяет получить сведения о деятельности предприятий и организаций через различные экономические показатели. Сведения из любой предметной области обладают рядом характерных свойств.

Отметим особенности экономической информации :

1. Многомерность – большое количество и объем данных, без которых невозможно качественное управление экономическими процессами.

2. Численное отображение - экономическая информация, как правило, отражает производственно-хозяйственную деятельность с помощью системы натуральных и стоимостных показателей. Они выражаются с помощью числовых данных, поэтому при работе с экономической информацией очень широко используются числовые типы данных и методы работы с этими типами.

3. Периодичность – для большинства производственных и хозяйственных процессов характерна циклическая повторяемость составляющих их стадий (месяц, квартал, год), и соответственно характерна повторяемость информации, отражающей на этих стадиях процессы.

4. Графическое и табличное представление экономической информации. Экономические документы имеют чаще всего вид таблиц и графиков, поэтому для обработки экономической информации очень широко используются табличные процессоры.

5. Многообразие источников и потребителей.

Эти особенности экономической информации предопределяют научно-техническую необходимость и экономическую целесообразность использования средств информационных технологий при ее сборе, накоплении, передаче и обработке, что в свою очередь требует от специалистов умения определять структуру и объемы перерабатываемой информации.

В процессе использования в экономических и управленческих системах информация проходит несколько фаз существования :

Ассимилированная информация - представление сообщений в сознании человека, наложенное на систему его понятий и оценок;


Документированная информация - сведения, зафиксированные в знаковой форме на каком-либо физическом носителе;

Передаваемая информация - сведения, рассматриваемые в момент их передачи от источника к приемнику получения. В процессе передачи информация проходит через ряд преобразователей: кодирующие и декодирующие устройства, вычислительные машины, ведущие обработку информации, коммуникационные системы, вычислительные сети и т. п.

Информация представляет собой данные, которые циркулируют между отдельными структурными элементами экономической системы или между самими системами. Выделяют различные уровни рассмотрения информации: синтаксический, семантический и прагматический.

Синтаксический уровень изучает структуру знаков и отношений между ними в информационных сообщениях. На этом уровне анализируется структура символов и знаков в документах, форматах реквизитов, структуре массивов информации и т. п. На синтаксическом уровне используют термин «данные» и объем данных связан с количеством экземпляров документов, числом записей в базе данных и т. п. Полученные входные данные являются основой для обработки информации, получения выходных данных, служащих основой для принятия решения.

Семантический уровень определяет общее смысловое содержание информации, и дает возможность установить взаимосвязи между отдельными элементами информации. Семантикаизучает отношения между знаками и обозначаемыми ими объектами, не касаясь получателя знаков. Она изучает общие закономерности построения любых знаковых систем, рассматриваемых в синтактике. Различают семантику логическую и структурную. Логическая семантика рассматривает знаковые системы как средства выражения смысла, установление зависимости между структурой знакосочетаний и их выразительными возможностями. Структурная семантика - раздел структурной лингвистики, посвященный описанию смысла языковых выражений и операций над ним. Семантический анализ - совокупность операций, служащих для представления смысла текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке. Семантический анализ моделирует процесс понимания текста человеком. Информативность сообщения тем выше, чем более определенной становится состояние системы для получателя информации. На семантическом уровне содержательность информации основана на тезаурусе системы.

Тезаурус (словарь) включает в себя набор основных понятий, терминов, определений, согласованных структур данных логического уровня представления в базах данных и т. п. При этом информативность сообщений во многом зависит от способности получателя расширить свой тезаурус.

Прагматический уровень определяет ценность информации для принятия управленческого решения, для системы управления в целом. Прагматика изучает восприятие осмысленных выражений знаковой системы в соответствии с разрешающими способностями воспринимающего. Теоретическая прагматика рассматривает некоторые гипотезы о свойствах и строении интеллекта, которые формулируются на основе данных нейрофизиологии, экспериментальной психологии, бионики, теории персептронов и т.д. Прикладная прагматика включает в себя исследования, посвященные эмпирическому анализу понимания людьми различных языковых выражений, изучению ритмики и стихосложения, а также разработке информационно-поисковых систем.

Таким образом, выделяют три уровня рассмотрения любого информационного сообщения, три уровня абстрагирования от особенностей конкретных актов обмена информацией. На прагматическом уровне для выявления полезности информации рассматривают все элементы информационного обмена. На семантическом уровне, отвлекаясь от получателя информации, конечной целью изучения является смысловое значение сообщения, его адекватность описываемым объектам. Наиболее узким является синтактический уровень - уровень изучения только самих знаков и соотношений между ними.

Задача экономической информации - давать адекватное описание некоторого состояния рассматриваемой экономической системы или объекта. Поэтому к экономической информации предъявляется ряд требований.

Полнота информации для принятия решений и реализации функций управления. Полнота определяется по отношению к управленческим функциям. Информация может быть неполной по объему и составу сведений. Недостаток информации не позволяет выработать верного управленческого решения.Полнота информации означает ее достаточность для понимания и принятия решений.

Точность и достоверность информации. Данные характеристики определяют степень приближения значения информации к истинному значению. Достоверность отражает вероятностную оценку информации. Существуют определенные уровни точности использовании получаемых данных.

Ценность информации зависит от того, какие задачи решаются с ее помощью.

Актуальность и оперативность. Актуальностьпоказывает степень соответствия реального состояния экономического объекта и состояния информационной системы. Отсутствие своевременных изменений в информации, отражаемой в информационной системе, приводит к нарушению процессов управления. Оперативность определяет скорость внесения в информационную систему изменений информации о состоянии предметной области.Актуальнуюинформацию важно иметь при работе в постоянно изменяющихся условиях.

Воспринимаемость - информация становится ясной и понятной, если она выражена языком, понятным тем объектам, которым она предназначена.

Похожие статьи