Понятие информации, свойства. Информационные процессы

  • Вид работы:
    Контрольная работа
  • Предмет:
    Информационное обеспечение, программирование
  • Язык:
    Русский
    ,
    Формат файла:
    MS Word
    12,42 kb
  • Опубликовано:
    2011-10-01
Вы можете узнать стоимость помощи в написании студенческой работы.
Помощь в написании работы, которую точно примут!

Понятие информации, свойства. Информационные процессы

ФЕДЕРАЛЬНОЕ АГЕНТСТВО ПО ОБРАЗОВАНИЮ И НАУКЕ

АЛТАЙСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

ФАКУЛЬТЕТ ПСИХОЛОГИИ И ФИЛОСОФИИ








Контрольная работа

по предмету «Информатика»

Понятие информации, свойства. Информационные процессы



Выполнила: студентка гр. 1861

Курнышкина М.Н.



Барнаул 2007

Содержание

информация поиск хранение передача

1. Понятие информации

. Свойства информации

. Количество информации как мера уменьшения неопределенности знаний

.1 Информация и знания

.2 Уменьшение неопределенности знаний

.3 Единицы измерения количества информации

. Информационные процессы

.1 Поиск информации

.2 Сбор информации

.3 Обработка информации

.4 Хранение информации

.5 Защита информации

.6 Передача информации

Список литературы

1. 
Понятие информации

Понятие информации является одним из фундаментальных в современной науке вообще и базовым для изучаемой нами информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако, если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. И все же, информация (от латинского слова informatio - разъяснение, изложение) - это сведения об окружающем нас мире и протекающих в нем процессах.[1,2]

Информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают степень неопределенности, имеющуюся о них в реальности.

В широком смысле слова информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и техническими устройствами. Наряду с информацией в информатике используется понятие данные.

Данные обычно рассматриваются как признаки или записанные наблюдения, которые не используются, а только хранятся. Используемые данные превращаются в информацию.[3]

2. 
Свойства информации

Любое вещество можно характеризовать его свойствами, например, твердое, легкоплавкое, белого цвета и т.д. Информация также обладает свойствами, правда, они не столь наглядны, как свойства вещества.[2]

Человек - существо социальное, для общения с другими людьми он должен обмениваться информацией, причем обмен информацией всегда производится на определенном языке - русском, английском и так далее. Участники дискуссии должны владеть тем языком, на котором ведется общение, тогда информация будет понятной всем участникам обмена информацией.

Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации.

Широко известен термин «средства массовой коммуникации» (газеты, радио, телевидение) которые доводят информацию до каждого члена общества. Такая информация должна быть достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому никто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой.[4]

Информация должна быть доступной. Информация может быть объективной или субъективной (зависеть или не зависеть от чьего-либо суждения).

Весьма существенным свойством и одновременно требованием, предъявляемым к информации, является её распознаваемость. Информация становится доступной лишь при условии возможности распознавания знаков и сигналов, с помощью которых она передается. Во многих реальных системах на полезный информационный сигнал накладываются помехи - шумы, которые ухудшают условия распознавания информации. Когда в здании вокзала объявляют информацию о прибытии поезда, а её невозможно расслышать из-за шума в зале - это значит, что информация не удовлетворяет требованию распознаваемости.[2]

Свойство запоминаемости - одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К. Шеннона. В данном случае имеется ввиду несколько иной аспект - способность информации к копированию, то есть к тому, что она может быть «запомнена» другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с её передаваемостью и не является её независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, то есть что при копировании информация остается тождественной самой себе.

Фундаментальное свойство информации - преобразуемость. Оно означает, что информация может менять форму и способ своего существования. Копируемость есть разновидность преобразования информации, при котором её количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Свойство стираемости информации также не является независимым. Оно связанно с таким преобразованием информации (передачей), при котором её количество уменьшается и становится равным нулю.[1]

3. Количество информации как мера уменьшения неопределенности знаний

.1 Информация и знания

Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет существенные закономерности с помощью мышления, хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения процесса познания информация может рассматриваться как знания.

Процесс познания можно наглядно изобразить в виде расширяющегося крута знания (такой способ придумали еще древние греки). Вне этого круга лежит область незнания, а окружность является границей между знанием и незнанием. Парадокс состоит в том, что чем большим объемом знаний обладает человек (чем шире круг знаний), тем больше он ощущает недостаток знаний (тем больше граница нашего незнания, мерой которого в этой модели является длина окружности) - рис. 1.

 

Так, объем знаний выпускника школы гораздо больше, чем объем знаний первоклассника, однако и граница его незнания существенно больше. Действительно, первоклассник ничего не знает о законах физики и поэтому не осознает недостаточности своих знаний, тогда как выпускник школы при подготовке к экзаменам по физике может обнаружить, что существуют физические законы, которые он не знает или не понимает.

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.

.2 Уменьшение неопределенности знаний

Подход к информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий - монета окажется в одном из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка - 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» - 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» - 480 и так далее. В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.

Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска - только одно, то есть в два раза меньше

В окружающей действительности достаточно часто встречаются ситуации, когда может произойти некоторое количество равновероятных событий. Так, при бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных события, а при бросании шестигранного игрального кубика - 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.

.3 Единицы измерения количества информации

Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы - килограмм и так далее. Аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит».

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем

байт = 23 бит = 8 бит

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

Кбайт = 210 байт = 1024 байт;

Мбайт = 210 Кбайт = 1024 Кбайт;

Гбайт = 210 Мбайт = 1024 Мбайт.

Существует формула, которая связывает между собой количество возможных событий N и количество информации I:

N = 2i

4. Информационные процессы

Деятельность современного человека тесно связана с различными информационными процессами. Например, запись домашнего задания в тетрадь, прослушивание радиопередачи или магнитофонной записи, поиск интересующей телепрограммы и, конечно же, работа на компьютере.

К информационным процессам относятся поиск, сбор, обработка, передача и хранение информации.

.1 Поиск информации

Простейшими примерами поиска информации являются использование предметного или алфавитного указателей в книге, телефонного справочника и т.д. Системы, с помощью которых выполняется поиск информации, называются информационно-поисковыми системами.

Современные системы для поиска существуют в сети Интернет. Они позволяют найти информацию практически на любую тему: от выращивания кактусов и прогноза погоды до конструкций зданий. Для начала поиска нужно ввести слово или сочетания слов, которые наилучшим образом отражают интересующую вас тему, например, «Киевская Русь». Подобные слова называются ключевыми словами и представляют собой запрос. Вообще, с запроса информационно-поисковой системе начинается любая процедура поиска. Система выполняет поиск в массиве информации таких документов, которые удовлетворяют сделанному запросу. Причем успех поиска во многом зависит от точности формулировки запроса.

Как было сказано, в состав поисковой системы обычно входит массив документов, в котором осуществляется поиск. Современные поисковые системы включают в себя не просто массивы документов, а настоящие банки данных. В них хранится различного рода информация, необходимая специалистам для решения практических задач. В современном мире существует огромное число банков данных, представляющих интерес для экономистов, политиков, юристов и коммерсантов, для инженеров и врачей.

.2 Сбор информации

Сбором информации можно называть простейшие действия. Это занесение новых записей в телефонную книжку, ежедневное измерение температуры воздуха и т.д. Вообще решение любой задачи даже самой практической, начинается со сбора информации. Например, деятельность торговой фирмы связана со сбором информации о поступивших и проданных товарах, о полученной выручке и т.д. Сбор всех этих данных немыслимо вести вручную, поэтому его предоставляют системам, которые работают в автоматическом режиме. Такие системы обычно называются автоматизированными системами управления, или сокращенно АСУ. Информация, собранная автоматизированными системами, записывается в соответствующие базы данных, на ее основе могут составляться электронные архивы.

.3 Обработка информации

Внешний мир, окружающий человека, воздействует на него непосредственно через органы чувств либо через приборы. Органы чувств дают веку информацию об окружающей действительности, а задача человека - вовремя эту информацию обрабатывать. Попробуйте не успеть обработать информацию о движении автомашин, когда переходите улицу! Полученная информация об обстановке на дороге после обработки используется нами для ответных действий. Мы принимаете решение, переходить улицу или подождать. Когда вы переходите улицу, принимаете решение о покупке товара, решаете задачу с заданным условием, вы выступаете в роли все той же информационной системы, которая обрабатывает поступающую в нее информацию. Поступившая информация называется входной информацией. Из этой информации после обработки получается качественно новая, выходная информация.

.4 Хранение информации

Чтобы информация становилась достоянием многих людей, существуют определенные способы её хранения. История человечества знает немало таких способов. Это и наскальные рисунки, и глиняные таблички, рукописи на папирусе. Словом папирус впоследствии был назван более современный носитель информации - бумага. В 20 веке стали широко применять фото- и кинопленки, магнитные ленты и видеоленты. В наше время наибольшие объемы информации хранятся на электронных - оптических и магнитных - дисках.

.5 Защита информации

В настоящее время, особенно при работе в сетях, существует постоянная опасность порчи или потере информации. Защита информации должна вестись по нескольким направлениям. Во-первых, это защита от случайных факторов, то есть неправильных действий пользователя, выхода из строя аппаратуры. Во-вторых, это защита от злоумышленных действий, заключающихся в раскрытии конфиденциальной (секретной) информации, в несанкционированном доступе к информационным ресурсам. Эти задачи выполняются службами безопасности, в функции которых входят обеспечение целостности и надежности данных, засекречивание данных, контроль доступа к информации и защита от отказов аппаратуры.

4.6 Передача информации

Информация передается от источника к получателю информации с помощью сигналов. Точное или приближенное воспроизведение полученной информации в каком-либо другом месте называется передачей информации.

Передача информации осуществляется в виде сообщений (рис. 2).


Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция - носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал - это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщении, называется параметром сигнала.

В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов - дискретным сообщением. Информация, передаваемая источником, в этом случае называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала - непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения - процесс чтения книги, информация в которой представлена текстом, то есть дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника - человеческого уха.

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь]. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем. Область определения функции разбивается точками х1, х2,…хn на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг - проецирование значений «ступенек» на ось значений функции (ось ординат). Полученная таким образом последовательность значений функции у1, у2, ... уn является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.

Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений. В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.

Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер - цифровая машина, то есть внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать её пригодной для компьютерной обработки.

Список литературы:

1.  Информатика: Учеб. пособие для студ. пед. вузов/А.В. Могилев, Н.И. Пак, Е.К. Хеннер; Под ред. Е.К. Хеннера. - М.: Изд. центр «Академия», 2000. - 816с.

2.      Гаевский А.Ю. Информатика: Учеб. Пособие. - 2-е изд., доп. - К.: «А.С.К.», М.: «Гамма Пресс 2000», 2004. - 536с.: ил.

.        Информатика: Учеб. Пособие. Издание 2-е, перераб. и доп. - М.: ИКЦ «МарТ», Ростов н/Д: Издательский центр «МарТ», 2004. - 400с.

.        Информатика и информационныен технологии. / Н.Д. Угринович. - М.: БИНОМ. Лаборатория знаний, 2003. - 512с.: ил.

Похожие работы на - Понятие информации, свойства. Информационные процессы

 

Не нашли материал для своей работы?
Поможем написать уникальную работу
Без плагиата!