←предыдущая следующая→
1 2
Федеральное агентство по образованию
ГОУ ВПО « Российский торгово-экономический университет»
ОМСКИЙ ИНСТИТУТ (ФИЛИАЛ)
КОНТРОЛЬНАЯ РАБОТА
По дисциплине: «Информатика и вычислительная техника»
Тема №10 «Понятие информации, её аспекты».
Выполнила студентка 1курса
Гр. М-11
Безлюднева Юлия Сергеевна
№ зач. кн: М-05-100
Проверила: к.э.н.
Алекеева Лариса Яковлевна
Омск 2005
Содержание
Введение…………………………………………………………...…………3
1. Понятие информации…………………………………………………4
2. Свойства информации………………………………………………..5
3. Классификация информации……………………………………… 6
4. Формы представления информации…………………………………7
5. Измерение информации………………………………………………8
Заключение…………………………………………………………………10
Список литературы…………………………………………………………11
Приложение………………………………………………………………...12
Введение
Слово “информация” латинское. За долгую жизнь его значение претер-певало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом “информация” подразумевали: “представление”, “понятие”, за-тем-“сведения”, “передача сообщений”.
В последние годы ученые решили, что обычное (всеми принятое) значе-ние слова “информация” слишком эластично, расплывчато, и дали ему такое значение: “мера определенности в сообщении”.
Теорию информации вызвали к жизни потребности практики. Ее воз-никновение связывают с работой Клода Шеннона “Математическая теория связи”, изданной в 1946г. Основы теории информации опираются на резуль-таты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и теле-графным кабелям и радиоканалам. Позже появились электронные вычисли-тельные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффектив-ности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и ин-женеру недостаточно решить задачу с физических и энергетических позиций.
С этих точек зрения система может быть самой совершенной и эконо-мичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систе-му. Ведь информацию можно измерить количественно, подсчитать. И посту-пают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях.
1. Понятие информации
Информатика - наука о законах и методах накопления, обработки и передачи информации. В наиболее общем виде понятие информации можно выразить так:
Информация - это отражение предметного мира с помощью знаков и сигналов [7,13].
Принято говорить, что решение задачи на ЭВМ, в результате чего соз-дается новая информация, получается путем вычислений. Потребность в вычислениях связана с решением задач: научных, инженерных, экономиче-ских, медицинских и прочих.
В обыденной жизни под информацией понимают всякого рода сообще-ния, сведения о чем-либо, которые передают и получают люди. Сами по себе речь, текст, цифры - не информация. Они лишь носители информации. Ин-формация содержится в речи людей, текстах книг, колонках цифр, в пока-заниях часов, термометров и других приборов. Сообщения, сведения, т.е. информация, являются причиной увеличения знаний людей о реальном мире. Значит, информация отражает нечто, присущее реальному миру, который по-знается в процессе получения информации: до момента получения информа-ции что-то было неизвестно, или, иначе, не определено, и благодаря инфор-мации неопределенность была снята, уничтожена.
Рассмотрим пример. Пусть нам известен дом, в котором проживает наш знакомый, а номер квартиры неизвестен. В этом случае местопребывание знакомого в какой-то степени не определено. Если в доме всего две кварти-ры, степень неопределенности невелика. Но если в доме 300 квартир - неоп-ределенность достаточно велика. Этот пример наталкивает на мысль, что неопределенность связана с количеством возможностей, т.е. с разнообразием ситуаций. Чем больше разнообразие, тем больше неопределенность.
Информация, снимающая неопределенность, существует постольку, по-скольку существует разнообразие. Если нет разнообразия, нет неопределен-ности, а, следовательно, нет и информации.
Итак, информация - это отражение разнообразия, присущего объектам и явлениям реального мира. И, таким образом, природа информации объек-тивно связана с разнообразием мира, и именно разнообразие является ис-точником информации.
2. Свойства информации
Информация - это отражение внешнего мира с помощью знаков или сигналов. Информационная ценность сообщения заключается в новых сведе-ниях, которые в нем содержатся (в уменьшении незнания).
Свойства информации:
1. Объективность информации
Информация — это отражение внешнего мира, а он существует незави-симо от нашего сознания и желания. Поэтому в качестве свойства информа-ции можно выделить ее объективность. Информация объективна, если она не зависит от чьего-либо мнения, суждения.
Объективную информацию можно получить с помощью исправных дат-чиков, измерительных приборов. Но, отражаясь в сознании конкретного че-ловека, информация перестает быть объективной, так как преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опы-та, знания или «вредности» конкретного субъекта.
2. Достоверность информации
Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация мо-жет быть по следующим причинам:
• преднамеренное искажение (дезинформация);
• искажение в результате воздействия помех («испорченный теле-фон»);
• когда значение реального факта преуменьшается или преувеличи-вается (слухи, рыбацкие истории).
3. Полнота информации
Информацию можно назвать полной, если ее достаточно для понимания и принятия решения.
4. Актуальность (своевременность) информации
Актуальность — важность, существенность для настоящего времени. Только вовремя полученная информация может принести необходимую пользу. Неактуальной информация может быть по двум причинам: она может быть устаревшей (прошлогодняя газета) либо незначимой, ненужной (напри-мер, сообщение о том, что в Италии снижены цены на 5%).
5. Полезность или бесполезность (ценность) информации [7,18].
Так как границы между этими понятиями нет, то следует говорить о сте-пени полезности применительно к нуждам конкретных людей. Полезность информации оценивается по тем задачам, которые мы можем решить с ее помощью.
Самая ценная для нас информация — достаточно полезная, полная, объ-ективная, достоверная и новая. При этом примем во внимание, что неболь-шой процент бесполезной информации даже помогает, позволяя отдохнуть на неинформативных участках текста. А самая полная, самая достоверная информация не может быть новой.
3. Классификация информации
Существует две системы классификации [3,19]: иерархическая и фацет-ная. При иерархической классификации (рис. 1.) множество объектов после-довательно разбиваются на соподчиненные подмножества.
Рис. 1. Классификация информации
4. Формы представления информации
Информация - очень емкое понятие, в которое вмещается весь мир: все разнообразие вещей и явлений, вся история, все тома научных исследований, творения поэтов и прозаиков. И все это отражается в двух формах - непре-рывной и дискретной. Обратимся к их сущности.
Объекты и явления характеризуются значениями физических величин. Например, массой тела, его температурой, расстоянием между двумя точка-ми, длиной пути (пройденного движущимся телом), яркостью света и т.д. Природа некоторых величин такова, что величина может принимать принци-пиально любые значения в каком-то диапазоне. Эти значения могут быть сколь угодно близки друг к другу, исчезающе малоразличимы, но все-таки, хотя бы в принципе, различаться, а количество значений, которое может принимать такая величина, бесконечно велико.
Такие величины называются непрерывными величинами, а информация, которую они несут в себе, непрерывной информацией.
Слово “непрерывность” отчетливо выделяет основное свойство таких величин - отсутствие разрывов, промежутков между значениями, которые может принимать величина.
←предыдущая следующая→
1 2
|
|