Основы информатики. 1 страница


1.1 Информатизация общества.

Что такое информатика?

Что такое информация?

Свойства информации. Единицы измерения количества информации.

Качество информации.

Передача информации.

Устройство компьютера.

 

1.2 Поколения ЭВМ. История ВТ.

Компьютер. Магистрально-модульный принцип построения.

Состав персонального компьютера.

Процессор.

Центральный процессор.

Память компьютера.

Устройства ввода-вывода.

Принцип открытой архитектуры.

Программное обеспечение.

 

1.3 Понятие о программном обеспечении.

Файловая система.

Операционная система.

Операционные системы Windows, Unix, Linux.

Системы программирования.

Архивация.

Компьютерные вирусы. Антивирусные программы.

Текстовые редакторы.

Текстовый редактор. Назначение, основные функции.

Графические редакторы. Технологии получения графических изображений.

Базы данных. Общие понятия.

Электронные таблицы. Назначение и основные функции.

Средства мультимедиа.

Понятие об интерфейсе.

1.4 Арифметические основы ПК.

Системы счисления.

Перевод чисел из одной системы счисления в другую.

Арифметические операции в позиционных системах счисления.

Представление чисел в ПК.

Представление текстовой информации в ПК.

 

1.5 Логические основы ПК.

Алгебра логики.

Элементы математической логики. Законы логики. Упрощение логических формул.

Логические элементы и логические функции.

Элемент памяти триггер. Сумматор.

Функциональные схемы. Таблицы истинности

 

1.6 Моделирование.

Моделирование как метод научного познания. Классификация моделей.

Этапы решения задач на ЭВМ.

Математическая модель.

 

1.7 Алгоритмизация.

Алгоритм. Свойства алгоритма. Формы представления алгоритмов.

Исполнители алгоритмов.

Алгоритмические структуры.

Запись арифметических и логических выражений.

 

1.8 Программирование.

Языки и стили программирования.

Основы программирования на Turbo Pascal.

Данные в языке Turbo Pascal. Целые и вещественные числа.

Данные в языке Turbo Pascal. Логические, символьные и строковые.

Конструкции в Turbo Pascal.

Массивы в Turbo Pascal.

Работа с файлами в Turbo Pascal

 

1.9 Компьютерные сети.

Средства коммуникаций и мировые компьютерные сети.

История развития Internet.

Internet.

Локальные и глобальные сети. Назначение сетей.

Локальная вычислительная сеть.

Аппаратные средства и топология локальных вычислительных сетей.

Работа с электронной почтой в программе Internet Mail.

Всемирная паутина.

 

1.10 Измерение количества информации.

Измерение информации. Содержательный подход.

Алфавитный подход к измерению информации.

Вероятностный подход к измерению информации.

 

Информатизация общества.

Информатизация общества стала одной из важнейших характеристик нашего времени. Нет ни одной области человеческой деятельности, которая в той или иной степени не была связана с процессами получения и обработки информации.

Информатизация — процесс, при котором создаются условия, удовлетворяющие потребностям любого человека в получении необходимой информации. Информация стала важным инструментом политики и культуры, промышленности, науки и образования.

Информация — это сведения об окружающем мире, которые повышают уровень осведомленности человека.

Информационный процесс — процесс, в результате которого осуществляется прием, передача (обмен), преобразование и использование информации. Средствами обработки информации чаще всего являются персональные компьютеры, которые объединяются в локальные и глобальные сети.

Информационная система — взаимосвязанная совокупность средств, методов и персонала, участвующих в обработке данных.

За последние годы произошел резкий скачок в развитии компьютерной техники и программного обеспечения персональных компьютеров, а также наблюдается значительное расширение сферы применения IBM PC.

Компьютеры применяются практически во всех видах человеческой деятельности (промышленность, наука, медицина, образование, транспорт, банковское дело, связь, военная техника, бытовая техника и т.д.). Появились новые IBM PC, обладающие высокими техническими характеристиками (быстродействующие 64-разрядные процессоры Pentium Pro, Pentium-2, Pentium-3, Pentium-4 винчестеры 80 — 300 Гб, ОЗУ 128-1024 Mб, КЭШ-память 256-512 Kб, мониторы с видеокартой 4-256Mb, лазерные принтеры, средства мультимедиа, лазерные диски CD-ROM, DVD и др.).

Развивается и широко используется мировая компьютерная сеть Интернет. Также появилось и соответствующее этим компьютерам программное обеспечение и современные компьютерные технологии фирмы MicroSoft Windows-98/2003, XP, Office-97/2000 (Word, Excel, Acces, Power Point, Publisher), Internet Explorer, программы фирмы Semantec — Norton Commander, Norton Utilities для Windows, DOS Navigator, современные текстовые и графические редакторы (PhotoShop, Corel Draw), системы программирования Turbo Pascal и Borland C++, QBasic, Visual Basic, системы управления базами данных, современные антивирусные, прикладные и учебные программы.

Информационные технологии — процесс, использующий совокупность средств и методов обработки и передачи первичной информации для получения информации нового качества о состоянии объекта, процесса или явления. Инструментарий информационной технологии — совокупность программных продуктов, использование которых позволяет достичь поставленную пользователем цель.

Для того, чтобы уметь управлять сложной компьютерной техникой, не допуская ее сбоев и проникновения компьютерных вирусов, приобрести необходимые навыки для дальнейшей работы и учебы, позволить учащимся ориентироваться в огромном море программ и повысить эффективность применения компьютеров в учебном процессе, необходимо перестроить традиционные методики преподавания информатики, усилив в них прикладную направленность. Это позволит избежать отставания обучения от реальной практики, позволит повысить культуру учащихся как пользователей IBM PC, и даст преимущества учащимся при выборе ими профессии, в дальнейшей работе и учебе и в достижении ими личного успеха.

Что такое информатика?

Термин "информатика" (франц. informatique) происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".

Широко распространён также англоязычный вариант этого термина — "Сomputer science", что означает буквально "компьютерная наука".

Информатика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.

В 1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации — массового внедрения компьютерной техники во все области жизни людей.

Таким образом, информатика базируется на компьютерной технике и немыслима без нее.

Основные направления применения информатики:

1. pазpаботка вычислительных систем и программного обеспечения;

2. теория информации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

3. методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

4. системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;

5. методы машинной графики, анимации, средства мультимедиа; o средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

6. разнообразные пpиложения, охватывающие производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

Информатика состоит из двух частей:

1. технические средства;

2. программные средства.

Технические средства, это аппаратура компьютеров (Hardware) "твёрдые изделия".

Программные средства (Software) (буквально — "мягкие изделия"), которое подчёркивает равнозначность программного обеспечения и самой машины и вместе с тем подчёркивает способность программного обеспечения модифицироваться, приспосабливаться, развиваться.

В информатику входят ещё алгоритмические средства. Эта часть связана с разработкой алгоритмов и изучением методов и приёмов их построения.

Алгоритмы — это правила, предписывающие выполнение последовательностей действий, приводящих к решению задачи.

Нельзя приступить к программированию, не разработав предварительно алгоритм решения задачи.

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция, следующая за революциями в овладении веществом и энергией, затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни.

Рост производства компьютерной техники, развитие информационных сетей, создание новых информационных технологий приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицине и т.д.

Информатика — научная дисциплина, изучающая структуру и общие свойства информации, а также закономерности всех процессов обмена информацией при непосредственном устном и письменном общении специалистов до формальных процессов обмена посредством различных носителей информации. Значительную часть этих процессов составляет научно-информационная деятельность по сбору, переработке, хранению, поиска и распространению информации. Основная задача информатики заключается в определении общих закономерностей, в соответствии с которыми происходит создание научной информации, ее преобразование, передача и использование в различных сферах деятельности человека. Прикладные задачи заключаются в разработке более эффективных методов и средств осуществления информационных процессов, в определении способов оптимальной научной коммуникации с широким применением технических средств.

 

Что такое информация?

Термин "информация" происходит от латинского слова "information", что означает сведения, разъяснения, изложение.

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют.

Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше".

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Информационную деятельность человека можно разделить на три составляющие: хранение, передачу, обработку.

Всякое событие, всякое явление служит источником информации. Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать.

Кодирование информации — процесс формирования определенного представления информации. Под термином кодирование часто понимают переход от одной формы представления информации к другой , более удобной для хранения, передачи или обработки. Обратное преобразование называется декодированием.

Существуют три способа кодирования текста: графический — с помощью специальных символов или знаков, числовой — с помощью чисел, символьный — с помощью того же алфавита, что и исходный текст. Полный набор символов, используемый для кодирования текста, называется алфавитом или азбукой.

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит.

Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.

Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации.

Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке.

Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.

Количество информации — это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени. Чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации.

Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.

Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы — своеобразную защиту от искажений. Они — эти лишние символы — не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, — избыточность.

Количественный метод — одно из направлений в теории информации — наиболее распространенный и наиболее разработанный. Существуют и другие методы. Они, в противоположность количественному, стараются ухватить смысл информации, ее ценность, ее качество.

Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен.

В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Можно ли вычислить смысл информации, подсчитать его в сообщении? Да, это пробует делать семантическая теория информации. Вот еще один пример и еще одно направление (прагматическое — деловое) в этой науке.

Пассажиры едут в автобусе. Водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на слова водителя — переданную им информацию. Почему? Потому что информация здесь имеет разную ценность для получателей, в роли которых в этом примере выступают пассажиры. Вышел тот, для кого информация была ценна. Значит, ценность можно определить как свойство информации, влияющей на поведение ее получателя.

В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико-информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.

Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право.

Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики.

Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы — своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.

 

 

Свойства информации. Единицы измерения количества информации.

Важнейшие свойства информации: полнота, достоверность, ценность, актуальность и ясность. С информацией в компьютере производятся следующие операции: ввод, вывод, создание, запись, хранение, накопление, изменение, преобразование, анализ, обработка. Информация передается с помощью языков.

Основа любого языка — алфавит, т.е. конечный набор знаков (символов) любой природы, из которых конструируются сообщения на данном языке. Алфавит может быть латинский, русский, десятичных чисел, двоичный и т.д.

Кодирование — это представление символов одного алфавита символами другого. Простейшим алфавитом, достаточным для кодирования любого другого, является двоичный алфавит, состоящий всего из двух символов 0 и 1.

Система счисления — это способ представления любого числа с помощью алфавита символов, называемых цифрами. Системы счисления делятся на позиционные и непозиционные. В позиционных системах любое число записывается в виде последовательности цифр, количественное значение которых зависит от места (позиции), занимаемой каждой из них в числе. Примеры: десятичная, восьмеричная, двоичная система и т.д.

Схема перевода из двоичной системы в десятичную:

(100011)2 = 1*25 + 0*24 + 0*23 + 0*22 + 1*21 + 1*20 = (35)10

Пример непозиционной системы счисления - римская система. Информация в вычислительной машине представляется в двоичном коде (0 и 1), (да, нет), (вкл., выкл.). 0 и 1 — это 1 бит информации или 1 двоичный разряд. 1 байт — это 8 бит (8 двоичных разрядов). В компьютере 1 байт является наименьшей единицей информации, что соответствует одному знаку в командной строке (цифре, букве, специальному символу или пробелу).

1 Кбит = 1024 бит = 210 бит =~ 1000 бит (1 килобит).

1 Мбит = 1048576 бит = 220 бит =~ 1 000 000 бит (1 мегабит).

1 Гбит = 230 бит =~ 109 бит = 1 000 000 000 (1 гигабит).

В компьютерах IBM PC используются следующие единицы измерения информации: 1 б (1 байт), 1 Кб (1 килобайт или часто просто 1 К), 1 Мб (1 мегабайт или часто просто 1 М), 1 Гб (1 гигабайт).

Между ними существуют следующие соотношения:

1 Кб = 210 б = 1024 б =~ 1000 б.

1 Мб = 220 б = 1024 Кб = 1048576 б =~ 1 000 000 б.

1 Гб = 230 б = 1024 Мб =~ 109 б = 1 000 000 000 б.

Для примера можно указать, что в среднем 1 страница учебника =~ 3Кб.

Газета из 4-х страниц =~ 150 Кб.

Большая Советская Энциклопедия =~ 120 Мб.

Цветной телефильм продолжительностью 1.5 часа (25 кадр/с) =~ 135Гб.

 

 

Свойства информации. Единицы измерения количества информации.

Важнейшие свойства информации: полнота, достоверность, ценность, актуальность и ясность. С информацией в компьютере производятся следующие операции: ввод, вывод, создание, запись, хранение, накопление, изменение, преобразование, анализ, обработка. Информация передается с помощью языков.

Основа любого языка — алфавит, т.е. конечный набор знаков (символов) любой природы, из которых конструируются сообщения на данном языке. Алфавит может быть латинский, русский, десятичных чисел, двоичный и т.д.

Кодирование — это представление символов одного алфавита символами другого. Простейшим алфавитом, достаточным для кодирования любого другого, является двоичный алфавит, состоящий всего из двух символов 0 и 1.

Система счисления — это способ представления любого числа с помощью алфавита символов, называемых цифрами. Системы счисления делятся на позиционные и непозиционные. В позиционных системах любое число записывается в виде последовательности цифр, количественное значение которых зависит от места (позиции), занимаемой каждой из них в числе. Примеры: десятичная, восьмеричная, двоичная система и т.д.

Схема перевода из двоичной системы в десятичную:

(100011)2 = 1*25 + 0*24 + 0*23 + 0*22 + 1*21 + 1*20 = (35)10

Пример непозиционной системы счисления - римская система. Информация в вычислительной машине представляется в двоичном коде (0 и 1), (да, нет), (вкл., выкл.). 0 и 1 — это 1 бит информации или 1 двоичный разряд. 1 байт — это 8 бит (8 двоичных разрядов). В компьютере 1 байт является наименьшей единицей информации, что соответствует одному знаку в командной строке (цифре, букве, специальному символу или пробелу).

1 Кбит = 1024 бит = 210 бит =~ 1000 бит (1 килобит).

1 Мбит = 1048576 бит = 220 бит =~ 1 000 000 бит (1 мегабит).

1 Гбит = 230 бит =~ 109 бит = 1 000 000 000 (1 гигабит).

В компьютерах IBM PC используются следующие единицы измерения информации: 1 б (1 байт), 1 Кб (1 килобайт или часто просто 1 К), 1 Мб (1 мегабайт или часто просто 1 М), 1 Гб (1 гигабайт).

Между ними существуют следующие соотношения:

1 Кб = 210 б = 1024 б =~ 1000 б.

1 Мб = 220 б = 1024 Кб = 1048576 б =~ 1 000 000 б.

1 Гб = 230 б = 1024 Мб =~ 109 б = 1 000 000 000 б.

Для примера можно указать, что в среднем 1 страница учебника =~ 3Кб.

Газета из 4-х страниц =~ 150 Кб.

Большая Советская Энциклопедия =~ 120 Мб.

Цветной телефильм продолжительностью 1.5 часа (25 кадр/с) =~ 135Гб.

 

Качество информации.

Качество информации является одним из важнейших параметров для потребителя информации. Оно определяется следующими характеристиками:

Репрезентативность – правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе абитуриенты стремятся представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень подготовки, что учитывается при зачислении в ВУЗ;

Содержательность – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату;

Достаточность (полнота) – минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой медали, свидетельствует о полном наборе отличных оценок в аттестате;

Доступность – простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

Актуальность – зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

Своевременность – поступление не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато не зачислением;

Точность – степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

Достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

Устойчивость – способность информации реагировать на изменения исходных данных без нарушения необходимой точности.

 

 

Передача информации.

Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

Примеры:

1. сообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора;

2. живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.