- Я автор
- /
- Леонид Данцигер
- /
- Ян Беленький,профессор,доктор технических наук. Кибернетика и информатика.
Ян Беленький,профессор,доктор технических наук. Кибернетика и информатика.
Ян БеленькийПрофессор, докт.техн.наук
,
научный консультант
образовательного центра
берлинского
отделения ZWST.
Основы информатики и компьютерной техники
Аннотация.
В брошюре в краткой форме излагается история возникновения
информатики в первой половине 20-го столетия.Описаны условия, которые
привели к необходимости разработки теории информации, введения мер
информации и информационных характеристик источников информации и
каналов её передачи и преобразования.
Определены понятия временной, пространственной и
пространственно-временной информации.Показана тесная связь между теорией
информации и разработанными во второй половине 20-го века современными
компьютерами, столь ускоренная разработка которых в значительной
степени обязана теории информации.
Предназначена для студентов, учеников гимназий, а также читателей,
интересующих информатикой компьютерной техникой.
Оглавление.
стр.
Краткая история возникновения информатики
3
Предмет информатики как науки, какие проблемы она решает 4
Единицы измерения информации
6
Теорема о дискретизации
8
Производительность источников информации и временная
пропускная способность
8
Пространственная и пространственно-временная
производительность источников и пропускная способность
каналов
10
Функция неопределённости и обменные свойства систем 12
Компьютеры-информационные системы
14
Информационные системы, применяемые в современной
науке и технике
17
Заключение
17
Литература автора
18
Краткая справка об авторе
Посвящена «Году
информатики» 2006г.
Краткая история возникновения информатики.
Возникла информатика в 30-40-е годы прошлого столетия задолго до
открытия и разработки современных компьютеров.Поэтому привязка ин-
форматики к современным компьютерам и их программам, а также к
построению многих устройств связи и индикации информационных
сообщений, что появилось на 30-50 лет позже благодаря открытию
полупроводников исторически не имеет никакого отношения к информатике.
Наука информатика (вначале её называли теорией информации) возникла
из реальных потребностей практики передавать большие потоки
(сообщений) информации по существующим каналам связи.В то время главным
каналом связи был весьма дорогой кабель (особенно тот, что связывал
Европу и Америку через Атлантику) и радиоканалы, работающие, в основном,
на длинных, средних и коротких волнах (длина волны от км до десятков
м, частота от нескольких десятков кГц до нескольких МГц).Полоса частот
для передачи одного телефонного собщения среднего по нынешним понятиям
качества составляла приблизительно 3-5 кГц.
В то время еще не знали о телевидении, не знали, что для передачи
чёрно-белого сообщения требуется полоса в канале связи порядка 5-6 МГц и
не знали, что сушествуют радиоканалы, имеющие полосу порядка нескольких
гегагерц, которые способны эту информацию передать.Не было тогда и
радиолокации.Неизвестны были методы излучения гегагерцовых сигналов
метрового, сантиметрового и, тем более миллиметрового диапазона.
Неизвестны были свойства распространения радиоволн этого
диапазона.Более того, немецкий еврей, физик Герц, открывший радиоволны и в
честь которого названа единица измерения частоты, сомневался в
практическом применении.
Поэтому вся надежда была на дорогую, очень неудобную в применении
проводную и кабельную связь.В этом плане стоял главный вопрос, можно ли
по одному кабелю одновременно передавать несколько сообщений без
влияния одного на другое.В современном звучании-это как разделять
каналы сообщений в двухпроводном кабеле и как много сообщений можно
передать по этому кабелю.Поскольку это было связано с спектральным
ана-лизом, то в 30-е годы в советской литературе самого высокого научного
уровня шла острая дискуссия о том, является ли математическое
Фурье-разложение сигнала реальным его частотным спектром и можно ли
результаты Фурье-разложения использовать на практике.
Ясно, что в это время существующие очень дорогие кабельные и радиока-
налы требовали серьёзных исследований, которые позволили бы по этим
каналам без помех передавать одновременно как можно больше сообще-
2
ний (телефонных и телеграфных ).
Именно вот эта проблема и стала основным стимулом появления теории
информации.
Основателем теории информации как науки был американский учёный Клод
Шеннон.Будучи математиком и инженером и отлично понимая создавшуюся
ситуацию, он сформулировал ряд задач, на которые нужно было дать научно
обоснованный ответ.В 1948г.он опубликовал свою знаменитую работу
«Математическая теория связи». В ней он представил математически
обоснованную теорию, которая правильно ответила на поставленные
практикой вопросы и ещё обладала предсказательными свойствами.В
частности, она могла предсказать предельные возможности систем без
безуспешной попытки их разработки, которая должна окончиться провалом.
Предмет информатики как науки, какие проблемы она решает.
Какие научные проблемы, на которые нужно было получить научно
обоснованный ответ, поставила перед учёными практика, которые затем
выделились в отдельную науку — информатику.Здесь необходимо
отметить, что построение любой строгой науки возможно лишь при выполнении
ряда обязательных условий, к которым относится её строгое математическое
обоснование для количественного описания процессов..
К таким условиям были отнесены следующие вопросы:
что такое информация и как количественно её измерять, единица
измерения информации,
количественная оценка источников информации, скорости её
производства и единицы её измерения,
количественная оценка информационных каналов с точки зрения их
воз-можности передачи неискаженной информации и её количественная
оценка,
количественная оценка шумов или факторов, искажающих информацию,
связь между известными и общепринятыми характеристиками источников
сигналов и свойств каналов связи таких, как частотная полоса, уровень
мощности шумов и их информационными количественными характери-стиками,
каким образом следует согласовывать информационные характеристики
источников информации и каналов связи, чтобы по нему можно было пе-редать
в единицу времени заданное количество информации с заданным уровнём
искажений, или возможно ли так преобразовать исходную ин-формацию, чтобы
её можно было «вложить» в данный канал связи, а если нет, то почему,
как оценить искажения информации, если нельзя соблюсти условия сог-
ласования.
3
Для построения строгой теории на все эти вопросы нужно было дать
ма-тематические соотношения, позволяющие делать количественные оценки,
только тогда новое направление сможет стать реальным научным на-
правлением.
Это были 40-е годы 20-го столетия.В это время компьютеры и их
про-граммное обеспечение ещё не существовало, не было транзисторов,
теле-видения, индивидуальных высокочастотных телефонов типа „Handy“ и
многого, многого другого, что сегодня относят к предмету информатики порой
совершенно не обоснованно лишь бы числиться в первых рядах
информатиков.Сегодня это является очень престижным и сулит много выгод, в
том числе и финансовых, для политиков – политических, т.к. при-менение
устройств информатики за кратчайшие исторические сроки мно-гое изменило
в нашей жизни и открыло много возможностей для ускорен-ного развития
почти всех без исключения направлений науки, техники,
технологии, делопроизводства.
Рассмотрим вначале ответы на поставленные выше вопросы, которые легли
в основу построения теории информации и последующего её
приме-нения.Кстати, заметим, термин «информатика» был впервые значительно
позже (в 50-е годы) применён профессором московского энергетического
инстититута Ф.Е.Темниковым и затем быстро разошёлся по всему миру.
Вначале отметим, что понималось под информацией в 30-е и в начале
40-х годов.В то время под инфомацией понималась информация двух ти-пов:
телеграфная (дискретные сообщения типа кода Морзе, в который были
закодированы буквы и цифры и которые изменялись только во времени).
Математически она отображалась дискретной с двумя значениями функ-цией
яркости от временного аргумента, (в простейшем виде 0 и 1, белое-
чёрное) т.е. это была дискретная одномерная функция.
Второй тип информации был аналоговый – акустические сообщения.
Математически она отображалась некоторой одномерной непрерывной функцией
временного аргумента.
О передаче неизменяемых во времени изображений, представляющих
пространственную (двумерную) функцию и, тем более трехмерную (ещё
изменяемую во времени типа телевидения) тогда речь еще не шла.
Теперь приведём некоторые определения, необходимые для дальнейшего
изложения.
Информацию, которая отображается функцией, изменяемой только во
временных координатах, будем называть «временной». Информацию, которая
отображается функцией, изменяемой только в пространственных координатах,
будем называть «пространственной» (например, картина).Она может быть как
одномерной, так и двух, и трёхмерной.Если происходит её изменение во
времени, то такую информацию будем называть «простран-
ственно-временной».
Очевидно, что современные телевизионные изображения представляют
4
пространственно-временную информацию в трехмерном пространстве: од-
номерном временном и двухмерном пространственном.
Интересно отметить, что в последствии при построении теории инфор-
мации оказалось, что хотя кодирование букв и цифр было сделано Морзе в
середине 19 века, почти за 100 лет до возникновения теории информации,
код Морзе был построен с учётом законов оптимального кодирования
бук-венных дискретных сообщений, которые стали известны только через 100
лет.
Морзе интуитивно как учёный и хороший инженер-исследователь вы-
брал кодирование с учётом вероятности появления букв в алфавите.Чем эта
вероятность была больше, тем длительность временной посылки (кода буквы)
была короче.И для наиболее часто встречающейся буквы «е» был выбран
самый короткий код «. » точка.Математически такое сообщение
представляло дискретную функцию от времени, принимающую минималь-ное
число значений – два, а с учётом оптимального кодирования закодиро-ванные
азбукой Морзе сообщения были самыми короткими и, очевидно, скорость их
передачи была наибольшей.
Единицы измерения информации.
Естественно на заре становления информатики нужно было ответить на
вопрос, что является единицей измерения количества информации и как
измерять количество информации.
Для ответа на этот вопрос нужно было представить
информацию: дискре-тную и аналоговую в виде простейших временных
дискретных функций и в этом случае решающую роль сыграл код Морзе.Стало
ясно, что такая простейшая функция должна быть двузначной, имеющей два
значения 0 и 1.
Возник вопрос, каким образом с помощью этой простейшей функции можно
кодировать все буквы, цифры, различные знаки, а также уровни ана-логовой
информации.Ответ на этот вопрос может дать только представле-ние любой
информации в цифровом виде, а именно, в двоичной позицион-ной цифровой
системе, в которой имеется только две цифры 0 и 1. Все цифры (а их
бесконечно много), как и в десятичной, так и других позици-онных
системах, можно представить в виде нулей и единиц.
Например, первые десять цифр десятичной системы можно представить
следующим образом в двоичной системе: 0- 0, 1- 1, 2- 10, 3- 11, 4- 100,
5-101,6- 110, 7- 111, 8- 1000, 9- 1001, 10- 1010 и т.д.
Отсюда следует, что для кодирования информации в привычной десятич-ной
системе для каждой цифры достаточно четырёх значных двоичных чисел от
0000 до 1001.
В этом случае сразу возникла возможность дать количественную оценку
информации.Сообщение, которое можно передать всего двумя символами
5
0 и 1, было взято за единицу информации и получило название один бит.
Однако для кодирования алфавитов, содержащих более десяти букв, цифр,
знаков препинания, математических знаков и др.десяти закодированных чисел
было недостаточно.Необходимо было иметь, по крайней мере,100 кодов, а это
можно было получить, используя две десятичные цифры или два кодовых числа
в двоичной системе, что соответствует 8-ми битам информации.Поэтому была
введена ещё одна единица измерения инфор-мации, равная 8-ми битам и
названная 1 байтом.
Далее следовало определение количества информации в сложных
сооб-щениях.Исходным пунктом этого определения должно было быть то, что
с увеличением символов сообщения количество информации должно было
пропорционально расти.
Если предположить, что имеется некий алфавит, состоящий из N
символов, то при представлении его в двоичном коде, получим Ln2 N
необходимых двоичных знаков для его представления или Ln2 N бит
информации на один символ.Для представления информации, состоящей из M
символов получим:
I = M Ln2 N бит
(1)
информации.
Для получения общей формулы для количества информации на один
символ, получаемой при использовании некоторого алфавита, которую получил
Шеннон, преобразуем соотношение (1):
N
I1 = Ln2 N = — Ln2 (1/N) = — ??????? Ln2 (1/N)] бит
(2)
1
В случае соотношения (2) следует предположить, что вероятность
появ-ления каждой из N букв алфавита одинакова и равна рi = 1/N, тогда
для N-буквенного алфавита в случае неравных вероятностей букв алфавита
полу-чим известную формулу Шеннона, определяющую количество информации на
один символ алфавита:
N
I1 = — ????pi Ln2 pi) бит
(3)
????????????????????????????????????????? i=?
где pi вероятность появления в тексте i-го символа.Очевидно, что
коли-чество информации, приходящейся на М символов будет равна:
N
I = — М????pi Ln2 pi ) бит
(4)
i=1
6
Теорема дискретизации.
Если для дискретных сообщений, представляющих отдельные буквы,
вопрос дискретизации и кодирования дискретным двоичным кодом ре-шался
сравнительно просто, то дискретное представление непрерывных аналоговых
(напр.акустических ) сообщений вызвало определённые труд-ности.Было
неясно, можно ли непрерывные сообщения без погрешности (ошибки)
представлять в дискретном виде.
Вопрос этот без какой-либо связи с информатикой был решён
амери-канским математиком Уоттекером в 1915г.
Он доказал следующую теорему, причём для функций двух переменных.
Непрерывная функция двух переменных, имеющая конечный спектр с
граничными частотами fх,fу, может быть точно представлена бесконечным
дискретным рядом функции двух переменных с частотой дискретизации
2fх,2fу.При заданной точности число членов ряда может быть
ограниче-но.Добавим, что доказательство этой теоремы сравнительно не
сложно.
Каждая из этих функций была впоследствии названа функцией
перенос-чиком.Эта теорема дала недостающее звено в дискретном
представлении непрерывных функций.Стало ясно, что любую непрерывную
функцию (а все реальные функции, отбражающие сообщения, имеют конечный
спектр)
можно представить дискретным рядом функций переносчиков, если час-
тота этого представления будет достаточно велика, более 2fмах.
Интересна дальнейшая «судьба» этой теоремы.Конечно, Шеннон сразу
понял важное принципиальное значение этой теоремы и опубликовал ряд
статей по использованию этой теоремы при построении теории информа-ции.
В Советском Союзе молодой научный сотрудник Котельников в 40-е годы
также сразу оценил важность этой теоремы для теории информации и
опубликовал статью, в которой точно повторил эту теорему только для
од-ного переменного, а именно для времени.Эту теорему в СССР назвали
тео-ремой дискретизации Котельникова.Впоследствии Котельников стал
ака-демиком Академии наук СССР, директором академического института.В
советской литературе имя Уоттекера не упоминалось.
Таким образом, на основании теоремы дискретизации непрерывное сооб-
щение можно с достаточно высокой частотой (более 2fмах) представить
дискретным рядом дискретных значений.Это и решило вопрос дискрети-зации
аналоговых сигналов.
Производительность источников информации и
временная пропускная способность каналов
Когда был решён вопрос о количестве информации, естественно стал
вопрос о скорости её генерирования.Источник информации считался тот
8
более эффективным, который в единицу времени генерирует большее коли-
чество информации.Скорость генерации информации получила название
производительностью источника.Таким образом, производительность
ис-точника определяется соотношением:
N
П =I/T = — (М/Т)????pi Ln2 pi) бит/сек
(5)
i=1
где Т –время передачи или генерирования информации.
Если вероятность всех сообщений одинакова, то формулу (5) с учётом
соотношения (1) можно упростить:
П = (М/Т) Ln2 N = — (М/Т) Ln2(1/ N) бит/сек
(6)
Таким образом, информационная производительность источника в
слу-чае равновероятного появления символов равна скорости формирования
символов М/Т, умноженной на число двоичных кодовых посылок Ln2 N, где N
– общее число дискретных символов (алфавит сообщения).
Естественно, что информационные системы не ограничиваются только
генерацией информации.Информационное сообщение следует передать
по некoторому каналу связи в устройства, где оно преобразуется в
соответ-ствии с заданным алгоритмом и представляется потребителю.Если
эти
устройства в реальном масштабе времени не будут передавать или преоб-
разовывать информацию, то она будет либо теряться, либо искажаться.
Поэтому каналы передачи информации, а также устройства её
преобразо-вания, как напр.компьютеры, требуют введения информационных
оценок, которые получили название пропускной способности инфомационных
каналов или преобразователей информации в реальном масштабе времени.
Если же предварительно информация была записана в память и время её
обработки не ограничено, то пропускная способность такого
информацион-ного преобразователя не имеет значения, что во многих случаях
имеет мес-то при применении компьютера с большим объёмом памяти.Тем не
менее, общее стремление всех, работающих с компьютером, владеть
компьютером с наибольшей производительностью (пропускной способностью).
Основными характеристикам каналов связи в теории передачи сигналов
приняты: полоса частот ?f, уровень помех? или мощность помех ??, а
также уровень максимального сигнала Umax.
При величине уровня помех? и максимального сигнала, равного Umax ,
число уровней дикретизации будет равно N = Umax/?.. Тогда пропускная
способность канала будет выражаться соотношением:
P= ?f Ln2(1+ Umax/?) бит/сек
(7)
8
Единица в скобках необходима для определения предельного значения
пропускной способности при уровне помех ?, стремящемся к
бесконечно-сти.Очевидно, что в этом случае Umax/?, стремится к нулю и Р
также стре-
мится к нулю, что соотвествует физической природе канала.
Естественно, что для любого устройства преобразования информации
можно получить выражение аналогичное (7), в том числе и для компью-тера.
Пространственная и пространственно-временная производительность
источников информации и пропускная способность каналов
Проблема пространственной и пространственно-временной
производи-тельности источников информации и их пропускной способности
каналов передачи информации вознкла в 80-х годах прошлого столетия, когда
был
окончательно решен вопрос о целесообразности разработки персональных
компьютеров (такая острая дисскусия в истории создания компьютеров в
60-70-е годы была).
Кроме того разработке вопросов, связанных с пространственной
инфор-мацией, способствовали усилия учёных создать информационную теорию
измерения параметров пространственных полей, что на теоретическом уровне
полностью совпадает с проблемами представления информации
компьютерами.*)
Формулу для количества инфомации можно получить аналогичным
пу-тем, что и для временной информации.Информационным параметром (сим-
волом алфавита) в это случае будет дискретное число яркостей
изображе-ния (в более сложных случаях и его цвет).Количество информации
на один
символ будет по аналогии определятся соотношениями (1-5).
n
p
a
o
l
E
TH
a
†?
†
сям — Lx,Ly.
С помощью этих параметров пространственного поля легко определить
число дискретных точек, равное:
N = LxLy/?x?y
(8)
*)Автор этой брошюры в 80-е годы активно участвовал в этой работе и
опубликовал в 1982 г. и в 1984г. две монографии, в которых ввел понятия
пространственной и пространственно-временной информации и разработал
информационную теорию измерений пространственных полей.
9
причём Lx/?x по оси Х и Ly/?y по оси Y.Количество пространственной
ин-
формации на этой странице будет:
N = (LxLy/?x?y) Ln2 N бит
(9)
где N число градаций яркости.
Если число градаций будет равно двум (чёрно-белое), то количество
ин-формации будет равно в битах числу светящихся точек, на которые
разби-то пространство.
При изменении содержание кадров во времени мы имеем некоторый
фильм, информация которого изменяется в пространстве и во времени. Каждый
кадр этого фильма дискретизирован в пространстве, а сами кад-ры, следующие
друг за другом, дискретизированы во времени. Временной интервал между
кадрами ?t называют временным разрешением.
Для получения количества информации пространственно-временного процесса
необходимо просуммировать информацию каждого кадра и тогда будем иметь:
I = M (LxLy/?x?y)Ln2 N бит
(10)?
????????????????????????????????????????????????????????????????????????
????????????????????????????????????????????????
? где М – число временных кадров.
Из приведенных определений следует, что чем интервалы разрешения
меньше, тем больше информации содержит такой фильм и более мелкую
структуру во времени и в пространстве он может передать.
Интересно, что создатели кино вначале 20-го века отлично понимали
влияние всех типов разрешений на качество фильма, определяемого
ко-личеством информации, и старались использовать мелкозернистую
плён-ку, определяющую пространственное разрешение, и частоту кадров
вы-брали равной 15 кадрам в сек (временное разрешение 0,07сек), которое
пре-вышает временное разрешение глаза 0,1сек (10 кадров в
сек).Современные телевизоры имеют частоту кадров 50 в сек, что
соотвествует временному разрешению 0,02 сек, некоторые даже 0,01сек (100
кадров в сек).
Такой выбор связан с возможностью синхронизовать кадровую развёртку
передатчика весьма стабильной частотой промышленной электросети и тем
самым исключить нестабильность генераторов кадровой развёртки.
Теперь легко решить вопрос о пространственной и
пространственно-временной производительности источника информации.В
случае простра-нственной информации речь может итти только о
пространственной про-изводительности источника, которая равна количеству
информации, при-
ходящейся на единицу пространства (площади) источника:
10
П = (1/?x?y) Ln2 N бит/м?
(11)
а пространственно-временного источника, как количество информации,
приходящейся на единицу пространства (площади) источника в единицу
времени:
П= (1/?x?y?t) Ln2 N бит/м? сек
(12)
Таким образом производительность источника определяется сложностью
алфавита сообщения и всеми типами разрешений.
Пропускная способность каналов передачи этой информации, как и в
случае временной информации, определяется такими основными
харак-теристикам как временная полоса частот ?f и пространственными
поло-сами частот ?fx и ?fy и уровнём помех? или мощностью помех ??,
а также уровнём максимального сигнала Umax.
При величине уровня помех? и максимального сигнала, равным Umax ,
число уровней дикретизации будет равно N = Umax/?.. Тогда
пространствен-ная пропускная способность канала будет выражаться
соотношением:
P= ?fx ?fy Ln2(1+ Umax/?) бит/м?
(13)
а пространственно-временная:
P= ?fx ?fy?f Ln2(1+ Umax/?) бит/м? сек
(14)
Очевидно, что для любого устройства передачи и преобразования
инфор-мации можно получить выражения, аналогичные (13-14), в том числе и
для компьютера.
Теперь можно сформулировать основную теорему теории информации,
которая была доказана Шенноном в 30-е годы только для источников и
каналов связи, передающей только временную информацию, и которая заложила
основы теории информации.
Для передачи информации без искажений необходимо и достаточно, чтобы
производительность источника информации не превышала пропу-скную
способность канала связи, т, е
П =< P
(15).
Это утверждение имеет место для производительностей источников и
пропускных способностей каналов для всех типов информации, что было
доказано автором в 1984 г.
11
Функция неопределённости и обменные свойства систем.
Однако теория информации не ограничивается установлением соотно-
шения (15).Дискретность представления информации в источниках и ка-
налах её передачи приводит к тому, что в интервалах разрешения значение
функции точно не определено и они были названы интервалами
неопреде-лённости.В зависимости от требований к качеству информации
необхо-димо задать все величины неопределённости для характеритики
источ-ника.С другой стороны, пропускная способность Р функционально
связы-вает все величины неопределенности, поскольку является функцией
этих величин.
Каждый из этих параметров представляет собой некоторую
неопреде-ленность в том смысле, что в пределах интервала разрешения из-за
дис-кретности значение функции в каждой точке этого интервала не
опреде-лено.
Поэтому информационные каналы, передающие дискретную
информа-цию, можно охарактеризовать некоторой функцией неопределенности,
связывающей все параметры неопределённости канала связи:
F = F(?fx ,?fy,?f ,?)
(16)
Эта функциональная связь позволяет для каждого конкретного значения
пропускной способности системы построить некоторую функцию
неопре-делённости, связывающие все типы неопределенности ?fx ,?fy,?f ,?.
Функция (16) имеет характерное свойство, состоящее в том, что при
уве-личении значения одной из координат неопределённости (разрешение
ухудшается) все остальные уменьшаются, т.е. на бесконечности функция
стремится к осям координат.
Поэтому функция неопределённости позволяет производить обмен меж-ду
параметрами неопределённости канала в том смысле, что если нельзя
удовлетворить соотношению (15), то функция (16) позволяет так выбрать
параметры неопределённости, чтобы наиболее важные из них были
удов-летворены.
Это отражает обменные свойства систем.За счёт уменьшения разрешения
по какому-то параметру (? увеличивается) разрешение по остальным
па-раметрам можно улучшить (? уменьшается).
Например, при ухудшении временного разрешения (интервал между кад-рами
увеличивается) можно передать информацию о большем числе точек, тем
самым увеличить пространственное разрешение (расстояние между точками
уменьшается).
Это свойство систем легко отображается на графике функции
неопреде-лённости. Если свойства неопределённости передаваемой
информации отобразить некоторой многомерной точкой А с координатами
неопреде-
12
лённости ?fx ,?fy,?f ,? в пространстве этих координат функции
неопре-делённости.Тогда, если эта точка лежит под поверхностью функции
неоп-ределённости, то информация будет передана или преобразована с
задан-ными разрешениями, если – над, то придётся какое-то
разрешение, которое
существенно не влияет на процесс обработки информации, уменьшить,
чтобы эту точку разместить под поверхностью функции неопределён-ности.
Эта процедура даёт возможность на основании законов теории информа-
ции проводить согласование систем обработки информации с потоком по-
тупающей информации.Такое согласование необходимо, когда возникает
«трудная» ситуация – система не справляется с поставленной задачей
пре-образования информации и нужно искать компромиссы.
Компьютеры-информационные системы.
К концу 40-х годов фактически была разработана почва для построения
компьютеров.Естественно, что компьютер как вычислительная машина,
ра-ботающая с цифровыми потоками, могла применяться только в тех
случа-ях, когда информация, подлежащая обработке, могла быть представлена в
дискретном (цифровом) виде.
К этому времени теория информации эти вопросы решила для всех
слу-чаев представления информации: аналоговой и дискретной, в том числе и
для графичеких изображений.Была разработана не только теория
пред-ставления цифр в двоичной системе счисления, но и разработана
алгебра всех математичеких и логических операций в двоичной системе
счисления.
В последствии это сыграло решающую роль в возможности техниче-ской
реализации компьютеров с помощью реле на первом этапе их раз-работки, а
затем на электронных лампах и, наконец, на транзисторах и ин-тегральных
транзисторных схемах (чипах).Работа технических устройств в двоичном
режиме «да-нет» отличается наибольшей надёжностью, что имеет важнейшее
значение при построении технических устройств.Это дало возможность в
дальнейшем в двоичном коде разрабатывать различ-ные языки
программирования и общения потребителя с компьютером.
С другой стороны, шла интенсивная разработка архитектуры компьютера.
Здесь необходимо, в первую очередь, отметить работу математика фон
Ней-мана, который в 1945г предложил такую архитектуру компьютера, которая
легла в основу всех компьютеров.
В неё входило: арифметическое устройство, выполняющее арифметиче-ские и
логические операции, устройство управления, которое организует процесс
выполнения программ, запоминающее устройство для хранения программ и
данных, внешние устройства для хранения, ввода и вывода информации.В
современных компьютерах арифметическое устройство объединено с
устойством управления в центральный процессор.
13
Первый компьютер «Марк-1» был построен на одном из предприятий фирмы
IBM в 1943г. американцем Говардом Эйкеным.В качестве элемен-тов двоичной
системы счисления были использовны электромагнитные реле.Необходимо
отметить, что время срабатывания реле составляло по-
рядка 0.1 сек (10 срабатываний в сек), габариты порядка полспичечной
коробки и мощность потребления около 50-100 mW.Сегодня трудно
пред-ставить, какое сооружение представляла эта машина.При вычислительной
мощности значительно меньшей, чем у современного персонального
ком-пьютера, эта машина занимала огромную площадь и потребляла десятки
kW энергии.Но начало использования элементов, реализующих двоичную
систему счисления было положено.
Далее необходимо было повышать быстродействие системы.И важным шагом
в этом направлении было применение схем двоичной системы счи-сления на
ламповых электронных схемах.В качестве электронных реле использоваоись
схемы с двумя устойчивыми состояниями-триггеры, в не-мецкой литературе их
называют Flip-Flop.Была разработана электронная машина ENIAK.Её
быстродействие увеличилось в 1000 раз, однако габа-риты и мощность
потребления остались на прежнем уровне.Особые трудности представляла
разводка электрических проводов при смене и наладке программ.
В 1958г.фирмой IBM был разработан язык программирования высокого
уровня «Фортран», затем появились такие языки как Паскаль, Бейсик и
другие.
Однако говорить в то время о персональных компьютерах ещё было
ра-но.Габариты и мощность потребления позволяли строить лишь большие
и дорогие компьютеры общего пользования.
Резкий скачок в развитии компьютеров да и, вообще, в построении
информационных систем произошел после открытия в 1958г. транзи-сторов.
То, что произошло в последствии, не имеет аналогов в истории развития
человечества.Это относится как к компьютерной технике, так и к другим
устройствам информатики.
Во-первых, быстродействие отдельных устройств (электронных «реле»-
триггеров) увеличилось в 3 млн.раз: с 10 срабатываний в сек до 3,5 млд.в
сек (3,5 ГГц), во-вторых, их мощность потребления энергии уменьшилась в 10
– 100 тыс.раз до нескольких микроватт, и, наконец, их габариты также
уменьшились во столько же раз.И всё это произошло за несколько
десяти-летий.История человечества не знала столь быстрых темпов развития
ка-ких-либо направлений в технике.
Это открыло огромные перспективы совершенствования компьютерной
техники, в частности, окончательно решило спор, продолжавшийся порядка 20
лет, о необходимости создании персональных компьютеров в их пользу и
устройств информатики (передачи, приёма и обработки информации) в
различных отраслях науки и техники (вплоть до медицины, напр. управля-
14
емый протез руки и др.).
В 1970г.появился и был запущен в продажу первый микропроцессор
INTEL-4004, а в 1974г.INTEL-8080, который лег в основу следующих
поко-лений процессоров вплоть до современных PENTIUM.
Основатели фирмы Mikrosoft Пол Аллен и Билл Гейтс разработали усо-
вершенствованный интерпретатор языка Бейсик, в результате чего
значи-тельно облегчили пользователям общение с компьютером.Затем их
фир-мой было разработана программа WINDOWS, которая по сегодняшний день
является наиболее распространённой и удобной для пользователя.Раз-
работчики других прикладных программ делают их под WINDOWS.
В 1978г фирмой IBM был разработан компьютер IBM PC, который лёг в
основу дальнейших разработок персональных компьютеров.
В это же время совершенствуется внешняя память на встроенной в
ком-пьютер памяти (жесткий диск) и сегодня её память, равная 6-8 Гбайтам,
является стандартной, а вообще, разработаны платы с памятью до сотни
гегабайт, что соответствует объёму памяти, равному 10 тысячи 200
стра-ничных книг (достаточно большой библиотеке).
Естественно, что устройства информатики, обладающие таким
быстро-действием и такой памятью, могут принимать и запоминать для
после-дующей обработки и затем передавать огромные объёмы информации,
удовлетворяющие сегодня почти всех пользователей персональными
компьтерами.
Поэтому сегодня такие компьютеры являются необходимым инструмен-том
для работы во многих отраслях науки и техники.Он заменил на рабо-чих
столах огромное число документов, необходимость писать, перепеча-тыать
под копирку и размножать документы, упростил пользование уже имеющимися
архивными документами, а также архивацию документов.
Процесс книгопечатания с помощью компьютеров существенно
упро-стился.Нет необходимости проводить набор шрифта, его
правку, заполнять шрифтом громоздкие матрицы и проводить многие другие
операции, вхо-
дящие раннее в процесс книгопечатания.Отпала необходимость в такой
специальности как наборщик.Сейчас можно всё это делать на персональ-ном
компьютере и осуществляет эту работу или автор, или редактор
изда-тельства.
С помощью персональных компьютеров реализованы многие програм-мы и
документы, которые позволяют быстро осуществлять многие раннее громоздкие
операции.В том числе, естественно, вычислительные, графопо-строительные и
многие, многие другие с помощью сравнительно неслож-ных для пользователя
языков программирования.
Интересно отметить, что известный советский математик и кибернетик,
директор созданного им академического института Кибернетики, академик
Академии наук СССР и Украинской ССР В.М.Глушков задолго (лет за 30) до
создания современных персональных компьютеров опубликовал
15
объёмную монографию под названием «Безбумажная информатика», в которой
очень прозорливо отметил тенденцию и приемущества приме-нения
персональных компьютеров.К сожалению, и в Советском Союзе, и за рубежом
его работа не была должным образом оценена.Такова судьба почти всех
работ, которые опережают своё время.
Наконец, персональные компьютеры дали толчок для разработки такой
универсальной системы обмена информации как интернет, охватившей
практически весь земной шар, о чём ещё лет сорок назад никто не мог
предположить.
Все это привело к скачкообразному увеличению обмена информацией в
мире, политическому и экономическому сближению народов и стран, созда-нию
условий, предупреждающих случайные военные конфликты.
Информационные системы,
применяемые в современной науке и технике.
Электронные системы приема, обработки и передачи информации с её
выводом в виде команд для управления различными технологическими
процессами нашли сегодня широкое применение при разработке совре-менных
роботов в различных областях техники, в том числе в таких об-
ластях, в которых участие человека опасно для его жизни.
Высокоскоростная передача, приём и обработка дискретной информации
позволили создать малогабаритные переносные телефоны (типа Handy),
которые сегодня с помощью информационных спутниковых систем позво-ляют
осуществлять телефонную связь почти со всех точек земного шара.
Спутниковые информационные системы позволяют проводить точную
навигацию самолётов и кораблей и даже автотранспорта, проводить
мони-торинг нашей планеты по многим параметрам.
В медицине информационные системы используются для управления
аппаратами жизнеобеспечения пациентов, находящихся в коме, аппаратами,
управляющими системами очистки крови, различными протезами и т.д.
Каждый знает, что современная операционная оснащена информаци-онной
техникой, объём аппаратуры которой сравним с медицинской.
Компьютеры позволили реализовать такие мощные медицинские
диа-гностические приборы как рентгеновские томографы и ЯМР-томографы
(ЯМР-ядерный магнитный резонанс, открытый физиком, лауреатом Но-белевкой
премии, немецким евреем Феликсом Блохом в 1946г).
Сегодня можно привести многочисленные примеры применения
инфор-мационных систем в науке и технике.Практика показывает, что этот
про-цесс использования систем приёма обработки и передачи информации
набирает силу и число случаев их применения растёт с каждым днём.
Появился такой раздел в технологии, как информационная технология.
16
Практические требования к информационным системам, как правило,
сво-дятся к увеличению всех видов разрешений: временного (увеличивается
скорость), пространственного и точности вычислений.
Естественно, пока техника позволяет решать вопросы преобразования
ин-формации с нужной скоростью, необходимыми пространственными
разре-шениями и точностью, информационные соотношения, полученные в тео-
рии, не очень интересуют разработчиков аппаратуры.
Однако, когда технический резерв современных транзисторных схем будет
исчерпан, то опять возникнет повышенный интерес к теории инфор-мации и
необходимо будет вспомнить, что во всех случаях приёма, обра-ботки и
передачи информации для неискаженной работы информационных систем
необходимо выполнение соотношения (15) и согласование требо-ваний к
величинам разрешений (неопределённости), которые задаёт для всех
информационных процессов теория информации.
Заключение.
В заключение появилась возможность уточнить определение предмета
информатики.Под предметом информатики следует понимать процессы,
связанные с отбором, передачей и обработкой информации.
Изучение этих процессов, их анализ, определение предельных возмож-
ностей систем, осуществляющих отбор, передачу и обработку информации,
является предметом теории информации, а реализация этих процессов
осу-ществляется информационными системами, устройствами и приборами.
К числу таких систем относятся компьютеры, в том числе персональные.
В связи с огромной эффективностью их применения их выделили в от-
дельный раздел научных и экспериментальных исследований, однако при
этом они были и остаются информационными системами, производящими
отбор, преобразование и передачу информации.
Литература автора.
1.Под редакцией доктора технических наук Я.Е.Беленького.
Я.Е.Беленький, О.Е.Левицкий, В.А.Халин, С.Г.Шульгин. Управление
релак-сационными генераторами.Из-во «Наукова думка», Киев,1982,280 стр.
2.Я.Е.Беленький, В.В.Кошевой.Системы пространственно-временного
преобразования информации. Из-во «Наукова думка», Киев,1979,252 стр.
3.Я.Е.Беленький.Измерение параметров пространственных полей.Из-во
«Наукова думка», Киев,1984,288 стр.
( книга имеется в берлинской университетской библиотеке на
Унтер-ден-Линден )
4.Я.Е.Беленький. Принцип квазиортогональности в измерениях.Из-во
«На-укова думка», Киев,1992,224 стр.
17
Краткая справка об авторе.
Автор, Ян Беленький, доктор технических наук, профессор.Окончил
львовский политехнический институт, радиотехнический факультет и затем
заочно львовский госуниверситет, механико-математический факультет.
Защитил в 1963г.кандидатскую диссертацию, а в 1969г. докторскую.
В течении 39 лет проработал в Физико-механическом институте Академии
наук Украины, занимая различные должности от инженера до заведующего
научным отделом «Многоканальных информационных систем».
В 1984г.ему было присвоено звание профессора по специальности
«Тех-ническая кибернетика и теория информации»., а в1988г.он стал
лауреатом именной академической премии в области энергетики.
Профессор Я.Беленький создал и руководил научной школой, под его
научным руководством 14 его учеников защитили кандидатские
диссерта-ции.Он является автором более 200 научных работ, в число которых
входит 10 монографий,6 брошюр и 22 авторских свидетельства.
Разработанная им информационная теория измерений расширила поло-жения
одномерной теории информации Шеннона на четырёхмерное
про-странственно-временное.С помощью этой теории были объяснены многие
теоретические вопросы передачи визуальной информации, а также выявле-ны
вопросы предельных информационных возможностей этих систем.
В настоящее время профессор Я.Беленький активно сотрудничает с
Образовательным центром при берлинском отделении ZWSt в качестве
научного консультанта и лектора.Он проводит ежемесячные лекции и
консультации по сложным разделам учебных программ по математике и
физике, подготовил ряд брошюр по основам кибернетики и информатики для
учащихся гимназий и студентов.
18
- Автор: Леонид Данцигер, опубликовано 07 июля 2011
Комментарии