Существуют аналоговые, дискретные и цифровые сигналы. Аналоговые сигналы описываются непрерывной во времени функцией , которая может принимать любые значения в определенном интервале; дискретные сигналы представляют собой последовательности или отсчеты функции , взятые в определенные дискретные моменты времени nT ; цифровыми являются сигналы, которые в дискретные моменты времени nT принимают конечные дискретные значения – уровни квантования, которые затем кодируются двоичными числами. Если в цепь микрофона (рис. 1), где ток является непрерывной функцией времени, встроить ключ и периодически на короткие мгновения замыкать его, то ток в цепи будет иметь вид узких импульсов с амплитудами, повторяющими форму непрерывного сигнала. Последовательность этих импульсов, которые называют отсчетами непрерывного сигнала, и представляет собой, не что иное, как дискретный сигнал.
Рис. 1 В отличие от непрерывного сигнала дискретный сигнал можно обозначить . Однако, чаще его обозначают , заменяя непрерывное время t дискретными моментами nT , следующими строго через интервал T . Используются и более краткие обозначения: и . Причем, во всех этих записях n – целое число, принимающее как положительные, так и отрицательные значения. Так, на рис. 1 при n < 0 дискретный сигнал . При n = 0 значение равно значению сигнала в момент времени t = 0. При n > 0 отсчеты повторяют форму сигнала , т.к. их амплитуды равны значениям непрерывного сигнала в моменты времени nT . Рис. 2 Дискретные сигналы можно задавать графиками, как это показано на рис. 1, формулами, например, , в виде таблиц дискретных значений или в виде комбинации этих способов. Рассмотрим примеры некоторых дискретных сигналов, полученных из типовых аналоговых сигналов. Все средства связи, которые на сегодняшний день используются в мире, основаны на передаче электрического тока из одной точки в другую. Как работа в сети Internet, так и разговор с другом по телефону обеспечиваются за счет постоянного протекания тока по оборудованию телекоммуникационной инфраструктуры. По каналам связи могут передаваться различные типы сигналов. В этой книге рассматриваются два основных типа сигналов: аналоговые и цифровые. Некоторые виды физической передающей среды, как, например, волоконно-оптический кабель, используются для передачи данных в сети провайдера в виде световых сигналов. Принципы цифровой передачи для такой среды такие же, однако для ее организации используются лазеры и светодиоды. Аналоговые и цифровые сигналы коренным образом отличаются друг от друга. Условно можно сказать, что они находятся на разных концах одного и того же спектра. Из-за таких существенных различий между двумя типами сигналов для организации "моста" между ними приходится использовать промежуточные устройства, наподобие цифро-аналоговых преобразователей (они рассматриваются ниже в текущей главе). Основное различие между аналоговыми и цифровыми сигналами заключается в самой структуре сигнального потока. Аналоговые сигналы представляют собой непрерывный поток, характеризующийся изменениями частоты и амплитуды. Это означает, что форма аналогового сигнала обычно похожа на синусоиду (т.е. гармоническую волну), представленную на рис. 1.2. Зачастую на иллюстрациях, изображающих гармоническую волну, весь сигнал характеризуется одним и тем же соотношением частоты и амплитуды, однако при графическом представлении сложной волны видно, что такое соотношение изменяется в зависимости от частоты.
Цифровым сигналам соответствуют дискретные электрические значения, которые передаются индивидуально по некоторой физической передающей среде. В отличие от аналоговых сигналов, в которых количество возможных значений амплитуды почти бесконечно, для цифровых сигналов она может принимать одно из двух (или четырех) различных значений - как положительных, так и отрицательных. Цифровые сигналы передаются в виде единиц и нулей, которые обычно называют двоичными. Более подробно потоки цифровых сигналов рассматриваются в главе 3, "Аналого-цифровое преобразование". Как и в любой другой технологии, для описания аналоговых сигналов используются базовые концепции и собственная терминология. Непрерывные аналоговые сигналы имеют три основные характеристики: амплитуду; длину волны; частоту.

Лекция № 1

«Аналоговые, дискретные и цифровые сигналы.»

Двумя самыми фундаментальными понятиями в данном курсе являются понятия сигнала и системы.

Под сигналом понимается физический процесс (например, изменяющееся во времени напряжение), отображающий некоторую информацию или сообщение. Математически сигнал описывается функцией определенного типа.

Одномерные сигналы описываются вещественной или комплексной функцией , определенной на интервале вещественной оси (обычно – оси времени) . Примером одномерного сигнала может служить электрический ток в проводе микрофона, несущий информацию о воспринимаемом звуке.

Сигнал x (t ) называется ограниченным если существует положительное число A , такое, что для любого t .

Энергией сигнала x (t ) называется величина

,(1.1)

Если , то говорят, что сигнал x (t ) имеет ограниченную энергию. Сигналы с ограниченной энергией обладают свойством

Если сигнал имеет ограниченную энергию, то он ограничен.

Мощностью сигнала x (t ) называется величина

,(1.2)

Если , то говорят, что сигнал x (t ) имеет ограниченную мощность. Сигналы с ограниченной мощностьюмогут принимать ненулевые значения сколь угодно долго.

В реальной природе сигналов с неограниченной энергией и мощностью не существует. Большинство сигналов, существующих в реальной природе являются аналоговыми.

Аналоговые сигналы описываются непрерывной (или кусочно-непрерывной) функцией , причем сама функция и аргумент t могут принимать любые значения на некоторых интервалах . На рис. 1.1 а представлен пример аналогового сигнала, изменяющегося во времени по закону , где . Другой пример аналогового сигнала, показанный на рис 1.1б, изменяется во времени по закону .



Важным примером аналогового сигнала является сигнал, описываемый т.н. «единичной функцией» , которая описывается выражением

(1.3),

где.

График единичной функции представлен на рис.1.2.


Функцию 1(t ) можно рассматривать как предел семейства непрерывных функций 1(a , t ) при изменении параметра этого семейства a .

(1.4).

Семейство графиков 1(a , t ) при различных значениях a представлено на рис.1.3.


В этом случае функцию 1(t ) можно записать как

(1.5).

Обозначим производную от 1(a , t ) как d (a , t ).

(1.6).

Семейство графиков d (a , t ) представлено на рис.1.4.



Площадь под кривой d (a , t ) не зависит от a и всегда равна 1. Действительно

(1.7).

Функция

(1.8)

называется импульсной функцией Дирака или d - функцией. Значения d - функции равны нулю во всех точках, кроме t =0. При t =0 d -функция равна бесконечности, но так, что площадь под кривой d - функции равна 1. На рис.1.5 представлен график функции d (t ) и d (t - t ).


Отметим некоторые свойства d - функции:

1. (1.9).

Это следует из того, что только при t = t .

2. (1.10) .

В интеграле бесконечные пределы можно заменить конечными, но так, чтобы аргумент функции d (t - t ) обращался в нуль внутри этих пределов.

(1.11).

3. Преобразование Лапласа d -функции

(1.12).

В частности , при t =0

(1.13).

4. Преобразование Фурье d - функции. При p = j v из 1.13 получим

(1.14)

При t =0

(1.15),

т.е. спектр d - функции равен 1.

Аналоговый сигнал f (t ) называется периодическим если существует действительное число T , такое, что f (t + T )= f (t ) для любых t . При этом T называется периодом сигнала. Примером периодического сигнала может служить сигнал, представленный на рис.1.2а, причем T =1/ f . Другим примером периодического сигнала может служить последовательность d - функций, описываемая уравнением

(1.16)

график которой представлен на рис.1.6.


Дискретные сигналы отличаются от аналоговых тем, что их значения известны лишь в дискретные моменты времени.Дискретные сигналы описываются решетчатыми функциями – последовательностями – x д (nT ), где T = const – интервал (период) дискретизации, n =0,1,2,…. Сама функция x д (nT ) может в дискретные моменты принимать произвольные значения на некотором интервале. Эти значения функции называются выборками или отсчетами функции. Другим обозначением решетчатой функции x (nT ) является x (n ) или x n . На рис. 1.7а и 1.7б представлены примеры решетчатых функций и . Последовательность x (n ) может быть конечной или бесконечной, в зависимости от интервала определения функции.



Процесс преобразования аналогового сигнала в дискретный называется временная дискретизация. Математически процесс временной дискретизации можно описать как модуляцию входным аналоговым сигналом последовательности d - функций d T (t )

(1.17)

Процесс восстановления аналогового сигнала из дискретного называется временная экстраполяция.

Для дискретных последовательностей также вводятся понятия энергии и мощности. Энергией последовательности x (n ) называется величина

,(1.18)

Мощностью последовательности x (n ) называется величина

,(1.19)

Для дискретных последовательностей сохраняются те же закономерности, касающиеся ограничения мощности и энергии, что и для непрерывных сигналов.

Периодической называют последовательность x (nT ), удовлетворяющую условию x (nT )= x (nT + mNT ), где m и N – целые числа. При этом N называют периодом последовательности. Периодическую последовательность достаточно задать на интервале периода, например при .

Цифровые сигналы представляют собой дискретные сигналы, которые в дискретные моменты времени могут принимать лишь конечный ряд дискретных значений – уровней квантования. Процесс преобразования дискретного сигнала в цифровой называется квантованием по уровню. Цифровые сигналы описываются квантованными решетчатыми функциями x ц (nT ). Примеры цифровых сигналов представлены на рис. 1.8а и 1.8б.



Связь между решетчатой функцией x д (nT ) и квантованной решетчатой функцией x ц (nT ) определяется нелинейной функцией квантования x ц (nT )= F k (x д (nT )). Каждый из уровней квантования кодируется числом. Обычно для эих целей используется двоичное кодирование, так, что квантованные отсчеты x ц (nT ) кодируются двоичными числами с n разрядами. Число уровней квантования N и наименьшее число двоичных разрядов m , с помощью которых можно закодировать все эти уровни, связаны соотношением

,(1.20)

где int (x ) – наименьшее целое число, не меньшее x .

Т.о., квантование дискретных сигналов состоит в представлении отсчета сигнала x д (nT ) с помощью двоичного числа, содержащего m разрядов. В результате квантования отсчет представляется с ошибкой, которая называется ошибкой квантования

.(1.21)

Шаг квантования Q определяется весом младшего двоичного разряда результирующего числа

.(1.22)

Основными способами квантования являются усечение и округление.

Усечение до m -разрядного двоичного числа состоит в отбрасывании всех младших разрядов числа кроме n старших. При этом ошибка усечения . Для положительных чисел прилюбом способе кодирования . Для отрицательных чисел при использовании прямого кода ошибка усечения неотрицательна , а при использовании дополнительного кода эта ошибка неположительна . Таким образом, во всех случаях абсолютнок значение ошибки усечения не превосходит шага квантования:

.(1.23)

График функции усечения дополнительного кода представлен на рис.1.9, а прямого кода – на рис.1.10.




Округление отличается от усечения тем, что кроме отбрасывания младших разрядов числа модифицируется и m -й (младший неотбрасываемый ) разряд числа. Его модификация заключается в том, что он либо остается неизменным или увеличивается на единицу в зависимости от того, больше или меньше отбрасываемая часть числа величины . Округление можно практически выполнить путем прибавления единицы к (m +1) – муразряду числа с последующим усечением полученного числа до n разрядов. Ошибка округления при всех способах кодирования лежит в пределах и, следовательно,

.(1.24)

График функции округления представлен на рис. 1.11.



Рассмотрение и использование различных сигналов предполагает возможность измерения значения этих сигналов в заданные моменты времени. Естественно возникает вопрос о достоверности (или наоборот, неопределенности) измерения значения сигналов. Этими вопросами занимается теория информации , основоположником которой является К.Шеннон. Основная идея теории информации состоит в том, что с информацией можно обращаться почти также, как с такими физическими величинами как масса и энергия.

Точность измерений мы обычно характеризуем числовыми значениями полученных при измерении или предполагаемых погрешностей. При этом используются понятия абсолютной и относительной погрешностей. Если измерительное устройство имеет диапазон измерения от x 1 до x 2 , с абсолютной погрешностью ± D , не зависящей от текущего значения x измеряемой величины, то получив результат измерения в виде x n мы записываем его как x n ± D и характеризуем относительной погрешностью .

Рассмотрение этих же самых действий с позиции теории информации носит несколько иной характер, отличающийся тем, что всем перечисленным понятиям придается вероятностный, статистический смысл, а итог проведенного измерения истолковывается как сокращение области неопределенности измеряемой величины. В теории информации тот факт, что измерительный прибор имеет диапазон измерения от x 1 до x 2 означает , что при использовании этого прибора могут бытьполучены показания только в пределах от x 1 до x 2 . Другими словами, вероятность получения отсчетов, меньших x 1 или больших x 2 , равна 0. Вероятность же получения отсчетв где-то в пределах от x 1 до x 2 равна 1.

Если предположить, что все результаты измерения в пределах от x 1 до x 2 равновероятны, т.е. плотность распределения вероятности для различных значений измеряемой величины вдоль всей шкалы прибора одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком распределения плотности вероятности p (x ).

Поскольку полная вероятность получить отсчет где-то в пределах от x 1 до x 2 равна 1, то под кривой должна быть заключена площадь, равная 1, а это значит, что

(1.25).

После проведения измерения получаем показание прибора, равное x n . Однако, вследствие погрешности прибора, равной ± D , мы не можем утверждать, что измеряемая величина точно равна x n . Поэтому мы записывает результат в виде x n ± D . Это означает, что действительное значение измеряемой величины x лежит где-то в пределах от x n - D до x n + D . С точки зрения теории информации результат нашего измерения состоит лишь в том, что область неопределенности сократилась до величины 2 D и характеризуется намного большей плотностью ве5роятности

(1.26).

Получение каой-либо информации об интересующей нас величине заключается, таким образом, в уменьшении неопределенности ее значения.

В качестве характеристики неопределенности значения некоторой случайной величины К.Шеннон ввел понятие энтропии величины x , которая вычисляется как

(1.27).

Единицы измерения энтропии зависят от выбора основания логарифма в приведенных выражениях. При использовании десятичных логарифмов энтропия измеряется в т.н. десятичных единицах или дитах . В случае же использования двоичных логарифмов энтропия выражается в двоичных единицах или битах .

В большинстве случаев неопределенность знания о значении сигнала определяется действием помех или шумов. Дезинформационное действие шума при передаче сигнала определяется энтропией шума как случайной величины. Если шум в вероятностном смысле не зависит от передаваемого сигнала, то независимо от статистики сигнала шуму можно приписывать определенную величину энтропии, которая и характеризует его дезинформационное действие. При этом анализ системы можно проводить раздельно для шума и сигнала, что резко упрощает решение этой задачи.

Теорема Шеннона о количестве информации . Если на вход канала передачи информации подается сигнал с энтропией H ( x ), а шум в канале имеет энтропию H( D ) , то количество информации на выходе канала определяется как

(1.28).

Если кроме основного канала передачи сигнала имеется дополнительный канал, то для исправления ошибок, возникших от шума с энтропией H (D ), по этому каналу необходтмо передать дополнительное количество информации, не меньшее чем

(1.29).

Эти данные можно так закодировать, что будет возможно скорректировать все ошибки, вызванные шумом, за исключением произвольно малой доли этих ошибок.

В нашем случае, для равномерно распределенной случайной величины, энтропия определяется как

(1.30),

а оставшаяся или условная энтропия результата измерения после получения отсчета x n равна

(1.31).

Отсюда полученное количество информации равное разности исходной и оставшейся энтропии равно

(1.32).

При анализе систем с цифровыми сигналами ошибки квантования рассматриваются как стационарный случайный процесс с равномерным распределением вероятности по диапазону распределения ошибки квантования. На рис. 1.12а, б и в приведены плотности вероятности ошибки квантования при округлении дополнительного кода, прямого кода и усечении соответственно.



Очевидно, что квантование является нелинейной операцией. Однако, при анализе используется линейная модель квантования сигналов, представленная на рис. 1.13.

m – разрядный цифровой сигнал, e (nT ) – ошибка квантования.

Вероятностные оценки ошибок квантования делаются с помощью вычисления математического ожидания

(1.33)

и дисперсии

(1.34),

где p e – плотность вероятности ошибки. Для случаев округления и усечения будем иметь

(1.35),

(1.36).

Временная дискретизация и квантование по уровню сигналов являются неотъемлемыми особенностями всех микропроцессорных систем управления, определяемыми ограниченным быстродействием и конечной разрядностью используемых микропроцессоров.

Мы рассматривали различные определения понятия "информация" и пришли к выводу, что информация может быть определена множеством разных способов в зависимости от выбранного подхода. Но об одном мы можем говорить однозначно: информация - знания, данные, сведения, характеристики, отражения и т.д. - категория нематериальная . Но мы живем в мире материальном. Следовательно, для существования и распространения в нашем мире информация должна быть связана с какой-либо материальной основой. Без нее информация не может передаваться и сохраняться.

Тогда материальный объект (или среда), с помощью которого представляется та или иная информация будет являться носителем информации , а изменение какой-либо характеристики носителя мы будем называть сигналом .
Например, представим равномерно горящую лампочку, она не передает никакой информации. Но, если мы будем включать и выключать лампочку (т.е. изменять ее яркость), тогда с помощью чередований вспышек и пауз мы сможем передать какое-нибудь сообщение (например, посредством азбуки Морзе). Аналогично, равномерный гул не дает возможности передать какую-либо информацию, однако, если мы будем изменять высоту и громкость звука, то сможем сформировать некоторое сообщение (что мы и делаем с помощью устной речи).

При этом сигналы могут быть двух видов: непрерывный (или аналоговый ) и дискретный .
В учебнике даны следующие определения.

Непрерывный сигнал принимает множество значений из некоторого диапазона. Между значениями, которые он принимает, нет разрывов.
Дискретный сигнал принимает конечное число значений. Все значения дискретного сигнала можно пронумеровать целыми числами.

Немного уточним эти определения.
Сигнал называется непрерывным (или аналоговым), если его параметр может принимать любое значение в пределах некоторого интервала.

Сигнал называется дискретным , если его параметр может принимать конечное число значений в пределах некоторого интервала.

Графики этих сигналов выглядят следующим образом

Примерами непрерывных сигналов могут быть музыка, речь, изображения, показания термометра (высота столба ртути может быть любой и представляет собой ряд непрерывных значений).

Примерами дискретных сигналов могут быть показания механических или электронных часов, тексты в книгах, показания цифровых измерительных приборов и т.д.

Вернемся к примерам, рассмотренным в начале сообщения - мигающая лампочка и человеческая речь. Какой из этих сигналов является непрерывным, а какой дискретным? Ответьте в комментариях и аргументируйте свой ответ. Можно ли непрерывную информацию преобразовать в дискретную? Если да - приведите примеры.

Человек ежедневно разговаривает по телефону, смотрит передачи различных телеканалов, слушает музыку, бороздит по просторам интернета. Все средства связи и иная информационная среда основываются на передаче сигналов различных типов. Многие задаются вопросами о том, чем отличается аналоговая информация от других видов данных, что такое цифровой сигнал. Ответ на них можно получить, разобравшись в определении различных электросигналов, изучив их принципиальное отличие между собой.

Аналоговый сигнал

Аналоговый сигнал (континуальный) – естественный инфосигнал, имеющий некоторое число параметров, которые описываются временной функцией и беспрерывным множеством всевозможных значений.

Человеческие органы чувств улавливают всю информацию из окружающей среды в аналоговом виде. Например, если человек видит рядом проезжающий грузовик, то его движение наблюдается и изменяется непрерывно. Если бы мозг получал информацию о передвижении автотранспорта раз в 15 секунд, то люди всегда бы попадали под его колеса. Человек оценивает расстояние моментально, и в каждый временной момент оно определено и различно.

То же самое происходит и с иной информацией – люди слышат звук и оценивают его громкость, дают оценку качеству видеосигнала и тому подобное. Соответственно, все виды данных имеют аналоговую природу и постоянно изменяются.

На заметку. Аналоговый и цифровой сигнал учувствует в передаче речи собеседников, которые общаются по телефону, сеть интернет работает на основе обмена этих каналов сигналов по сетевому кабелю. Такого рода сигналы имеют электрическую природу.

Аналоговый сигнал описывается математической временной функцией, похожей на синусоиду. Если совершить замеры, к примеру, температуры воды, периодически нагревая и охлаждая ее, то на графике функции будет отображена беспрерывная линия, которая отражает ее значение в каждый временной промежуток.

Во избежание помех такие сигналы требуется усиливать посредством специальных средств и приборов. Если уровень помех сигнала высокий, то и усилить его нужно сильнее. Этот процесс сопровождается большими затратами энергии. Усиленный радиосигнал, например, нередко сам может стать помехой для иных каналов связи.

Интересно знать. Аналоговые сигналы ранее применялись в любых видах связи. Однако сейчас он повсеместно вытесняется или уже вытеснен (мобильная связь и интернет) более совершенными цифровыми сигналами.

Аналоговое и цифровое телевидение пока сосуществуют вместе, но цифровой тип телерадиовещания с большой скоростью сменяет аналоговый способ передачи данных из-за своих существенных преимуществ.

Для описания этого типа инфосигнала применяются три основных параметра:

  • частота;
  • протяженность волны;
  • амплитуда.

Недостатки аналогового сигнала

Аналоговый сигнал имеют нижеследующие свойства, в которых прослеживается их разница от цифрового варианта:

  1. Этот вид сигналов характеризуется избыточностью. То есть аналоговая информация в них не отфильтрована – несут много лишних информационных данных. Однако пропустить информацию через фильтр возможно, зная дополнительные параметры и природу сигнала, например, частотным методом;
  2. Безопасность. Он практически полностью беспомощен перед неавторизированными вторжениями извне;
  3. Абсолютная беспомощность перед разнородными помехами. Если на канал передачи данных наложена любая помеха, то она будет в неизменном виде передана сигнальным приемником;
  4. Отсутствие конкретной дифференциации уровней дискретизации – качество и количество передаваемой информации ничем не ограничивается.

Вышеприведенные свойства являются недостатками аналогового способа передачи данных, на основании которых можно считать его полностью себя изжившим.

Цифровой и дискретный сигналы

Цифровые сигналы – искусственные инфосигналы, представленные в виде очередных цифровых значений, которые описывают конкретные параметры предаваемой информации.

Для информации. Сейчас преимущественно применяется простой в кодировании битовый поток – двоичный цифровой сигнал. Именно такой тип может использоваться в двоичной электронике.

Различие цифрового типа передачи данных от аналогового варианта состоит в том, что такой сигнал имеет конкретное число значений. В случае с битовым потоком их два: «0» и «1».

Переход от нулевого значения к максимальному в цифровом сигнале производится резко, что позволяет принимающему оборудованию более четко считывать его. При появлении определенных шумов и помех приемнику будет легче декодировать цифровой электросигнал, чем при аналоговой информационной передаче.

Однако цифровые сигналы отличаются от аналогового варианта одним недостатком: при высоком уровне помех их восстановить невозможно, а из континуального сигнала присутствует возможность извлечения информации. Примером этому может послужить разговор по телефону двух человек, в процессе которого могут пропадать целые слова и даже словосочетания одного из собеседников.

Этот эффект в цифровой среде называется эффектом обрыва, который можно локализовать уменьшением протяженности линии связи или установкой повторителя, какой полностью копирует изначальный вид сигнала и передает его дальше.

Аналоговая информация может передаваться по цифровым каналам, пройдя процесс оцифровки специальными устройствами. Такой процесс именуется аналогово-цифровым преобразованием (АЦП). Данный процесс может быть и обратным – цифро-аналоговое преобразование (ЦАП). Примером устройства ЦАП может послужить приемник цифрового ТВ.

Цифровые системы также отличает возможность шифрования и кодирования данных, которая стала важной причиной оцифровывания мобильной связи и сети интернет.

Дискретный сигнал

Существует и третий тип информации – дискретная. Сигнал такого рода является прерывистым и меняется за момент времени, принимая любое из возможных (предписанных заранее) значений.

Дискретная передача информации характеризуется тем, что изменения происходят по трем сценариям:

  1. Электросигнал меняется только по времени, оставаясь непрерывным (неизменным) по величине;
  2. Он изменяется только по уровню величины, оставаясь непрерывным по временному параметру;
  3. Также он может изменяться одномоментно и по величине, и по времени.

Дискретность нашла применение при пакетной передаче большого объема данных в вычислительных системах.

Чем измерительный сигнал отличается от сигнала? Приведите примеры измерительных сигналов, используемых в различных разделах науки и техники

Измерительный сигнал - это материальный носитель информации, содержащий количественную информацию об измеряемой физической величине и представляющий собой некоторый физический процесс, один из параметров которого функционально связан с измеряемой физической величиной. Такой параметр называют информативным. А сигнал несет количественную информацию только об информативном параметре, а не об измеряемой физической величине.

Примерами измерительных сигналов могут быть

Выходные сигналы различных генераторов (магнитогидродинамического, лазеров, мазеров и др.), трансформаторов (дифференциального, тока, напряжения)

Различные электромагнитные волны (радиоволны, оптическое излучение и др.)

Перечислите признаки, по которым классифицируются измерительные сигналы

По характеру измерения информативного и временного параметров измерительные сигналы делятся на аналоговые, дискретные и цифровые. По характеру изменения во времени сигналы делятся на постоянные и переменные. По степени наличия априорной информации переменные измерительные сигналы делятся на детерминированные, квазидетерминированные и случайные.

Чем аналоговый, дискретный и цифровой сигналы отличаются друг от друга?

Аналоговый сигнал - это сигнал, описываемый непрерывной или кусочно-непрерывной функцией Y a (t), причем как сама эта функция, так и ее аргумент t могут принимать любые значения на заданных интервалах (Y min ; Y max) и (t min ; t max).

Дискретный сигнал - это сигнал, изменяющийся дискретно во времени или по уровню. В первом случае он может принимать в дискретные моменты времени nТ, где Т = const - интервал (период) дискретизации, n = 0; 1; 2; ... - целое, любые значения в интервале (Y min ; Y max)называемые выборками, или отсчетами. Такие сигналы описываются решетчатыми функциями. Во втором случае значения сигнала Yд(t) существуют в любой момент времени t в интервале (t min ; t max) однако они могут принимать ограниченный ряд значений h j = nq, кратных кванту q.

Цифровые сигналы - квантованные по уровню и дискретные по времени сигналы Y ц (nТ), которые описываются квантованными решетчатыми функциями (квантованными последовательностями), принимающими в дискретные моменты времени nТ лишь конечный ряд дискретных значений - уровней квантования h 1 h 2 , ... , h n .

Расскажите о характеристиках и параметрах случайных сигналов

Случайный сигнал - это изменяющаяся во времени физическая величина, мгновенное значение которой является случайной величиной.

Семейство реализаций случайного процесса является основным экспериментальным материалом, на основе которого можно получить его характеристики и параметры.

Каждая реализация является неслучайной функцией времени. Семейство реализаций при каком-либо фиксированном значении времени t o представляет собой случайную величину, называемую сечением случайной функции, соответствующим моменту времени t o . Следовательно, случайная функция совмещает в себе характерные признаки случайной величины и детерминированной функции. При фиксированном значении аргумента она превращается в случайную величину, а в результате каждого отдельного опыта становится детерминированной функцией.

Наиболее полно случайные процессы описываются законами распределения: одномерным, двумерным и Т.д. Однако оперировать с такими, в общем случае многомерными функциями очень сложно, поэтому в инженерных приложениях, каковым является метрология, стараются обойтись характеристиками и параметрами этих законов, которые описывают случайные процессы не полностью, а частично. Характеристики случайных процессов, в отличие от характеристик случайных величин, которые подробно рассмотрены в гл. 6, являются не числами, а функциями. К важнейшим из них относятся математическое ожидание и дисперсия.

Математическим ожиданием случайной функции X(t) называется неслучайная функция

mx(t) = M = хр(х, t)dx,

которая при каждом значении аргумента t равна математическому ожиданию соответствующего сечения. Здесь р(х, t) - одномерная плотность распределения случайной величины х в соответствующем сечении случайного процесса X(t). Таким образом, математическое ожидание в данном случае является средней функцией, вокруг которой группируются конкретные реализации.

Дисперсией случайной функции X(t) называется неслучайная функция

Dx(t) = D = 2 p(x, t)dx,

значение которой для каждого момента времени равно дисперсии соответствующего сечения, т.е. дисперсия характеризует разброс реализаций относительно mx(t).

Математическое ожидание случайного процесса и его дисперсия являются весьма важными, но не исчерпывающими характеристиками, так как определяются только одномерным законом распределения. Они не могут характеризовать взаимосвязь между различными сечениями случайного процесса при различных значениях времени t и t". Для этого используется корреляционная функция - неслучайная функция R(t, t") двух аргументов t и t", которая при каждой паре значений аргументов равна ковариации соответствующих сечений случайного процесса:

Корреляционная функция, называемая иногда автокорреляционной, описывает статистическую связь между мгновенными значениями случайной функции, разделенными заданным значением времени ф = t"-t. При равенстве аргументов корреляционная функция равна дисперсии случайного процесса. Она всегда неотрицательна.

На практике часто используется нормированная корреляционная функция

Она обладает следующими свойствами: 1) при равенстве аргументов t и t" r(t, t") = 1; 2) симметрична относительно своих аргументов: r(t,t") = r(t",t); 3) ее возможные значения лежат в диапазоне [-1;1], т.е. |r(t,t")| ? 1. Нормированная корреляционная функция по смыслу аналогична коэффициенту корреляции между случайными величинами, но зависит от двух аргументов и не является постоянной величиной.

Случайные процессы, протекающие во времени однородно, частные реализации которых с постоянной амплитудой колеблются вокруг средней функции, называются стационарными. :Количественно свойства стационарных процессов характеризуются следующими условиями.

* Математическое ожидание стационарного процесса постоянно, Т.е. m х (t) = m х = const. Однако это требование не является существенным, поскольку от случайной функции X(t) всегда можно перейти к центрированной функции, для которой математическое ожидание равно нулю. Отсюда вытекает, что если случайный процесс нестационарен только за счет переменного во времени (по сечениям) математического ожидания, то операцией центрирования его всегда можно свести к стационарному.

* Для стационарного случайного процесса дисперсия по сечениям является постоянной величиной, Т.е. Dx(t) = Dx = const.

* :Корреляционная функция стационарного процесса зависит не от значения аргументов t и t", а только от промежутка ф = t"-t, т.е. R(t,t") = R(ф). Предыдущее условие является частным случаем данного условия, Т.е. Dx(t) = R(t, t) = R(ф = О) = const. Таким образом, зависимость автокорреляционной функции только от интервала "t является единственным существенным условием стационарности случайного процесса.

Важной характеристикой стационарного случайного процесса является его спектральная плотность S(щ), которая описывает частотный состав случайного процесса при щ?0 и выражает среднюю мощность случайного процесса, приходящуюся на единицу полосы частот:

Спектральная плотность стационарного случайного процесса является неотрицательной функцией частоты S(щ)?0. Площадь, заключенная под кривой S(щ), пропорциональна дисперсии процесса. Корреляционная функция может быть выражена через спектральную плотность

R(ф) = S(щ)cosщфdщ.

Стационарные случайные процессы могут обладать или не обладать свойством эргодичности. Стационарный случайный процесс называется эргодическим если любая его реализация достаточной продолжительности является как бы "полномочным представителем" всей совокупности реализаций процесса. В таких процессах любая реализация рано или поздно пройдет через любое состояние независимо от того, в каком состоянии находился этот процесс в начальный момент времени.

Для описания погрешностей используются теория вероятностей и математическая статистика. Однако прежде необходимо сделать ряд существенных оговорок:

* применение методов математической статистики к обработке результатов измерений правомочно лишь в предположении о независимости между собой отдельных получаемых отсчетов;

* большинство используемых в метрологии форму л теории вероятностей правомерны только для непрерывных распределений, в то время как распределения погрешностей вследствие неизбежного квантования отсчетов, строго говоря, всегда дискретны, Т.е. погрешность может принимать лишь счетное множество значений.

Таким образом, условия непрерывности и независимости для результатов измерений и их погрешностей соблюдаются приближенно, а иногда и не соблюдаются. В математике под термином "непрерывная случайная величина" понимается существенно более узкое, ограниченное рядом условий понятие, чем "случайная погрешность" в метрологии.

С учетом этих ограничений процесс появления случайных погрешностей результатов измерений за вычетом систематических и прогрессирующих погрешностей обычно может рассматриваться как центрированный стационарный случайный процесс. Его описание возможно на основе теории статистически независимых случайных величин и стационарных случайных процессов.

При выполнении измерений требуется количественно оценить погрешность. Для такой оценки необходимо знать определенные характеристики и параметры модели погрешности. Их номенклатура зависит от вида модели и требований к оцениваемой погрешности. В метрологии принято различать три группы характеристик и параметров погрешностей. Первая группа - задаваемые в качестве требуемых или допускаемых нормы характеристик погрешности измерений (нормы погрешностей). Вторая группа характеристик - погрешности, приписываемые совокупности выполняемых по определенной методике измерений. Характеристики этих двух групп применяются в основном при массовых технических измерениях и представляют собой вероятностные характеристики погрешности измерений. Третья группа характеристик - статистические оценки погрешностей измерений отражают близость отдельного, экспериментально полученного результата измерения к истинному значению измеряемой величины. Они используются в случае измерений, проводимых при научных исследованиях и метрологических работах.

В качестве характеристик случайной погрешности используют СКО случайной составляющей погрешности измерений и, если необходимо, ее нормализованную автокорреляционную функцию.

Систематическая составляющая погрешности измерений характеризуется:

* СКО неисключенной систематической составляющей погрешности измерений;

* границами, в которых неисключенная систематическая составляющая погрешности измерений находится с заданной вероятностью (в частности, и с вероятностью, равной единице).

Требования к характеристикам погрешности и рекомендации по их выбору приведены в нормативном документе МИ 1317-86 "ГСИ. Результаты и характеристики погрешности измерений. Формы представления. Способы использования при испытаниях образцов продукции и контроле их параметров".