Текущая версия страницы пока не проверялась опытными участниками и может значительно отличаться от версии, проверенной 13 февраля 2022 года; проверки требуют 2 правки.
Отношение сигнал/шум (ОСШ; англ. signal-to-noise ratio, сокр. SNR) — безразмерная величина, равная отношению мощности полезного сигнала к мощности шума:
- где — средняя мощность, — среднеквадратичное значение амплитуды. Оба сигнала измеряются в полосе пропускания системы.
Обычно отношение сигнал/шум выражается в децибелах (дБ):
Чем больше это отношение, тем меньше шум влияет на характеристики системы.
Основные причины плохих шумовых характеристик[править | править код]
Основные причины высокого уровня шума в сигнальных системах:
- рассогласованные линии передачи сигнала,
- тепловой шум и дробовой шум в компонентах системы,
- недостаточная разрядность АЦП,
- резонансные явления,
- паразитные связи (паразитная ёмкость),
- самовозбуждение системы,
- нелинейность передаточных характеристик[уточнить].
Методы улучшения характеристик[править | править код]
Чаще всего улучшения шумовых характеристик системы можно добиться правильным согласованием входов и выходов её составных частей. Тогда паразитная ЭДС помехи, включённая последовательно с высоким внутренним сопротивлением источника шума, будет подавлена.
Снижение собственных шумов усилительного тракта (малошумящие усилители) достигается соответствующими схемотехническими решениями, в частности применением активных и пассивных компонентов с низким уровнем шума.
Если спектр полезного сигнала отличается от спектра шума, улучшить отношение сигнал/шум можно ограничением полосы пропускания системы.
Шум квантования устраняется повышением разрядности АЦП.
Для улучшения шумовых характеристик сложных комплексов применяются методы электромагнитной совместимости.
Измерение[править | править код]
В аудиотехнике отношение сигнал/шум определяют путём измерения напряжения шума и сигнала на выходе усилителя или другого звуковоспроизводящего устройства среднеквадратичным милливольтметром либо анализатором спектра. Современные усилители и другая высококачественная аудиоаппаратура имеет показатель сигнал/шум около 100—120 дБ.
В системах с более высокими требованиями используются косвенные методы измерения отношения сигнал/шум, реализуемые на специализированной аппаратуре.
В звукотехнике[править | править код]
Отношение сигнал/шум — параметр АЦП, ЦАП, микшера, микрофонного, предварительного или оконечного усилителя, например усилителя активных колонок. Он показывает, насколько сильно шумит звуковое устройство (обычно от 60 до 135,5 дБ) при отсутствии сигнала. Чем выше значение сигнал/шум, тем более чистый звук и больший динамический диапазон обеспечивается системой. Для музыкальных целей желательно, чтобы этот параметр был не менее 75 дБ, а для систем с высококачественным звучанием не менее 90 дБ.
Телефонный речевой канал имеет С/Ш около 30 дБ.
В видео[править | править код]
Отношение сигнал/шум — отношение уровня электрического сигнала к уровню шума этого сигнала, численно определяет содержание паразитных шумов в сигнале. Чем больше значение отношения сигнал/шум для видеосигнала, тем меньше помех и искажений имеет изображение на экране монитора. Значения отношения от 45 до 60 дБ соответствуют приемлемому качеству видеосигнала, значение менее 40 дБ означает высокий уровень шумов в видеосигнале и, как следствие, низкое качество видеоизображения.
См. также[править | править код]
- Шумопонижение
- Шум квантования
- PSNR
- SFDR
- Коэффициент шума (шум-фактор, фактор шума)
- Зашумленные данные (англ.) (рус.
- Феномен информационного шума
Примечания[править | править код]
Основы цифровой обработки сигналов: Виды шумов, отношение сигнал/шум, Статистическая обработка сигнала, Корреляционная функция
Рассмотрены 3 темы по основам цифровой обработки сигналов: виды шумов, отношение сигнал/шум, статистическая обработка сигнала, корреляционная функция.
В данном посте освещены 3 темы по основам цифровой обработки сигналов:
- Виды шумов, отношение сигнал/шум,
- Статистическая обработка сигнала,
- Корреляционная функция.
Виды шумов, отношение сигнал/шум.
В данной публикации мы поговорим о характеристиках случайных процессов, познакомимся с разными видами шумов, и узнаем о важном определении – отношение сигнал/шум. Начнём с характеристик.
Случайный процесс колеблется вокруг какого-то среднего значения, и значение это называется математическим ожиданием.
Насколько сильно значения случайного процесса могут отличаться от матожидания описывает параметр дисперсия, мера разброса случайной величины.
Также в качестве меры разброса употребляется среднеквадратичное отклонение, также именуемое стандартным отклонением. Значение его – квадратный корень из дисперсии.
На рисунке представлены нормальные распределения 4-х случайных процессов с разными значениями матожидания и дисперсии. В случае большего значения дисперсии колокол гауссовского распределения более широкий и низкий, что говорит о большей вероятности выпадения экстремальных значений, и меньшей вероятности значений, близких к матожиданию.
В качестве меры скорости изменения случайного процесса может использоваться авто-корреляционная функция или просто корреляционная функция. Она описывает зависимость взаимосвязи сигнала с его сдвинутой во времени копией от величины временного сдвига.
В случае нулевого сдвига сигналы полностью совпадают, и значение авто-корреляционной функции максимально. При увеличении расхождения это значение уменьшается, причём для слабо изменяющихся во времени сигналов спад функции происходит медленнее, чем для быстро изменяющихся.
Математическое ожидание, дисперсия, авто-корреляционная функция – это примеры численных характеристик, которыми можно описать случайный процесс.
Законы изменения реальных физических величин весьма сложны, и для того, чтобы могли описывать их доступным нам математическим аппаратом, нам часто приходится делать определённые допущения. При описании сигналов случайными процессами мы часто оговариваем свойства стационарности и эргодичности.
Стационарым процесс называется в том случае, когда его плотность вероятности не зависит от временного сечения. То есть его статистические характеристики – матожидание, дисперсия, коореляционная функция – не будут зависеть от времени.
Стационарный процесс считается эргодическим, если для определения его характеристик вместо усреднения по ансамблю реализаций мы можем использовать усреднение по времени одной реализации. На практике нам обычна доступна только одна реализация случайного процесса.
Ещё одна важная характеристика случайного процесса – спектральная плотность мощности. По определению, это распределение мощности сигнала в зависимости от частоты, то есть мощность, приходящаяся на единичный интервал частоты.
Мы можем рассматривать спектральную плотность мощности как ещё одну меру скорости изменения случайного процесса. Она связана с корреляционной функцией случайного процесса теоремой Винера-Хинчина-Колмогорова, и с ней я советую познакомиться самостоятельно.
А мы пока что рассмотрим два синусоидальных сигнала разной частоты. В частотной области эти сигналы будут представлены двумя линиями. Положение линии на оси Х говорит о величине частоты синусоиды, а длина линии – о её мощности или амплитуде.
Случайные процессы мы также можем рассматривать как кусочки и отрезки различных синусоид, разной амплитуды и фазы, меняющихся быстро или медленно. Спектр медленно изменяющегося случайного процесса содержит больше синусоид, или спектральных компонент, в левой части оси f – то есть в зоне низких частот. В то время как спектр быстро меняющегося процесса содержит больше компонент большей амплитуды в левой части частотной оси.
Слуйчайный процесс, у которого область частот заполнена равномерно, называется белым шумом.
Белый шум – это стационарный слуйчайный процесс с равномерно распределённой спектральной плотностью мощности. В таком процессе присутствуют компоненты, изменяющиеся быстро, медленно, средне, и ни одна из них не преобладает над другими.
Белый шум получил свой название по аналогии со спектром белого света. Нам известно, что белый цвет получается в результате сложения всех других цветов видимого диапазона. Если в качестве аналогии и далее использовать видимый диапазон длин волн, то определённым цветом можно обозначить преобладание в спектре сигнала определённых компонент. Если наложить красный светофильтр, то мы пропустим только более длинные волны, или более низкие частоты. Если наложим синий фильтр – получим сигнал с относительно высокими частотами в спектре.
Цветовое обозначение частотного состава используется для описания так называемых цветных шумов. Они никак не привязаны к какому-либо конкретному частотному диапазону, и различаются только видом их спектральной плотностью мощности. Сразу оговорюсь, что цветные шумы, в том числе и белый шум – это модели шумов, приближающие некоторые физические явления. К примеру, процессы генерации и рекомбинации носителей заряда в цепях постоянного тока приводят к так называемому фликкер-шуму, который достаточно успешно описывается моделью розового шума. Красный шум описывает броуновское движение, модель серого шума используется в психоакустике и так далее.
Какая же модель шума чаще всего используется в цифровой обработке сигналов? Это аддитивный белый гауссовский шум.
- У него равномерная спектральная плотность мощности, поэтому он белый.
- Нормальное распределение, поэтому он Гауссовский.
- С полезным сигналом он суммируется, поэтому он аддитивный.
- И статистически он от сигнала независим.
На системы беспроводной связи и обработки сигналов воздействуют множество разнообразных широкополосных шумов, не связанных друг с другом. По центральной предельной теореме распределение их суммарного воздействия будет близко к нормальному.
Именно поэтому данная модель наиболее распространена в системах ЦОС и системах связи, и используется как модель канала передачи данных. Шум в подобных системах, конечно же, является нежелательным явлением.
Одной из мер качества системы является отношение сигнал/шум. Это безразмерная величина, равная отношению мощности полезного сигнала к мощности шума. Отношение сигнал/шум часто измеряется в децибелах, для разных систем приемлемые значения этого отношения могут сильно отличаться. Но в любом случае, чес выше этот показатель, тем лучше.
Одна из задач цифровой обработки сигналов – повышение отношения сигнал/шум. Существуют разные способы повышения. О фильтрации мы поговорим в дальнейших публикациях, а сейчас давайте познакомимся с усреднением, или когерентным накоплением.
Если мы сложим два одинаковых сигнала в фазе, то амплитуда результирующего сигнала будет вдвое больше. Положительные отсчёты сложатся с положительными, отрицательные – с отрицательными. Но сложить две реализации случайного процесса в фазе не получится. В каких-то точках произойдёт усиление, в каких-то – ослабление шума. Проще говоря, при усреднении амплитуда шума не растёт.
Давайте рассмотрим пример накопления сигнала с шумом в MATLAB.
Мы генерируем синусоиду, и добавляем к ней аддитивный белый Гауссовский шум при помощи функции awgn. Функция эта содержится в расширении MATLAB Communications Toolbox. На её вход мы подаём исходный незашумлённый сигнал, и параметр отношения сигнал/шум в децибелах. Строим на графике сигнал с шумом и без шума.
Затем мы выделим только шумовую компоненту, вычитаем из смеcи сигнал/шум исходный сигнал. Визуализируем его отсчёты командой stem. Функция периодограм позволит нам оценить спектральную плотность мощности нашего шума. Мы видим, то что распределение действительно равномерное, это белый шум.
Гистрограмма показывает нам, что распределение значений вектора noise близко к нормальному.
Теперь мы генерируем большое число зашумлённых сигналов. Несмотря на то, что мы вызываем одну и ту же команду, реализации шума в каждом из векторов будут отличаться. Можем убедиться в этом, отразив четыре первых вектора на графике.
Если мы будем складывать эти вектора между собой, то их синусоидальная компонента будет всегда складываться в фазе, в то время как шумовые компоненты будут складываться случайным образом. Убедимся в том, что амплитуда шума в результирующей сумме заметно ниже.
В завершении давайте поговорим о ещё двух хар-ках системы, которые непосредственно связаны с шумом.
Динамический диапазон – это характеристика системы, представляющая логарифм отношения максимального и минимального возможных значений величины входного параметра. Сверху этот диапазон обычно ограничен порогом искажений, а снизу – так называемым шумовым дном, или чувствительностью.
Чувствительность – это численный параметр, равный уровню сигнала, различимого системой над шумами. Если у системы хорошая чувствительность, значит она меньше восприимчива к внешним помехам, имеет меньший уровень собственных шумов, и за счёт этого способна различать сигналы малой энергетики.
В следующей публикации мы подробнее поговорим о статистических параметрах сигнала.
Наверх
Статистическая обработка сигнала.
В этой публикации мы под робнее поговорим о статистической обработке сигналов. Давайте вспомним, какие статистические параметры мы рассматривали, когда говорили о случайных процессах. Когда мы рассматривали случайный процесс с нормальным распределением мы оперировали понятиями математического ожидания и дисперсии. Когда мы рассматриваем сигналы в общем виде, то у них так же есть статистические показатели со схожим смыслом.
У любого сигнала, непрерывного и дискретного, можно определить среднее значение. Оно может вычисляться по-разному.
Если мы ищем среднее арифметическое, то для этого мы складываем все отсчёты сигнала и делим сумму на количество отсчётов.
Но также в качестве среднего значения для дискретной последовательности может применяться медианное значение. При его вычислении все элементы дискретного сигнала выстраиваются по возрастанию, и находится центральный элемент упорядоченной последовательности.
То, что мы называли дисперсией случайного процесса, у произвольного сигнала может именоваться отклонением от среднего значения. Для колебательных процессов отклонение по сути – это амплитуда колебаний.
Для любого сигнала мы можем определить минимальное и максимальное значение на отрезке наблюдения. Минимум и максимум сигнала определяют его размах, или динамический диапазон.
Ну и скорость изменения сигнала может характеризоваться корреляционной функцией. Её мы подробно рассмотрим в следующей публикации.
Статистические показатели реальных сигналов часто изменяются во времени. К примеру, при относительной стабильности амплитуды колебаний во времени, среднее значение, вокруг которого изменяется сигнал, может «плавать».
При обработке зачастую выбирают некоторые временные рамки относительной стабильности статистических характеристик, и подсчитывают эти характеристики для коротких отрезков исходного сигнала. Временной интервал, на котором рассматривается сигнал, называется окном. И окно это обычно перемещается или скользит по исходному сигналу.
Подобным образом мы можем находить локальные статистические характеристики, такие как, например, локальные средние значения, или локальные минимумы и максимумы. Подобная обработка позволяет отслеживать постоянную составляющую сигнала, которую мы также называем трендом, и находить пики или спады на графике сигнала.
Рассмотрим пример нахождения тренда или меняющейся во времени постоянной составляющей сигнала методом скользящего среднего. Как вы поняли из названия, этот метод подразумевает нахождение локального среднего арифметического. Окно перемещается по сигналу, и в результате обработки формируется выходной вектор, в отсчёты которого записываются значения среднего арифметического для каждого шага.
Результирующий вектор становится сглаженным, по сравнению с исходным. И чем больше размер окна – тем больше степень сглаживания. Можно использовать небольшие окна для сглаживания формы сигнала и избавления от нежелательных высокочастотных колебаний, либо можно взять большое окно для выделения постоянной составляющей.
Если рассматривать процесс вычисления среднего значения, как набор арифметических операций над каждым из отсчётов, попавших в окно, то в случае со скользящим средним каждый отсчёт умножается на величину, обратную размеру окна, и затем все результаты произведения складываются.
Если мы берём окно не из трёх, а из пяти элементов, то и коэффициент становится равным одной пятой. Но коэффициенты не обязательно должны быть одинаковыми. В общем случае мы рассматриваем операцию нахождения взвешенного среднего. Окна с разнообразными коэффициентами могут усиливать или ослаблять различные частотные компоненты сигнала. Процесс взвешенного усреднения – одна из форм цифровой фильтрации. О цифровых фильтрах мы будем подробно говорить в других публикациях. А пока что давайте осуществим статистическую обработку сигнала в MATLAB.
Мы вновь проанализируем сигнал ЭКГ, но в этот раз мы попробуем выделить из него так называемый Q-R-S комплекс, то есть определить положение Q-, R-, S-зубцов в наших данных. Но наши данные зашумлены и постоянная составляющая у сигнала изменяется во времени, что может помешать нам выделить искомое зубцы. Поэтому нам необходимо отфильтровать наши данные, избавиться от постоянной составляющей и выделить локальные экстремумы. Для фильтрации и удаления тренда мы можем воспользоваться одной и той же функцией movmean из состава Signal Processing Toolbox. Она у нас выполняет операцию скользящего среднего. Если мы возьмём маленькое кошка из 10 отсчётов, то мы сгладим форму нашего сигнала. А если мы возьмём большое окно из 300 отсчётов, то мы выделим постоянную составляющую. Отразим её на том же графике.
Для выделения пиков наших Q-, R-, S-зубцов воспользуемся встроенной функцией findpeaks. Выделение R-, S-зубцов происходит достаточно просто, мы просто берём выбросы величины, которые больше чем 0,5 или меньше чем –0,5 и отображаем их на том же графике.
А вот для выделения Q-зубцов нам придется воспользоваться логической индексацией. Мы знаем то, что Q-выброс лежит в пределах от –0,2 мВ до –0,5 мВ, поэтому мы выделяем только те минимальные, скажем так экстремумы, минимальные значение сигнала, которые лежат в этих пределах. Также можно построить Q-зубцы на том же самом графике.
Как видите воспользовавшись двумя встроенными функциями мы успешно выделили Q-R-S комплекс из наших зашумленных и нестабильных по времени данных ЭКГ. В следующей публикации мы поговорим о корреляционной функции и корреляционной обработке.
Наверх
Корреляционная функция.
Когда мы рассматривали случайные процессы, мы упоминали корреляционную функцию, как меру изменения скорости процесса. КФ измерялась для одного сигнала, а значит происходило сравнение сигнала с самим собой, сдвинутым во времени. По факту мы рассматривали так называемую автокорреляционную функцию. Но в предыдущих видео мы не рассказали, как эта функция вычисляется. Для того, чтобы понять, как мы находим корреляционную функцию сигнала, надо вспомнить понятие корреляции.
Корреляция – это мера зависимости двух величин. Для численной оценки используется коэффициент корреляции. Он не может быть больше единицы, и меньше минус единицы. Когда коэффициент корреляции +1, говорят, что две величины идеально коррелированы друг с другом, а значит что при изменении первой величины на какой-то значение вторая изменяется на такое-же значение. Если коэффициент –1 , то росту первой величины соответствует уменьшение второй величины на такое же значение.
Проиллюстрируем зависимость коэффициента корреляции от временного сдвига двух идентичных сигналов.
В начальный момент времени сигналы выровнены, и коэффициент корреляции равен +1. При равном приращении первая и вторая функции изменяются одинаково. Теперь сдвинем вторую зависимость по времени.
При равном приращении она изменяется на меньшую величину. А значит, коэффициент корреляции между двумя зависимостями становится меньше. Увеличивая временной сдвиг мы доходим до момента, когда умен ьшение значения первой величины соответствует увеличению значения второй, а значит коэффициент корреляции становится отрицательным.
Зависимость коэффициента корреляции от временного сдвига между сигналами – по сути есть корреляционная функция. Но давайте рассмотрим формулу.
В общем случае мы рассматриваем взаимно-корреляционную функцию и оцениваем зависимость между двумя сигналами. Частным случаем взаимно-корреляционной функции является автокорреляционная функция, когда мы сравниваем сигнал с его задержанной во времени копией.
Рассмотрим формулу. Я тут привёл формулу для непрерывных функций, но если мы берём дискретные величины, то операция интегрирования будет заменена на простое суммирование. Здесь есть две функции. Первая функция f (не обращайте пока что внимания на знак звёздочки, это комплексное сопряжение, но для действительных сигналов оно не важно), так вот, первая функция f умножается на вторую функцию g, при этом вторая функция сдвигается во времени на величину τ. От величины сдвига τ мы и строим зависимость коэффициента корреляции.
Рассмотрим графическое представление. Первую функцию f мы фиксируем на временной оси, а вторая g по этой оси будет перемещаться. Она перемещается из значений отрицательного сдвига между функциями в область положительных значений сдвига. Величина корреляции соответствует площади перекрытия двух графиков, и максимума она достигает, когда две фигуры максимально накладываются друг на друга. Стоит отметить, что если мы поменяем функции местами, то есть зафиксируем g и будем скользить функцией f, то вид корреляционной функции изменится на зеркальный. В случае автокорреляционной функции форма зависимости всегда симметрична, и имеет максимум в точке, равной нулевому сдвигу сигнала относительно самого себя.
Давайте посмотрим на несколько примеров подсчёта корреляционной функции для дискретных сигналов в MATLAB.
Автокорреляционная функция прямоугольного импульса имеет форму треугольника.
Взаимнокорреляционная функция пилообразного импульса и прямоугольного импульса несимметрична.
Автокорреляционная функция отрезка синусоиды симметрична, и имеет вид нарастающего и затухающего колебательного процесса с выраженным максимумом в моменте совпадения импульсов
А автокорреляционная функция бесконечной синусоиды – это такая же синусоида, с той же частотой.
Особо важно отметить автокорреляционную функцию случайного процесса, или шума. Она имеет один выраженный максимум, и при малейшем сдвиге значения её падают почти до нуля. Это говорит о том, что шум – слабо коррелированный процесс, и этим свойством мы будем пользоваться при обработке.
А обработка корреляционными методами – это важная часть ЦОС. При помощи вычисления взаимнокорреляционной функции мы можем обнаруживать интересующие нас отрезки сигнала в эфире, в том числе на фоне шумов, находить сигналы, похожие на некий выбранный эталон, и оценивать степень схожести, или мы можем точно определять задержу распространения сигнала. К примеру, радиолокационная станция отправляет импульс известной формы в сторону цели и ждёт отражённый сигнал. Максимум корреляционной функции даст нам величину задержки между переданным и принятым импульсами, которую мы затем можем использовать для определения расстояния до цели.
Выполним корреляционную обработку сигнала в MATLAB. В данном случае мы будем пытаться найти фрагмент аудиосигнала в полном сигнале, в том числе на фоне шумов. Загружаемый аудиосигнал – эта запись звука кольца, крутящегося на столе. Давайте загрузим его и послушаем командой Sound. Так вот звучит фрагмент аудиосигнала, который мы попробуем найти.
Область, которую мы выделили, обозначена на графике двумя пунктирными линиями. Давайте также построим график взаимной корреляционной функции исходного сигнала и выделенного фрагмента. Для этого воспользуемся функцией xcorr и передадим ей исходный сигнал и выделенный фрагмент.
В первую выходной переменной записываются отчёты функции, а во вторую – величины временного сдвига. На графике взаимной корреляционной функции мы видим явно выраженный максимум, в тот момент времени когда наш фрагмент совпадает с самим собой на исходном сигнале. Используем максимум вектора lags для того, чтобы отразить фрагмент на сигнале.
Теперь давайте добавим шум к исходному сигналу и к фрагментам.
Причем, обратите внимание, что мы добавляем разный шум к полному сигналу и к нашему фрагменту. Послушаем как звучит фрагмент на фоне шума. Уровень шума достаточно велик, и мы совершенно не слышим звука кольца.
Но даже в этом случае корреляционная обработка позволяет нам точно определить момент начала фрагмента, и мы также сможем показать где наш искомый фрагмент на всём сигнале. Пока что закончим с корреляционной функцией и обработкой. Тема следующей публикации – моделирование сигнала, то есть приближение его аналитической функцией.
From Wikipedia, the free encyclopedia
Signal-to-noise ratio (SNR or S/N) is a measure used in science and engineering that compares the level of a desired signal to the level of background noise. SNR is defined as the ratio of signal power to the noise power, often expressed in decibels. A ratio higher than 1:1 (greater than 0 dB) indicates more signal than noise.
SNR is an important parameter that affects the performance and quality of systems that process or transmit signals, such as communication systems, audio systems, radar systems, imaging systems, and data acquisition systems. A high SNR means that the signal is clear and easy to detect or interpret, while a low SNR means that the signal is corrupted or obscured by noise and may be difficult to distinguish or recover. SNR can be improved by various methods, such as increasing the signal strength, reducing the noise level, filtering out unwanted noise, or using error correction techniques.
SNR also determines the maximum possible amount of data that can be transmitted reliably over a given channel, which depends on its bandwidth and SNR. This relationship is described by the Shannon–Hartley theorem, which is a fundamental law of information theory.
SNR can be calculated using different formulas depending on how the signal and noise are measured and defined. The most common way to express SNR is in decibels, which is a logarithmic scale that makes it easier to compare large or small values. Other definitions of SNR may use different factors or bases for the logarithm, depending on the context and application.
Definition[edit]
Signal-to-noise ratio is defined as the ratio of the power of a signal (meaningful input) to the power of background noise (meaningless or unwanted input):
where P is average power. Both signal and noise power must be measured at the same or equivalent points in a system, and within the same system bandwidth.
Depending on whether the signal is a constant (s) or a random variable (S), the signal-to-noise ratio for random noise N becomes:[1]
where E refers to the expected value, i.e. in this case the mean square of N,
or
If the noise has expected value of zero, as is common, the denominator is its variance, the square of its standard deviation σN.
The signal and the noise must be measured the same way, for example as voltages across the same impedance. The root mean squares can alternatively be used in the ratio:
where A is root mean square (RMS) amplitude (for example, RMS voltage).
Decibels[edit]
Because many signals have a very wide dynamic range, signals are often expressed using the logarithmic decibel scale. Based upon the definition of decibel, signal and noise may be expressed in decibels (dB) as
and
In a similar manner, SNR may be expressed in decibels as
Using the definition of SNR
Using the quotient rule for logarithms
Substituting the definitions of SNR, signal, and noise in decibels into the above equation results in an important formula for calculating the signal to noise ratio in decibels, when the signal and noise are also in decibels:
In the above formula, P is measured in units of power, such as watts (W) or milliwatts (mW), and the signal-to-noise ratio is a pure number.
However, when the signal and noise are measured in volts (V) or amperes (A), which are measures of amplitude,[note 1] they must first be squared to obtain a quantity proportional to power, as shown below:
Dynamic range[edit]
The concepts of signal-to-noise ratio and dynamic range are closely related. Dynamic range measures the ratio between the strongest un-distorted signal on a channel and the minimum discernible signal, which for most purposes is the noise level. SNR measures the ratio between an arbitrary signal level (not necessarily the most powerful signal possible) and noise. Measuring signal-to-noise ratios requires the selection of a representative or reference signal. In audio engineering, the reference signal is usually a sine wave at a standardized nominal or alignment level, such as 1 kHz at +4 dBu (1.228 VRMS).
SNR is usually taken to indicate an average signal-to-noise ratio, as it is possible that instantaneous signal-to-noise ratios will be considerably different. The concept can be understood as normalizing the noise level to 1 (0 dB) and measuring how far the signal ‘stands out’.
Difference from conventional power[edit]
In physics, the average power of an AC signal is defined as the average value of voltage times current; for resistive (non-reactive) circuits, where voltage and current are in phase, this is equivalent to the product of the rms voltage and current:
But in signal processing and communication, one usually assumes that [3] so that factor is usually not included while measuring power or energy of a signal. This may cause some confusion among readers, but the resistance factor is not significant for typical operations performed in signal processing, or for computing power ratios. For most cases, the power of a signal would be considered to be simply
Alternative definition[edit]
An alternative definition of SNR is as the reciprocal of the coefficient of variation, i.e., the ratio of mean to standard deviation of a signal or measurement:[4][5]
where is the signal mean or expected value and is the standard deviation of the noise, or an estimate thereof.[note 2] Notice that such an alternative definition is only useful for variables that are always non-negative (such as photon counts and luminance), and it is only an approximation since . It is commonly used in image processing,[6][7][8][9] where the SNR of an image is usually calculated as the ratio of the mean pixel value to the standard deviation of the pixel values over a given neighborhood.
Sometimes[further explanation needed] SNR is defined as the square of the alternative definition above, in which case it is equivalent to the more common definition:
This definition is closely related to the sensitivity index or d‘, when assuming that the signal has two states separated by signal amplitude , and the noise standard deviation does not change between the two states.
The Rose criterion (named after Albert Rose) states that an SNR of at least 5 is needed to be able to distinguish image features with certainty. An SNR less than 5 means less than 100% certainty in identifying image details.[5][10]
Yet another alternative, very specific, and distinct definition of SNR is employed to characterize sensitivity of imaging systems; see Signal-to-noise ratio (imaging).
Related measures are the “contrast ratio” and the “contrast-to-noise ratio”.
Modulation system measurements[edit]
Amplitude modulation[edit]
Channel signal-to-noise ratio is given by
where W is the bandwidth and is modulation index
Output signal-to-noise ratio (of AM receiver) is given by
Frequency modulation[edit]
Channel signal-to-noise ratio is given by
Output signal-to-noise ratio is given by
Noise reduction[edit]
Recording from a thermogravimetric analysis device with poor mechanical isolation; the middle of the plot shows lower noise due to reduced human activity at night.
All real measurements are disturbed by noise. This includes electronic noise, but can also include external events that affect the measured phenomenon — wind, vibrations, the gravitational attraction of the moon, variations of temperature, variations of humidity, etc., depending on what is measured and of the sensitivity of the device. It is often possible to reduce the noise by controlling the environment.
Internal electronic noise of measurement systems can be reduced through the use of low-noise amplifiers.
When the characteristics of the noise are known and are different from the signal, it is possible to use a filter to reduce the noise. For example, a lock-in amplifier can extract a narrow bandwidth signal from broadband noise a million times stronger.
When the signal is constant or periodic and the noise is random, it is possible to enhance the SNR by averaging the measurements. In this case the noise goes down as the square root of the number of averaged samples.
Digital signals[edit]
When a measurement is digitized, the number of bits used to represent the measurement determines the maximum possible signal-to-noise ratio. This is because the minimum possible noise level is the error caused by the quantization of the signal, sometimes called quantization noise. This noise level is non-linear and signal-dependent; different calculations exist for different signal models. Quantization noise is modeled as an analog error signal summed with the signal before quantization (“additive noise”).
This theoretical maximum SNR assumes a perfect input signal. If the input signal is already noisy (as is usually the case), the signal’s noise may be larger than the quantization noise. Real analog-to-digital converters also have other sources of noise that further decrease the SNR compared to the theoretical maximum from the idealized quantization noise, including the intentional addition of dither.
Although noise levels in a digital system can be expressed using SNR, it is more common to use Eb/No, the energy per bit per noise power spectral density.
The modulation error ratio (MER) is a measure of the SNR in a digitally modulated signal.
Fixed point[edit]
For n-bit integers with equal distance between quantization levels (uniform quantization) the dynamic range (DR) is also determined.
Assuming a uniform distribution of input signal values, the quantization noise is a uniformly distributed random signal with a peak-to-peak amplitude of one quantization level, making the amplitude ratio 2n/1. The formula is then:
This relationship is the origin of statements like “16-bit audio has a dynamic range of 96 dB”. Each extra quantization bit increases the dynamic range by roughly 6 dB.
Assuming a full-scale sine wave signal (that is, the quantizer is designed such that it has the same minimum and maximum values as the input signal), the quantization noise approximates a sawtooth wave with peak-to-peak amplitude of one quantization level[11] and uniform distribution. In this case, the SNR is approximately
Floating point[edit]
Floating-point numbers provide a way to trade off signal-to-noise ratio for an increase in dynamic range. For n bit floating-point numbers, with n-m bits in the mantissa and m bits in the exponent:
Note that the dynamic range is much larger than fixed-point, but at a cost of a worse signal-to-noise ratio. This makes floating-point preferable in situations where the dynamic range is large or unpredictable. Fixed-point’s simpler implementations can be used with no signal quality disadvantage in systems where dynamic range is less than 6.02m. The very large dynamic range of floating-point can be a disadvantage, since it requires more forethought in designing algorithms.[12][note 3][note 4]
Optical signals[edit]
Optical signals have a carrier frequency (about 200 THz and more) that is much higher than the modulation frequency. This way the noise covers a bandwidth that is much wider than the signal itself. The resulting signal influence relies mainly on the filtering of the noise. To describe the signal quality without taking the receiver into account, the optical SNR (OSNR) is used. The OSNR is the ratio between the signal power and the noise power in a given bandwidth. Most commonly a reference bandwidth of 0.1 nm is used. This bandwidth is independent of the modulation format, the frequency and the receiver. For instance an OSNR of 20 dB/0.1 nm could be given, even the signal of 40 GBit DPSK would not fit in this bandwidth. OSNR is measured with an optical spectrum analyzer.
Types and abbreviations[edit]
Signal to noise ratio may be abbreviated as SNR and less commonly as S/N. PSNR stands for peak signal-to-noise ratio. GSNR stands for geometric signal-to-noise ratio.[citation needed] SINR is the signal-to-interference-plus-noise ratio.
Other uses[edit]
While SNR is commonly quoted for electrical signals, it can be applied to any form of signal, for example isotope levels in an ice core, biochemical signaling between cells, or financial trading signals. The term is sometimes used metaphorically to refer to the ratio of useful information to false or irrelevant data in a conversation or exchange. For example, in online discussion forums and other online communities, off-topic posts and spam are regarded as noise that interferes with the signal of appropriate discussion.[13]
See also[edit]
- Audio system measurements
- Generation loss
- Matched filter
- Near–far problem
- Noise margin
- Omega ratio
- Pareidolia
- Peak signal-to-noise ratio
- Signal-to-noise statistic
- Signal-to-interference-plus-noise ratio
- SINAD
- Subjective video quality
- Total harmonic distortion
- Video quality
Notes[edit]
- ^ The connection between optical power and voltage in an imaging system is linear. This usually means that the SNR of the electrical signal is calculated by the 10 log rule. With an interferometric system, however, where interest lies in the signal from one arm only, the field of the electromagnetic wave is proportional to the voltage (assuming that the intensity in the second, the reference arm is constant). Therefore the optical power of the measurement arm is directly proportional to the electrical power and electrical signals from optical interferometry are following the 20 log rule.[2]
- ^ The exact methods may vary between fields. For example, if the signal data are known to be constant, then can be calculated using the standard deviation of the signal. If the signal data are not constant, then can be calculated from data where the signal is zero or relatively constant.
- ^ Often special filters are used to weight the noise: DIN-A, DIN-B, DIN-C, DIN-D, CCIR-601; for video, special filters such as comb filters may be used.
- ^ Maximum possible full scale signal can be charged as peak-to-peak or as RMS. Audio uses RMS, Video P-P, which gave +9 dB more SNR for video.
References[edit]
- ^ Charles Sherman; John Butler (2007). Transducers and Arrays for Underwater Sound. Springer Science & Business Media. p. 276. ISBN 9780387331393.
- ^ Michael A. Choma, Marinko V. Sarunic, Changhuei Yang, Joseph A. Izatt. Sensitivity advantage of swept source and Fourier domain optical coherence tomography. Optics Express, 11(18). Sept 2003.
- ^ Gabriel L. A. de Sousa; George C. Cardoso (18 June 2018). “A battery-resistor analogy for further insights on measurement uncertainties”. Physics Education. IOP Publishing. 53 (5): 055001. arXiv:1611.03425. Bibcode:2018PhyEd..53e5001D. doi:10.1088/1361-6552/aac84b. S2CID 125414987. Retrieved 5 May 2021.
- ^
D. J. Schroeder (1999). Astronomical optics (2nd ed.). Academic Press. p. 278. ISBN 978-0-12-629810-9., p.278 - ^ a b Bushberg, J. T., et al., The Essential Physics of Medical Imaging, (2e). Philadelphia: Lippincott Williams & Wilkins, 2006, p. 280.
- ^ Rafael C. González, Richard Eugene Woods (2008). Digital image processing. Prentice Hall. p. 354. ISBN 978-0-13-168728-8.
- ^ Tania Stathaki (2008). Image fusion: algorithms and applications. Academic Press. p. 471. ISBN 978-0-12-372529-5.
- ^ Jitendra R. Raol (2009). Multi-Sensor Data Fusion: Theory and Practice. CRC Press. ISBN 978-1-4398-0003-4.
- ^ John C. Russ (2007). The image processing handbook. CRC Press. ISBN 978-0-8493-7254-4.
- ^
Rose, Albert (1973). Vision – Human and Electronic. Plenum Press. p. 10. ISBN 9780306307324.[…] to reduce the number of false alarms to below unity, we will need […] a signal whose amplitude is 4–5 times larger than the rms noise.
- ^ Defining and Testing Dynamic Parameters in High-Speed ADCs — Maxim Integrated Products Application note 728
- ^ Fixed-Point vs. Floating-Point DSP for Superior Audio — Rane Corporation technical library
- ^ Breeding, Andy (2004). The Music Internet Untangled: Using Online Services to Expand Your Musical Horizons. Giant Path. p. 128. ISBN 9781932340020.
External links[edit]
- Walt Kester, Taking the Mystery out of the Infamous Formula,”SNR = 6.02N + 1.76dB,” and Why You Should Care (PDF), Analog Devices, archived (PDF) from the original on 2022-10-09, retrieved 2019-04-10
- ADC and DAC Glossary – Maxim Integrated Products
- Understand SINAD, ENOB, SNR, THD, THD + N, and SFDR so you don’t get lost in the noise floor – Analog Devices
- The Relationship of dynamic range to data word size in digital audio processing
- Calculation of signal-to-noise ratio, noise voltage, and noise level
- Learning by simulations – a simulation showing the improvement of the SNR by time averaging
- Dynamic Performance Testing of Digital Audio D/A Converters
- Fundamental theorem of analog circuits: a minimum level of power must be dissipated to maintain a level of SNR
- Interactive webdemo of visualization of SNR in a QAM constellation diagram Institute of Telecommunicatons, University of Stuttgart
- Bernard Widrow,István Kollár (2008-07-03), Quantization Noise: Roundoff Error in Digital Computation, Signal Processing, Control, and Communications, Cambridge University Press, Cambridge, UK, 2008. 778 p., ISBN 9780521886710
- Quantization Noise Widrow & Kollár Quantization book page with sample chapters and additional material
- Signal-to-noise ratio online audio demonstrator – Virtual Communications Lab
В электронике и радио отношение требуемых электронных сигналов к нежелательному шуму может варьироваться в чрезвычайно широком диапазоне, до миллиарда и более раз. Расчет для отношения сигнал / шум (SNR) представляет собой либо разницу двух логарифмов, либо логарифм отношения основного и шумового сигналов.
Электронные сигналы и шум
Что бы там ни было, нежелательный шум – это естественная и неизбежная часть сигналов во всех электронных схемах и передаваемых радиоволнах. Каждый компонент цепи, от транзисторов до резисторов и проводки, состоит из атомов, которые вибрируют случайным образом в зависимости от температуры окружающей среды; случайные колебания производят электрический шум. В воздухе радиопередачи проходят через среду, полную электромагнитных помех (EMI) от линий электропередач, промышленного оборудования, солнца и многих других источников. Инженер-электронщик хочет знать, какой сигнал получает ее оборудование, сколько шума и сколько информации.
О децибелах
Ученые и инженеры, работающие с сигналами, часто используют измерения в децибелах (дБ) вместо стандартных линейных единиц, таких как вольт или ватт. Это потому, что в линейной системе вы либо в конечном итоге напишите много громоздких нулей на своих фигурах, либо прибегнете к научной записи. Децибелевые единицы, с другой стороны, полагаются на логарифмы. Хотя к единицам дБ нужно привыкнуть, они облегчают жизнь, позволяя вам использовать более компактные числа. Например, усилитель имеет динамический диапазон 100 дБ; это означает, что самые сильные сигналы в 10 миллиардов раз сильнее, чем самые слабые. Работать с «100 дБ» легче, чем с «10 миллиардами».
Измерение и анализ сигналов
Перед выполнением расчета SNR вам понадобятся измеренные значения основного сигнала, S и шума N. Вы можете использовать анализатор уровня сигнала, который отображает сигналы на графическом дисплее. Эти дисплеи обычно показывают уровень сигнала в децибелах (дБ). С другой стороны, вам могут быть даны «необработанные» значения сигнала и шума в таких единицах, как вольт или ватт. Это не дБ, но вы можете получить дБ, применив функцию логарифма.
Расчет SNR – Простой
Если ваш сигнал и измерения шума уже в форме дБ, просто вычтите коэффициент шума из основного сигнала: S – N. Потому что, когда вы вычитаете логарифмы, это то же самое, что деление нормальных чисел. Разница чисел – это SNR. Например: вы измеряете радиосигнал с силой -5 дБ и шумовым сигналом -40 дБ. -5 – (-40) = 35 дБ.
Расчет SNR – сложный
Чтобы рассчитать SNR, разделите значение основного сигнала на значение шума, а затем возьмите общий логарифм результата: log (S ÷ N). Есть еще один шаг: если ваши значения мощности сигнала являются единицами мощности (Вт), умножьте на 20; если они являются единицами напряжения, умножьте на 10. Для мощности SNR = 20 log (S ÷ N); для напряжения SNR = 10 log (S ÷ N). Результатом этого расчета является SNR в децибелах. Например, измеренное значение шума (N) составляет 1 микровольт, а сигнал (S) – 200 милливольт. SNR составляет 10 log (.2 ÷.000001) или 53 дБ.
Значение SNR
Числа отношения сигнал / шум все о силе полезного сигнала по сравнению с нежелательным шумом. Чем больше число, тем больше желаемый сигнал «выделяется» по сравнению с шумом, что означает более четкую передачу с лучшим техническим качеством. Отрицательное число означает, что шум сильнее, чем требуемый сигнал, что может вызвать проблемы, такие как разговор по мобильному телефону, который слишком искажен для понимания. Для передачи голоса хорошего качества, такой как сотовый сигнал, SNR составляет в среднем около 30 дБ или сигнал, который в 1000 раз сильнее шума. Некоторое аудиооборудование имеет SNR 90 дБ или лучше; в этом случае сигнал в 1 миллиард раз сильнее шума.
Отношение сигнал/шум
К счастью или несчастью, чаще всего случается так, что сигналы, которые нужно измерить, перемешаны с шумами или помехами настолько сильно, что их даже трудно увидеть на осциллографе. В тех случаях, когда шумы не создают проблем, обнаружение сигнала может быть затруднено его собственной статистической природой, например при наблюдении за распадом ядер в слабом источнике радиоактивности за минуту на счетчик поступает всего несколько импульсов. И наконец, в том случае, когда сигнал обнаруживается нормально, может возникнуть необходимость усилить его для того, чтобы выполнить более точные измерения.
Во всех перечисленных случаях необходимо принять меры для улучшения отношения сигнал/шум. Все дальнейшие приемы направлены на то, чтобы сузить ширину полосы пропускания при обнаружении и сохранить тем самым нужный сигнал, сократив одновременно общее количество принимаемых шумовых сигналов.