1 / 33

Dźwięk i jego przetwarzanie

Dźwięk i jego przetwarzanie. Opracował Michał Dugiełło. Pojęcie dźwięku.

lilika
Download Presentation

Dźwięk i jego przetwarzanie

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Dźwięk i jego przetwarzanie Opracował Michał Dugiełło

  2. Pojęcie dźwięku Dźwięk – wrażenie słuchowe spowodowane falą akustyczną rozchodzącą się w ośrodku sprężystym (ciele stałym, płynie, gazie). Częstotliwości fal, które są słyszalne dla człowieka, zawarte są w paśmie między wartościami granicznymi od ok. 16 Hz do ok. 20 kHz.

  3. Prędkość rozchodzenia się dźwięku dla różnych ośrodków: • Powietrze - 340 m/s • Rtęć - 1500 m/s • Woda - 1500 m/s • Lód - 3300 m/s • Beton - 3800 m/s • Stal - 5100 m/s - 6000 m/s • Szkło - 6000 m/s

  4. Przebieg transmisji dźwięku NOŚNIK MIKROFON REJESTRATOR DŹWIĘKU URZĄDZENIE ODTWARZAJĄCE GŁOŚNIK

  5. Cechy dźwięku Do podstawowych cech dźwięku możemy zaliczyć: • wysokość dźwięku • głośność dźwięku • czas trwania dźwięku • barwa dźwięku Cechy te związane są ściśle z odpowiednimi parametrami fali akustycznej.

  6. Prędkość dźwięku Prędkość dźwięku w określonym ośrodku jest prędkością rozchodzenia się w nim zaburzenia mechanicznego. Prędkość dźwięku w substancjach zależy od prędkości przekazywania kolejnym cząsteczkom tej substancji prędkości cząsteczek zwiększonej ciśnieniem dźwięku. Dla małych natężeń dźwięku ta dodatkowa prędkość jest znacznie mniejsza od prędkości ruchu cieplnego cząsteczek, dlatego prędkość dźwięku nie zależy od jego natężenia.

  7. Wysokość dźwięku Ciała drgające wykonują więcej lub mniej drgań na sekundę, zależnie od rodzaju materiału i od wymiarów fizycznych. Przykładowo struna krótka i cienka wykonuje tysiące drgań na sekundę i wydaje dźwięk wysoki. Natomiast struna gruba i długa wykazuje kilkadziesiąt drgań na sekundę, wydając dźwięk niski. A więc wysokość dźwięku zależna jest od ilości drgań na sekundę: im większa częstotliwość drgań, tym wyższy jest dźwięk i przeciwnie - im mniejsza częstotliwość drgań, tym dźwięk jest niższy.

  8. Drgania z przedziału 16-300Hz określa się jako niskie. 300-20kHz określa się jako wysokie. Ludzkie ucho najbardziej reaguje na dźwięku z zakresu 300-3000Hz. Interwał – relacja między dźwiękami: interwał harmoniczny – dwóch współbrzmiących, interwał melodyczny – następujących po sobie. Oktawa – podstawowy interwał dający wrażenie tego samego, lecz wyższego dźwięku. Półton – 1/12 oktawy; jest to podstawowa miara odległości muzycznej.

  9. Głośność dźwięku Głośność – cecha wrażenia słuchowego, która umożliwia odróżnianie dźwięków cichszych i głośniejszych. Jest pojęciem psychoakustycznym i nie może być utożsamiana z parametrami fizycznymi, chociaż od nich zależy, np. od ciśnienia, struktury widmowej, czasu trwania.

  10. Przy stałym natężeniu dźwięki niskie i wysokie wydają się cichsze niż średnie, ponieważ ucho jest wrażliwsze na dźwięki średnie. Wrażenie jednakowej głośności przedstawiają krzywe izofoniczne (kolejny slajd). Fon - jednostka poziomu głośności dźwięku. Poziom głośności dowolnego dźwięku w fonach jest liczbowo równy poziomowi natężenia (wyrażonego w decybelach) tonu o częstotliwości 1 kHz, którego głośność jest równa głośności tego dźwięku.

  11. Czas trwania dźwięku Czas trwania dźwięku zależy od czasu, w jakim drga ciało; z chwilą, gdy ciało przestaje drgać, gdy drgania zanikają, zanika również i dźwięk. Czas trwania dźwięku przedłuża się pozornie, gdy dźwięk zostaje zagrany w dużym pomieszczeniu o ścianach odbijających falę dźwiękową, np. w kościele. Fala dźwiękowa odbija się wówczas od ścian, tworząc zjawisko pogłosu.

  12. Barwa dźwięku Barwa dźwięku – cecha dźwięku, która pozwala odróżnić brzmienia różnych instrumentów lub głosu. Uzależniona jest od ilości, rodzaju i natężenia tonów składowych. Barwa danego instrumentu może zmieniać się nieznacznie w zależności od: • sposobu wzbudzania drgań (pociągnięcie smyczkiem, szarpnięcie lub uderzenie), • siły wzbudzenia (zatem i głośności dźwięku), • częstotliwości (różne struny mogą wydawać dźwięki nieco różniące się barwą).

  13. Częstotliwość dźwięku Częstotliwość jest to liczba powtórzeń zmiany ciśnienia środowiska w jednostce czasu. Ruch falowy można najprościej zobrazować za pomocą sinusoidy. Okres – czas jednej, pełnej zmiany (cyklu)

  14. Natężenie dźwięku Energia dźwięku rozprzestrzenia się wraz z falą akustyczną powodując chwilowe wzrosty i spadki ciśnienia atmosferycznego. Różnice te są zwane ciśnieniem akustycznym, a mierzone są w Pascalach. Dla lepszej prezentacji wprowadzono również specjalną jednostkę – decybel. Poniższa tabelka przedstawia wartości ciśnienia akustycznego dla wybranych dźwięków:

  15. Widmo dźwięku Widmo akustyczne (widmo dźwięku) – rozkład natężenia składowych dźwięku w zależności od częstotliwości tych składowych. Widmo jest jednak znacznym, choć wygodnym uproszczeniem. W rzeczywistości - przy naturalnym, złożonym dźwięku - obejmuje raczej całe zakresy częstotliwości z wyraźnie uwypuklonymi pasmami.

  16. Inną formą graficznej reprezentacji jest tzw. spektrogram, czyli widmo przedstawione w układzie współrzędnych: częstotliwość-czas. Każdy odcień szarości odpowiada tu innej wartości amplitudy. Najcelniejszym obrazem dźwięku, w pełni uwzględniającym jego istotę, a więc zmienność amplitudy i częstotliwości w czasie, jest widmo trójwymiarowe.

  17. Składowe harmoniczne • Sygnał analogowy, a także każdy sygnał cyfrowy, jest paczką fal sinusoidalnych o różnych częstotliwościach nazywanych składowymi harmonicznymi. Bezbłędna transmisja sygnału analogowego polega na przesłaniu na odległość wszystkich jego składowych, bez zmiany proporcji ich amplitud i z jednakowym opóźnieniem. • Nie jest to jednak wykonalne, ponieważ przeszkadzają temu zarówno tłumienie jak i opóźnienia sygnału w fizycznie realizowalnych torach transmisyjnych. • Przesyłany torem przewodowym sygnał ulega zatem zniekształceniom tłumieniowym, które mogą być eliminowane za pomocą kosztownych układów korekcji.

  18. Zniekształcenia Zniekształcenie jest każdym odstępstwem dźwięku od jego oryginalnego brzmienia. Urządzenia elektroniczne, ale również ucho, mogą zmienić dźwięk, pozbawiając go niektórych elementów lub wzbogacając o nowe, wcześniej w nim nieobecne. Z tego względu zniekształcenia te można podzielić na: • linearne (liniowe), ograniczające pasmo lub powodujące podbicie albo osłabienie pewnych zakresów częstotliwości składowych; • nielinearne (nieliniowe), dodające nowe przytony, których rezultatem może być charakterystyczne "chrypienie" dźwięku; • fazowe, powodowane różnicami czasowymi w przenoszeniu różnych częstotliwości i zmieniające wrażenie naturalności; • zniekształcenia dynamiki, zmniejszające różnicę między najgłośniejszymi a najcichszymi dźwiękami.

  19. Za różnego rodzaju zniekształcenia odpowiedzialne są niedoskonałe komponenty urządzeń. Pojawienie się ich może być obecne na każdym etapie wędrówki dźwięku. • Im wyższa klasa zastosowanych urządzeń, tym mniejsze zakłócenia i zniekształcenia dźwięku.

  20. Zniekształcenia linearne Zniekształcenia linearne powstają wówczas, gdy na drodze sygnału fonicznego poszczególne jego składowe są niejednakowo tłumione i niejednakowo opóźniane. W wyniku tych zniekształceń charakterystyka przenoszenia danych urządzeń nie jest liniowa w całym paśmie częstotliwości. Zniekształcenia linearne odczuwane są jako zmiana brzmienia i barwy dźwięku. Dla urządzeń powszechnego użytku przyjmuje się pasmo częstotliwości od 100 Hz do 5500 Hz.

  21. Zniekształcenia nielinearne Zniekształcenia nielinearne powstają w układach z elementami nieliniowymi (lampy, tranzystory, transformatory, cewki z rdzeniami itp.). Zniekształcenia te polegają na wprowadzeniu do dźwięku dodatkowych tonów harmonicznych. Są one odczuwane jako chrypienia. Miarą zniekształceń nieliniowych jest współczynnik zawartości harmonicznych wyrażony w procentach.

  22. Przyjmuje się następujące dopuszczalne wartości współczynnika zawartości harmonicznych urządzeń elektroakustycznych przy ich pełnym wysterowaniu: • do 0,3% ­ dla urządzeń profesjonalnych, takich jak: mikrofony, wzmacniacze napięciowe itp., • do 3% ­ dla urządzeń profesjonalnych, takich jak: głośniki, wzmacniacze mocy, magnetofony i gramofony, • do 5% ­ dla urządzeń elektroakustycznych powszechnego użytku.

  23. Zniekształcenia fazowe Powodowane przez różne zwykle dla każdej częstotliwości opóźnienia, zniekształcenia fazowe objawiają się zmianą kształtu, a więc i brzmienia zniekształcanego dźwięku. Z reguły wyższe częstotliwości są opóźniane bardziej niż niższe. Jeśli dla grupy sygnałów o różnych częstotliwościach ich opóźnienie odniesione do czasu przejścia tonu 1000 Hz zmieści się w granicach od l do 8 milisekund, ucho tego nie zauważy. Po przekroczeniu tych wartości dźwięk ulegnie degradacji, tracąc swą naturalność.

  24. Inne zniekształcenia Zniekształcenia dynamiki - zmniejszają różnicę pomiędzy najgłośniejszymi a najcichszymi dźwiękami. Zniekształcenia tłumieniowe - Przesyłany torem przewodowym sygnał ulega zniekształceniom tłumieniowym, które mogą być eliminowane za pomocą kosztownych układów korekcji. Przydźwięk sieciowy - niskie buczenie, źródłem przydźwięku najczęściej są zmienne napięcia w obwodach zasilających wzmacniacza

  25. Zniekształcenia odbiciowe • Fala jednokrotnie odbita ma kierunek ruchu przeciwny do fali docelowej i nazywana jest echem pierwotnym. Fala dwukrotnie odbita porusza się w kierunku zgodnym z falą docelową, lecz z opóźnieniem w stosunku do niej, i nazywana jest echem wtórnym. • Echo wtórne dociera do odbiornika z opóźnieniem i zakłóca sygnały użyteczne wysłane przez źródło po upływie czasu tego opóźnienia, powodując ich zniekształcenia odbiciowe.

  26. Szumy • Biały - energia rozłożona równomiernie, intensywność szumu białego teoretycznie jest statystycznie równomierna w całym paśmie – od zera do nieskończoności, ale w praktyce przyjmuje się do rozważań tylko pewne zakresy częstotliwości (w akustyce jest to zazwyczaj pasmo słyszalne (od kilkunastu Hz do 20kHz • Różowy - energia skupiona w niskich częstotliwościach • Brązowy - energia takiego szumu skupiona jest w zakresie małych częstotliwości w stopniu jeszcze większym, niż to się dzieje w szumie różowym • Niebieski - energia skupiona w wysokich częstotliwościach

  27. Cyfrowe przetwarzanie dźwięku Dziedzina cyfrowego przetwarzania sygnałów zajmująca się przetwarzaniem sygnałów fonicznych w postaci cyfrowej. Obejmuje w szczególności: • poprawę jakości sygnału (usuwanie zakłóceń oraz zniekształceń, czyli zastosowanie filtrów), • zmianę reprezentacji sygnału (np. konwersję częstotliwości próbkowania, zmianę rozdzielczości bitowej), • dostosowywanie parametrów sygnału do określonych zastosowań (korekcję barwy dźwięku, normalizację, kompresję dynamiki), • wytwarzanie efektów specjalnych (np. pogłos), • kompresję danych.

  28. Cyfrowe przetwarzanie dźwięku rozwinęło się od lat 70., gdzie ze względu na ograniczoną moc maszyn cyfrowych konieczne było przetwarzanie wsadowe danych cyfrowych reprezentujących dźwięk, zapisywanych na nośnikach magnetycznych i mechanicznych. Obecnie cyfrowe przetwarzanie dźwięku może odbywać się zarówno wsadowo jak i w czasie rzeczywistym, za pomocą dedykowanych urządzeń (procesorów sygnału) jak i specjalistycznego oprogramowania uruchamianego na mikrokomputerach ogólnego przeznaczenia.

  29. Urządzenia Urządzenia wykorzystywane do cyfrowego przetwarzania dźwięku: • uniwersalne (programowalne) procesory sygnałowe • procesory sygnałowe dedykowane do określonej funkcji Urządzenia do zapisu i archiwizacji sygnału: • magnetofony DAT • magnetofony wielośladowe • rejestratory dyskowe • rejestratory z pamięcią Flash • nośniki optyczne CD, CD-R/RW, DVD-R/RW oraz SACD

  30. Procesor sygnałowy Procesor sygnałowy (DSP z ang. Digital SignalProcessor, procesor DSP) oznacza klasę specjalizowanych procesorów do cyfrowej obróbki sygnałów. Charakteryzują się rozdzielonymi pamięciami programu i danych (architektura harwardzka), możliwością równoczesnego odczytu instrukcji i danych, sprzętowym dostosowaniem do wykonywania operacji najczęściej występujących przy przetwarzaniu sygnałów i potokowym przetwarzaniem instrukcji.

  31. Dziękuję za uwagę!

More Related