Faza: co to oznacza w dźwięku?

autor: Joost Nusselder | Zaktualizowano:  26 maja 2022 r.

Zawsze najnowszy sprzęt i triki gitarowe?

Zapisz się do newslettera dla początkujących gitarzystów

Będziemy używać Twojego adresu e-mail tylko w naszym biuletynie i szanować Twój prywatność

cześć, uwielbiam tworzyć darmowe treści pełne wskazówek dla moich czytelników. Nie akceptuję płatnego sponsoringu, moja opinia jest moja, ale jeśli uznasz moje rekomendacje za pomocne i kupisz coś, co lubisz przez jeden z moich linków, mogę zarobić prowizję bez dodatkowych kosztów. ZOBACZ WIĘCEJ

Zrozumienie fazy dźwięku jest niezbędne do miksowania i masteringu muzyki.

Faza dźwięku jest określana przez jego synchronizację w odniesieniu do innych dźwięków i wpływa na to, jak dźwięk jest odbierany, gdy słyszy się wiele dźwięków jednocześnie.

To wprowadzenie zawiera przegląd koncepcji fazy i tego, jak można ją wykorzystać w dźwięku do tworzenia różnych efektów.

Faza Co to oznacza w dźwięku(7rft)

Definicja fazy


W produkcji i nagrywaniu dźwięku faza to związek o różnym czasie, który istnieje między dźwiękami z różnych źródeł. Można go również użyć do opisania relacji między dwoma przebiegami w określonym momencie. Kiedy po raz pierwszy omawiamy fazę, zwykle myślimy o rozmieszczeniu mikrofonów i kwestiach fazowania; jednak można go również rozwiązać w dowolnym obszarze, w którym wiele źródeł dźwięku jest połączonych w tym samym środowisku, w tym nagrywanie wielościeżkowe i miksowanie na żywo w celu wykonania muzyki lub wzmocnienia dźwięku.

Zależności fazowe obejmują stopnie względnego taktowania, co oznacza, że ​​jeśli jedno źródło jest przesuwane w jedną stronę, a drugie w drugą, między nimi obowiązuje również dodatkowe przesunięcie kątowe w synchronizacji o 180 stopni. Powoduje to albo anulowanie (lub tłumienie) częstotliwości, albo efekt nadciśnienia („budowy”), w którym częstotliwości są wzmacniane. Aby określić, w jaki sposób dwa sygnały oddziałują na siebie pod kątem tego efektu, należy je przeanalizować na wykresie (a Pasmo przenoszenia krzywa). Ten rodzaj analizy pomaga określić, w jaki sposób łączą się dwa sygnały i czy łączą się one addytywnie (dodane do siebie), czy konstruktywnie (w fazie) — każdy wnosi swój własny unikalny poziom lub tworzy anulacje lub dodatkowe poziomy w zależności od ich względnego kąta względem siebie (out- bezfazowe). Termin „faza” jest również powszechnie używany przy omawianiu technik wielomikrofonowych, ponieważ opisuje, w jaki sposób mikrofony MIC wchodzą ze sobą w interakcję i wiąże się z technikami rozmieszczania mikrofonów, takimi jak konfiguracje X/Y

Rodzaje faz


Faza sygnału audio odnosi się do zależności czasowej między dwoma lub więcej sygnałami. Kiedy dwie fale dźwiękowe są w fazie, mają tę samą amplitudę, częstotliwość i czas trwania. Oznacza to, że szczyty i dołki każdej fali występują dokładnie w tym samym miejscu i czasie.

Faza może być opisana w stopniach, gdzie 360° reprezentuje jeden pełny cykl przebiegu. Na przykład o sygnale z fazą 180° mówi się, że jest „kompletny”, podczas gdy sygnał z fazą 90° byłby „w połowie przesunięty” w stosunku do pierwotnej postaci. Istnieją cztery główne typy zależności fazowych:
-W fazie: 180°; oba sygnały poruszają się w tym samym kierunku w tym samym czasie
-Połowa poza fazą: 90°; oba sygnały nadal poruszają się w tym samym kierunku w różnym czasie
-Poza fazą: 0°; jeden sygnał porusza się do przodu, podczas gdy inny cofa się dokładnie w tym samym czasie
-Kwartał Out-of-Phase: 45°; jeden sygnał przesuwa się do przodu, a drugi do tyłu, ale nieco niezsynchronizowany.

Zrozumienie, w jaki sposób te różne rodzaje pracy fazowej pomaga inżynierom tworzyć bardziej dopracowane miksy i nagrania, ponieważ mogą oni uwypuklić określone dźwięki, aby stworzyć interesujące efekty dźwiękowe lub poziomy równowagi w całym miksie.

Jak faza wpływa na dźwięk

Faza to koncepcja dźwięku, która może pomóc określić, w jaki sposób dźwięk jest słyszany. Może albo dodać klarowności i definicji, albo może stworzyć błoto i zamęt. Zrozumienie pojęcia fazy może pomóc w tworzeniu lepiej brzmiących miksów. Przyjrzyjmy się, jak faza wpływa na dźwięk i dlaczego jest ważna podczas produkcji dźwięku.

Anulowanie fazy


Anulowanie fazy występuje, gdy fale dźwiękowe oddziałują na siebie, powodując, że amplituda połączonego dźwięku zanika, aw niektórych przypadkach nawet całkowicie zanika. Występuje, gdy dwie (lub więcej) fale dźwiękowe o tej samej częstotliwości są przesunięte względem siebie w fazie, a ich amplitudy interferują w sposób ujemnie skorelowany.

Innymi słowy, jeśli jedna fala jest na swoim poziomie szczytowym, podczas gdy inna jest na najniższym poziomie, spowoduje to anulowanie, co spowoduje utratę głośności. Może to być spowodowane umieszczeniem dwóch lub więcej mikrofonów zbyt blisko siebie i wychwytywaniem podobnych dźwięków lub ustawieniem instrumentu w pomieszczeniu — na przykład gitara stojąca bezpośrednio obok wzmacniacza z obydwoma mikrofonami przetworniki włączone.

Dzieje się tak również wtedy, gdy dwa głośniki ustawione blisko siebie odtwarzają ten sam sygnał, ale jeden jest odwrócony (nie w fazie). Teoretycznie rzecz biorąc, powinien być nadal słyszalny, ponieważ nie wpłynie to na wszystkie częstotliwości, ale zmiany poziomu mogą utrudnić jego wykrycie. Jednak praktycznie rzecz biorąc, dodając razem wiele głośników, możesz doświadczyć pewnego stopnia anulowania w zależności od ich dokładnego rozmieszczenia – szczególnie, gdy są blisko siebie.

Efekt ten ma również znaczenie podczas nagrywania, gdzie może pomóc nam poprawić rozmieszczenie mikrofonów, pozwalając nam usłyszeć dokładnie, które dźwięki są tłumione, gdy występują pewne zależności – takie jak identyczne pozycje mikrofonu, które przechwytują to samo źródło dźwięku, ale pod różnymi kątami.

Przesunięcie fazowe


Gdy dwa lub więcej źródeł dźwięku zostanie połączonych (zmiksowanych), będą one w naturalny sposób oddziaływać na siebie, czasami wzmacniając, a innym razem konkurując z oryginalnym dźwiękiem. Zjawisko to znane jest jako przesunięcie fazowe lub anulowanie.

Przesunięcia fazowe występują, gdy jeden z sygnałów jest opóźniony w czasie, co skutkuje konstruktywną lub destrukcyjną interferencją. Konstruktywna interferencja występuje, gdy sygnały łączą się w celu wzmocnienia pewnych częstotliwości, co daje silniejszy ogólny sygnał. Natomiast destrukcyjna interferencja występuje, gdy dwa sygnały są przesunięte w fazie, powodując wzajemne znoszenie się pewnych częstotliwości, co skutkuje cichszym ogólnym dźwiękiem.

Aby uniknąć destrukcyjnych zakłóceń, ważne jest, aby być świadomym wszelkich możliwych przesunięć czasowych między źródłami dźwięku i odpowiednio je dostosować. Można to osiągnąć poprzez jednoczesne nagrywanie obu oddzielnych ścieżek audio, użycie miksera do przesłania kopii sygnału z jednego źródła bezpośrednio do innego źródła z minimalnym opóźnieniem lub wprowadzenie niewielkiego opóźnienia do jednej ścieżki, aż do uzyskania pożądanego rezultatu. .

Oprócz zapobiegania eliminowaniu częstotliwości, łączenie ścieżek audio pozwala również uzyskać kilka interesujących efektów, takich jak obrazowanie stereo poprzez przesuwanie jednej strony w lewo i w prawo, a także filtrowanie grzebieniowe, w którym dźwięki o wysokiej i niskiej częstotliwości emanują z różnych punktów otoczenia, a nie mieszają się ze sobą w całym pomieszczeniu lub przestrzeni do nagrywania. Eksperymentowanie z tymi subtelnymi szczegółami może stworzyć potężne i wciągające miksy, które wyróżniają się w każdym kontekście dźwiękowym!

Filtrowanie grzebieniowe


Filtrowanie grzebieniowe występuje, gdy dwie identyczne częstotliwości dźwięków są mieszane razem, przy czym jedna z nich jest nieco opóźniona. Daje to efekt, który obcina pewne częstotliwości i wzmacnia inne, w wyniku czego powstają wzory interferencji, które mogą być zarówno słyszalne, jak i wizualne. Patrząc na kształt fali, można zauważyć powtarzające się wzory, które wydają się mieć kształt grzebienia.

Gdy ten rodzaj efektu jest zastosowany do dźwięku, niektóre obszary brzmią matowo i bez życia, podczas gdy inne sekcje wydają się nadmiernie dźwięczne. Zakres częstotliwości każdego „grzebienia” będzie zależał od czasu opóźnienia między śledzeniem/miksowaniem sygnałów, a także ustawienia strojenia/częstotliwości podczas nagrywania/miksowania instrumentów.

Głównymi przyczynami filtrowania grzebieniowego są niewspółosiowość fazowa (gdy jeden zestaw dźwięków jest przesunięty w fazie względem innego) lub problemy akustyczne otoczenia, takie jak odbicia od ścian, sufitów lub podłóg. Może wpływać na każdy rodzaj sygnału audio (wokal, gitara lub perkusja), ale jest szczególnie zauważalny na ścieżkach wokalnych w studiach nagraniowych, gdzie problemy z fazą są powszechne z powodu braku dokładnych systemów monitorowania. Aby wyeliminować filtrowanie grzebieniowe, należy skorygować niedopasowanie fazowe lub inne efekty środowiskowe, stosując odpowiednie zabiegi/projekty akustyczne w przestrzeniach nagraniowych, a także sprawdzając wyrównanie fazowe na etapach miksowania odpowiednio na każdym poziomie ścieżki i poziomie głównym.

Jak używać fazy w nagraniu

Faza to ważna koncepcja, którą należy zrozumieć podczas nagrywania dźwięku. Opisuje związek między dwoma lub więcej sygnałami audio i ich wzajemne oddziaływanie. Jest to istotny element inżynierii dźwięku, ponieważ wpływa na dźwięk nagrania na wiele sposobów. Zrozumienie, jak używać fazy podczas nagrywania, może pomóc w stworzeniu bardziej profesjonalnego brzmienia miksu. Omówmy podstawy fazy i jej wpływ na proces nagrywania.

Korzystanie z przesunięcia fazowego


Przesunięcie fazowe to zmiana relacji czasowej między dwiema falami. Jest to przydatne narzędzie podczas miksowania i nagrywania dźwięków, ponieważ pozwala kontrolować poziom wyjściowy, balans częstotliwości i obrazowanie w produkcji audio. Dzięki przesunięciu fazowemu możesz także zmienić barwę tonalną dźwięku, zmieniając jego zawartość harmoniczną i wyjaśniając, dlaczego jest to niezbędne do uzyskania pożądanych nagrań.

Przesunięcie fazowe polega na rozciąganiu lub kompresowaniu różnych częstotliwości w różnych punktach fali dźwiękowej w celu uzyskania efektu filtra. Ten efekt filtra jest kontrolowany przez dostosowanie różnic czasowych między lewym i prawym kanałem pojedynczego sygnału. Opóźniając nieznacznie jeden z tych kanałów, możesz stworzyć wzór interferencji, który ma interesujący wpływ na pasmo przenoszenia i stereofonię dźwięku.

Na przykład, jeśli umieścisz monopad (część klawiatury) przed gitarą akustyczną i wyślesz je do oddzielnych kanałów interfejsu audio, naturalnie połączą się one ze sobą, ale będą całkowicie w fazie – co oznacza, że będą sumować się równomiernie, gdy będą słyszane razem w obu głośnikach lub słuchawkach. Jeśli jednak wprowadziłbyś ujemne przesunięcie fazowe o 180 stopni do jednego kanału (krótko opóźniając drugi kanał), fale te zniosłyby się nawzajem; można to wykorzystać jako kreatywne narzędzie do stworzenia kontrastu z dwoma rodzajami instrumentów, które potencjalnie zderzają się harmonicznie, gdy są nagrywane jednocześnie. Ponadto wszelkie częstotliwości, które mogą nie przechwytywać pożądanego dźwięku, można zredukować za pomocą tej techniki i/lub niepożądanego syku – o ile ostrożnie grasz z relacjami fazowymi.

Należy zauważyć, że praca z fazą wymaga bardzo delikatnej regulacji balansu, ponieważ nawet niewielkie niedopasowanie będzie miało głęboki wpływ na balans częstotliwości i obrazowanie nagrań – ale o ile jest wykonane prawidłowo, może również skutkować ulepszonymi tonami, których po prostu nigdy nie było. osiągalne wcześniej.

Korzystanie z anulowania fazy


Eliminacja fazy opisuje proces dodawania do siebie dwóch sygnałów, które mają dokładnie taką samą częstotliwość, amplitudę i kształt fali, ale mają przeciwną biegunowość. Kiedy sygnały tego rodzaju mieszają się ze sobą, mogą potencjalnie znosić się nawzajem, gdy ich amplitudy są równe. Nadaje się to całkiem nieźle do nagrywania, ponieważ może być używane do wyciszania i izolowania dźwięków w utworze, jednocześnie pozwalając instrumentom o podobnych właściwościach ładnie siedzieć w mieszance.

Możliwe jest również kreatywne wykorzystanie eliminacji fazy jako efektu na sygnale podczas nagrywania lub miksowania. Na przykład, jeśli połączysz dwa lub więcej mikrofonów na jednym źródle i przesuniesz jeden z nich poza środek, dostosowując względny poziom sygnału jednego mikrofonu, możesz stworzyć dynamiczne zmiany w dźwięku, eliminując określone częstotliwości z sygnałami o przeciwnej polaryzacji w określonych punktach podczas odtwarzania. Może to stworzyć efekt od szeroko brzmiącego miksu do ciasno wyśrodkowanego dźwięku, w zależności od tego, gdzie ustawisz mikrofony i ile polaryzacji wprowadzisz do ich łańcucha sygnałowego.

Zależności fazowe między instrumentami będą również odgrywać ważną rolę podczas sesji nagraniowych. Wyrównując ze sobą wszystkie ścieżki instrumentów pod względem fazy/biegunowości, zapewnia to, że gdy każdy element przechodzi swój indywidualny proces przekształcania (kompresja, EQ), nie powstaną żadne słyszalne artefakty powstałe z powodu nieoczekiwanego anulowania pomiędzy nagrane elementy podczas miksowania. Upewnienie się, że wszystkie ścieżki mają właściwe wyrównanie fazowe przed odbiciem ich w dół, jest niezbędne, jeśli szukasz czystych miksów z minimalnymi korektami EQ potrzebnymi później.

Korzystanie z filtrowania grzebieniowego


Jednym z podstawowych zastosowań fazy w nagrywaniu jest tzw. „filtrowanie grzebieniowe”, rodzaj czasowej interferencji, która może tworzyć głuchy rezonans między wieloma ścieżkami lub sygnałami z mikrofonu.

Efekt ten występuje, gdy ten sam dźwięk jest nagrywany przy użyciu dwóch lub więcej mikrofonów lub ścieżek sygnałowych. Opóźniona wersja ścieżki będzie przesunięta w fazie w stosunku do ścieżki oryginalnej, co po połączeniu tych dwóch ścieżek spowoduje zakłócenia anulujące (inaczej „fazowanie”). Ta interferencja powoduje, że niektóre częstotliwości wydają się głośniejsze niż inne, tworząc unikalny styl korekcji częstotliwości i zabarwienia sygnału.

Używanie filtrowania grzebieniowego do celowego kolorowania sygnałów audio jest powszechną praktyką w studiach nagraniowych. Jest często używany, gdy inżynier musi dodać wyraźne brzmienie do instrumentu, partii wokalnej lub elementu miksu, takiego jak pogłos poprzez „koloryzację”. Osiągnięcie tego charakterystycznego brzmienia wymaga starannej manipulacji mikrofonem i balansem sygnału wraz z opóźnieniami przeplatanymi z surowymi suchymi sygnałami przeciwstawiającymi się tradycyjnym technikom korekcji opartym na statycznym podbijaniu/obcinaniu częstotliwości na poszczególnych ścieżkach/kanałach.

Chociaż wymaga to przemyślanego podejmowania decyzji i umiejętnego wykonania, ten rodzaj korekcji może pomóc ożywić i nadać dźwiękowi charakter, którego tradycyjny korektor często nie jest w stanie zapewnić. Dzięki lepszemu zrozumieniu, jak działa faza, będziesz na dobrej drodze do zostania ekspertem w dziedzinie „koloryzacji”!

Wnioski


Faza odgrywa ważną rolę w inżynierii dźwięku i produkcji. Od dopasowania synchronizacji jednej ścieżki, aby idealnie pasowała do innej, po upewnienie się, że wokale i gitary wyróżniają się w miksie, zrozumienie, jak efektywnie z nich korzystać, może dodać niesamowitą przejrzystość, szerokość i teksturę do twoich miksów.

Podsumowując, faza dotyczy czasu i interakcji dźwięku z innymi dźwiękami, jeśli ich punkty początkowe są oddalone od siebie o mniej niż milisekundę. Nie zawsze jest to tak proste, jak dodanie opóźnienia lub pogłosu; czasami korzystne jest dostosowanie taktowania różnych utworów, a nie tylko ich tonu lub poziomów. Oznacza to uwzględnienie również tego, co dzieje się między głośnikami! Gdy zrozumiesz, jak działa faza i podejmiesz dodatkowy wysiłek, aby to zrobić dobrze, Twoje utwory zaczną brzmieć świetnie w mgnieniu oka.

Jestem Joost Nusselder, założyciel Neaera i content marketer, tata i uwielbiam wypróbowywać nowy sprzęt z gitarą w sercu mojej pasji, a wraz z moim zespołem tworzę szczegółowe artykuły na blogu od 2020 roku aby pomóc lojalnym czytelnikom z poradami dotyczącymi nagrań i gitar.

Sprawdź mnie na Youtube gdzie wypróbowuję cały ten sprzęt:

Wzmocnienie mikrofonu a głośność Zapisz się!