sobota, 5 listopada 2016

Ile razy trzeba złamać prawa fizyki, żeby winyl zagrał lepiej niż CD

Ile razy trzeba złamać prawa fizyki, żeby winyl zagrał lepiej niż CD? W zależności od tego jak szczegółowo podchodzi się do tematu może się okazać, że nawet kilkanaście razy. Jednak zwolennikom płyt winylowych prawa fizyki nie przeszkadzają. Im nie przeszkadza nawet zniekształcony dźwięk. Oni to wszystko po prostu ignorują.

W reklamach można często przeczytać, że jakieś urządzenie jest dobre, bo ma najkrótszą możliwą ścieżkę sygnału. W innych reklamach czytamy, że akurat ten plik jest najlepszym możliwym, bo jest dokładnie tym plikiem, który powstał w studio nagraniowym, nie był w żaden sposób konwertowany ani modyfikowany.

Z winylami jest na odwrót. Łańcuch urządzeń, które muszą być włączone w ścieżkę sygnałową jest długi, natomiast przekształcanie i konwersja sygnału jest zaletą. I zamiast odtworzyć plik wzięty bezpośrednio ze studia nagraniowego, przepuszcza się go przez tasiemcowo długi ciąg urządzeń, przekształcając sygnał za każdym razem z jednej formy w inną.

Każde kolejne przekształcenie i każde urządzenie dodaje swoją porcję zniekształceń, szumów itp. i to ma sprawiać, że dźwięk z winyla jest "lepszy".

Jest pewien typ zniekształceń zawartych na płycie analogowej o których mało kto wie. Osoby, które mają płyty winylowe w tym momencie powinny zdjąć z półki dowolną płytę długogrającą i przyjrzeć się zapisowi, najlepiej pod lupą.

Jeśli płyta długogrająca, którą oglądasz zawiera muzykę rozrywkową, albo realizowaną na instrumentach elektronicznych, ale chodzi tylko o instrumenty perkusyjne i bas, można zaobserwować bardzo ciekawe zjawisko.

Na płycie widać bardzo regularne układanie się zapisu w charakterystyczne wzory. Schematycznie sytuacja wygląda jak na rysunku:

Rowki na płycie wpasowujące się w siebie można naciąć znacznie gęściej niż takie, które do siebie nie pasują. Jednak przesunięcie w czasie o ułamek sekundy spowoduje, że niepasujące układy kształtu rowków zamienią się w takie, które świetnie się zgadzają..


Charakterystyczne dla płyt długogrających jest, że często można zauważyć zaskakującą zgodność w układaniu się sąsiednich rowków. Jeśli wystąpi silne wychylenie w którąś stronę, to sąsiadujący rowek wpasowuje się w to wychylenie na zasadzie pokazanej w przykładzie A) natomiast rzadko widać sytuację taką jak w B).

Dlaczego tak się dzieje. Płytę można naciąć na 2 sposoby. Można stosować stałe albo zmienne przesunięcia na obrót płyty. Kiedy głowica nacinająca przesuwa się ze stałą prędkością do środka płyty, występuje "marnowanie miejsca" dlatego, że bez względu na amplitudę sygnału skok będzie taki sam. Wobec tego nacinając bardzo ciche fragmenty zużywa się tyle samo miejsca, co i najgłośniejsze.

Jeśli prędkość głowicy będzie zmienna i skok będzie mały dla cichych fragmentów, a większy dla głośniejszych, wtedy na stronie uda się zmieścić więcej muzyki, przykładowo 20 zamiast 10 minut. Ale "oszczędności" miejsca mogą być jeszcze większe.

Jeśli będzie się zmieniać nie tylko szybkość poruszania się głowicy nacinającej czyli ruch po promieniu w kierunku środka, ale również moment, kiedy wystąpią duże wychylenia, gęstość zapisu jeszcze bardziej wzrośnie.

Nacinając "tak jak jest" do sytuacji A) będzie dochodzić tak samo często jak do sytuacji B). Jeśli jednak przyspieszy się, albo opóźni, sygnał sterujący, tzn. dźwięk, a wystarczy zmiana o ułamek sekundy, to do dojdzie do sytuacji A) natomiast B) nie wystąpi. Wystarczy bowiem przesunąć w czasie dolny rowek z przykładu B) i już mamy "oszczędniejszy" czyli bardziej upakowany zapis i sytuację z rysunku A).

I faktycznie do takich przesunięć sygnału w czasie dochodzi w przypadku płyt długogrających nacinanych z użyciem techniki przewidującej kształt i miejsce rowków nawet kilka razy na obrót płyty.

Od strony praktycznej nacinanie z przewidywaniem ścieżki odbywa się w ten sposób, że trzeba śledzić sygnał z wyprzedzeniem dokładnie takim, jaki wynika z prędkości obrotowej płyty. W czasach czysto analogowych odbywało się to w ten sposób, że magnetofon odtwarzający taśmę matkę miał dwie głowice odczytujące i specjalnie ukształtowany tor taśmy, aby druga głowica trafiła dokładnie w to samo miejsce w czasie co głowica nacinająca po tym, kiedy płyta wykona pełen obrót. Takie magnetofony mają dodatkowe rolki, które pozwalają wydłużyć lub skrócić pętlę taśmy w zależności od prędkości nacinanej płyty. Przewidywanie wychylenia i układu rowków może być stosowane także do płyt 45 obrotów/minutę.

Jeśli więc ktoś będzie się upierał, że LP ma lepszy "timing" wtedy wyjaśnijcie mu, że niestety nie dotyczy to większości płyt, gdyż zapis na nich nieustannie zwalnia i przyspiesza. A wszystko po to, żeby nagrać dłuższy utwór na jednej stronie i żeby dźwięk był trochę głośniejszy.

Warto dodać, że ludzie najzapalczywiej dyskutujący o płytach winylowych przeważnie nie mają ich, anie też gramofonów, więc też nie mogą się przekonać doświadczalnie o czym mówią. Dla tych osób mam nagranie z płyty winylowej. To jest fragment piosenki, ale za to jest cały rowek początkowy i końcówka. W tych właśnie fragmentach, kiedy muzyka nie zagłusza zakłóceń zawartych na płycie najlepiej słuchać "lepszą jakość" płyt winylowych. Fragment dźwięku zngranego z winyla. Jeśli ktoś się przymierza na skompletowanie zestawu do odtwarzania płyt winylowych powinien mieć świadomość tego, że bez względu na ilość pieniędzy, którą wyda, te wszystkie brudy i zakłócenia będą mu towarzyszyć zawsze podczas słuchania, ponieważ one na płytach po prostu są. Ale może o to, żeby te zakłócenia słyszeć idzie gra? Może, ale skoro tak, to ja tego nie jestem w stanie zrozumieć.

piątek, 28 października 2016

Zniekształcenia fazowe

Grafika poniżej ilustruje przesunięcie fazy dwu sinusoid.


Do określenia przesunięcia faz używa się miary kątowej. 

Zniekształcenia fazy są w obszarze sprzętu odtwarzającego dźwięk powodem dużego zamieszania. Dotyczy to rzekomej wrażliwości słuchu na takie zniekształcenia. Nawet istnieje firma produkująca sprzęt, który ma charakteryzować minimalne zaburzenia fazy przetwarzanego sygnału.

Niewrażliwość słuchu na przesunięcie czy zniekształcenie fazy można sprawdzić w prosty sposób używając programowego jej przesuwania. Czyli wystarczy włączyć program, który wprowadzi w kontrolowany sposób przesunięcia fazy do sygnału i można stwierdzić, że się tego nie daje usłyszeć.

Nie może być inaczej niż właśnie tak, że słuch jest zupełnie głuchy na przesunięcia fazy sygnału.


Powyższy schemat pokazuje co się stanie, jeśli doda się dwie sinusoidy, które są względem siebie przesunięte w fazie. W przykładzie są dwie składowe o identycznej częstotliwości, z których druga jest przesunięta względem pierwszej. Po zsumowaniu otrzymuje się sinusoidę o większej amplitudzie i innej fazie niż dwie składowe.

Jest to jedna z wielu opcji. W ogólności może dojść do trzech rodzajów zdarzeń. Jeśli sinusoidy są zgodne w fazie będą się dodawały bez przesunięcia fazy lub znosiły do zera, jeśli będą mieć odwrotną polaryzację. Trzeci przypadek gdy składowe są przesunięte zawsze dojdzie do przesunięcia fazy w sygnale sumy.

W praktyce oznacza to, że słuchając muzyki w pomieszczeniu dochodzi do nieustannej zmiany fazy w słyszanym dźwięku. Nie chodzi tu nawet o to, że źródłem dźwięku jest sprzęt audio. Nawet dźwięk mowy lub instrumentu na żywo będzie słyszany z permanentnymi zniekształceniami fazowymi.

W pomieszczeniach mamy do czynienia z odbiciami. Wobec tego jeśli odbicie nakłada się na dźwięk bezpośredni, dochodzi do zmiany fazy sumy. Jak już zostało powiedziane nie dojdzie do przesunięcia tylko wtedy, kiedy składowe są zgodne w fazie, czyli w znikomym odsetku przypadków. W związku z tym jeśli weźmiemy odbicia zawierające się w przedziale czasu określonym przez RT60, czyli tych odbić może być kilkaset, przesunięcie fazy słyszanego dźwięku, np. pojedynczej nuty, będzie mieć miejsce właśnie kilkaset razy w czasie jej trwania.

Można powiedzieć, że do zniekształceń fazy nie dojdzie tylko wtedy, gdy występuje dźwięk bezpośredni, a więc w początkowym ułamku sekundy. Wobec tego dociera do nas niezniekształcony dźwięk bezpośredni. Niestety tak nie jest.

Gdyby muzyka składała się z pojedynczych dźwięków, przy czym każdy następny byłby zagrany dopiero wtedy, gdy wybrzmi poprzedni i na dodatek mógłby grać tylko jeden instrument i tylko pojedynczą nutę, nigdy akord, a wokalista mógłby śpiewać tylko wtedy, gdy nie gra żaden instrument, można by mówić o niezniekształconym dźwięku bezpośrednim. Skoro jednak muzyka to dźwięki grane akordami przez wiele instrumentów równocześnie nigdy nie będzie w praktyce takiej sytuacji, że jakiś dźwięk dotrze do słuchacza w postaci czystej. Zawsze będzie się nakładał na inne dźwięki, które istnieją w otoczeniu. A skoro tak, zawsze dojdzie do przesunięcia fazy.

Przesunięcie fazy zachodzi wtedy, kiedy nakładają się na siebie dwie lub więcej fal o jednakowej częstotliwości. Jeśli częstotliwości są inne zsumowanie sygnału nie spowoduje przesunięcia faz składowych i suma będzie miała fazę niezmienioną. Ponadto w momencie nałożenia się fal o różnych fazach dochodzi do miany częstotliwości, jednak tylko w jednym cyklu, czyli częstotliwość na jeden okres się zwiększy lub zmniejszy.

Skoro do przesunięcia fazy dochodzi nawet kilkaset razy w czasie trwania dźwięku, w sensie poszczególnej nuty, a ponadto za każdym razem zmienia się na jeden cykl częstotliwość, to te zmiany nie mogą być słyszane, bo wprowadziłyby ogromne zmieszanie. Zupełnie jak to, że nie możemy być wrażliwi na fluktuacje amplitudy. A zamiana amplitudy jest najważniejszym aspektem nakładania się na siebie fal o różnej fazie. Zmiana amplitudy jest zjawiskiem najprostszym do zmierzenia. Zmiana częstotliwości i zmiana fazy jest trudniejsza do pomiaru, ale jak najbardziej możliwa.

Zmiany fazy a także częstotliwości i zwłaszcza głośności są możliwe do wykazania w pomiarze, ale raczej tylko dla sygnałów testowych, czyli sinusoid. W sygnale kompleksowym a zwłaszcza muzycznym pomiar będzie trudny albo nawet niemożliwy. Natomiast usłyszenie tych zmian czy nawet sama chęć ich usłyszenia nie ma sensu.

piątek, 2 września 2016

200 wat dla monitora czyli dopasowanie mocy wzmacniacza do kolumn po raz ostatni

Każda opinia, nawet bezsensowna, ma jakieś swoje źródło. Także obiegowy pogląd, że monitory wymagają silniejszych wzmacniaczy niż kolumny podłogowe.



Zdjęcie pokazuje profil zapotrzebowania na moc wzmacniacza dla kolumny Infinity Alpha 10.

Według czasopisma, które tabelkę opublikowało do tych małych kolumn potrzeba wzmacniacza, który ma co najmniej 200W na 4 ohmy. Co najmniej 200, czarno na białym, "ab 200W" jest napisane wyraźnie. Skoro wzmacniacz ma mieć co najmniej 200W, wobec tego dla spokojności trzeba sobie kupić taki, który ma 250W, oczywiście na kanał.


Kilka stron dalej ta sama gazeta testuje monobloki. Nie są to te ogromne monstra, które trzeba nosić we czterech, ale mimo wszystko sprzęt jest dużego kalibru. Testowane są cztery typy urządzeń. Moce urządzeń, oczywiście wszystko dla obciążenia 4 ohm wynoszą: 227W, 176W, 192W oraz 146W. Jak widać, według kryteriów dotyczących testowania kolumn, ciężka artyleria w postaci monofonicznych wzmacniaczy mocy albo ledwo wystarczy, albo - w trzech przypadkach na cztery - ma moc niewystarczającą.

W danych dla tych głośników podaje się jednak, że można je obciążać mocą do 80W. Większość małych głośników w ogóle nie jest w stanie przyjąć dużych mocy. Można znaleźć monitory trochę większe i bardziej wytrzymałe, jednak małe kolumny z małym głośnikiem z małą cewką nie są w stanie sobie poradzić z dużymi mocami. Większość prądu przecież zamienia się w ciepło i malutka cewka z naprawdę cieniutkim drutem nie ma szans z mocami rzędu 200W. Uzwojenie cewki małego głośnika to nie żarówka dwusetka. Drut niby taki sam na grubość, ale jednak w żarówce jest wolframowy i bańka z gazem powoduje, że nie odparuje, choć się mocno nagrzeje. Drut miedziany nie wolfram, a kolumna nie żarówka.

Jeśli ktoś chciałby zagrać głośno na małych monitorach, to może być pewny, że jeszcze będzie trochę brakowało do 100W a już cewka zacznie tłuc w magnes, co niechybnie świadczy o tym, że głośnik wkrótce dokona żywota.

Skąd wzięły się te absurdy?

Gazeta przyjęła, że moc którą podaje jako potrzebną do wysterowania kolumn będzie taką, która pozwoli osiągnąć "głośność oryginału". Nie wiadomo dokładnie jaka jest ta głośność oryginału, ale prawdopodobnie coś w okolicach 96 dB. Problem w tym, że większość monitorów nie jest przystosowana do pracy z takimi poziomami. Są takie, które w ogóle nie są w stanie osiągnąć takich głośności, a większość tych, które potrafią robią to przy dużych zniekształceniach.

Monitory często nie są w stanie sprostać wymaganiom "głośności oryginału", Mają za małą powierzchnię membran, za małe cewki, za małe skrzynki itd. Często uda się dopchać monitory do tej abstrakcyjnej "głośności oryginału" ale zawsze wiąże się to z przesterowaniem, kompresją i przeciążeniem. Dla wielu typów monitorów praca przez dłuższą chwilę z mocą podawaną jako minimalna moc wzmacniacza skończy się ich zniszczeniem.

Przykładowo nawet bardzo dobre monitory, zdecydowanie high-end, uznawane za jedne z najlepszych w swojej klasie, potrafią co najwyżej 91 dB, oczywiście przy niskich zniekształceniach i braku kompresji.

Gazeta, która publikowała te oderwane od realiów dane dotyczące zapotrzebowania na moc już od dawna tego nie robi. No ale co się stało, to się nie odstanie. I nikt nie cofnie już tego nonsensu, że te Alphy 10 potrzebują wzmacniacza 200W. Tych testów jest zresztą więcej i praktycznie za każdym razem można znaleźć kosmiczne zalecenia co do mocy wzmacniaczy w odniesieniu do monitorów.

O absurdalności takich zaleceń najlepiej wiedzą posiadacze małych monitorów. Próba grania z dużymi mocami nie ma sensu, bo już przy dość umiarkowanych takie głośniki mocno zniekształcają. Jeśli ktoś nie wierzy, niech zabierze swoje monitory do kogoś, kto ma wzmacniacz dużej mocy wyposażony we wskaźniki. Kilka minut z mocą podawaną jako minimalna moc wzmacniacza będą ostatnimi w życiu tych głośników.

Skąd brały się te bezsensowne zalecenia mocy minimalnej. Stąd, że przyjęto oderwane od realiów założenie głośności oryginału. Założenie jest od czapy, bo jest bardzo dużo głośników, które temu wymaganiu nie sprosta. Z drugiej strony efektywność monitorów jest przeważnie mniejsza niż kolumn większych - podłogowych. Stąd, o ile głośnik w ogóle jest w stanie tak głośno zagrać, moc potrzebna do osiągnięcia "głośności oryginału" dla monitorów jest większa niż dla dużych zestawów.

Niższa efektywność kolumny nie oznacza, że potrzebuje ona do pracy silniejszego wzmacniacza. W normalnej praktyce słucha się z mocami poniżej jednego wata. Słuchanie z mocą 1 W jest często nieprzyjemne, bo ponad 80dB w domowych warunkach jest już ponad zwyczajną głośność. Natomiast moce rzędu 10 czy 20 W oznaczają, że trzęsie się cały dom, sąsiedzi dzwonią na pały, że zakłóca się porządek i ciszę, a uszy tracą swoje właściwości słyszenia. Znaczy głuchną.

sobota, 27 sierpnia 2016

Burn-in kabli

Wygrzewanie kabli jest jednym z tematów, które budzą kontrowersje. Najciekawsze jest to, że osoby optujące za tym, że wygrzewanie ma wpływ na kabel nie rozumieją czym jest prąd elektryczny.

W potocznym rozumieniu prąd elektryczny polega na tym, że elektrony wędrują wzdłuż przewodnika z prędkością światła lub do niej zbliżoną. I wobec tego po jakimś czasie te elektrony spowodują, że drogi, którymi się one poruszają będą "lepsze" na zasadzie takiej jak wydeptana ścieżka czy noszone przez jakiś czas buty.

Prąd elektryczny jeśli się to odniesie do prądu przemiennego praktycznie nie polega na ruchu elektronów. Elektrony poruszają się i można obliczyć z jaką prędkością, a ta prędkość nazywana jest dryftem.

Średnia prędkość dryftu elektronów w przewodniku wynosi około 10−4 m/s = 0,1 mm/s. W odniesieniu do prądu przemiennego elektrony poruszają się przez pewien czas wynikający z częstotliwości w jedną i następnie w przeciwną stronę. Wobec tego elektrony w sumie nie ruszają się z miejsca, ponieważ poruszają się na odległość ułamka mikrometra ze wspomnianą prędkością 0,1mm/s w jedną stronę przewodnika, a następnie w przeciwną czyli oscylują wokół określonego miejsca.

Wyobrażenie sobie, że elektrony przy częstotliwości 20 kHz przemierzą kabel głośnikowy o długości np. 2 metry 20.000 razy na sekundę w każdą stronę jest błędne. Dystans, który przemierzy elektron w ciągu sekundy nie wyniesie 40 kilometrów, a jedynie około 0,1mm.

Innym aspektem tzw. wygrzewania kabli byłoby, że zmieniają one pod wpływem prądu swe właściwości. W związku z tym przewodnik musiałby wykazać inne właściwości fizykochemiczne gdyby został "wygrzany". Jednak nikt nigdy nie stosował technologii zmiany właściwości metalu przez przepuszczanie przez niego symfonii.

Ale może to jest sposób na zamianę miedzi w złoto?

wtorek, 23 sierpnia 2016

Holografia, dźwięk 3D, przestrzenność

Efektu przestrzenności nie można uzyskać z dwu głośników. Jednak czasem ktoś pisze, że słyszy dźwięki dochodzące z góry, z dołu, z przed głośników i zza nich, a ponadto spoza bazy stereo tzn. na prawo od prawej kolumny i vice versa.

Dźwięk słychać z tego miejsca, gdzie jest jego źródło. Jeśli w danym miejscu nie ma źródła dźwięku i ktoś uważa, że tam miejscu coś słyszy to znaczy, że mu się zdaje.

W stereo dźwięk powinien być słyszalny z każdego miejsca pomiędzy głośnikami. Czy tak jest faktycznie? Zagadnienie jest bardziej skomplikowane, niż by się mogło wydawać. Po co jest głośnik centralny w systemach dźwięku przestrzennego? Skoro prawdą byłoby, że baza stereo faktycznie jest pomiędzy głośnikami, to głośnik centralny byłby bez sensu. Warto przypomnieć sobie, że identyczne źródła dźwięku powodują, że dokładnie w połowie odległości pomiędzy nimi powstaje cisza.

Umieszczenie pozornego źródła dźwięku w bazie stereo sprawia pewne trudności. Cóż dopiero, gdy dźwięk ma być słyszalny z miejsc, które są poza bazą? Jak już zostało powiedziane dźwięk słychać z miejsca, gdzie jest jego źródło. Realizatorzy potrafią jednak "zamarkować" miejsce wydobywania się dźwięku poza bazą stereo.

Słuch koduje informacje przestrzenne przy pomocy małżowin. Ich specyficzny kształt powoduje, że dźwięki napływające z różnych kierunków są w pewien sposób filtrowane. Jeśli realizator nada dźwiękowi barwę taką, która powstaje przy dochodzeniu z określonego kierunku można uzyskać złudzenie, że źródło dźwięku jest np. powyżej głośników lub z tyłu. Jednak nie zawsze się to sprawdza, bo każdy ma uszy o innym kształcie i efekt będzie działać tylko na wybrane osoby. Tak czy inaczej kształtowanie barwy dźwięku w celu imitowania kodowania przestrzennego daje raczej marne efekty. Najlepiej sprawdza się, jeśli opis płyty "podpowiada" z jakiego kierunku słuchacz powinien dźwięki słyszeć. Jeszcze lepiej, jeśli są rysunki.

Poszerzenie bazy stereo jest tak stare, jak radiomagnetofony. Dodanie części sygnału z przeciwnego kanału i w przeciwfazie pozwala sztucznie rozszerzyć bazę poza głośniki. Jednak jeśli się przesadzi to dźwięk wydaje się być "wywrócony na lewą stronę" i nienaturalny.

Efekt "przestrzenności" uzyskuje się przez dodanie opóźnień, ale największy udział w tym ma sam pokój, w którym się słucha. Odbicia, które docierają do słuchacza z opóźnieniem powodują, że dźwięk nabiera powietrza i trójwymiarowości. Efekt najlepiej jest słyszalny w akustyce łazienki, tzn. w silnych odbiciach. Im lepsza akustyka czyli odbicia są słabsze, tym efekt przestrzenności zanika. W optymalnych warunkach czyli w strefie wolnej od odbić dźwięk jest słyszalny tylko z głośników i w zakresie bazy stereo, a żadnego wrażenia trójwymiarowości nie ma. Jeśli realizator zastosuje któryś z omówionych tricków służących do wywołania wrażenia dobiegania dźwięku z jakiegoś nietypowego kierunku, to też jest on raczej mało przekonujący, z tym wyjątkiem kiedy słuchacz ma akurat odpowiedni kształt ucha.

Jeśli słucha się w pomieszczeniu z silnymi odbiciami efekt przestrzenności polega na tym, że dźwięk słychać głównie z głośników, ale poza tym z każdego kierunki, bo odbija się wszędzie o wszystko. Silne odbicia są czymś na granicy, której słuch nie potrafi rozróżnić, czy to odbicie, czy już echo. Skoro ani to ani tamto, więc słuch decyduje, że dźwięk pochodzi z każdego kierunku, więc jest "przestrzenny". Dźwięk bezpośredni kotwiczy kierunek, tylko odbicia są kodowane jako dochodzące zewsząd.

Wszystkie opisy dotyczące holograficznego dźwięku itp. są skutkiem złej akustyki. Chociaż czasem nawet zawodowi akustycy zajmujący się adaptacją pomieszczeń pozostawiają trochę odbić poprzecznych, żeby dźwięk uzyskał nieco "przestrzeni".

wtorek, 16 sierpnia 2016

Jak dobrać moc wzmacniacza i kolumn c.d.

Dopasowanie kolumn do wzmacniacza nie jest ostatnio popularnym tematem. Na wstępie warto wspomnieć, że głośniki nie mają faktycznie żadnej mocy, mogą jedynie określoną moc przyjąć. W kwestii doboru wzmacniacza i kolumn istnieją dwie sprzeczne szkoły.

Szkoła starsza podaje, że moc wzmacniacza powinna być połową "mocy" kolumn. Ma to swoje uzasadnienie. Jeśli się mocno przesteruje wzmacniacz, to będzie on oddawał moc, gdy zasilacz jest wystarczająco wydajny, dwukrotnie większą od znamionowej. Mając więc wzmacniacz 2x100 można go przesterować do momentu, aż będzie oddawał 2x200W. Sygnał wyjściowy będzie przypominał przebieg prostokątny i zawierał nieparzyste harmoniczne. Poziom zniekształceń wzrośnie do około 40%.

W praktyce spektrum zakłóceń nie ma znaczenia i harmoniczne same w sobie nie stanowią jakiegoś szczególnego zagrożenia dla głośników. Energia coraz wyższych harmonicznych szybko spada. Ważna jest ogólna moc sygnału. Przesterowując wzmacniacz 2x100 do mocy 2x200W jest duża szansa na uszkodzenie kolumn mogących przetwarzać np. 130W. Jednak możliwość uszkodzenia kolumn przesterowanym słabszym wzmacniaczem jest znacznie mniejsza niż wtedy, kiedy będzie używany wzmacniacz dużo silniejszy niż kolumny.

Jeśli do dyspozycji są kolumny o mocy szczytowej 130W i wzmacniacz 200W na kanał przy głośniejszym słuchaniu bardzo łatwo jest przesadzić z mocą i spalić głośniki. O ile słaby wzmacniacz przy przesterowaniu zniekształca dźwięk, to silny dostarczy bez żadnych zniekształceń moc większą niż są w stanie znieść głośniki. W podanym przykładzie można mieć czysty sygnał o mocy 200W a więc 70W więcej niż mogą przyjąć głośniki. I dlatego, żeby spalić głośniki słabym wzmacniaczem trzeba wyjątkowego uporu, gdyż słysząc zniekształcony dźwięk odruchowo zmniejsza się głośność. Natomiast słuchanie głośno kiedy dźwięk brzmi dość czysto często zachęca do jej zwiększenia, co zazwyczaj nie kończy się dla głośników dobrze.

Dlatego nowsza szkoła twierdząca, że wzmacniacz powinien mieć moc większą niż głośniki bazuje raczej na tym, że te ostatnie będą mieć skuteczne zabezpieczenia chroniące przed przeciążeniem.

Na koniec warto wspomnieć, że moce rzędu 15-20W są wystarczające, żeby przy długotrwałym słuchaniu stracić stopniowo słuch.

poniedziałek, 18 lipca 2016

Problem z pozostaniem na Ziemi czyli jitter 20 pikosekund

Czy ktoś czytał kiedyś deklaracje jakiegoś audiofila, że słyszy jitter 2 pikosekund? A może artykuł o tym, że można usłyszeć jitter 20 pikosekund? Jeśli nie, to nie ma problemu. Problem mają autorzy. Pierwszy ma zbyt wybujałą wyobraźnię, a drugi źle zinterpretował wyniki obliczeń.

Jak można dojść do tak absurdalnego wniosku, że jitter 20 pikosekund jest słyszalny? W ten sposób, że nakładając poziom zakłóceń na krzywą Fletchera-Munsella trafia on dokładnie na sam dół krzywej poziomu słyszalności. Czyli zakłócenie ma poziom prawie -10 dB. Warto pamiętać, że 0 dB SPL nie znaczy, że zmiany w ciśnieniu wynoszą zero, więc stąd biorą się ujemne db. Faktycznie taki poziom dźwięku można usłyszeć w komorze bezechowej, gdzie panuje absolutna cisza. Pytanie jest jednak następujące: poziom zakłóceń to około -10 dB, a co z sygnałem?

Jitter 20 pikosekund ma głośność tak małą, że jest najmniejszą głośnością, którą można w ogóle słyszeć. Nie jest zaznaczony na rysunku, ale wypada w najniższym punkcie najniższego wykresu tuż nad osią. Tak cichych dźwięków można nie usłyszeć nigdy o ile się nie było w komorze dźwiękoszczelnej. Hałas otoczenia rzadko kiedy jest mniejszy niż 30 dB chyba, że ktoś mieszka w jaskini w środku puszczy.

Zniekształcenia nie istnieją w oderwaniu od przetwarzanego sygnału. Jeśli są zniekształcenia, to jest też sygnał, który został zniekształcony. Dlatego takie teoretyzowanie, że jeśli człowiek - chyba bardzo młody i zdrowy, dodajmy - słyszy poniżej zera dB, tzn. słyszy ujemne decybele, to nie znaczy, że usłyszy taki poziom zakłóceń. Nie usłyszy, bo fundamentalna będzie stokilkadziesiąt dB głośniejsza.

Żeby rzecz była jasna. Ktoś umyślił sobie, że skoro zakłócenia są na poziomie jeszcze słyszalnym, to po usunięciu sygnału je się da usłyszeć. Ale problem w tym, że musi grać muzyka, żeby były zakłócenia. Nie ma opcji wyciszenia muzyki, czyli zlikwidowanie sygnału, po to, żeby słuchać samych zakłóceń.

Można usłyszeć odgłos przeskakującej iskry w świecy zapłonowej, ale na to trzeba ją wykręcić z silnika. Natomiast nie da się tego usłyszeć, jak silnik pracuje.

To jest właśnie problem teoretyków. Tak jak nie ma sensu mówić o odgłosach świecy bez pracy silnika, tak nie ma sensu mówić o zakłóceniach bez sygnału czy muzyki.

W dobrej jakości przetworniku jitter rzędu 200 ps jest bardzo dobrą wartością i z całą pewnością jest niemożliwy do usłyszenia.

sobota, 4 czerwca 2016

Słuchawki - dlaczego nie? I dlaczego nie.

Dobry odbiór muzyki w niezaadaptowanym pomieszczeniu nie jest możliwy. Rozwiązaniem problemów z transmisją dźwięku mogłoby być użycie słuchawek, jednak taki odsłuch jest  często niesatysfakcjonujący i wybiera się głośniki w pomieszczeniu złym akustycznie.

Często odsłuch głośnikowy odbywa się w strefie dalekiej, gdzie przeważają odbicia, wobec tego słuchawki eliminujące je do zera powinny brzmieć bezkonkurencyjnie. Wiadomo jednak, że słuchawki nie zawsze dobrze grają.

Wiele typów słuchawek jest źle zrównoważonych tonalnie i zazwyczaj mają za bardzo uwypuklone basy.

Warto poświęcić trochę wysiłku i znaleźć słuchawki o wyrównanej charakterystyce, ale w przystępnej cenie. Przy czym opisy brzmienia są nieprzydatne, trzeba mieć dostęp do pomiarów. Im charakterystyka bardziej płaska, tym lepiej.

Trzeba jednak zwrócić uwagę na sposób wykonania pomiarów. Zwyczajne pomierzenie charakterystyki nie da potrzebnych informacji, bo przetwornik jest przy samym uchu. Dlatego przydatne są te pomiary, gdzie wyraźnie zaznaczono, że są skompensowane. Jeśli pomiary są niekompensowane, trzeba mieć odpowiednią wiedzę i doświadczenie, żeby je zinterpretować.

Jest jeszcze jeden problem ze słuchawkami. Dużo nagrań nie nadaje się do takiego słuchania, po prostu realizator wykonał je w pomieszczeniu nie-neutralnym. W jego studio nagrania brzmiały dobrze, obiektywnie takie nie są. Zazwyczaj brakuje im przestrzenności. W reżyserce przestrzenność była, bo miała słabą adaptację, albo niedostateczną. Naprawdę dobre realizacje w słuchawkach brzmią bardzo przyjemnie.

Pozostaje jeszcze przyzwyczajenie do obecności silnych odbić pomieszczenia. Jeśli się jednak często słucha przez dobre słuchawki, można taki odbiór muzyki docenić. Obiektywnie jakość jest lepsza niż przez głośniki.

sobota, 21 maja 2016

Winyl

Prasa Hi-fi zajmuje się intensywnym lansowaniem płyt winylowych i sprzętu do ich odtwarzania. Promowanie zapisu mechanicznego jest absurdem, bo jest metodą ustępującą pod każdym względem nowszym technikom już nie tylko pod względem jakości, ale przede wszystkim komfortu i trwałości.

Płyta winylowa jest nośnikiem trwałym wtedy, gdy nie jest odtwarzana, każdorazowe jej zagranie powoduje degradację zapisu. Najszybciej można zorientować się w skali zjawiska, jeśli igła zostanie opuszczona na czyste miejsce. Okaże się, że igła zostawi na płycie wgniecenie. Zamiast płyt można użyć płytki CD albo DVD. Po opuszczeniu igły na płytę obracamy powoli talerz gramofonu. Każdy ruch pozostawia na płycie ślad. Jeśli się użyje do regulacji siły dośrodkowej czystej płyty lub płytki CD/DVD okaże się, że powierzchnia płyty jest mocno porysowana. Płyty winylowe stwarzają problemy jeśli trzeba ich użyć do wykonania pomiarów, np. wkładki. Zapis po każdym odtworzeniu ulega starciu i dlatego w pewnym momencie pomiary nie są już miarodajne.

Na płycie winylowej można z pewnymi ograniczeniami zapisać pełne pasmo, ale trudność sprawia odczyt.




Jedyną szansą na niezniekształcony odczyt wysokich częstotliwości dla fragmentu płyty w pobliżu jej środka jest gramofon laserowy. Średnica promienia lasera śledzącego zapis jest znacznie mniejsza niż rozmiary igły gramofonowej. Typowa igła nie zmieści się w najgęstsze składniki zapisu. Poniższy rysunek przedstawia wielkość realnej igły i teoretyczną wymaganą. Jednak w praktyce nie jest możliwe wykonanie szlifu z tak małymi krzywiznami.


Jakość dźwięku jest tym gorsza im bliżej środka. Producenci przeciwdziałają temu w ten sposób, że dla końcowych minut zapisu modyfikują go zmniejszając ilość najwyższych częstotliwości. Kształtowanie dźwięku, żeby uniknąć zniekształceń jest powodem ukucia terminu "ciepły dźwięk analogu". Nie ma możliwości nacięcia matrycy z normalną ilością wysokich tonów. Powody są dwa. Przede wszystkim głowica nacinająca nie jest w stanie naciąć większej ilości wysokich tonów bez zniekształceń. Po drugie większa, czyli zwyczajna nawet dla nagrań wykonanych analogowo, ilość wysokich tonów spowoduje przegrzanie się i być może nawet spalenie głowicy.

Zbyt duża dynamika zapisu spowoduje przeciążenie samej wkładki gramofonowej, która może nie być w stanie śledzić dużych amplitud. Z kolei, jak to widać na rysunkach, większa amplituda wysokich tonów w granicach możliwości głowicy nacinającej będzie niemożliwa do śledzenia przez bardziej proste szlify igły. Igła sferyczna nie ma szans, igła eliptyczna nie zawsze będzie w stanie zmieścić się w gęstym zapisie, jedynie najbardziej zaawansowane kształty igły mogłyby sprostać zadaniu, ale i tak nie udałoby się poprawnie odczytać płyty naciętej 1:1 z typowego pliku. Odczytać górę pasma bez zniekształceń można, ale tylko wtedy, kiedy amplituda nie przekroczy pewnej wielkości, czyli zawsze trzeba ściszyć wysokie tony.

Paradoksalnie lepsza jakość zapisu na płytach nacinanych systemem DMM skutkuje gorszą jakością odtwarzania, bo głośniejszy i zawierający bardziej normalną ilość wysokich tonów dźwięk jest nie do odtworzenia przez tańsze wkładki ze sferycznym szlifem igły.

Dlatego, że mało kto używa referencyjnych wkładek, producenci nacinają płyty bardziej zachowawczo niż to by było konieczne dla najlepszych systemów. Ale nawet bezkompromisowo nacięta płyta nie jest w stanie dorównać dynamiką i jakością zapisowi cyfrowemu. Poza tym problemem są matryce z lakierem. Źle nacięte powodują przesłuchy pomiędzy sąsiadującymi rowkami, spada dynamika, wzrastają zniekształcenia. Za gorące ostrze - lakier będzie się topił i płynął. Za zimne - lakier będzie się ciągnął jak guma. W obu przypadkach wzrosną zniekształcenia i spadnie dynamika. Dlatego nacięcie płyty jest sztuką. I z całą pewnością nikt w Polsce nigdy nie naciął acetatu prawidłowo. Najczęstsza wada polskich płyt to preecho kiedy słychać dźwięk przebity z sąsiedniego rowka. Właśnie dlatego często utwory zaczynają się "dwa razy". Raz bardzo cicho, a potem zwyczajnie. Trzeba jednak mieć świadomość tego, że ten przesłuch dotyczy całej płyty. Słychać go zazwyczaj na początku, ale występuje cały czas. Sprawdzić: "Zdzisław Piernik – Tuba" Polskie Nagrania.

Mało kto zadaje sobie pytanie jakiego poziomu zakłóceń można się spodziewać po samej płycie. Jeśli płyta jest wykonana ze szczególną starannością, zakłócenia będą wyglądać następująco:


Na wykresie spektrum zakłóceń od płyty (razem z zakłóceniami z gramofonu, ale te są bardzo małe) jest zaznaczone kolorem czerwonym. Po uśrednieniu okazuje się, że dla 20 Hz odstęp od zakłóceń jest tylko 65 dB, dla 100 Hz 80 dB i dopiero powyżej 200 Hz zakłócenia spadają do -90 dB. Ale nie znaczy to, że odstęp od szumu dla płyty winylowej wynosi 90 dB. Taki odstęp od zakłóceń jest od 200 do 500 Hz. Winyl szumi dosyć głośno i nie sposób tego nie usłyszeć. Zakłócenia w zakresie niskich częstotliwości na płytach z muzyką są większe niż na płytach testowych. Starsze płyty mają dość bogate spektrum przeróżnych całkiem głośnych zakłóceń. Ważony odstęp od zakłóceń dla dobrego gramofonu to zaledwie 70 dB.

Jakim poziomem zniekształceń jest obarczony zapis na samej płycie? Nacinanie płyty odbywa się na granicy wytrzymałości termicznej głowicy. Towarzyszą temu również problemy mechaniczne, które powodują powstanie zniekształceń. Każdy, kto słuchał kiedykolwiek płyt winylowych wie, że dźwięk nie jest zupełnie czysty.

Głowica nacinająca jest sterowana wzmacniaczem o mocy kilkuset wat. Można przyjąć dla uproszczenia, że wzmacniacz ma 2x1000W - dwa kilowaty. Nie dziwi więc, że przy takich mocach uzwojenie głowicy może się przegrzać i spalić.

Dlaczego trzeba użyć takich mocy? Dlatego, że głowica ma pewną masę i może być tłumiona wyłącznie mechanicznie. Głośniki niskotonowe są tłumione zarówno mechanicznie, przez zawieszenie górne i dolne, ale też elektrycznie. Tłumienie elektryczne wiąże się z osławionym współczynnikiem tłumienia. W przypadku głowicy nacinającej nie jest możliwe tłumienie elektryczne z wielu względów. Jednak właśnie dlatego, że jest możliwe tłumienie tylko mechaniczne, głowica musi być zawieszona bardzo twardo. Tak twarde zawieszenie jest konieczne, bo zniekształcenia w przeciwnym razie będą zbyt duże. I przede wszystkim stąd biorą się tak duże moce wzmacniaczy. Warto się nad tym przez chwilę zastanowić: dwa kilowaty, żeby wychylenie wyniosło mniej niż milimetr. Kilowat na część milimetra w jednym kanale i kilowat na część milimetra w drugim.

Jeśli chodzi o wydania zagraniczne trzeba wprawnego ucha, żeby wychwycić zniekształcenia, bo specjaliści nacinający matryce świetnie orientują się w ograniczeniach i możliwościach sprzętu, więc mogą tak wpłynąć na dźwięk, żeby nie dopuścić do przeforsowania głowicy. Jak się to robi, to dość obszerny temat, głównie wpływa się na barwę obniżając ilość wysokich tonów i spłaszcza impulsy. Jednak w Polsce osoby nacinające płyty raczej nie miały wystarczającej wiedzy i umiejętności, a być może także nie miały do dyspozycji odpowiednich narzędzi. W każdym razie prawie zawsze można usłyszeć zniekształcenia na polskich wydawnictwach. Dowodzi to, że zapis na płycie ma duże ograniczenia i jeśli się nie podejmie odpowiednich kroków, wyjdą one na jaw w pełnej krasie.

W latach siedemdziesiątych, posługiwano się często sprzętem do nacinania matryc, który miał zniekształcenia rzędu jeden-dwa procenty, ale taki poziom zniekształceń może się utrzymać najwyżej do połowy strony, dalej będzie już znacznie gorzej, a finał opery na końcu strony - szkoda słów. I te zniekształcenia są na tych płytach. Nie zawsze je słyszymy, ale one są, a są trudne do uchwycenia, bo nie mamy możliwości porównania jak brzmi master.

Zobaczmy teraz jak się sprawy mają w odniesieniu do sprzętu odtwarzającego.

Jeśli chodzi o wkładki gramofonowe, to typowa charakterystyka częstotliwościowa wygląda w ten sposób:

Na schemacie jest widoczny garb w okolicach 20 kHz. Występuje on zawsze bez względu na typ wkładki i jest spowodowany rezonansem gumowego zawieszenia wspornika igły. Nie ma opcji, żeby tego uniknąć, a częstotliwość rezonansu zawiera się w przedziale 15-25 kHz. Parametr podawany dla wkładki czyli zniekształcenia wysokich tonów jest tak ważny, bo świadczy m.in. o tym jak dobrze udało się producentom uporać z rezonansem. Zazwyczaj wielkość zniekształceń wysokich tonów wynosi 0,1% jednak nie ma informacji dla jakich częstotliwości się je mierzy. Wydaje się, że pomiar następuje dla częstotliwości jeszcze nie dotkniętych rezonansem czyli około 10 kHz. Dla częstotliwości rezonansowych na pewno by się nie udało zejść ze zniekształceniami do tak niskiego poziomu.

Ale rezonans zawieszenia igły nie ma nic wspólnego z innym rezonansem.


Powyższy schemat pokazuje charakterystykę dla przedwzmacniacza MM. Podbicie wynika z nieodpowiednich parametrów przedwzmacniacza. Poniższy schemat jest w zasadzie obwodem rezonansowym. Od lewej: silnik wkładki, indukcyjność wkładki, opór wkładki, pojemność kabla, pojemność przedwzmacniacza i jego opór. Problem sprawiają zbyt duże C2 i R2



W skrajnych przypadkach podbicie wysokich tonów może sięgnąć nawet ponad 6 dB. Okazuje się jednak, że nie tylko wkładki MM nastręczają problemów. Również układy MC są podatne na zmiany parametrów obciążenia, przy czym głównie dotyczy to oporu. Jednak również pojemność może odgrywać pewną rolę, co widać na rysunku poniżej.



Dla wkładek MC ważniejszy jest opór i jego wpływ na charakterystykę jest pokazany na schemacie poniżej.



Kombinacja obu parametrów może wyglądać następująco:



Wobec tego nawet w przypadku wkładek MC, które miały zapewnić bardziej liniową charakterystykę, bo odpada problem niedopasowania pojemności, można napotkać trudności. Najczęściej podaje się przykład wkładki Denon DL 103 jako nie pasującej do standardowego wejścia przedwzmacniacza gramofonowego, które ma przeważnie 100 ohm, natomiast dla tej wkładki minimum to 470 ohm.

Jitter jest parametrem, który działa na audiofilów jak czerwona płachta na byka. Okazuje się, że odpowiednik jittera w analogu czyli kołysanie dźwięku jest o wiele rzędów wielkości większy i... nikomu to nie przeszkadza.

Wszystkie zakłócenia wynikające z kołysania dźwięku są powyżej -90 dB. Natomiast zakłócenia jitter są zawsze poniżej -90 dB.  Poza tym spora część zakłóceń od kołysania dźwięku jest już na tyle głośna, że słyszalna - wszystko co ponad -50 dB słychać.

Ten wykres jest odpowiednikiem jitteru. Warto porównać jak wygląda ta sytuacja dla systemu cyfrowego w odniesieniu do przetworników i nietrudno zauważyć, że kołysanie w analogu jest nieporównywalnie silniejsze. Analizując wykres pokazujący równomierność obrotów gramofonu wykres trzeba mieć na uwadze, że wszystko co jest ponad -50 dB jest słyszalne. Natomiast w przeciwieństwie do odczytu mechanicznego jitter w systemie cyfrowym jest na poziomie gwarantującym całkowitą nieszkodliwość. Na wykresie jitteru mamy pośrodki tylko linię reprezentującą sygnał użyteczny, natomiast zakłócenia występują co najmniej 90 dB niżej. Wykres pokazujący kołysanie dźwięku w gramofonie analogowym właściwie w całości składa się z zakłóceń. Wszystko na tym wykresie to zakłócenia. Sygnał można zauważyć tylko i wyłącznie na samym szczycie tego jęzora i jest dosłownie zakryty zakłóceniami, które są one bardzo duże zaledwie 10 dB poniżej poziomu sygnału odniesienia.

Odczyt zapisu mechanicznego jest kłopotliwy. Systemowe wady płyty winylowej i wkładki gramofonowej, która często nie jest właściwie dopasowana do przedwzmacniacza to nie koniec problemów. Wkładkę gramofonu trzeba dopasować do przedwzmacniacza, albo na odwrót, ale wkładkę trzeba dopasować także do ramienia gramofonu.

Ramiona gramofonów charakteryzują się kilkoma parametrami, nie tylko długością. To czy ramię ma 9 czy 12 cali nie ma znaczenia. Ważna jest jego masa efektywna. Nie można użyć takiej samej wkładki do ramion 10 i 35 gramów.

Zupełnie osobne zagadnienie to regulacja wkładki i gramofonu. Paradoksalnie im większa precyzja ustawienia nacisku igły, tym większe problemy z jakością dźwięku. Okazuje się bowiem, że spora część użytkowników gramofonów kurczowo trzyma się dolnej granicy nacisku. Jeśli producent podaje tolerancję 2-2,5 grama, większość stara się ustawić 2 gramy. Tymczasem lepszym rozwiązaniem jest ustawienie 2,5 grama. Zdarza się natrafić na ripy płyt winylowych, które powinny brzmieć dobrze, bo sprzęt użyty do ich zrobienia był bardzo dobrej jakości, ale niestety zniekształcenia np. sybilantów są bardzo duże z powodu ustawienia za małego nacisku igły. Często też zdarza się złe ustawienie wkładki, przeważnie w środku zakresu regulacji, co nie zawsze się sprawdza. Znając typ gramofonu i wkładki można stwierdzić, że właściciel nie wykonał regulacji poprawnie.

W stosunku do zapisu cyfrowego i mechanicznego stosuje się dwa standardy oceny. Z jednej strony wyszukuje się i wyolbrzymia minimalne zniekształcenia w standardzie cyfrowym, a z drugiej stara się nie widzieć poważnych niedoskonałości zapisu mechanicznego. Mało kto wie, że sama płyta gramofonowa ma działanie mikrofonowe, które powoduje mniejsze lub większe zniekształcenia.

Chodzi o to, że dźwięk z głośników i w ogóle dźwięk z otoczenia powoduje drgania winylu, które są przetwarzane przez wkładkę. Efekt mikrofonowy jest dość silny i każdy może, a nawet powinien przekonać się, jak działa w praktyce.

Do testu efektu mikrofonowego potrzebny jest gramofon, który może nawet być uszkodzony i niekompletny. Gramofon musi mieć talerz z matą oraz ramię z wkładką. Napęd może być popsuty, igła może być złamana, wspornik igły wygięty. Liczy się to, że okablowanie jest sprawne.

Trzeba założyć płytę na talerz i opuścić ramię na płytę. Samego gramofonu nie trzeba poziomować itp. wystarczy go tylko podłączyć do wzmacniacza. Do wyjścia wzmacniacza, które można użyć do nagrywania, podłącza się komputer. W programie do nagrywania ustawić trzeba poziom nagrania odpowiedni do pozostałych źródeł dźwięku, a jeśli gramofon jest sprawny, można ustawić poziom nagrywania dla samego gramofonu.

Test polega na tym, że przełącza się wzmacniacz na gramofon, włącza nagrywanie w komputerze i po opuszczeniu ramienia na płytę, ale bez włączania obrotów - płyta nie może się kręcić - mówi się w stronę płyty zupełnie, jak do mikrofonu. Można mówić, śpiewać, deklamować.

Okazuje się, że na tak wykonanym nagraniu wyraźnie słychać słowa, słychać melodię itd. Zrozumiałość jest słaba, głośność mała, zupełnie jakby się słuchało przez ścianę, ale jednak, efekt mikrofonowania przez płytę jest wyraźny i dosyć silny. Jeśli się śpiewa lub mówi głośno, można zauważyć na wskaźnikach poziom dźwięku - 50 a nawet - 40 dB. Można również spróbować nagrać efekt przy odtwarzaniu głośnej muzyki. Taki test jednak jest bardziej skomplikowany, bo potrzebujemy zestawu, który będzie odtwarzał muzykę i przynajmniej dodatkowego wzmacniacza do którego podłączymy gramofon i z którego wyjścia będziemy mogli nagrywać.

Wobec tego okazuje się, że im głośniej się słucha, tym więcej zniekształceń mikrofonowych. W czasie słuchania muzyki są one raczej niemożliwe do zauważenia, chyba że gramofon sprzęga, jednak one są. Test z nagraniem efektu mikrofonowego wykazuje jednak dobitnie niedoskonałość zapisu mechanicznego. Warto podkreślić: bez trudu można spowodować zakłócenia na poziomie 40 dB poniżej sygnału użytecznego. Mikrofonowanie płyty jest dużo trudniejsze do wyłapania niż przesłuchy pomiędzy sąsiednimi rowkami.

Na koniec jeszcze raz wróćmy do "ciepłego dźwięku płyty winylowej". Jest on faktem i wynika przede wszystkim z niemożności zapisania na płycie góry pasma o normalnej głośności, a po części z rezonansów ramienia, korpusu gramofonu, efektu mikrofonowego itp. Jednak dla ogromnej większości użytkowników gramofonów w latach 70/80 ubiegłego wieku ten termin nie przyszedłby nigdy do głowy. Przede wszystkim polskie wkładki miały duże zniekształcenia, co potwierdzano pomiarami, miały kiepskie zawieszenie wspornika, co skutkowało rezonansem silniejszym niż w zachodnich produktach. Ale przede wszystkim te wkładki były typu MM i można stwierdzić, że problem podbicia wysokich tonów był powszechny. Płyty analogowe w tamtych czasach nie brzmiały ciepło.

Wynalezienie wkładki MC prawdopodobnie nie wynikało z potrzeby podniesienia jakości dźwięku, bo różnicy pomiędzy typem MM i MC raczej nie da się usłyszeć, ale właśnie dlatego, żeby uniknąć problemów z nieodpowiednią pojemnością kabla, przedwzmacniacza itp. Źle dopasowane pojemności i podbicie wysokich tonów skutkują dźwiękiem ostrym i twardym, który można określić na wszelkie sposoby, ale "ciepło" nie będzie oddawało charakteru dźwięku.

Największy problem z winylem polega na tym, że wszystkie wady i ograniczenia da się obejść przez przejście na system cyfrowy. Zamiast walczyć z kurzem, zużywaniem się płyty, szumem, trzaskami, stukami, zniekształceniami itd. można użyć odtwarzacza cyfrowego i wszystkie te problemy znikają, a jakość dźwięku znacznie się poprawia.

Mechaniczny zapis na płycie winylowej jest obarczony wieloma mankamentami, to samo dotyczy odczytu takich płyt. Jednak każdy przyzna, że winyl nie brzmi źle. Może z wyjątkiem ostatnich kilku minut zapisu na stronie. Ale to wynika z niedoskonałości słuchu. Gdybyśmy mieli trochę lepszy słuch, nikt nie chciałby używać płyt winylowych. Słyszymy jednak na tyle nieprecyzyjnie, że większości zniekształceń nie jesteśmy w stanie wychwycić.

sobota, 14 maja 2016

Odpowiedź impulsowa i skokowa głośników, przetwarzanie transientów

Dźwięki muzyki składają się z trzech elementów: ataku czyli transientu, fazy podtrzymania i wygasania. Szarpnięcie struny kostką może wyglądać tak:


Dźwięk może się więc składać głównie z ataku. Gra na skrzypcach z kolei zawiera długie fazy podtrzymania i krótkie wygasania, fortepian może mieć długie fazy wygasania.

Atak jest najsłabszą stroną głośników i dziwnym zbiegiem okoliczności nie podaje się zniekształceń dla tej fazy, ale dla podtrzymania.

Jest wiele powodów, że głośniki przetwarzają sygnały nieregularne i o dużej amplitudzie dość kiepsko. Masa wiąże się z bezwładnością. Dochodzi do tego niewystarczająca sztywność. Z kolei membrany bardzo sztywne bardziej rezonują. Głośnik napędza energia pola magnetycznego. Żeby uzmysłowić sobie o co chodzi najprościej wziąć do ręki dwa magnesy - pole magnetyczne jest elastyczne, nie jest sztywne. Więc napędzamy głośniki jakby popychając je przez coś, co się ugina i amortyzuje.

Zniekształcenia dla ataku są znacznie większe niż dla pomiarów sygnałami ciągłymi. Głośnik przetwarzając sygnał o charakterze powtarzających się cykli radzi sobie całkiem dobrze o ile nie będzie przeciążony. Jednak nawet głośnik przetwarzający sinusoidę zniekształca ją w odniesieniu do pierwszego okresu. Ruch membrany jest spóźniony, a amplituda mniejsza niż dla następnych cykli. Także gwałtowne urwanie się sinusoidy nie spowoduje, że ruch membrany natychmiast zaniknie.

Problem w tym, że muzyka składa się głównie z transientów. I dlatego głośniki brzmią nienaturalnie. Można się o tym przekonać mając do dyspozycji dobry mikrofon i zestaw wzmacniacz/głośniki. Głos osoby mówiącej do mikrofonu brzmi inaczej niż mówiącej bez mikrofonu. Jest wiele czynników powodujących zmianę brzmienia, ale jednym z ważniejszych jest złe przetwarzanie transientów przez głośniki.

Na szczęście dla większości słuchaczy nie znają oni dźwięku instrumentów grających na żywo, chodzi o instrumenty akustyczne. Również mało kto słyszał wokalistów śpiewających live bez mikrofonu. A zresztą gdyby nawet, to mało kto zwraca uwagę na naturalne brzmienie. Przetwarzanie dźwięku i zmiana jego parametrów nikomu jakby nie wadzi. Wystarczy przesłuchać kilka płyt, włączyć radio albo telewizor. W ogóle wydaje się, że większość preferuje brzmienie sztuczne i nienaturalne. Większość osób może niechętnie, ale przyzna, że koncert orkiestry symfonicznej bardziej im odpowiada, jeśli jest słuchany przez radio...

Czy to aby nie jest tak, że zmiana charakteru dźwięku spowodowana słabszym oddaniem ataku jest przez amatorów muzyki mechanicznej odbierana na korzyść? Czyli lepsze, bo gorsze, nienaturalne i sztuczne. Realizatorzy dźwięku nie stosowaliby tak silnej kompresji, gdyby to większości nie odpowiadało. Większość zdaje się być niestety niemuzykalna.

poniedziałek, 29 lutego 2016

Cyfra vs. analog

Wciąż trwa spór pomiędzy zwolennikami dźwięku analogowego i cyfrowego. Zapis analogowy nie ma żadnych zalet w porównaniu z cyfrowym, ale próbuje się używać argumentów ideologicznych, które nie mają sensu, albo wręcz przeinacza fakty. Klasyczny przykład.





Na powyższym schemacie jest przedstawiony sposób konwersji sygnału analogowego do cyfrowego i z powrotem do analogowego. Sygnał źródłowy jest identyczny z wyjściowym. Wprawdzie trzeci etap jest tym zawierającym schodki, ale to jest etap przejściowy. Na wyjściu DAC ma filtr dolnoprzepustowy, który odfiltrowuje schodki powstałe w przetworniku. Zasada jest prosta: jest filtr, nie ma schodków. I nie ma takiej opcji, że brakuje filtra.

Edycja: W oryginale post zawierał dalszą część odnoszącą się do wideo, które nie jest już dostępne.

niedziela, 21 lutego 2016

Wysoka wierność reprodukcji dźwięku jest trudna do uzyskania przy odsłuchu głośnikowym

Podział stref odsłuchu. Wyróżnia się strefę bliskiego pola, średnią i daleką.



Strefa bliskiego pola charakteryzuje się tym, że dominuje w niej dźwięk bezpośredni. Strefa pośrednia, rozproszona, znajduje się dalej i zawiera mieszankę dźwięku bezpośredniego i odbitego. Kolejna jest strefa daleka, w której dominują odbicia.

Inżynier dźwięku powinien się znaleźć w polu bliskim, gdyż tam są najlepsze warunki odsłuchu. W typowych okolicznościach do których zalicza się warunki domowe najczęściej znajdujemy się w strefie pośredniej. Osoby świadomie słuchające muzyki będą dążyć do przesunięcia się w pole bliskie.

Strefa pośrednia charakteryzuje się także tym, że można w niej wyróżnić miejsce określane jako dystans krytyczny. Jest to odległość od źródła dźwięku, w którym ilość dźwięku bezpośredniego i odbitego jest identyczna. Dystans krytyczny wylicza się według wzoru:




gdzie gamma  jest stopniem kierunkowości źródła - gamma równa jeden odpowiada źródłu wielokierunkowemu - A jest współczynnikiem pochłaniania przez powierzchnie, V jest objętością pomieszczenia w metrach sześciennych, natomiast TR60 jest czasem pogłosu w sekundach. Ten ostatni korzysta z przybliżenia Sabine'a na wzór pogłosu RT60=V/6A.

Pomijając w którym miejscu jest dystans krytyczny powinniśmy sobie zdawać sprawę z tego, że z punktu widzenia techniki pomiarowej, proporcje 50% dźwięku bezpośredniego i 50% dźwięku odbitego należy traktować jako 100% zniekształceń.

Słuchając przez głośniki nie ma w ogóle opcji usłyszenia tego co gra głośnik w sposób czysty. Nawet siadając bardzo blisko dźwięk będzie zniekształcony dlatego, że zawsze się wymiesza z występującymi w pomieszczeniu odbiciami.

sobota, 13 lutego 2016

Dźwięk bezpośredni to 1/10 jednego procenta

Odtwarzając muzykę zaledwie jedną dziesiątą procenta jest dźwięk docierający do nas bezpośrednio z głośników. W jaki sposób sprawdzić jak wyglądają proporcje dźwięku bezpośredniego i odbić?

Załóżmy, że głośnik jest ustawiony w odległości 4,5 metra od słuchacza i stoi na ziemi. Dźwięk rozchodzi się jako kula o ile propagacji nie ograniczają specyficzne warunki, jak w tym przypadku - lokalizacja źródła dźwięku na ziemi. W związku z tym w odległości 4,5 metra fala dźwiękowa będzie mieć kształt półkuli o powierzchni około 125 metrów kwadratowych. Ucho zbiera dźwięk z mniej więcej 2,5 cala kwadratowego. Dlatego proporcje dźwięku bezpośredniego, który usłyszymy do całości dźwięku wyemitowanego przez głośnik będą się przedstawiać jak 12,5 cm² do 39 m² czyli 0,125/125=0,001 tzn. 0,1% czyli 1/10 jednego procenta.

Słyszymy zaledwie niewielki ułamek tego, co chcemy usłyszeć, bo raczej interesuje nas dźwięk muzyki z głośnika, a nie odbicia. Co stanie się z tymi 99,99% dźwięku wyemitowanego przez źródło? Wróci on po, wielokrotnym, odbiciu się od podłogi, ścian i sufitu.


Wobec tego można sobie uzmysłowić realne warunki transmisji dźwięku w typowych warunkach.

Można podejść do zagadnienia jakości transmisji w inny sposób. W tym celu należy porównać powierzchnię źródła dźwięku z powierzchnią, która powoduje zakłócenia w postaci odbić, pogłosu, etc. czyli powierzchnią podłogi, sufitu i ścian. Trudność polega na tym w jaki sposób obliczymy pole powierzchni odbijającej dźwięk. Sprawa wydaje się oczywista, ale taka nie jest. Wydawać by się mogło, że pole powierzchni odbijającej dźwięk równa się polu podłogi, sufitu i ścian. Przykładowo pokój o wymiarach 5x4x3 metry ma łączną powierzchnię 94 metry kwadratowe. Wobec tego proporcje membrana/pokój miałyby się jak 0,3 metra kwadratowego; zbliżoną powierzchnię mają głośniki w monitorach; do 94 m.kw. Jednak jeśli głośnik wyemituje tylko jeden impuls, to powierzchnie w pomieszczeniu odbiją ten impuls wielokrotnie. Wobec powyższego powierzchnia pomieszczenia staje się za każdym odbiciem/powtórzeniem impulsu nowym źródłem dźwięku i dlatego należy je wszystkie zsumować.

Jeżeli pomieszczenie ma RT60 wynoszący 0,5 sekundy, fala w czasie 1/2 sekundy pokona łączny dystans 170 metrów. Gdybyśmy wzięli pod uwagę wyłącznie odbicia wzdłuż osi pomieszczenia, zupełnie ignorując odbicia po skosach, których jest najwięcej okaże się, że wzdłuż najkrótszej osi dźwięk odbije się 55 razy, wzdłuż krótszej ściany 40 razy, a wzdłuż dłuższej 35 razy, co da nam łącznie 120 powtórzeń. Trzeba podkreślić, że bierzemy pod uwagę czas RT60 a zatem nie liczymy refleksów cichszych niż 60 dB w odniesieniu do głośności impulsu początkowego. Gdyby i je doliczyć mielibyśmy powtórzeń znacznie więcej.

Wobec tego do uszu względnie mikrofonu pomiarowego dotrze dźwięk bezpośredni i następujące po nim 120 powtórzeń o coraz mniejszej głośności. O ile mikrofon zarejestruje je wszystkie - patrz wykres - jak również odbiorą go uszy, to jednak tych wszystkich powtórzeń dźwięku już nie usłyszymy. Pogłos jest słyszalny w większych pomieszczeniach niż to z naszego przykładu.

W odniesieniu do próby obliczenia powierzchni, którą ma źródło dźwięku odbitego okazuje się, że dla naszych założeń wyniesie ona 120x 94= 11280 metrów kwadratowych. 1,1 ha. 0,3 m.kw/11280 m.kw=0.00002659574 tj. 0.002659574%

Jeśli uświadomimy sobie jak się przedstawiają proporcje pomiędzy dźwiękiem bezpośrednim i odbitym, pomiędzy powierzchnią membrany głośnika i łączną powierzchnią odbijającą oraz po uwzględnieniu skutków odbić czyli filtracji grzebieniowej możemy obiektywnie zarysować obszar w którym porusza się słuch. Informacja, która nas naprawdę interesuje jest dźwiękiem bezpośrednim, który stanowi znikomy ułamek całości dźwięku będącego poszczególnym zdarzeniem akustycznym. Słyszenie polega zatem nie na odbiorze informacji lecz na jej rekonstrukcji.

piątek, 29 stycznia 2016

Transmisja dźwięku w powietrzu

Transmisja jest przesyłaniem wiadomości z nadajnika do odbiornika. Używa się do tego celu najczęściej fal elektromagnetycznych i prądu elektrycznego. W obu przypadkach można osiągnąć transmisję pozbawioną zakłóceń, tzn. informacja wysłana jest identyczna z odebraną. Aby osiągnąć eliminację zakłóceń stosuje się ekranowanie przewodu i inne metody. Można użyć kabli symetrycznych, mających dwie żyły sygnałowe. Taki kabel może być znacznie dłuższy niż niesymetryczny.

W transmisji przewodowej jak i bezprzewodowej, tzn.wykorzystując jako nośnik informacji prąd elektryczny w kablu i fale elektromagnetyczne np. w powietrzu, informacja nie jest tożsama z nośnikiem. Prąd elektryczny biegnie przez przewód, ale nie jest przewodem. Fale elektromagnetyczne rozchodzą się w powietrzu lub w innych ośrodkach, ale nie są powietrzem ani tymi ośrodkami, w których się rozprzestrzeniają. Tak samo w przypadku, jeżeli do transmisji użyjemy światła, czyli fragmentu z widma promieniowania elektromagnetycznego. Światło poruszające się w światłowodzie nie jest światłowodem.

Zupełnie inaczej jest z dźwiękiem i falą akustyczną. W tym wypadku nośnik jest również informacją czyli przekaźnik jest przekazem. Dlatego transmisja w powietrzu przy użyciu fali dźwiękowej jest przypadkiem szczególnym.

Gdybyśmy zjonizowali powietrze, moglibyśmy przesyłać w nim prąd, podobnie jak w przewodach. W takiej sytuacji przekaźnik nie byłby tym samym, co przekaz. Jednak dźwięk jest przypadkiem wyjątkowym, kiedy przekaz równa się przekaźnik. Wynikają z tego bardzo niekorzystne konsekwencje z punktu widzenia jakości transmisji.

Transmisja pozbawiona zakłóceń w odniesieniu do dźwięku jest niewykonalna. Nie uda się w zwyczajnych warunkach osiągnąć idealnej lub nawet wysokiej zgodności tego, co jest nadawane z tym, co zostanie odebrane. Jest wiele tego powodów, z których najważniejszy został już wymieniony: medium jest tożsame z informacją.

Właściwości powietrza powodują, że jakość transmisji o wysokiej wierności jest niemożliwa. Powietrze wykazuje takie cechy jak masa, lepkość, bezwładność.

Pierwszym problemem w transmisji dźwięku jest fakt, że wyższe częstotliwości są bardziej tłumione niż niskie. W związku z tym nawet w teoretycznie idealnych warunkach sygnał odbierany wraz ze wzrostem odległości będzie się charakteryzował coraz większą utratą wysokich częstotliwości. Te straty w wyższych zakresach widma są spowodowane gęstością, lepkością i wewnętrznym tarciem. Niskie częstotliwości mają większą energię i dlatego mogą przebyć dalszą odległość zanim zostaną zamienione w ciepło. Fala akustyczna napotyka opór i bezwładność cząstek powietrza i dlatego traci energię.

Idealnymi warunkami do transmisji dźwięku byłyby takie, kiedy nadajnik/głośnik i odbiornik/mikrofon są zawieszone w wolnej przestrzeni i panuje zupełna cisza czyli nie ma żadnych ruchów powietrza poza termicznymi. W takich warunkach, które określa się jako pole swobodne, pomijając straty wywołane większym tłumieniem wysokich częstotliwości, uda się osiągnąć zgodność sygnału nadawanego i odbieranego.

W praktyce transmisja dźwięku nie odbywa się w perfekcyjnych warunkach. Nawet na pustyni w całkowicie bezwietrzny dzień wystąpi odbicie dźwięku od podłoża i to odbicie skutkujące filtrowaniem grzebieniowym należy rozpatrywać jako zakłócenie transmisji. Odbicie nałoży się na sygnał i zmieni jego treść.

Odbicie od podłoża płaską charakterystykę zmieni na taką, jak poniżej:



Gdy umieścimy system składający się z głośnika i mikrofonu w typowym pomieszczeniu, przekonamy się, że jakość transmisji jest słaba, a sygnał odebrany w żadnym aspekcie nie przypomina sygnału nadanego. Filtr grzebieniowy jest tylko jednym ze zjawisk akustycznych zachodzących w pomieszczeniu.

Odnosząc to do ambicji osób, którym spędza sen z powiek mikroskopijna nieliniowość jakiegoś urządzenia wynosząca ułamek dB powyższe stawia całą sytuację w odpowiedniej perspektywie.

Błędem, który popełniają osoby interesujące się audio jest wyobrażenie, że sprzężenie ucha i głośnika pozwala na taką dokładność transmisji jak to ma miejsce w urządzeniach elektronicznych. Transmisja stosowana w elektronice polega na tym, że sygnał nadany równa się sygnałowi odebranemu, a zakłócenia są tak małe, że można je pominąć.

Analogią transmisji dźwięku w powietrzu byłoby przekazywanie informacji przez blok galarety. Z jednej strony uderzamy w galaretę, a z drugiej ktoś odczytuje impulsy. Już po pierwszym uderzeniu galareta zacznie się trząść w sposób przypadkowy. Odczytanie jakiejkolwiek informacji będzie trudne.

To, że w ogóle jesteśmy w stanie orientować się w otaczających nas dźwiękach zawdzięczamy specyficznej budowie ucha.

czwartek, 21 stycznia 2016

Komfortowe słuchanie płyt, plików i nagrań w czasach Loudness war

Słuchanie z różnych nośników i źródeł jest męczące ze względu na bardzo duże różnice głośności.

Jeżeli ktoś dysponuje wzmacniaczem, który umożliwia regulację poziomów poszczególnych wejść, powinien z tej opcji korzystać. Jeśli wzmacniacz, którego używamy ma wskaźniki poziomu ustawienie jest proste. Wystarczy odtworzyć plik testowy 1 kHz o poziomie np. 0 dB i ustawić czułość tak, żeby wzmacniacz oddawał 1 wat. Jeśli teraz odtworzymy ten sam plik z innego źródła będziemy wiedzieć czy jest ono cichsze, czy głośniejsze i możemy skorygować poziom.

Najprościej jednak, mając kilka źródeł dźwięku, korzystać z ich wyjść cyfrowych. Niezależnie od odtwarzacza i rodzaju połączenia cyfrowego, ten sam utwór będzie zawsze tak samo głośny.

Co jednak z posiadaczami klasycznych zestawów, które nie mają regulacji i nie mają wejść cyfrowych? W takim przypadku możemy sprawdzić z jaką głośnością grają poszczególne źródła dźwięku. Załóżmy, że mamy 3 źródła sygnału i są to: odtwarzacz sieciowy, odtwarzacz CD i komputer.

Nie będziemy mogli zmienić głośności źródła, ani zmienić czułości wejścia, ale odtwarzając plik testowy 1 kHz 0 dB możemy sprawdzić poziomy. Do tego potrzebny jest komputer podłączony do wyjścia wzmacniacza. Jeśli uruchomimy program do nagrywania i włączymy monitorowanie, będziemy mogli stwierdzić który odtwarzacz gra jakim poziomem i dotyczy to również samego komputera, jako źródła. Karta muzyczna musi mieć w pełni niezależne wejścia/wyjścia.

Jeśli słuchając z jednego źródła przechodzimy na inne możemy ściszyć wzmacniacz lub zwiększyć głośność w zależności od użytego źródła. W ten sposób wrażenia będą bardziej spójne. Dlatego warto zmierzyć głośność źródeł dźwięku, z których się korzysta i przy każdej zmianie odpowiednio ją skorygować we wzmacniaczu. Najprościej jeśli wzmacniacz pokazuje poziom głośności w dB. Jeśli korzystaliśmy ze "średnio-głośnego" odtwarzacza i przełączamy się teraz na głośniejszy o 3 dB jak to wcześniej zmierzyliśmy, zmniejszamy poziom głośności we wzmacniaczu przykładowo z - 35 dB do - 38 dB itd.

Największy problem mają posiadacze wzmacniaczy ze zwyczajnymi potencjometrami, które są wyskalowane w abstrakcyjnych jednostkach, albo nie są wyskalowane w ogóle.

Wzmacniacze mające zwyczajne potencjometry są konstruowane w ten sposób, że pełną moc osiągają przy głośności ustawionej na godzinę dwunastą. Dotyczy to źródła dźwięku o standardowej głośności. Wobec tego wzmacniacz o mocy 100W na kanał z takim źródłem będzie pracował z pełną mocą jeśli ustawimy regulator głośności na dwunastą. Jednak podłączając głośniejsze źródło pełną moc będziemy mieć znacznie wcześniej.

Problem jednak jest bardziej złożony i polega przede wszystkim na tym, że różne nagrania na różnych nośnikach mają inną głośność.

Pliki z muzyką dotknięte są tą samą przypadłością, co płyty, praktycznie każdy ma inną głośność. Słuchając naszej kolekcji narażeni jesteśmy na to, że niektóre ścieżki będą bardzo głośne, inne ciche. Dlatego trzeba się postarać w jakiś sposób wyrównać głośność odtwarzania i nie zawsze dobrym rozwiązaniem jest regulacja głośności we wzmacniaczu.

Najprościej jest słuchać plików w komputerze, gdyż czyta on wszystko i nie ma problemów z utrzymaniem stałej głośności. Wystarczy skorzystać z opcji ReplayGain odtwarzacza.


Korzystając z programu foobar2000 możemy wyrównać głośność plików. Skanowanie nie trwa długo, a sam proces jest odwracalny. Jeśli ktoś nie ma zaufania i nie chce wprowadzać żadnych zmian do plików może wykonać kopie.

Program potrafi również wyrównać głośność płyt CD odtwarzanych na komputerze z oryginalnego nośnika, wcale nie trzeba ich zgrywać na dysk.

Jeśli chodzi o pliki odtwarzane na zewnętrznych odtwarzaczach opcja nie zawsze działa. W takim przypadku można zmienić głośność plików w inny sposób.Do zmiany głośności plików mp3 możemy użyć aplikacji MP3Gain.


Program MP3Gain nie zmienia głośności przez ponowną kompresję, ale modyfikuje metadane pliku, pozostawiając sam plik niezmieniony. Normalizacja głośności jest odwracalna.

Program pracując nad plikami o dużym czasie odtwarzania jakby zawiesza się. Nie powinniśmy go jednak kończyć, tylko poczekać. Może potrwać nawet kilka minut zanim program "przemieli" jakieś długie nagranie. Używając programu MP3Gain warto zawsze najpierw zrobić analizę, by wykluczyć pliki, które po zmianie głośności byłyby obarczone clippingiem.

Na koniec kilka uwag dla osób, które mają klasyczne zestawy tzn. odtwarzacz CD, który nie czytający żadnych plików. Załóżmy, że posiadacz takiego zestawu nie chce podłączać żadnego odtwarzacza plików, komputera itd. W takim odtwarzaczu można słuchać plików, trzeba je wypalić na CD. Najlepiej na płycie wielokrotnego zapisu CD-RW. Przed wypaleniem warto wykonać normalizację głośności.

Co jednak jeśli plik trwa 4 godziny? Mp3 można podzielić na krótsze kawałki programem mp3DirectCut. Dzieli ona pliki bez ich ponownej kompresji.

Gdy długi plik jest w innym kodeku, np.Ogg można użyć Audacity i wyeksportować kilka części do FLAC i po normalizacji głośności wypalić CD.

Osoby, które mają odtwarzacze plików nie czytające jakiegoś formatu powinny przekonwertować je do formatu bezstratnego. Konwertowanie z formatu stratnego do innego stratnego obniża jakość. Jeśli odtwarzacz nie czyta formatów bezstratnych najlepiej wypalić pliki jako CD-audio.

niedziela, 17 stycznia 2016

Nagrywanie audycji radiowych

Jest kilka sposobów nagrywania. W tym poście zostanie omówiony ten, którym jest nagrywanie zewnętrznego źródła dźwięku podłączonego do wzmacniacza z jego wyjścia analogowego (OUT), przy użyciu komputera.

Aby nagranie było możliwie najwyższej jakości trzeba ustawić poziom uniemożliwiający powstawanie clippingu. Nie jest to takie proste, jak by się wydawało, bo sporo ściągniętych z internetu  nagrań ma clipping.

Każde źródło dźwięku wymaga innej głośności nagrywania. Czasem nawet może się wydawać, że nagrania różnych audycji z tej samej stacji trzeba wykonać z innym poziomem. Wystarczy znaleźć poziom nagrywania dla najgłośniejszej stacji i najgłośniejszej audycji. Raz znaleziony dla konkretnego źródła dźwięku, np. tunera radiowego będzie obowiązywał aż do jego wymiany lub karty muzycznej. Natomiast każde źródło dźwięku potrzebuje indywidualnego poziomu nagrania, ponieważ  każde źródło dźwięku ma inną głośność. Jeśli porównamy kilka odtwarzaczy, okaże się, że każdy z nich ma inny poziom na wyjściu. Mowa o poziomie wyjścia analogowego.

Niestety nie ma norm na poziom wyjściowy. Różne odtwarzacze mają inne parametry wyjścia i odtwarzając ten sam plik, za każdym razem, tzn. na każdym urządzeniu zagra on z inną głośnością.

Dobry poziom zapisu pozwala uniknąć przesterowań i trzeba go tak ustawić, żeby maksimum wskazań wynosiło -6 dB, minus sześć decybeli. Nie powinno się "dopychać" poziomu do zera, bo będzie to się kończyło przesterowaniem i w konsekwencji clippingiem. Wskaźnik w programie do nagrywania nie pokazuje dokładnego poziomu. On wskazuje poziom orientacyjny. Wskaźnik nie bierze pod uwagę wszystkich sampli, ale porcję co określony okres czasu. Wobec tego pojedyncze szpilki mogą się znaleźć poza okresem, kiedy wskaźnik poziomu mierzył głośność. Profesjonalny wskaźnik poziomu, który pokazuje faktycznie co i jak bezbłędnie i dokładnie jest dość drogi. Te, które są w programach do nagrywania na pewno nie są perfekcyjne. I z tego powodu musimy mieć pewien margines bezpieczeństwa i zostawić 6 dB zapasu.

O tym czy ustawiliśmy właściwy poziom nagrania możemy się przekonać dopiero po fakcie, kiedy przeanalizujemy nasze nagrania na okoliczność występowania clippingu. Dlatego zapobieganie obcinaniu polega na nagrywaniu z marginesem bezpieczeństwa. Jeśli to się już stanie, nic się nie da zrobić.

Musimy poświecić nieco czasu dla każdego odbiornika radiowego i zawsze, mając już pewność, że nawet najgłośniejsza audycja najgłośniejszej stacji nie będzie przesterowana, notujemy poziom głośności nagrywania przykładowo tuner radiowy 0,35; odtwarzacz sieciowy 0,36.

Na UKF każda stacja gra inaczej. Komercyjni grają inaczej niż państwowi. Czesi grają ciszej niż Polacy. Niemcy także grają ciszej i w ogóle bardziej zaawansowane technicznie kraje grają ciszej. Oni grają 0 dB, a my +3 dB.

Fanatycy nagrywają do FLAC, jednak pliki są bardzo duże i dlatego warto się zastanowić nad formatem stratnym. Jaki stopień kompresji wybrać, stereo czy połączone stereo tzw. joint stereo. Lepszym rozwiązaniem jest połączone stereo. Gwarantuje ono wyższą jakość dźwięku przy podobnej przepływności. Stereo sprawdza się lepiej w przypadku nagrań nie mających żadnych prawie cech wspólnych pomiędzy kanałami. Jeśli ktoś nagrywał jednym mikrofonem gitarę, a drugim głos, to takie nagranie powinien kompresować w stereo, ale zwyczajne realizacje prawie zawsze lepiej się kwalifikują do połączonego stereo, bo większość informacji jest wspólna dla obu kanałów. Nagrania na winylach mają monofoniczne basy, więc jeśli je kompresować to w joint stereo.

Lepiej stosować VBR, bo w ten sposób pliki są mniejsze a jakość taka jak CBR z wyższym bitrate. Wystarcza VBR4, ale jeśli ktoś uważa, że to za mało może ustawić 3, chociaż najpierw lepiej sprawdzić w teście ABX czy słychać różnicę.

Ważniejsze od stopnia kompresji jest, żeby w nagraniu nie było obcięć oraz to, że jeśli wyeksportujemy nagranie do formatu stratnego nie wolno z nim już nic więcej zrobić. Ponowna kompresja nie wchodzi w grę. Nie wolno konwertować ponownie plików z niskim bitrate do wyższego. Format stratny polega na tym, że przy każdej kompresji część danych zostanie bezpowrotnie usunięta i nie ma sposobu, żeby to odwrócić. Ponowna kompresja z niższego bitrate do wyższego nie przywróci utraconych danych tylko spowoduje, że zostaną utracone kolejne i jakość dodatkowo spadnie.

To jest niestety praktyka nagminna. Jeśli ktoś tak robi i osoba, która ściągnęła sobie od was taki oszukany plik się zorientuje, to już nigdy nic od was nie ściągnie.

Na koniec jak sprawdzić czy pliki są oryginalne, czy nie są kompresowane ponownie z niższego bitrate do wyższego.

Są programy, które analizują pliki mp3. Przykładowo EncSpot. Aplikacja jest nierozwijana od dłuższego czasu, ale pokazuje sporo przydatnych informacji.



Aplikacja pokazuje sporo danych o pliku. Zwracamy uwagę na to czy program uznał go za oryginał, czy nie.

Drugim ciekawym programem jest Spek. Jeśli zobaczymy coś takiego:



mamy pewność, że ten plik jest oszustwem dlatego, że dla bitrate 320 zakres zapisanych częstotliwości powinien sięgać do 20 kHz. Radio nie nadaje do 20 kHz, chociaż są transmisje w internecie, które zawierają częstotliwości nawet jeszcze wyższe. Pobierając pliki z piosenkami z płyt możemy jednak w ten sposób sprawdzić z czym mamy do czynienia. Mając trochę doświadczenia z analizą plików można zauważyć że plik po kilkukrotnej rekompresji wygląda "cienko". Dla orientacji widma w różnym stopniu kompresji.

V0


V1


V2


V3


Lekka kompresja trochę przerzedza górę pasma, silna obcina zupełnie. Radio UKF jednak nie nadaje więcej niż 15 kHz. Dlatego nie ma się co przejmować, że powyżej 15 kHz przy silnej kompresji nic nie ma.

Są tacy, co filtrują wszystko sami, co jest ponad 15 kHz w nagraniach z UKF. To błąd. Kodek w programie do nagrywania sam odfiltruje górę pasma. Jak ktoś mógł w ogóle wpaść na pomysł, żeby filtrować nagrania? A wpadł.

Miłego nagrywania w dobrej jakości.