Kable cyfrowe – jedyny fragment Wszechświata przekraczający entropię

Czy transmisja sygnałów cyfrowych może ulegać zniekształceniu?

   Autor: Waldemar Łuczkoś, inżynier elektronik – projektant i wykonawca aparatury audio klasy high-end dysponujący wykształceniem muzycznym i słuchem absolutnym.

     Czy transmisja w oparciu o sygnały cyfrowe może ulegać zniekształceniom? Teoria podsuwa nam opinię, iż nie ma takiej możliwości. Na jej poparcie padają wyjaśnienia o zgodności bitowej w testach transmisji – całkowitej identyczności pomiędzy sygnałem wysłanym a odebranym.

    Tyle mówi „teoria”, ale jak by nie pisać dogłębnie i jak tematu szeroko nie ujmować, jest to prawdą w 90%. To dużo, ale pozostałe 10% temu przeczy.

    Zachodzi bowiem analogia do często napotykanej sytuacji, w której teoretycznie coś powinno bez zarzutu działać, jako że wszystko podłączono poprawnie, tyle że niestety nie działa – i oczywiście nikt nie wie czemu.

    Technologia przesyłu sygnałów cyfrowych opracowana została w pierwszej połowie XX wieku, czyli w okresie całkowitej dominacji transmisji analogowych. Te, początkowo wszechobecne w różnych działkach elektroniki, telekomunikacji, radiofonii, telewizji i wojskowości, stopniowo były wypierane i ostatecznie w dużej części zastąpione transferem cyfrowym, wywodzącym się w prostej linii z symboliki znaków logicznych. Przenoszenie informacji cyfrowej z jednego ośrodka do drugiego realizowane było zarówno za pośrednictwem transportowalnych nośników magnetycznych i półprzewodnikowych (jak taśmy, dyski, pendrajwy), jak też w transmisjach radiowych albo kablowych. (Najstarsze transmisje cyfrowe prowadzono drogą radiową lub kablową za pośrednictwem alfabetu Morse’a.)

    Cofnijmy się teraz do początku. Gdy w latach pięćdziesiątych XIX wieku powstały pierwsze przewody transmisyjne długich linii przesyłu sygnałów analogowych (jak kabel pod Atlantykiem, zrealizowany finalnie w 1866 roku), ku powszechnemu zaskoczeniu zdiagnozowano ogromne zniekształcenia i spowolnienia transmisji prowadzonej tak długaśnym analogowym kablem z użyciem cyfrowego kodu alfabetu Morse’a. Skalę problemu obrazuje fakt, że pierwsza próba przesyłu z 1858 roku (ten pierwszy transatlantycki kabel zaraz potem uległ zniszczeniu podczas testów sprawdzania jego przepustowości poprzez wzmacnianie sygnału) pracowała w tempie jednego znaku alfabetu na dwie minuty transmisji. Poprowadzenie grubszych kabli, zdolnych przenosić mocniejsze prądy, pozwoliło kilka lat później na przyspieszenie rzędu ośmiu słów na minutę, co jednak w dalszym ciągu dalece nie odpowiadało potrzebom. Dalszy postęp okazał się już niezbywalnie wymagać rygorystycznego spełnienia warunków dopasowania impedancji falowej (wyrównania czasowego transferów wszystkich składowych częstotliwości), sformułowanych pod postacią równań różniczkowych przez Olivera Heaviside’a w pracach opublikowanych po 1876 roku. W praktyce wyraźny wzrost szybkości transmisji nastąpił jednak dopiero po kilkudziesięciu latach.

   W momencie pojawienia się w XX wieku nowych technik transmisji cyfrowych, korzystających już z tamtych opracowań, zakładana była od razu ich całkowita odporność na wszelkie zakłócenia i utratę danych, czyli pełna bezstratność i powtarzalność wymiany danych.

    (I)  Postawmy teraz pytanie: czy sygnał cyfrowy, wbrew tym optymistycznym założeniom, może ulegać zniekształceniu? Czy to w ogóle możliwe?

    Okazuje się, że może, ponieważ mimo użycia symboli logicznych to wciąż sygnał analogowy – wiązka kodowych znaków przesyłanych w domenie analogowej. Cyfrowość symboliczna pozostaje tutaj jedynie nakładką na analogowy nośnik transferu, wciąż podatny na swoje błędy.

  Dotyczy to każdej postaci „zera” i „jedynki” w procesie zapisu i odczytu (w pamięci, na taśmie, na dysku, w PCB), i tak samo w procesie transmisji kablowej (elektrycznej albo optycznej), w procesie konwersji bitowej (AD/DA), w procesie przetwarzania danych (uP/PCB/pamięć/przetworniki) – itd.

   Za wszystkimi tymi procedurami stoi jednakże wspierająco i zabezpieczająco szereg technik weryfikacji i korekcji błędów, mogących powstawać skutkiem nakładania się zachowań typowych dla analogowego nośnika na narzucane mu kodowanie cyfrowe.

    Przyjrzyjmy się tym zachowaniom. Pierwszym problemem są zniekształcenia treści samego sygnału, powstające na wszystkich etapach: generowania, transmisji, odczytu i archiwizacji.

   Na pierwszy rzut oka (oka naszego pojmowania) konstrukcja znaku logicznego (tym bardziej, że w grę wchodzą przecież jedynie dwa: jedynka i zero), nic nie wskazuje na to, by sam on mógł generować jakikolwiek błąd. To samo zdaje się odnosić do kolejnego etapu – do procedury transferowej.

   Logiczny znak zera, zgodnie z przyjętą normą, „widziany” jest przez bramkę logiczną jako impuls prądowy z przedziału 0,0 – 0,8 V, umowna jedynka zaś jako impuls z przedziału 2,4 – 5,0 V. (Po raz pierwszy takie napięcia zastosowano w tranzystorach bipolarnych.) Jak widać znajduje się pomiędzy tymi przedziałami martwy bufor 0,8 – 2,4 V, którego rozmiar i położenie na osi napięć świadczy o niesymetrii postrzegania przez bramkę niskiego i wysokiego napięcia. Co samo w sobie nastręcza już wątpliwości odnośnie poprawności sygnałów na jej wyjściu. Przy stosowaniu techniki MOS, z pomocą bramek zbudowanych w oparciu o tranzystory unipolarne, problem tej nierówności (niesymetryczności) zakresów znaku logicznego został naprawczo przesunięty w stronę wyrównania –  bramka MOS widziała już zera i jedynki w bliższych równości zakresach napięć.

  (II)   Zapytajmy teraz, czy bramka MOS (stosowana dziś niemal wszędzie) jest doskonale, albo przynajmniej wystarczająco, strzegącym przed błędami czytnikiem transmisji sygnałów cyfrowych? 

    Teoretycznie tak, ale praktycznie…

    Typowa bramka MOS jest zbudowana z tranzystorów o polaryzacji N oraz P; zachodzi jednak praktyczna trudność w zbudowaniu dokładnie zsymetryzowanych funkcyjnie tranzystorów stanowiących złożenie polaryzacji N i P, w następstwie czego poszczególne bramki mogą się różnić czasem pracy. Inaczej mówiąc: dystans czasowy pomiędzy wejściem a wyjściem nie jest dla różnych bramek (tranzystorów) w praktyce identyczny. W dodatku praca bramek jest obarczona opóźnieniami transmisji na wcześniejszych etapach, a także powstawaniem lokalnych zakłóceń i negatywnymi wpływami jonizacji. Empiria udowadnia, że przy tylu utrudnieniach transmisja sygnałów cyfrowych może zacząć się różnić od sygnału wzorcowego.

    W praktyce bowiem każda bramka, stanowiąca aktywny element elektroniczny, jest tak naprawdę zwykłym wzmacniaczem napięciowym (podobnie jak liniowy wzmacniacz operacyjny), w którym nie zastosowano ujemnej pętli sprzężenia zwrotnego (NFB), potrzebnej do minimalizacji zniekształceń sygnału pomiędzy wejściem a wyjściem, gdzie układ NFB analizuje stan „śledzenia” błędu w dziedzinie amplitudy i fazy. Bramka, której praca polega na wielokrotnym „przesterowywaniu” układu sygnałem pobudzającym, wywołującym szybsze narastanie i opadanie sygnału (mające na celu stopniowe przeistoczenie jego pierwotnie sinusoidalnego przebiegu w prostokątny) może doprowadzić do braku kontroli nad amplitudą oraz czasem pomiędzy wejściem a wyjściem. (Sama obecność bramek weryfikujących stan logiczny na wyjściu potwierdza istnienie problemu niezgodności sygnałów post transmisyjnych.)

    Problem zaburzającej pracy bramek nie będzie na szczęście degradacją zasadniczą, o ile tylko znaki logiczne zgodzą się z grubsza na koniec z protokołem transmisji (dzięki procedurom naprawczym). Gorzej niestety będzie ze ścisłością na osi czasu, zwłaszcza odnośnie szybkozmiennych sygnałów przenoszących obraz muzyczny z domeny analogowej w cyfrową lub odwrotnie.

    Gdyż niestety, czasowych błędów przesunięcia już skorygować się nie da.

  (III)   Zadajmy kolejne pytanie: Czy tylko w taki sposób powstają zniekształcenia w transmisjach sygnałów cyfrowych?

    Jeśli w domenie cyfrowej transmitowany jest pierwotnie analogowy sygnał stereofoniczny, efekt końcowy zależeć będzie od każdego ze składników protokołu, mamy więc analogię do łańcucha, zależnego od mocy każdego z ogniw.

    Cały sygnał cyfrowy S/PDIF, w którym zakodowano cyfrowo sygnały lewego i prawego kanału stereofonicznego, sygnał zegara taktującego i sygnał identyfikacji, jest przesyłany jednym przewodem – kablem koncentrycznym albo  optycznym.

    Do tego stopnia zunifikowana transmisja może być stosowana  dzięki  implementacji znaczników zegara taktującego na znakach logicznych pozostałych składników przesyłu, co wymagać będzie po stronie odbiorczej lokalnego generatora zsynchronizowanego z sygnałem dzięki obwodom pętli PLL. Od precyzji odczytywania przez ten generator taktu zegarowego zależeć będzie zgodność fazowa pomiędzy wszystkimi stanami logicznymi; ta procedura i jej precyzja decyduje o jakości pracy układów D/A converter, przywracających na ostatnim etapie pierwotny sygnał analogowy.

   Skupmy się zatem na własnościach przewodu koncentrycznego. Jego zdolność przesłania niezniekształconego sygnału okazuje się dyskusyjna; w standardzie określona progiem poprawnej interpretacji znaków logicznych do momentu, w którym fala odbita od fali wejściowej nie przekracza 25% wartości tej drugiej. Po przekroczeniu tego poziomu urządzenie odczytujące sygnał może odmówić współpracy.

(IV) Co to praktycznie oznacza?

   Oznacza zniekształcenia amplitudy przesyłanego sygnału poprzez powstające w kablu wtrącenia wtórnych amplitud odbiciowych, niezgodnych fazowo i czasowo. – Ogólnie biorąc deformację fali, mogącą powodować błędną interpretację znaków logicznych. (Pamiętajmy – znaków cały czas formułowanych w domenie analogowej.) Sam kabel generuje więc odbiciowo błędy narastania i opadania zbocza, deformujące kształt amplitudy oraz powodujące jej całościowe obniżenie skutkiem interferencji i opóźnień czasowych.

   By przeciwdziałać tym zniekształceniom zapobiegawczo unika się w złożonym sygnale cyfrowym długich ciągów jednego znaku – tzw. „składowej stałej” – ponieważ występujące po sobie np. trzy jedynki zaburzą obraz zbocza. Te trzy „jedynki” będą mieć wprawdzie idealnie równe czasy pomiędzy sobą, lecz „zero” (kolejny znak) w momencie opadania zbocza obarczone zostanie deformacją czasową w następstwie nietypowo małej pracy wykonanej poprzednio na sygnale. Tego rodzaju niesymetryczność skutkuje drżeniem znaków na osi czasu, a więc rozmyciem fazy.  (Podobnie, lecz w mniejszym stopniu, dotyczy to transmisji optycznej.)

   Nadmiar zjawisk ubocznych o różnym pochodzeniu, w tym tych generowanych przez sam przewód, może więc stać się powodem złej interpretacji (zero czy jeden) i braku poprawnej synchronizacji sygnału cyfrowego. 

   W rzeczywistych warunkach pracy bramek (które teoretycznie są wzmacniaczami napięciowymi o „liniowym” charakterze wzmocnienia, co nie jest prawdą), reakcja korygująca odnosi się jedynie do zmian na początku sygnału, nie odnosi natomiast do środkowych i dalszych. 

    Inaczej wygląda to w prawdziwych układach liniowych, czyli przywołanych wcześniej wzmacniaczach operacyjnych zasilanych bipolarnie. Te posiadają podwójne zasilanie, symetryczne względem zerowego potencjału GDN (zero lub ziemia), gdzie  GND  jest odniesieniem dla sygnału wejściowego wobec wyjściowego (zsymetryzowana skala zero-plus, zero-minus zasilania). W takich układach można  określić chwilowe zmiany napięć na wyjściu z dużą dokładnością czasową.

    Zwykłe bramki pracują natomiast z unipolarnym zasilaniem (pojedynczym zasilaniem), gdzie odniesienie dla granicy pomiędzy znakami zera i jedynki jest umowne, w następstwie czego przy przetwarzaniu sygnału odebranego z transmisji przewodowej będzie zachodzić ryzyko błędu. Będzie ono tym większe, że poziomy wewnętrznych sygnałów w urządzeniach cyfrowych są rzędu  5V – 1,2V podczas gdy sygnały w przewodzie to 0,7V. W oczywisty sposób zwiększa to ryzyko złej interpretacji znaków przez stopnie wejściowe i wyjściowe, wobec czego zdolność do „wytrącenia z równowagi” znaków logicznych (stany zero/bufor/jedynka) jest całkiem realna, a w takim razie i nieunikniona.

   Odpowiedzią na to są układy i algorytmy korygujące błędy, a samo ich istnienie dowodem na istnienie błędów w transmisji. Każda forma korekcji błędów jest przy tym sama źródłem błędów.

    Odporność na zakłócenia w dziedzinie sygnałów cyfrowych jest zatem czysto teoretyczna. W praktyce bramki pracują w domenie analogowej (podobnie jak wzmacniacze operacyjne), zachowując wrażliwość na zakłócenia. Tym będą one większe, im krótsze są interwały między znakami i niższe poziomy odróżniania samych znaków.

    Z powodów konstrukcyjnych, takich jak różny rodzaj przewodnika (miedź, srebro), typ izolacji, kształt rdzenia, średnica rdzenia i grubość ekranu, ilość tychże ekranów, całkowita długość przewodu oraz typ łącza, poszczególne przewody z pewnością będą się różnić pod względem bezbłędności przesyłu i sumarycznego poziomu zniekształceń. Tym samym będą wpływały na pracę systemu cyfrowego tak samo jak zmiana zegara taktującego albo rezonatora kwarcowego.

   Wobec faktu pracy przetwornika D/A z czasem o odstępach liczonych na poziomie nanosekund, jakiekolwiek błędy czasowe transmisji będą momentalnie powodem odczuwalnych zaburzeń. Przy czym urządzenia z przeciętnej grupy zaawansowania technologicznego, czyli po prostu tanie, nie będą reagowały w istotny sposób na zmiany kabli sygnałowych. Dotyczy to także zjawisk psycho-sonicznych u osób o niewyrobionej skali wrażliwości na materiał muzyczny i ignorantów muzycznych. Pink Floyd zaś zawsze będzie dobrze działał, niezależnie od użytego kabla S/PDIF, skutkiem trzech tylko funkcji w partyturze, zamplifikowanych w dodatku na przesterze. To niestety za mało, by zmiana kabla coś wniosła. Należy zmienić wykonawcę na bardziej wirtuozowsko zaawansowanego i muzykę na bardziej skomplikowaną, by sygnał o większej ilości danych ulegał w transmisji bardziej zauważalnym zniekształceniom.

Pokaż cały artykuł na 1 stronie

32 komentarzy w “Kable cyfrowe – jedyny fragment Wszechświata przekraczający entropię

  1. Fon pisze:

    Ciekawy to wykład się zrobił,zapytam więc ,które to kable spełniają powyższe wymagania 🙂
    Zdaje się jakiś topowy Technics z lat 80 miał połączenie transportu z dacem optyczne…A kosztował fortunę,zastanawiające.

    1. Piotr+Ryka pisze:

      Daleko mi do możliwości powiedzenia o sobie, że znana mi jest odnośnie potencjału jakościowego paleta dostępnych kabli cyfrowych, znam mały jej wycinek.

  2. slawsim pisze:

    Z całym szacunkiem dla bardzo ciekawego materiału Panie Piotrze, nie daje mi spokoju ten fragment „0,0006 cm. (Sześć tysięcznych milimetra.)”. Pierwsza cyfra po przecinku reprezentuje liczbę dziesiątych, druga setne. Kolejne cyfry tysięczne, dziesięciotysięczne itd. Czy jest błąd w tekście czy ja coś pomyliłem? Ponadto czy będą to diesięciotysięczne milimetra czy napisanego za nimi centymetra? Zgłupiałem po covidzie, czy mam rację? 🙂 Pozdrawiam i absolutnie sie nie czepiam 🙂

    1. Piotr+Ryka pisze:

      To nie moja część tekstu, muszę sprawdzić.

    2. Sławek pisze:

      No to włącz sobie kalkulator. 0,0006 cm * 10 (bo cm to 10 mm) = 0,006 mm
      Pomyliłeś.

  3. Sławek pisze:

    To nie jest recenzja. To jest arcydzieło!

  4. Sławomir S pisze:

    Super temat i świetnie zredagowany. Może tylko budowanie polemiki do wyznawców zerojedynkowej doskonałości to już zabieg odrobinę niepotrzebny. Niech Oni zostaną sobie w swoim klubie uproszczonego postrzegania świata i nie zajmujmy się tym.
    Mamy zatem interesująco nakreślony temat transmisji sygnału (tu cyfrowego) za pomocą kabla. Czy możemy liczyć na dalsze rozważania o transmisji bezprzewodowej? Gdzie tu czają się zasadzki dla jakości? I co będzie przyszłością transmisji sygnałów w priorytecie jakości?

  5. Janek pisze:

    Panie Piotrze,
    Bardzo cenię Pana recenzje, opisy sprzętów hifi. Ale tym razem rozumiem, że ten tekst jest jakimś pastiszem, prowokacją oraz intelektualną rozróbą. Trudno mi zgodzić się z tym, że zaprzęga Pan całą fizykę klasyczną i kwantową, kosmologię oraz materiałoznawstwo do udowodnienia abstrakcyjnych tez, którymi są „różnice w graniu cyfrowych interkonektów”. Moim zdaniem, to, co Pan tutaj wyprawia jest znaczącym nadużyciem, nieprawdą i skrajną naiwnością. Chciałoby się napisać – głupotą. Dawno nie czytałem tak „odważnego” tekstu, który wydaje się być pisany niestety w prawdzie, a nie w fantazji. Julius Verne powinien Panu zazdrościć 🙂

    1. Piotr+Ryka pisze:

      Dlaczego abstrakcyjne? Skoro je słychać, to nie abstrakcyjne.

  6. Pawcio pisze:

    Cieszę się, ze temat został zebrany w pewną całość. Będzie można link na różnych forach podawać tym co zaszufladkowali sobie wiedzę w mocno uproszczonym schemacie nie opisującym nawet wycinka rzeczywistości i bronią zaciekle schematu (bez wnikania jakie temu towarzysza motywacje).
    Świetne opracowanie !!!
    Przy okazji już dawno w przypadku transmisji cyfrowej korzystam z jedynie z transmisji LAN a i tak w moim torze audio słychać różnice między kablami LAN, choć ich wpływ na dźwięk finalny nie jest tak znaczący jak innych kabli w systemie.

  7. Fon pisze:

    No ale przydałyby się przykłady konkretnych kabli Piotrze,które to spełniają wszystkie opisane tu parametry bo w tym gąszczu propozycji trudno się połapać .

    1. Piotr+Ryka pisze:

      Z przystępnych cenowo najpewniejsze są kable optyczne, jako z natury generujące najmniejsze zniekształcenia. Porównywalne z nimi elektryczne z reguły są drogie lub bardzo drogie. Ale co po najlepszym kablu jakiegoś typu, gdy dane urządzenie zostało przez twórców zoptymalizowane do innego rodzaju kabli, np. nie do koaksjalnych, a USB? Nawiasem za najlepszy do transmisji elektrycznej uważa się potrójny BNC, ale co z tego, jak żadne urządzenia poza bardzo nielicznymi wyjątkami złącz dla niego nie mają?

      1. Fon pisze:

        To z powodu tych komplikacji technicznych kabli najlepiej jest zastosowanie odtwarzacza zintegrowanego wysokiej klasy gdzie problem przewodów cyfrowych mamy z głowy:)

      2. Sławek pisze:

        Co do kabli optycznych, to miałem kiedyś transport CD Cambridge Audio CXC i podłączony zwykłym „plastikowym” optykiem grał „normalnie”, a podłączonym „szklanym” optykiem Wireworld Supernova7 grał dużo lepiej.
        Jednak dla mnie kable optyczne brzmią odrobinę szarawo, jakiś taki „kartonowy” nalot mają.
        W high endowym transporcie CD Jay’s Audio – dowolny model – brak wyjścia optycznego.

        1. Piotr+Ryka pisze:

          Bardzo dużo zależy od optymalizacji przetwornika do typu wejścia cyfrowego. Najczęstsze spotykane to pod USB, pod AES/EBU i pod I2S. Pamiętam jak specjalnie na użytek mojej recenzji Mytek optymalizował swojego Manhattana pod wejście optyczne. Specjalny moduł optymalizacyjny kosztował go grube pieniądze.

  8. Tomasz pisze:

    Szanowni Państwo,

    Dyskusja jest gorąca niczym upalne lato za oknem, ale niestety bezprzedmiotowa albowiem krytycy i sceptycy nie mając żadnych racjonalnych argumentów technicznych ani wiedzy stosują albo hejt (młodzian z kanału „Ton Składowy” i jego wyznawcy) albo publikują manifesty Partii Głuchych na zasadzie: „jeśli ja czegoś nie słyszę to znaczy, że tego nie ma”. Ryzykowna taktyka, ale jak się okazuje, skuteczna. Oto frakcja głuchych i hejtujących słyszenie u innych czuje się zwolniona z racjonalnej argumentacji. To słyszący muszą publikować mądre artykuły jak ten komentowany, to słyszący muszą się bronić przed atakami, to słyszący muszą udowadniać, że słyszą. Partia Głuchych stosuje prostą metodę rodem z filmu „Miś” Barei: „Nie mamy pańskiego płaszcza i co pan nam zrobi?”. W tym miejscu muszę wspomnieć z uznaniem o twórcy kanału „Reduktor Szumu”, bo po pierwsze posiada ogromną wiedzę teoretyczną i praktyczną a po drugie jest jednym nielicznych z frakcji sceptyków, który ma odwagę przyznać, że sprzęt z którym obcuje nie pozwala mu ocenić wielu zjawisk akustycznych zachodzących w wyniku zmian kabli, bezpieczników itd. Szacun, jak mawiają młodzi.

    Z poważaniem

    1. Piotr+Ryka pisze:

      Swoje zdanie na temat „Reduktora szumu” przedstawiłem tutaj: https://hifiphilosophy.com/krytyka-audiofilizmu-pod-haslem-audiovoodoo/

  9. Piotr+Ryka pisze:

    Kiedy przeglądam komentarze – zarówno jeden z tutejszych, jak i owe żałosne kwiki intelektualnej rejterady wesołej gromadki fejsbukowych antyaudiofili – coraz wyraźniej dociera do mnie, że komentującym najwyraźniej umknął podstawowy fakt, iż mianowicie tekst nie jest wyłącznie mój, tylko ma trzech autorów, z których dwóch to inżynierowie elektronicy. Z których jeden to były pracownik naukowy, specjalista od konstruowania systemów szybkiej łączności cyfrowej w Instytucie Elektroniki AGH; i właśnie on, podobnie zresztą jak kolega po fachu, przywołuje podstawowy fakt tego, że sygnał cyfrowy pozostaje w istocie analogowy, a jego analogowe rozmycie jest widoczne w pomiarach, a nie jedynie słyszalne. Zwyczajnym oszustwem jest zatem twierdzenie, że niedoskonałości transferu cyfrowego są wyłącznie aktami wiary ze strony tkniętych manią audiofili. No ale kto by tam chciał docierać z czytaniem aż do trzeciej strony, nie wspominając o ostatniej; dla antyaudiofilskich makówek to już zdecydowanie za dużo słów, podobnie jak dla cesarza Józefa II w partyturach Mozarta było za dużo nut. (Tylko żeby nie było, że porównuję siebie do Mozarta, bo już słyszę te intelektualne rozbłyski mistrzów dwuzdaniowego komentarza.)

    1. MirekM pisze:

      Niestety rzesze audiofili sądzą, iż w kablach cyfrowych przepływają zera i jedynki.

      1. Piotr+Ryka pisze:

        Myślę, że audiofile, zwłaszcza ci posługujący się kablami cyfrowymi, czytając ich opisy często natykają się na informację o ich faktycznej analogowości. Prędzej też wiedzą o tym, do jakiego stopnia przekaz cyfrowy jest obarczony błędami. Tego samego o antyaudiofilach bym już nie powiedział.

    2. Pe_eL pisze:

      „podstawowy fakt, iż mianowicie tekst nie jest wyłącznie mój, tylko ma trzech autorów, z których dwóch to inżynierowie elektronicy. Z których jeden to były pracownik naukowy, specjalista od konstruowania systemów szybkiej łączności cyfrowej w Instytucie Elektroniki AGH;”

      1. Czy – jako autor tekstu – przeprowadzil pan jakakolwiek weryfikacje twierdzen pozostalych autorow?

      „podstawowy fakt tego, że sygnał cyfrowy pozostaje w istocie analogowy, a jego analogowe rozmycie jest widoczne w pomiarach, a nie jedynie słyszalne. Zwyczajnym oszustwem jest zatem twierdzenie, że niedoskonałości transferu cyfrowego są wyłącznie aktami wiary ze strony tkniętych manią audiofili.”

      2. No ale wlasnie o to chodzi – ze cos moze byc rejestrowane w pomiarach dokonywanych precyzyjna aparatura i jednoczesnie nie byc slyszane przez ludzkie ucho i mozg, gdyz po prostu te roznice sa zbyt male, aby przez te organy byly rozroznialne. Po to wlasnie mamy aprature naukowa zeby nie polegac tylko na ludzkich zmyslach o ograniczonej czulosci.

      Oszustwem jedynie w calej tej duskisji jest panskie twierdzenie ze rozpoznawanie kazdej, najmniejszej niedoskonalosci transferu cyfrowego, nawet tej wielkosci 10^-12 rzedu wartosci ponizej progu rozpoznawalnosci ludzkiego mozgu sa czymkowliek wiecej niz li tylko aktem naiwnej wiary ulomnego umyslu ze strony maniakalnych i niedouczonych audiosfirow.

  10. Pe_eL pisze:

    Czy ja dobrze rozumiem, że cytowany tu pan Waszczyszyn twierdzi że uczestnicy jego testu są w stanie usłyszeć, rozróżnić i ocenić sygnały dźwiękowe o długości 20 femtosekund?

    1. Piotr+Ryka pisze:

      A Pan uważa, że femtosekundowe zegary to tak tylko dla jaj są oferowane, niczym słyszalnym się od mniej precyzyjnych nie różnią?

      1. Pe_eL pisze:

        Pewnie są oferowane po to, żeby je sprzedać i coś na nich zarobić.

        Ale ja nie o to pytam.

        Problem polega na tym, że – trochę to upraszczając – mózg ludzki nie działa na tyle szybko żeby femtosekundowe różnice dzwieku zarejestrować i ocenić. Po prostu prędkość przesyłania sygnałów między neuronami jest zbyt niska. W ciągu 20 fs impuls nie przedostanie się z jednego neuronu do drugiego, a to jest potrzebne żeby coś usłyszec.

        Mózg ludzki działa na poziomie mikrosekund.
        Jedna femtosekunda to 10^-12 mikrosekundy.
        12 rzędów wielkości różnicy.
        W jednej mikrosekundzie jest tyle femtosekund ile sekund w ponad 31 000 lat.

        Stąd moje pytanie.

        1. Piotr+Ryka pisze:

          Tak, to prawda, tylko że ta zegarowa precyzja nie służy bezpośredniemu postrzeganiu siebie samej, tylko precyzji wewnętrznego organizowania cyfrowej próbki muzycznej. Per analogiam – to tak jak powiedzieć, że prędkość karty graficznej RTX 4090 jest za duża, bo przecież nikt nie może zobaczyć 73 teraflopów obliczeń na sekundę (dziesięć do dwunastej operacji zmiennoprzecinkowych na sekundę), nikt nie może czegoś takiego ogarnąć wzrokiem. Ale te teraflopy nie są po to, żeby je same widzieć, tylko żeby organizować dynamiczną zmienność złożonego z wielu parametrów obrazu. Podobnie femtosekundowy zegar czuwa nad precyzją organizacji cyfrowego obrazu muzyki, nad brakiem jego rozmycia, a to rozmycie jest już słyszalne.

          1. Pe_eL pisze:

            „zegarowa precyzja nie służy bezpośredniemu postrzeganiu siebie samej”

            „organizować dynamiczną zmienność złożonego z wielu parametrów obrazu”

            „precyzją organizacji cyfrowego obrazu muzyki, nad brakiem jego rozmycia, a to rozmycie jest już słyszalne.”

            Pominawszy juz to, ze to jest jakies slowotworcze mumbo jambo, fakty sa takie, ze ludzki mozg nie jest w stanie rejestrowac czegokolwiek, zadnego cyfrowego rozmycia obrazu muzyki – ??? co to w ogole ma znaczyc – na poziomie 10^-12 nizszym niz jego zdolnosc do przesylania sygnalow elektrycznych miedzy neuronami. Sorry, ale mimo najszczerszych checi nie przeskoczymy tego.

          2. Piotr+Ryka pisze:

            Jeżeli nie jesteś w stanie pojąć rozróżnienia pomiędzy procesem a jego efektem, to trudno, tak już masz. W cząsteczce amoniaku atom azotu nieustanie przeskakuje od jednego do drugiego z trzech atomów wodoru i robi to z prędkością ponad miliarda razy na sekundę. A efektem jest nie jakiś szał, tylko śmierdząca ciecz, która wydaje się całkiem spokojna.

  11. R pisze:

    Forma i styl artykułów na hifiphilosophy to jest jakiś językowy koszmar. Czyta to się jak jakiś słowotok, w którym autor spisuje na bieżąco co mu ślina na język przyniesie bez sekundy zastanowienia się nad formą i stylem swojej wypowiedzi. Jakbym coś takiego pokazał polonistce w szkole podstawowej to mój zeszyt wyleciałby chwilę potem drzwiami a ja zaraz zanim z wielką pałą w dzienniczku. Polecam https://www.bryk.pl/jak-pisac/rozprawka.pokaz-cale-opracowanie i podrzucenie kilku artykułów korektorce lub znajomej polonistce. Polska jazyka trudna jazyka ale na pewnym poziomie wypadałoby jednak okazać mu jakiś szacunek.

    1. Piotr+Ryka pisze:

      Rozumiem, że chcesz mnie obrazić, ale proszę, nie czerp w tym celu z zagadnień, o których nie masz pojęcia.

  12. Adam M pisze:

    Komentarz żenujący, świadczący słabo o jego autorze i braku znajomości zagadnień o których pisze. Życzyłbym sobie żeby było więcej takich recenzentów umieją cych opisywać dźwięk w tak wyrafinowany sposób jak tutaj,że można go sobie (dźwięk) niemal wyobrazić.

  13. Tichy62 pisze:

    Mam kabel USB Supry. Wystarczy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

sennheiser-momentum-true-wireless
© HiFi Philosophy