Kable cyfrowe – jedyny fragment Wszechświata przekraczający entropię

    Wszystko się psuje i starzeje, poczynając od na eony rozpostartych gromad galaktyk i niepoznawalnych czarnych dziur rozsianych wśród decylionów gwiazd, a na przekraczająco wyobraźnię mikrych jądrach atomów kończąc. Cały Wszechświat z ogromną i gwałtownie rosnącą prędkością przeistacza się w bezpostaciową pustkę o nieodgadnionym mechanizmie dążenia i nieodgadnionym przeznaczeniu. – Ale nie, nie tak zupełnie wszystko się koniec końców rozprasza i rozproszkowuje, uporczywe próby wykazania, że protony samorzutnie ulegają rozpadom (kosztowały te próby fortunę), dowiodły jedynie tego, że nawet jeśli ma to miejsce, to po upływie czasu o wiele rzędów wielkości dłuższym niż minął od Wielkiego Wybuchu. (Wg ostatnich szacunków czas od WW to 13,787 mld lat, ale niewykluczone, że znacznie dłużej, uczeni się spierają.) Protony zatem nie – one same z siebie się nie starzeją i nie ulegają awariom – a dokładnie rzecz biorąc ich struktura (a posiadają takową, nawet skomplikowaną) opiera się autodestrukcji i jest w tym perfekcyjna. Jedynym więc realny zagrożeniem dla egzystencji protonów i im podobnych bytowych twardzieli pozostaje sugerowana przez teoretyków możliwość rozpadu spójności przestrzeni. Ta, gdyby zaszła realnie, unicestwiłaby kompletnie wszystko; nawet egzystujące jeszcze przed ostatecznym wyparowaniem czarne dziury nie mogłyby się jej przeciwstawić, też rozszarpane by zostały na czasoprzestrzenne strzępy i momentalnie zniknęły.  

    To jednak tylko teoretyczna sugestia, a póki co świat dookoła złożony jest z protonów oraz ich braci neutronów, oprócz których towarzyszą nam w sferze odczuwalnej fotony i elektrony, a nieodczuwalnej neutrina i sporo innych mikro stworków, plus nieodgadnione co do natury, nie wiadomo z czego się składające Ciemna Energia i Ciemna Materia. Wszystkie te byty w formie indywidualnej pozostają poza zasięgiem zmysłów (choć w pewnych warunkach można dostrzec już zaledwie kilka fotonów pod postacią mikro rozbłysku) – acz, mimo iż pojedynczo nieobserwowalne, ławice i konglomeraty owych pozazmysłowych malców są całym naszym środowiskiem oraz nami samymi, a chyba nie muszę nikomu tłumaczyć, że wszystko to podlega zmianom, w tym w głównej mierze samorzutnie się bałagani oraz stety-niestety starzeje. Zmiany te mogą przybierać gwałtowny charakter, a mogą też niedostrzegalny – w szerokim spektrum tempa zmian upływa nasze życie na tle rozległego teatru dziejów. Tu spadł samolot lub wybuchł wulkan – i duże bum! – wszyscy się zbiegli za pośrednictwem mediów oglądać widowisko duże, a tam rozpadło się w kimś mitochondrium, czego nikt, włącznie z gospodarzem, nie był w stanie wyłowić.

Muzyczny fragment bytu

   Przejdźmy od życia w ogólności do tego jego fragmentu, który ogranicza się do słuchania muzyki. Wciąż pozostaje to świata kawał – muzyki słuchają wszak prawie wszyscy, chcący albo niechcący – ale wyizolujmy z tego „prawie” wąską, kilkuprocentową zaledwie grupę zwaną audiofilami. To grono entuzjastów brzmienia na najwyższym odtwórczym poziomie, starających się na prywatny użytek posiąść złudę muzyki wykonanej gdzie indziej, nieraz daleko i dawno temu; lecz jeśli nawet, z uwagi na niedoskonałość nagrania, ta złuda nie jest pełną złudą, to przynajmniej dostaje taki zabezpieczony sprzętowo audiofil materiał nagraniowy w formie bliskiej odtwórczego optimum, i bardzo go to cieszy. Na rzecz tego skomplikowana aparatura, najczęściej bardzo droga, a pomiędzy poszczególnymi jej składnikami kable transferujące muzyczne dane…

    W zasadzie umilkły już głosy, bardzo kiedyś donośne, wykrzykujące pod adresem audiofili, że kable te nie mają najmniejszego wpływu na rezultaty brzmieniowe; dawni zapalczywi sceptycy przyznają teraz półgębkiem, że takie np. kable głośnikowe jakowyś wpływ na końcowy efekt dźwiękowy, wbrew ich wcześniejszym obiekcjom, mają. Ale dwa się ostały bastiony zażartego sceptycznego oporu i jednym się zaraz zajmiemy. Drugim przewody zasilające, o których nieraz na tych łamach bywało i może jeszcze kiedyś będzie, ale teraz o kablach cyfrowych.   

     Takie kable na audiofilski użytek pracują, historycznie rzecz biorąc, od stosunkowo niedawna, dokładnie od pierwszej połowy lat 80-tych XX wieku, czyli od czasów popularyzacji cyfrowego standardu CD, wiodące do którego prace badawcze zaczęły się w 1969. Lecz w tamtych początkowych czasach takie cyfrowy sygnał przewodzące kable zjawiały się prawie wyłącznie we wnętrzach odtwarzaczy, sporadycznie tylko na zewnątrz, pomiędzy rzadkimi wówczas oddzielonymi pudełkowo czytnikami płyt i przetwornikami D/A. Dzisiaj natomiast są powszechne, jako kanały transmisji popularnych plików muzycznych, czerpanych najczęściej z Internetu (mało kto już ripuje płyty). Lecz że te pliki z Internetu można wyciągać poprzez różne kable, to mamy tych cyfrowych spory wybór: kilka rodzajów USB, koaksjalne, S/PDIF, AES/EBU, BNC, I2S, HDMI, TOSLINK, Thunderbolt i Ethernet, no jest tego towarzystwa trochę. W kablach tych zagnieździły się nie same bity wędrowne, ale rozstawili też w nich gniazda oporu kablosceptycy cyfrowi, gotowi umierać za świętą prawdę, że taki kabel – którego byśmy z nich nie wzięli – na jakość brzmienia wpływu nie ma, nie ma go ani trochę. Albowiem różne są gęstości bitowe i różne częstotliwości wzorcowe, różne nawet same sposoby uważanego za bezstratny zapisu cyfrowego muzycznych danych (PCM, DXD, różne ilości kanałów), jak również różnie to wszystko można finalnie kształtować za pomocą odmiennych filtrów cyfrowych, ale jaka by to nie była metoda zapisu i jakim kablem nie przesłana, sam taki kabel nie decyduje o niczym!

    – Nie decyduje – i basta!

    – Kable tego samego typu, w tym najpopularniejsze Ethernet, USB i HDMI, nic a nic jakościowo pomiędzy sobą się nie różnią, więc jeśli tylko transmisja zachodzi (nie ma uszkodzeń ani niezgodności standardów) wówczas czy to muzyka, czy to obraz, będą dokładnie, z precyzją do jednego bitu identyczne.   

    Nie lubię odwoływać się do intuicji, nic a nic nie mam do niej zaufania, niemniej na wstępie zauważę, że całe życiowe doświadczenie podszeptuje, iż taki radykalizm pachnie blagą – fałszem zrodzonym z fanatyzmu wynikłego z deficytów emocjonalnych. Bo w sumie co to kogo obchodzi, że ktoś sobie uważa, iż kable cyfrowe mają znaczenie dla jakościowego poziomu brzmienia? – Tak uważa, tak to usłyszał – jego sprawa, a niech uważa. Ale nie! Fanatyczni sceptycy, zbrojni rechotem i rzecz jasna mający we własnym przekonaniu podejście „naukowe”, gotowi są poświęcić spory fragment życia na zmagania z poglądem głoszącym, że kable cyfrowe coś tam, coś tam, ale jakoś na dźwięk wpływają.  

   – Bo nie wpływają!!!! Naukowe podejście dowodzi, że taki wpływ nie może istnieć, ponieważ w kablu cyfrowym płyną bity pod postacią elektrycznych zer i jedynek, które są całkowicie odróżnialne, toteż składa się z nich identyczne obrazy brzmieniowe lub wizualne bez jednego w obrazie błędu! I nawet jeśli ta albo tamta jedynka, czy to lub tamto zero, podczas transmisji się zgubią, bądź też zostaną mylnie odczytane, to procedury algorytmów naprawczych (a te opracowano wielopoziomowe) wszystkie te błędy wychwycą i idealnie naprawią, w następstwie czego struga zer i jedynek na wylocie wizyjnym czy audialnym przybierze zawsze identyczną postać analogowych obrazów lub dźwięków. (I furda intuicja, która nam podszeptuje, że ideały, a już zwłaszcza przy odtwarzaniu czegoś, praktycznie nie istnieją. – Jedynki oraz zera ideał nam w tym wypadku stuprocentowo gwarantują!)    

    – A w taki razie pysznie! Niesamowita sprawa! Kto by się tego spodziewał w naszym nafaszerowanym błędami, stale pokrywającym się kurzem świecie? Aliści biorę dwa kable HDMI – jeden pochodzący od niemieckiej HAMY (kupiony dość niedawno, mający wg zapewnień producenta certyfikat transferu 8K); do porównania drugi (pochodzący od amerykańskiego WireWorlda, kupiony dawno temu, niemający takiego certyfikatu[1]), obydwa w cenach kilkuset złotych, zatem bez cenowej afery, a sygnał wyskakuje z dekodera Canal+ 4K (i w tym standardzie wybieram kanał), docierając via któryś z porównywanych do telewizora Panasonic HZ2000 (topowy OLED producenta). Nie ma różnic? Niestety, są. Po kablu HAMY obraz jaskrawszy i inna, wyższa temperatura bieli. Zarazem całość mniej plastyczna – nie tylko gorsza sama ta biel (w sensie nienaturalnie zimna i agresywna), ale też gorzej dobrana cała paleta kolorów i jakość przejść pomiędzy nimi. Próby przeregulowań nic nie dają, za cholerę transmisji po kablu HAMY mając starego WireWorlda bym percypować na co dzień nie chciał. (Na wszelki wypadek zrobiłem parę kilkudniowych podejść i nie ma mowy, za żadne skarby.) Dlatego nowszy kabel z samozwańczym certyfikatem poleguje w szufladzie i do niczego mi się nie przyda (wszak za krawat też nie posłuży), ale na serwisie HDTVPolska srożą się znawcy tematu, którzy o tym Panasonicu powypisywali w recenzji banały, szerokim łukiem omijając co drażliwsze kwestie kluczowe, zarazem jednak są „naukowo pewni”, że różnic w obrazach poprzez różne kable cyfrowe być absolutnie nie może, więc oczywiście takich nie ma.

   Ale co ja się znam, mam przecież tylko oczy, dekoder satelitarny, dwa kable i telewizor, to miarodajne być nie może. (No przecież, wszak telewizor ogląda się poprzez kolorymetr, a muzyki słucha przez oscyloskop.) Dlatego wziąłem do pomocy specjalistę – adiunkta Jaromira Waszczyszyna, który obecnie jest właścicielem firmy sprzętowej Ancient Audio, w jej ramach producentem min. szczytowej klasy odtwarzaczy CD i przetworników D/A, a wcześniej był przez dziesięć lat pracownikiem naukowym w laboratorium światłowodowym Instytutu Elektroniki AGH, gdzie specjalizował się w szybkiej transmisji sygnałów cyfrowych audio i video. Posłuchajmy jego opinii.

[1] Ten certyfikat to producenckie wymysły, nie ma takiego standardu.

Cyfra cyfrze nierówna

   Autor: Jaromir Waszczyszyn – inżynier elektronik, specjalista od transmisji cyfrowych, zarazem projektant i wykonawca aparatury audio klasy high-end.

    Zapis cyfrowy muzyki został opracowany, aby wyeliminować wady zapisu analogowego. Udało się tak, jak pewnemu biologowi, który wyhodował karpia bez ości, ale za to z pestkami. Ominięcie jednych problemów stworzyło inne. Bo tak naprawdę świat na tym poziomie wciąż pozostaje analogowy.

Początkowo dyskusje nad cyfrą w audio od strony niedomogów jakościowych wydawały się bezsensowne. System dwójkowy, w którym pracują wszystkie komputery i cyfrowe urządzenia audio, wygląda na banalnie prosty. Zbyt prosty i zbyt jednoznaczny na jakieś miejsce dla błędów.

System dwójkowy sprowadza się do dwóch stanów: jest 0 i jest 1. Analogicznie jak skręt w lewo albo w prawo, jak pusta albo pełna butelka, jak świecąca lub nie żarówka.

Ta rzecz jest faktycznie jasna i prosta, gdy dzieje się powoli. Włączamy lampkę do kontaktu, prąd płynie, żarówka się zapala. Decyzja odnośnie opisu sytuacji jest prosta i jednoznaczna – wiadomo czy jest 1, czy jest 0, i kiedy nastąpiła zmiana.

Jeżeli jednak zmiany są szybkie, to decyzja „0” czy „1” oraz określenie momentu następstwa stają się dużo trudniejsze.

Zasadnicza kwestia błędnego odczytu, czyli było „1” ale zostało odczytane jako „0” (lub na odwrót), okazuje się kluczowa przede wszystkim w transmisji na duże odległości, np. pomiędzy Ziemią a sondą przelatującą koło Plutona. Natomiast my przesyłamy sygnał cyfrowy z czytnika CD do przetwornika D/A z jednej półki na drugą; na taki krótki dystans raczej nic nie gubimy po drodze skutkiem wpływów zewnętrznych, toteż nie będziemy się takimi błędami transmisji tu zajmować.

Pozostaje jednakże kwestia druga, tzn. KIEDY zmiana ta następuje. Bowiem dla prawidłowości odczytu każdy moment zmiany powinien być absolutnie ściśle, bez najmniejszego błędu określony.

Podczas nagrywania dźwięku w domenie cyfrowej analogowy sygnał jest próbkowany w ściśle określonych miejscach. Wartość próbek zostaje dokładnie zmierzona, następnie zapisana na płycie CD i przesłana do przetwornika D/A. Wartość ILE woltów, ILE amperów i ILE lumenów. Następnie cyfrowa wartość próbki jest z powrotem zamieniana na wartość analogową. Musi to zostać idealnie ilościowo odtworzone, co się na obecnym poziomie technicznym daje łatwo wyliczyć pomiarem i zrealizować.

Z odtworzeniem parametru ILE nie ma więc dzisiaj problemu. Lecz pozostaje problemem KIEDY. 

Próbki podczas odtwarzania muszą się pojawiać DOKŁADNIE w tych samych sekwencjach czasowych (identycznych co do odstępu momentach), w których zostały nagrane. Ściśle mówiąc: nagrywanie i odtwarzanie musi mieć idealnie taki sam interwał czasowy pomiędzy wszystkimi próbkami, ażeby proces odwzorowywania mógł być wierny.

I tu się zaczyna zabawa. Staje bowiem na porządku dziennym pytanie, na ile ludzkie ucho pozostaje wrażliwe na to, czy próbki (nawet idealnie odpowiadające ilościowo i wartościowo nagraniu) pojawiają się w odpowiednich momentach?  

Próbki na płycie CD są nagrywane z częstotliwością 44 100 razy na sekundę (44,1 kHz), następują zatem po sobie co 0,000022675 sekundy (z małym zaokrągleniem). Tak więc co 0,000022675 sekundy kolejna próbka powinna się pojawiać podczas odtwarzania.

– Ale na ile precyzyjnie?

– Jaki jest zakres tolerancji w sensie nieuchwytności różnic?

– Inaczej mówiąc, na ile ludzkie ucho jest wyczulone na precyzję momentu; na to, czy dana próbka jest odtwarzana ciut za szybko lub ciut za wolno?

Odstęp pomiędzy próbkami wynosi 0,000022675 s, czyli 22,675 μs (mikrosekund), albo 22 675 ns (nanosekund). Ile to nanosekunda? To jedna miliardowa część sekundy. To czas, w którym światło przebiega 30 cm w próżni (sygnały elektryczne w kablach są nieco wolniejsze). Gdybyśmy próbki wysyłali impulsami świetlnymi (np. laserem z płyty kompaktowej lub wyjściem optycznym odtwarzacza) taktowanymi z częstotliwością 44,1 kHz, to w czasie między jedną a drugą próbką światło pokonywałoby dystans 680 250 cm (22 675 ns x 30 cm = 6,8 km). – Dość to sporo, nieprawdaż?

Ażeby zbadać wrażliwość ludzkiego słuchu na takie niedokładności czasowe, wykonaliśmy testy odsłuchowe w kontrolowanych warunkach przy dużo precyzyjniejszej kontroli czasowej. Testy przeprowadzono z użyciem odtwarzacza dCS Vivaldi One (https://highfidelity.pl/@kts-3245&lang=);

w ich ramach najpierw odtworzono płytę CD z jego własnym, dedykowanym zegarem (i było nieźle). Błąd pojawiania się kolejnych próbek (zwany jitterem, albo szumem rozmycia cyfrowych taktów) wynosił około 50 ps (pikosekund) równoważnych 0,050 ns. Światło przebiegało więc w czasie między kontrolnymi próbkami po półtora centymetra zamiast tych prawie siedmiu kilometrów, w porównaniu więc bardzo niewiele, drastycznie obniżając wartość możliwego rozmycia. Próbki, które przy standardowym odczycie przewidzianym dla odtwarzaczy CD powinny się pojawiać w odstępach co 680 250 cm jako impulsy świetlne lub elektryczne, były wysyłane z dokładnością zwiększoną do marginesu błędu zaledwie 1,5 cm! (Niesamowita precyzja.) Błąd dokładności zegara własnego w odtwarzaczu wynosił zaledwie 0,0002% względem podstawowej długości taktu 44,1 kHz, więc wszystkim uczestnikom testu wydawało się, że tak fantastyczna precyzja jest absolutnie wystarczająca – że błędy powodowane rozmyciem momentu (jitterem) są grubo, grubo poniżej czułości ludzkiego słuchu. Ale kto wie – może pomimo znikomego prawdopodobieństwa jesteśmy w stanie usłyszeć i taką niedokładność? Może coś ciągle zostaje do poprawienia poprzez dalsze zwiększanie precyzji?

W kolejnym kroku podłączyliśmy wzorcowy zegar Cybershaft, redukujący błąd szumowego rozmywania taktu do 20 fs. (20 femtosekund). To czas, w którym światło przebiega mikroskopijny dystans 0,0006 cm. (Sześć tysięcznych milimetra.) Błąd zegara Cybershaft wynosił więc zaledwie 0,0000008% czasowego odstępu pomiędzy próbkami wysyłanymi z częstotliwością 44,1 kHz, będąc mniejszym aż dwa i pół tysiąca razy od błędu zegara wbudowanego w odtwarzacz dCS, i tak aż o pięć rządów wielkości precyzyjniejszego od częstotliwości samej płyty. Czy ktokolwiek taki przeskok dokładnościowy jest w stanie zdiagnozować jako poprawę brzmienia?

Niestety – jedno z dwojga – albo ludzkie ucho, albo przetworniki C/A są niesamowicie na takie przeskoki wyczulone. Wszystkie osoby biorące udział w teście usłyszały poprawę dźwięku w następstwie użycia zegara zmniejszającego błąd maksymalny rozmycia międzypróbkowego z 1,5 cm na 0,0006 cm.

Morał z pierwszej części rozważań: SŁYSZYMY BARDZO SUBTELNE BŁĘDY CZASOWE CYFROWEGO ODTWARZANIA MUZYKI.

   Ale skąd one się biorą?

Zapewne wiele osób porównywało brzmienie płyty oryginalnej CD z przegrywaną CDR. Płyta kopia gra gorzej od oryginalnej, mimo iż bit po bicie jest identyczna. Wartości parametrów ILE odnośnie poszczególnych próbek wszystkie są identyczne, jednak niezależnie od tego wypalana płyta CDR będzie mniej precyzyjna. Próbki są takie same, lecz różne są momenty KIEDY one się pojawiają przy odtwarzaniu. Te są mniej precyzyjne – pojawia się większy jitter, większy czasowy szum przejścia pomiędzy „0” i „1”.[2]

Ale nie tylko zapis i odczyt, także transmisja pomiędzy urządzeniami cyfrowymi dokonuje się z określoną dokładnością. Zarówno elektronika nadajnika (odtwarzacza CD), jak odbiornika (przetwornik D/A), a podobnie złączki i kabel, mają wpływ na dokładność momentów w których na wyjściu przetwornika zjawiają się kolejne próbki.

Jednocześnie transmisja cyfrowa jest znacznie szybsza od analogowej. Połączenie szeregowe S/PDIF dla odtwarzacza CD wymaga transmisji z szybkością 1 400 000 bitów na sekundę. Przy takiej szybkości transferu zaczynają się pojawiać odbicia od wszystkich elementów kanału transmisji, a już zwłaszcza od kabla. (Badaliśmy to laboratoryjnie.) Aby je zminimalizować, stosuje się coś bardzo ważnego, tzw. dopasowanie falowe. Kabel musi odznaczać się identyczną szybkością transferu wszystkich częstotliwości zawartych w sygnale (a nie istnieje ona samorzutnie, tylko przeciwnie – wielki rozziew), co w praktyce oznacza dostrojenie szybkościowe zakresów od pojedynczych herców aż do dziesiątek megaherców. W ramach czego muszą zostać z wysoką dokładnością spełnione zależności pomiędzy indukcyjnością, pojemnością, stratnością izolacji oraz opornością przewodów, których dokładne wyliczenie zawdzięczamy genialnym pracom Oliviera Heaviside’a.

Tymczasem pewna grupa konstruktorów nadajników danych cyfrowych audio i ich odbiorników (CD i streamery oraz przetworniki D/A) lekcji z dostrajania nie odrobiła, nie odrobili jej też twórcy kabli… Na co użytkownik finalny żadnego wpływu nie ma, może jedynie kupić sprzęt od uważniejszych uczniów Heaviside’a, co też dotyczy kabli.

Zarówno sam kabel, jak jego wtyki, powinny mieć zachowaną idealnie równą oporność falową, tzn. identyczną szybkość transmisji dla wszystkich częstotliwości sygnału dźwiękowego i wizyjnego. Ideały takie w przyrodzie ani technice jednak nie występują – tak doskonałych kabli stworzyć się nie da. Każde złącze powoduje odbicia sygnału, zjawiają się też odbicia przed i po od płytek drukowanych oraz w następstwie nierównomierności przekroju kabla. – Ba, generuje je każde zgięcie. A skoro w kablu powstają wielokrotne odbicia (i jest to nieuchronne), to muszą się one nakładać na sygnał, przez co element decyzyjny, tzw. komparator odbiornika, ma zasadniczy cyfrowy problem: czy to wciąż jeszcze „0”, czy może to już „1” ??? Niepewność ta jest „widziana” sprzętowo jako mało stabilny, rozmyty w czasie moment wychwytu zmiany sygnału, a zmiany te przecież stanowią podstawę do odtwarzania kolejnych próbek. Co gorsza, większość współczesnych przetworników DZa/A pracuje na zasadzie delta sigma, gdzie nie tylko momenty pojawiania się próbek, ale też ich wartości od zegara zależą. A już zdiagnozowaliśmy, że słuch ludzki jest zdumiewająco czuły na tą precyzję taktowania, a tej precyzji nie poprawią algorytmy naprawy błędów, nie zajmujące się czasowością transferu. Tym samym nie do końca jest tak, jak założyliśmy na wstępie, że krótki dystans transmisji chroni przed błędem niepoprawnego odczytu wartości 0 lub 1.

Morał drugi: JAKOŚĆ KABLA CYFROWEGO MA WPŁYW NA DŹWIĘK

 

[2] Internetowe pokazy z odwracaniem fazy sygnału i po nałożeniu fazy z przeciw fazą zupełnym zerowaniem, z uwagi na za małą rozdzielczość czasową używanej aparatury tych różnic nie pokażą.

Zapis cyfrowy

   Podziękowania dla specjalisty, spróbujmy teraz zebrać to w punkach.

Potencjalne powody różnic jakościowych między kablami cyfrowymi:

  • W kablu cyfrowym cyfry mają analogowe reprezentacje, jest to więc w ostatecznej instancji transfer i kabel analogowy z wszystkimi jego ograniczeniami, plus dodatkowe ograniczenia tej quasi cyfryzacji w transformacji Fouriera.
  • Lepsze lub gorsze wyrównanie transferu poszczególnych częstotliwości. (Spełnienie warunków Heaviside’a.)
  • Mniejsza ilość aliasów (błędnych odczytów).
  • Niższy szum kwantowania. (Mniejsze przesunięcia czasowe.)
  • Większa odporność na przeciążenie bitowe.
  • Zmniejszona stratność na dystansie.
  • Lepsza izolacja od zakłóceń zewnętrznych.
  • Słabsze intermodulacje wewnętrzne.
  • Zabezpieczenie przed mocnymi zgięciami i wykluczenie zagięć.
  • Błąd przekłamania jednego bitu ma przełożenie głośnościowe na aż 6 dB.

Pytania i odpowiedzi

– Jeżeli w ciągu zer i jedynek pojawia się błąd, to jak jego dalsza część w ogóle może być muzyką?

Odpowiedź: trzy poziomy procedur korekcyjnych – bity parzystości, sumy kontrolne, algorytmy uzupełniania i inne. Ogólnie wiele lat intensywnej, wyczerpującej, czasami nawet załamującej psychikę pracy specjalistów od przesyłania i zabezpieczania danych przyniosły bardzo pozytywne rezultaty odnośnie skuteczności transferu cyfrowego.

– Jaką odporność na błędy dają procedury naprawcze?

Odpowiedź: dopuszczalna ilość błędów odczytu wg wewnętrznych norm producenckich wynosi 220/s (dwieście dwadzieścia na sekundę). Nawet przy takiej ilości algorytmy korygujące powinny zagwarantować wysoką jakość dźwięku w subiektywnym odbiorze.

– W jaki sposób realizowana jest praktycznie zgodność czasowa przesyłu różnych częstotliwości w kablach?

Odpowiedź: to ustala się eksperymentalnie poprzez kontrolne dostrajanie.

 

Cyfrowy zapis muzyki

    Dyski optyczne (których stwórczą ideą był gwarantujący bezawaryjną długowieczność brak kontaktu mechanicznego między nośnikiem a czytnikiem) w pierwotnym założeniu miały być analogowe. Dość szybko okazało się, że jest to praktycznie niewykonalne z uwagi na niemożność korygowania dokuczliwszych tu błędów, z natury rzeczy obficiej występujących przy delikatniejszym, opartym o dużo drobniejszą strukturę zapisie. Chcąc rzecz całą sfinalizować (a parcie było duże) należało zatem sięgnąć po pozwalający się w czasie rzeczywistym naprawczo korygować zapis cyfrowy.

    Tym samym już na starcie wyskakują dwie rzeczy:  

  • Przypomnienie, że ta próba udoskonalenia użytkowego wymagała wzrostu skomplikowania, w dodatku ogromnego (wygoda kosztem komplikacji systemu[3]).
  • Nasz tytułowy punkt sporny – kwestia, czy przejście do kodu cyfrowego daje gwarancję pełnej bezstratności i bezbłędności.  

   Odnogę zagadnienia skupioną wokół bezstratności pozwolę sobie pominąć, ograniczając się do ogólnikowego stwierdzenia niemożności przełożenia muzyki utrwalonej na maksymalnym jakościowo analogowym nośniku w równie doskonale mamiący zmysły zapis cyfrowy. Towarzysząca narodzinom płyt CD marketingowa fama, głosząca bezdyskusyjną wyższość cyfrowego zapisu (gdzie za najlepsze uznawano nagrania DDD, czyli cyfrowe od studyjnej konsoli) dość prędko, bo już po kilku latach, wraz ze wzrostem popularności wysokiej jakości wzmacniaczy i kolumn, okazała się blagą[4]. Porządne gramofony i wielkoszpulowe magnetofony (a dziś się okazuje, że nawet co porządniejsze kasetowe) okazały się oferować dźwięk szlachetniejszy, przyjemniejszy dla ucha i mocniej naprany energią. Ale ten problem odkładamy – dobry odtwarzacz CD, tym bardziej SACD, niezależnie od tej krytyki oferuje brzmienie mistrzowskiej klasy i na okrasę bardziej tajemnicze (dzięki lekkiemu pogłosowemu odrealnieniu), a łatwość używania i przechowywania cyfrowych krążków oraz dyskowych plików to istna orgia wygody i obfitości w porównaniu do winyli i taśm.  

    Skupiając się na kwestii bezbłędności odczytu, zawdzięczanej radykalnie wolniejszej degradacji nośnika; kwestii która niespodziewanie autorów pomysłu używania do tego lustra i wiązki światła zawiodła w domenę cyfrową, natykamy się na wielce skomplikowane, wielopiętrowe rozwiązanie, którego stworzenie zajęło lata i kosztowało masę trudu, z koniecznością dokooptowywania do pracujących nad tym kilku zespołów najwybitniejszych zewnętrznych specjalistów. Innym świadectwem zaistniałych trudności konieczność ucieknięcia się do opartej na algebrze ciał skończonych (inaczej pól Galois) metody antyzakłóceniowego kodowania danych zwanej Cross-interleaved Reed–Solomon coding (CIRC), jak również to, że pozornie tak jednoznaczny (złożony wszak z samych zer i jedynek) standard cyfrowego zapisu dopuścił ostatecznie górną granicę błędów odczytu w szokującym rozmiarze aż 220 na sekundę dla świeżo wytłoczonej płyty CD.

    Połączenie wyrafinowanej metody szyfrująco-naprawczej CIRC z prostszą metodą szyfrowania sektorowego do sum parzystych, plus niezbywalne zabezpieczenia na wypadek całkowitego baku próbki[5] sprytnymi, choć oszukańczymi, procedurami zastępowanie jej (a) poprzednią (pervious-value interpolation),( b) uśrednieniem sąsiednich (linear-order interpolation) lub (c) ciszą (muting), pozwoliły odtwarzaczom CD działać z wysoką skutecznością i oferować dobry, nacechowany bezszumnością tła dźwięk nawet w przypadku sporych zabrudzeń i rys o długości do 2,4 mm. Wymagało to jednak dodania do każdej płyty aż o 2/3 większej od samego muzycznego zapisu ilości nadmiarowych danych korygujących i ustawienia sekwencji odczytu nie w porządku linowym, a jako (zapobiegawczo) sektorowo porozrzucanej.  

  Cały ten momentami małpio sprytny i oszukańczy, a w innych miejscach matematycznie wyrafinowany sposób radzenia sobie z błędami cyfrowymi zaistniałymi w samym nagraniu, plus usterki powstałe przy produkcji płyty i użytkowe uszkodzenia, okazuje się więc dowodnym argumentem na to, że zapis cyfrowy, pomimo swej pozornej jednoznaczności, nie strzeże przed odstępstwami nawet od własnego, cyfrowego ideału. (Nie wspominając o ideale analogowym, tym bardziej żywych wykonaniach.) Całkiem przeciwnie – on się ledwie wyrabia; mało co, a całkiem by się wyłożył. W ratowaniu go przed całkowitym krachem niemałą rolę odgrywają też nasze zmysły, z łatwością przechodzące do porządku nad łatkami z szybkich powtórek, z uśrednień i z przetykania ciszą. W kontrze do tego antyaudiofile, z uporem godnym wojny religijnej, stoją na stanowisku, że kable cyfrowe to całkowicie inna sprawa – na ich obszarze błędów nie ma. A jeśli nawet się zdarzają, to procedury naprawczego szyfru na bazie algebr Galois dla grup automorfizmów bezbłędnie je skorygują, w związku z czym nie ma najmniejszego znaczenia jak odporny na powstawanie zakłóceń jest dany kabel.

   (Panowie wybaczą szczerość, ale jesteście naiwni, by nie powiedzieć głupi.)

   Jak pisze schowany za pseudonimem specjalista na jednym z forów technicznych „wystarczy przecież zauważyć, że sygnał cyfrowy przechodząc przez przewód obarczony pojemnością i indukcyjnością (a każdy posiada takowe), traci swój pierwotny kształt i w miarę czasu (im dłuższy odcinek przebywa), nabiera coraz większego jittera”.

 

[3] Nic to nowego – wygodne w użyciu samochody i samoloty też są skomplikowane.

[4] Dla wąskiej grupy posiadaczy takich od początku było to oczywiste.

[5] Zniszczonej np. rysą.

Nieznośna ciężkość bytu

    Przechodząc z rewiru ściśle technicznego na obszar bardziej filozoficzny, zahaczmy teraz o kwestie ogólniejsze odnośnie widomej a przeraźliwej złożoności świata, powodującej jego nieoswajalność i niepojętość. Te bowiem zagadnienia i towarzyszące im dylematy w równym stopniu dotyczą całościowego samopoczucia psychik tej sytuacji świadomych, co i konkretnych prób dogłębnego zrozumienia poszczególnych faktów – zarówno tych z naukowej perspektywy widzianych, co zdarzeń indywidualnych, zrządzeń losu – i tak dalej.

    Na wstępie zauważę, iż jedną z największych zagadek teorii poznania i opisu naukowego jest fakt wykładniczego przyrostu pytań pozostających bez odpowiedzi.  

   Propagatorzy współczesnych metod badawczych, z oświeceniowymi entuzjastami i francuskimi encyklopedystami na czele, zakładali, że postęp wiedzy będzie z czasem zmierzał ku finalizacji – rozwiązania naukowych problemów zaczną się kiedyś, prędzej czy później, zazębiać, by stworzyć spójną całość znającą wszystkie odpowiedzi, co wydaje się najzupełniej logiczne.

   – Po to przecież stworzono i wciąż rozwija się naukę, by te odpowiedzi dawała i w miejsce tłumaczeń doraźnych, zwyczajowych bądź religijnych stworzyła Wytłumaczenie Ostateczne w otoczce poszczególnych rozwiązań. Tymczasem w praktyce badawczej wraz z każdą procedurą eksperymentalną w powiązaniu z jej teoretycznym zapleczem[6] zjawia się multum nowych zagadek, które narastając w szalonym tempie najmniejszych widoków nie stwarzają na zawężanie sprawy.

    – Wielka Zagadka Postaci Świata nieustająco się rozrasta, sen o Teorii Ostatecznej nie chce przeistoczyć się w jawę. Zerknijmy na dwa przykłady powiązane z naszym tematem.

Czym jest elektron?

    W przypadku tego artykułu pytanie to ma wymiar strukturalnie kluczowy, prąd bowiem utożsamia się ze zjawiskiem przemieszczania się elektronów. Ze szkoły podstawowej, ze średniej, nawet ze studiów wyższych innych niż fizyka teoretyczna, wychodzą adepci przekonani, że elektrony to maleńkie kuleczki krążące niczym planetki po kołowych orbitach wokół atomowych jąder złożonych z większych kulek.[7] Co bardziej zaawansowani poznawczo wiedzą również (jako że często przypomina o tym w formie sensacji prasa), że atomy „są tak naprawdę puste”, ponieważ kiedy ekstrapolować jądro atomowe do rozmiarów śliwki, elektrony okażą się być wielkości dużo poniżej łebków od szpilek krążących po orbitach wielkich jak obwód katedralnej kopuły. Najbardziej zaawansowani wiedzą też, że krążenie to odbywa się z szybkością stanowiącą znaczący ułamek prędkości światła.

– I to by było na tyle, jak zwykł mawiać profesor Jan Tadeusz Stanisławski.

    O samym prądzie czytamy zaś w krynicy wszelkiej dzisiejszej mądrości – Wikipedii – następujące słowa:

Prąd elektryczny to strumień naładowanych cząstek, takich jak elektrony lub jony, poruszający się w przewodniku elektrycznym lub przestrzeni. Jego miarą jest szybkość netto przepływu ładunku elektrycznego przez powierzchnię lub do objętości kontrolnej.  Poruszające się cząstki nazywane są nośnikami ładunku i mogą należeć do jednego z kilku rodzajów, w zależności od przewodnika. W obwodach elektrycznych nośnikami ładunku są elektrony poruszające się w przewodzie. W półprzewodnikach mogą to być elektrony lub dziury.[8] W elektrolicie nośnikami ładunku są jony, natomiast w plazmie[9] (zjonizowanym gazie), są to jony i elektrony.

    W taj samej Wikipedii napisano o elektronach:

Elektron jest cząstką subatomową o ujemnym elementarnym ładunku elektrycznym należącą do pierwszej generacji rodziny cząstek leptonowych. Ogólnie uważa się elektrony za cząstki elementarne, ponieważ nie mają znanych składników ani struktury.[10] Masa elektronu wynosi około 1/1836 masy protonu. Mechaniczne właściwości kwantowe elektronu obejmują wewnętrzny moment pędu (spin) o wartości półcałkowitej wyrażonej w jednostkach zredukowanej stałej Plancka ħ. Będąc fermionami, żadne dwa elektrony nie mogą zajmować tego samego stanu kwantowego, zgodnie z zasadą wykluczenia Pauliego. Podobnie jak wszystkie cząstki elementarne, elektrony wykazują właściwości zarówno cząstek, jak fal: mogą zderzać się z innymi cząstkami i mogą ulegać dyfrakcji jak światło. Właściwości falowe elektronów są łatwiejsze do zaobserwowania w eksperymentach niż właściwości innych cząstek, takich jak neutrony i protony, ponieważ elektrony mają mniejszą masę, a tym samym większą długość fali de Broglie’a dla danej energii.

    Teksty powyższe w zawikłany, nieoczywisty sposób mówią między innymi to, że tak naprawdę nie wiemy ani czym jest prąd elektryczny, ani odpowiedzialny zań elektron. Tzn. pewne cechy tych zjawisk (złożonego zjawiska prądu i złożonego zjawiska elektronu) zostały ustalone i okazały się nadzwyczaj osobliwe z punktu widzenia zdrowego rozsądku oraz codziennych obserwacji, lecz nie wiadomo, co tak naprawdę za nimi sto i z czego to coś wynika. (Czy, przykładowo, masa elektronu i jego sposób oddziaływania to cechy przypadkowe, czy wynik jakiejś wyższej konieczności, albo chociaż następstwo ustanawiającej nas w roli obserwatorów Zasady Antropicznej?) Pośród tych ustalonych własności trafiamy na liczne takie, których zrozumienie wydaje się zupełnie niemożliwe, na przykład to, w jaki sposób elektron może być jednocześnie cząstką i falą.

   Skupmy się jeszcze bardziej na elektronie, ponieważ to on tworzy prąd, a nie odwrotnie. (Przynajmniej tak się potocznie uważa.) I zacznijmy od tego, że powyższe wikipedyczne definicje są dalece nieprecyzyjne. Doprecyzowując je trzeba wystartować od faktu, że elektrony (podobnie jak wszystkie pozostałe cząstki elementarne) nie posiadają własności zwanej potocznie wyglądem. Wygląd (inaczej powierzchowność) pozostaje wyłączną cechą obiektów złożonych z gigantycznych konglomeratów cząstek elementarnych, od których odbijane gigantyczne ilości kwantów światła (pozbawionych masy spoczynkowej fotonów) mogą być rejestrowane przez gigantyczne ilości cząstek elementarnych tworzących struktury naszych oczu, by kanałami informacji elektrycznej tworzonymi przez gigantycznie struktury tkanek nerwowych tworzących nerw wzrokowy trafić na obszar jeszcze gigantyczniejszej ilościowo i złożonościowo kory wzrokowej naszych mózgów (zbudowanej z bilionów cząstek elementarnych i ich zaprogramowanych oddziaływań), gdzie w sposób całkowicie niezrozumiały[11] od strony zachodzących procesów i racjonalnej ich interpretacji następuje zjawisko świadomego widzenia.    

   Nie istnieje więc i NIGDY nie ziści się (ponieważ jest fundamentalnie niemożliwy) wygląd cząstek elementarnych. Inaczej mówiąc: brak takiego wyglądu to nie jakiś stan przejściowy, który z czasem, w następstwie rozwoju naukowego instrumentarium, zostanie zastąpiony widzeniem tychże cząstek dzięki lepszym technikom badawczym. Cząstki nie posiadają cechy zwanej wyglądem, toteż żadna przyszłościowa aparatura, choćby nie wiedzieć jak zaawansowana, tego wyglądu im nie przyda; jego nie ma – można go tylko zmyślać. A zmyśla się go bardzo naiwnie, pod postacią w przypadku elektronów wspomnianych kuleczek na orbitach albo swobodnych kulek przemieszczających się w rurowym przewodniku, podczas kiedy w ogóle nie ma czegoś takiego jak kuleczkowy elektron na atomowej orbicie albo w rurze. (Znany z wybuchowego temperamentu twórca mechaniki kwantowej, noblista Werner Heisenberg, dostawał ataków szału i miotał najbrzydsze wyrazy słysząc o elektronach krążących po orbitach.)

    Jeśli już wyobrażać sobie atomową orbitę, trzeba takie wyobrażenie konstruować pod postacią quasi kołowej strefy PRAWDOPODOBIEŃSTWA pojawienia się w niej skupionej punktowo energii, mogącej w tej postaci manifestować się jedynie w następstwie oddziaływań z innymi tego typu tworami. Pod wpływem absorbcji lub emisji energii (pod postacią jej nośnika, fotonu) elektron, o którym zostało wcześniej powiedziane, że nie posiada struktury, a mimo to okazuje się móc coś wydalać i coś absorbować (właśnie porcje energii), może zmieniać orbity na większe albo mniejsze w bardzo precyzyjnych zakresach, definiowanych przez fakt, że ma ten elektron alternatywną i równoprawną postać falowania, toteż muszą być jego orbity sumami długości fal. (Wykazującymi osobliwe powinowactwo do liczb pierwszych.) Pozostając na danej orbicie nie traci przy tym elektron żadnej energii poprzez sam fakt falowania – niezakłócany falować może w nieskończoność, gdyż jego ruch falowy jest nim samym; nie zamienia się w żadną inną formę energii poza tą emisją fotonu o ściśle określonej regule – nie może rozpraszająco rozmieniać się na żadne energetyczne drobne. Zachowuje się w takim razie inaczej niż falujące ciecze w ziemskich warunkach, których cząsteczki trąc o siebie i otoczenie zamieniają stopniowo ruch falowy w ciepło, fale takie zwolna się wygaszają. (Istnieje jednak makroskopowy odpowiednik fali niegasnącej – tzw. fala solitonowa.)

   Napisałem, że elektron nie posiada struktury, gdyż tak sądzi nauka. Jednak w osobliwych warunkach niskoenergetycznej materii skondensowanej, także w opisie teoretycznym, przyznaje ona, że można traktować elektron jako złożenie trzech oddzielnych czynników: spinonu, orbitonu i holonu, odpowiadających osobno za spin, ruch orbitalny (poziom orbity) i ładunek[12]. (Wszystko jasne?)  

    O naszych elektronach wiemy już zatem, że nie mają wyglądu, mają za to dwoistą (cząstka-fala), a nawet troistą (spinon-orbiton-holon) naturę – są bowiem, w zależności od sytuacji, skupionymi cząsteczkami albo rozpostartymi falami niosącymi masę i własność ładunku, a na dodatek są te ich fale falowaniem prawdopodobieństwa, a nie jakiejś możliwej do nalania w talerz cieczy. Falująca ciecz prawdopodobieństwa elektronu może luźno falować albo przybierać skupioną postać cząstki, a prawdopodobieństwo takiego przejścia pozwala się obliczać, z tym, że do jego obliczenia potrzebowali będziemy czynnika i, który jest tzw. wielkością urojoną, tzn. i² = -1. Nasza potoczna intuicja poznawcza otrzymuje więc od rzeczywistości fizycznej kolejnego kopniaka; do jej dogłębnego zrozumienia okazuje się nie być stworzona, dobrze nadając się jedynie do podstawowych zagadnień z dziedziny podtrzymywania własnej egzystencji w znanym sobie, ale jedynie przyzwyczajeniowo i powierzchownie, środowisku życiowym.

    A to wciąż jeszcze nie wszystkie kopniaki odnośnie elektronów, kolejnym osobliwość nazywana przez fizyków cząstkami wirtualnymi. Ano tak – okazuje się, że kłamałem pisząc, iż nie niepokojony elektron w nieskończoność pozostaje sobą. A gdzie tam! Z eksperymentów pośrednich i obliczeń teoretycznych wynika wprawdzie, że statystyczny czas życia pojedynczego elektronu powinien być nie krótszy niż 6,6 × 10²⁸ lat (potwornie wiele razy więcej niż aktualny wiek Wszechświata), ale zgodnie z formalizmem mechaniki kwantowej w ujęciu Feynmana (dziś obowiązującym) opis w Wikipedii ogłasza:

Fizyczny elektron to tak naprawdę wirtualny elektron emitujący wirtualne fotony, które rozpadają się na wirtualne pary elektron-pozyton, które z kolei oddziałują za pomocą wirtualnych fotonów i tak w nieskończoność. Fizyczny elektron to zatem nieustannie dziejący się proces wymiany pomiędzy wirtualnymi elektronami, pozytonami, fotonami i być może innymi cząstkami. „Realność” elektronu to w takim razie pojęcie statystyczne. Nie można powiedzieć, która cząstka z tego zbioru jest naprawdę realna, wiadomo tylko, że suma ładunków wszystkich tych cząstek daje w wyniku ładunek elektronu (czyli mówiąc w uproszczeniu: musi być jeden więcej elektron wirtualny niż jest wirtualnych pozytonów) oraz suma mas wszystkich cząstek daje w wyniku masę elektronu.

  Istne śliczności, nieprawdaż? Jeśli dodamy do tego, że cząstki wirtualne mogą właściwie wszystko – mogą posiadać dowolną masę spoczynkową albo tej masy w ogóle nie mieć; mogą też przypisywać sobie dowolne masy ujemne (tak bardzo ujemniaste, jak im się żywnie spodoba); mogą również posiadać dowolne spiny (wewnętrzne symetrie obrotu, ale bardziej skomplikowane niż ruch wokół własnej osi), mogą nawet spośród tych spinów przywłaszczać sobie te uważane za istniejącym cząstkom zabronione; i w ogóle wszelkie dziwactwa wyprawiać, nie trzymając się żadnych reguł, ponieważ cząstki wirtualne tak zasadniczo, to nie istnieją. (Nie pojawiają się bezpośrednio w żadnych, ale to żadnych obserwacjach.) Tyle, że mechanizm fizyki kwantowej obyć się bez nich nie może, bo przykładowo nie może bez nich wyjaśnić zjawiska energii próżni[13], a pozbawieni tego mechanizmu wyjaśniającego nie wiemy kompletnie nic! – Możemy, porzuciwszy go, wzruszyć jedynie ramionami i pójść na spacer albo spać.

   Myślicie, że to już wszystkie kopniaki? O, bynajmniej! Nie jest na przykład wiadome, jaki jest rozmiar elektronu w tych momentach, kiedy mu się zachciewa być cząsteczką – istnieją poważne argumenty za tym, że jego promień jest wówczas zerowy, ale przy takim założeniu sypią się obliczenia. Eksperymenty pośrednie sugerują, że promień ten nie może być większy niż 10ˉ²² metra, ale jaki naprawdę jest i czy ma jakikolwiek rozmiar, to dokumentnie nie jest wiadome.  (Pytaniem pozostaje, czy pojęcie rozmiaru nie jest czasem analogiczne do zjawiska wyglądu, tzn. czy nie istnieje dla niego poziom graniczny, poniżej którego wraz z niemożnością zastosowania procedury ustanawiającej traci ono sens, fundamentalnie nie pozwalając się już mierzyć. Tak samo bowiem jak wygląd, którego rozmiar jest przecież najważniejszym parametrem, musi być ów rozmiar rezultatem przyłożenia do niego czynnika skalującego, a kiedy takowego nie ma, bo nic już nie jest dość małe, traci swą opisową rolę.)

   Rozmiar zerowy albo niepoznawalnie (infinitezymalnie) mały to i tak jednak drobnostka w porównaniu do tego, że kiedy elektronowi zachciewa się być falą, może być w wielu miejscach naraz. A gdy zechcemy mu wtedy zrobić psikusa – przygwoździć go oddziaływaniem jako cząstkę, może cofnąć się w czasie i dopiero pokazać, jak bardzo można nie trzymać się wyznawanych przez obiegowe myślenie reguł; owych jakże słusznych przekonań ludzi niezłomnie wierzących, że do fizycznego obrazu świata w każdym wypadku będzie pasował ich zawsze dobrze się sprawdzający zdrowy rozsądek! (Fakt kwantowego cofania czasu to też świeżej daty ustalenie.)

[6] Inny niż powiązanie eksperymentu z teorią postęp naukowy jest niemożliwy – teoria musi być założona i selekcjonować eksperymenty, ponieważ rzeczywistość jest zbyt skomplikowana względem naszych jaźni, by można było próbować ją zrozumieć całościowo ad hoc.

[7] Planety krążą po elipsach, ale to pomijalny szczegół, o którym zwykle się nie wie lub o nim zapomina, chociaż to z tego właśnie powodu, a nie obaw przed kościelną cenzurą, Kopernik wstrzymywał druk swojej pracy „O obrotach”, gdzie ruch planet postulowany był pod postacią orbit kołowych, co nie zgadzało się z obserwacjami.

[8] Dziury po elektronach – swoista „dziura nośna”.

[9] Materii tak gorącej, że wszystkie elektrony wyrwały się z atomów

[10] Składniki protonów i neutronów – kwarki – mają odpowiednio: kwark górny masę 4 razy większą od elektronu, dolny 10 razy, powabny 1500 razy, dziwny 190 razy, prawdziwy (szczytowy) 340 tysięcy razy, a piękny (inaczej denny) 8 tysięcy razy. (Proton jest zbudowany z trzech kwarków – dwóch górnych i jednego dolnego.)

[11] Niezrozumiały dla samego tego mózgu, który działania własnej struktury ani nie czuje, ani nie pojmuje, świadomie lub półświadomie doznając jedynie efektów końcowych i związanych z nimi refleksji; na przykład tego, o czym właśnie piszę – stanu niezrozumienia i z tym powiązanej frustracji.

[12] Niedawno zaobserwowane zjawisko quasi-rozpadu elektronów, zachodzące w niskoenergetycznym gazie elektronowym.

[13] Szacunkowo, na podstawie obserwacji tempa rozszerzania Wszechświata, wynosi ona 6 x 10⁻³⁰ g/cm³ (z einsteinowskiego wzoru równoważności energii i masy: E = mc²).

[14] Wszystko to razem sprowadza się do stwierdzenia, że głębokie filary bytowe są co do natury czymś kompletnie różnym od tego, z czym mamy do czynienia w naszych zmysłowych postrzeżeniach.

Nieznośna ciężkość bytu cd.

   Tym, którzy mimo powyższych dziwactw chcą jeszcze parać się elektronami w kontekście płynięcia prądu, opowiem o zygzaku.  

      Sławne równanie elektronu Paula Diraca (za które młodzian dostał Nobla i o którym z dumą powiadał, że „jest jego”) każe traktować swobodny elektron jako dwie cząstki o zerowych masach poruszające się z prędkością światła zygzakowatym torem powodującym tej prędkości spadek, przy czym każdemu etapowi tego ruchu (każdemu zyg i każdemu zak) towarzyszy przemiana jednej z tych cząstek w drugą. Można przy tym powiedzieć, że pośród całej masy przemian i oddziaływań o charakterze wirtualnym, ten zyg-zak ma charakter podstawowy, więc jeśli uważać opis matematyczny za trzymający się realności (a zwykle tak się uważa, tak sądzi większość fizyków) wówczas rdzeń fizycznego istnienia elektronu, jego fundamentalna forma bytowa, osnuta jest wokół takiego właśnie ruchu i nieustannie towarzyszącego mu ciągu innych niż wirtualne przemian. Wokół ząbków tej przeszywającej czasoprzestrzeń piły oplata się cała masa oddziaływań, z absorbcjami i emisjami fotonów na czele, jako formami oddziaływania elektronu z polem elektromagnetycznym. Na co nakłada się wspomniany fundament prawdopodobieństwa i skoligacone z nim liczby urojone oraz gotująca się zupa niedostrzegalnych cząstek wirtualnych, zdolnych nawet przybierać masy o parametrze ujemnym albo nieskończonym.

    –  Gdzie tu miejsce, się pytam, dla kulek krążących po orbitach, albo przemieszczających się w rurach? Uzupełniająco należy dodać, że zyg i zak mają ten sam ładunek i ten sam spin, ale symetria ich nie jest pełna, ponieważ tylko etap zyg bierze udział w oddziaływaniach słabych (np. rozpadzie swobodnego neutronu, który następuje po około 15 minutach, produkując proton, elektron i neutrino), z czego wniosek, że oddziaływania fizyczne nie zawsze cechuje symetria lustrzana i symetria czasowa, co w momencie odkrycia (najpierw teoretyczna sugestia, następnie eksperymentalne potwierdzenie, na koniec Nagroda Nobla) społeczność fizyków uznała za sensację.

Wyliczmy tedy sobie

Elektron nie istnieje, ponieważ:

  • nie ma rozmiaru
  • jest równocześnie cząstką i falą
  • może być w wielu miejscach naraz
  • jego cechą tworzącą jest prawdopodobieństwo – tzn. (cokolwiek by to nie znaczyło) pierwotną naturą elektronu jest falowanie prawdopodobieństwa
  • do obliczania tego falowania potrzebne są wielkości urojone (pierwiastki z minus jeden)
  • elektron (czyli wachlarz faktów eksperymentalnych i konstrukcji teoretycznych, które tym mianem się określa) może dokonać cofnięcia w czasie
  • jest tak naprawdę nieustannym, kaskadowym procesem przemian cząstek wirtualnych
  • ale te cząstki nie istnieją
  • w dodatku poza samym faktem nieistnienia mają własności zabronione
  • próby dokładnej lokalizacji elektronu i wyznaczenia jego prędkości skazane są na niepowodzenie (nieoznaczoność Heisenberga, jako następstwo użycia w matematycznym opisie transformacji Fouriera)
  • jeśli o elektronach coś wiadomo z całą pewnością, to to, że nie posiadają wyglądu, dokładnego pędu i dokładnego położenia [14]

Z drugiej jednakże strony elektron musi istnieć; być bytem równie realnym jak cła nasza rzeczywistość, albowiem:

  • bez elektronów nie ma naukowego opisu materii, staje się on niemożliwy
  • atomy tracą strukturę, stając się bezwartościowo zgrubne poznawczo
  • zjawisko przepływu prądu gubi podstawę jakichkolwiek prób wyjaśnienia
  • istnieje przecież coś takiego jak ślady pozostawiane przez elektron w komorach pęcherzykowych i akceleratorach
  • jest mnóstwo takich śladów
  • takimi śladami można oberwać, z zejściem śmiertelnym włącznie
  • poważni ludzie twierdzą (nawet panie nauczycielki), że elektrony istnieją i jesteśmy z nich zbudowani
  • utrzymujący, że elektrony nie istnieją, nie przejdą do następnej klasy (chyba że w szkołach specjalnych)
  • elektrony są koniecznie potrzebne cymbałom dowodzącym, że kable elektryczne niczym się użytkowo nie różnią poza przepustowością i długością

 

Rozumienie a dekoherencja

    Ernest Rutherford, zaliczany do dziesiątki najwybitniejszych fizyków w dziejach, ostrzegawczo informował swoich współpracowników i studentów, że wyrzuci natychmiast każdego, komu zachce się podejmować próby zrozumienia mechaniki kwantowej. (Jakiż totalny krach Nauki w odniesieniu do jej roli wyjaśniającej !!!) 

    Najmocniejszym bodaj przykładem tego, iż zrozumienie to przychodzi z gigantycznym trudem, a tak naprawdę nie przychodzi, jest zjawisko dekoherencji. To drugi powiązany z naszą sprawą przykład tego, jak niezgłębiona jest Przyroda.

    Dekoherencja to ten moment, w którym fundamentalna dla fizyki kwantowej (teorii bezalternatywnej) tzw. funkcja falowa zmienia się w niezrozumiały co do natury skokowy sposób z deterministycznej ogólnej na indeterministyczną indywidualną, zawężając jednocześnie w tym skoku ogólne spektrum prawdopodobieństwa do pojedynczego przypadku. Znanym przykładem jest tu przez wszystkich wykształconych kojarzony przypadek kota Schrödingera, który przed dekoherencją jest jednocześnie żywy i martwy (dwoisty w dwóch tych stanach, fachowo zwanych superpozycją), a po niej, całkiem teraz konkretnie i nieodwołalnie, już tylko taki bądź taki. Jak jednak nie udaje się wychwycić i zrozumieć przejścia od stanu cząstki do stanu fali, tak też nie udaje się tego zrobić odnośnie zjawiska dekoherencji. Koherentne, superpozycyjne istnienie kota żywego i martwego przeistacza się momentalnie w obserwacyjnym wymiarze naszej rzeczywistości w niekoherentny z alternatywą konkret. Co stanowi tego przyczynę, jaki odpowiada za to mechanizm – nauka nie zna odpowiedzi. Ba, nie wie nawet, co dokładnie należy tu rozumieć przez powodującą dekoherencję obserwację. Do sprawy miesza się i w tym przypadku Zasada Antropiczna, sugerująca, że dekoherencje to akty naszej świadomości, która nie mogłaby egzystować z należną sobie funkcjonalnością w wieloświecie nie sprowadzonych do wybranej jednoznaczności, alternatywnych i równoważnych stwórczo (aczkolwiek często niejednakowo prawdopodobnych) przypadków uwzględnianych w pełnym spektrum funkcji falowej. Tym samym dekoherencja (cokolwiek by za nią nie stało) to ten mechanizm, który umożliwia istnienie świadomościowego oglądu.

Mały spacer z rozmyślaniami nad wiarą w Boga i Otchłanią

   Fizycy i matematycy to także dzisiaj w dużym procencie ludzie głęboko wierzący, czego osiemnastowieczni oświeceniowi reformatorzy po przedstawicielach obu kierunków w odniesieniu do XXI wieku zapewne by się nie spodziewali.  

  – Bóg? Ta hipoteza nie była mi potrzebna, Sir – miał oświadczyć Bonapartemu dumny z siebie Pierre Simon de Laplace, autor „Mechaniki niebios” (1799). Zawarta w tym dziele wizja deterministycznego świata, możliwego do najściślejszego opisania w obu kierunkach czasowych przez kogoś znającego z idealną dokładnością wszystkie położenia i pędy cząstek, runęła z trzaskiem już sto lat potem na początku XX wieku, wraz z koniecznością akceptacji indeterministycznej mechaniki kwantowej. Obecnie każdy fizyk wie, że to mrzonka. Zarazem każdy z nich, podobnie jak każdy matematyk, codziennie wchodzi w styczność ze światem nieogarnionej złożoności, której poznane fragmenty okazały się pod wieloma względami dogłębnie logiczne i w tej logiczności piękne, ale całość pozostaje poza zasięgiem zrozumienia i wyobraźni. A to uczy pokory. Pokory, której mało lub wcale nie zaznaje przeciętny wycieczkowicz przyjeżdżający przykładowo do mojego miasta, Krakowa. Poczłapie on na Rynek – grupowo albo indywidualnie – i będzie podziwiał wielkość oraz wynikającą z architektonicznej redundancji elegancję ciągów kamienic tworzących jego ściany; a może też nie będzie, tylko zaraz pójdzie coś zjeść, napić się kawy albo piwa i pogawędzić o życiu w ogólności, a w szczególe drożyźnie. Niezależnie jednak od tego jak będzie się zachowywał, będzie miał do czynienia z otoczeniem „normalnym”. Z ludźmi i budynkami, z ciągami ulic, placów i skwerów, z gastronomią i muzeami, ze znanym sobie, albo chociaż przetłumaczalnym językiem komunikacji oraz znanymi, możliwymi do wykorzystania środkami transportu. Wiedział więc będzie jak się w tym odnajdywać i instynktownie swe otoczenie rozumiał, widział też będzie cały czas jak powrócić do domu, do centrum swojej normalności. Podczas tej swojej „normalnej” wycieczki najprawdopodobniej nie zostanie uświadomiony, że chodząc po rynkowej płycie (obecnie z brzydkiego piaskowca, po tym jak magistracki gang gomułkowskie marmury rozkradł) często depcze po grobach pochowanych tam dawno ludzi, których imiona i czyny bezpowrotnie przepadły. Że kiedyś przez ten Rynek płynął wybudowany przez tatarskich jeńców kanał dostarczający wodę do młynów przy pobliskim kościele zakonu braci dominikanów, też że ten Rynek wraz z całym otoczeniem prawie doszczętnie spłoną w wielkim pożarze miasta z 1850 roku, w którego szerzeniu się kluczową rolę odegrały pokrycia dachów gonem oraz orzechy włoskie…

    Gdziekolwiek i jakkolwiek tknąć rzeczywistość myślą wiedzioną ciekawością, napotykamy góry informacji, które upraszczająco się pomija, abyśmy mogli sprawnie uwijać się przy swych codziennych czynnościach. Edukacja i wynikająca z niej wiedza, tak bezkrytycznie chwalone przy wszystkich możliwych okazjach hasłami typu „Warto wiedzieć!”, to tak naprawdę słowa puste, a społeczeństwo oczekuje, że każdy będzie robił swoje i innym nie przeszkadzał. Ile wie ponad to, co absolutnie do tego konieczne, to nikogo już nie obchodzi, a o tym, że nie powinien wtykać nosa do problemu Wielkiej Zagadki Świata, najlepiej świadczy fakt, że w szkołach filozofii nie uczą. I niewykluczone, że słusznie, bowiem wydaje mi się, że na psychikę zbiorową dobrze by jej szerzenie nie wpływało; po co każdy ma wiedzieć, że stąpa wąską ścieżką nad obustronną przepaścią niepojętości świata, po co mu jeszcze dodatkowo tę wąską ścieżynę zwężać?

    Fizycy i matematycy (ci działający jako naukowcy, a nie szkolni edukatorzy) nie mają tego komfortu, muszą spoglądać w otchłań. Ta otchłań budzi lęki i budzi jednocześnie podziw – jedno i drugie skłania do wzięcia Boga za rękę. Nikogo nie namawiam, sam nie jestem wierzący, piętnuję jedynie pospolitaków, którzy dufni we własną skorupę zwykli naśmiewać się z tych wszystkich, co dostrzegając Otchłań nieskorzy są do dania wiary w bzdetę rzucaną tłumom, jakoby nauka wszystko w zasadzie już wyjaśniła i głosi min. to, że cyfrowy przekaz cyfrowym kablem jest całkiem wolny od błędów. Przepatrzmy tę ostatnią bzdetę raz jeszcze.

Czy transmisja sygnałów cyfrowych może ulegać zniekształceniu?

   Autor: Waldemar Łuczkoś, inżynier elektronik – projektant i wykonawca aparatury audio klasy high-end dysponujący wykształceniem muzycznym i słuchem absolutnym.

     Czy transmisja w oparciu o sygnały cyfrowe może ulegać zniekształceniom? Teoria podsuwa nam opinię, iż nie ma takiej możliwości. Na jej poparcie padają wyjaśnienia o zgodności bitowej w testach transmisji – całkowitej identyczności pomiędzy sygnałem wysłanym a odebranym.

    Tyle mówi „teoria”, ale jak by nie pisać dogłębnie i jak tematu szeroko nie ujmować, jest to prawdą w 90%. To dużo, ale pozostałe 10% temu przeczy.

    Zachodzi bowiem analogia do często napotykanej sytuacji, w której teoretycznie coś powinno bez zarzutu działać, jako że wszystko podłączono poprawnie, tyle że niestety nie działa – i oczywiście nikt nie wie czemu.

    Technologia przesyłu sygnałów cyfrowych opracowana została w pierwszej połowie XX wieku, czyli w okresie całkowitej dominacji transmisji analogowych. Te, początkowo wszechobecne w różnych działkach elektroniki, telekomunikacji, radiofonii, telewizji i wojskowości, stopniowo były wypierane i ostatecznie w dużej części zastąpione transferem cyfrowym, wywodzącym się w prostej linii z symboliki znaków logicznych. Przenoszenie informacji cyfrowej z jednego ośrodka do drugiego realizowane było zarówno za pośrednictwem transportowalnych nośników magnetycznych i półprzewodnikowych (jak taśmy, dyski, pendrajwy), jak też w transmisjach radiowych albo kablowych. (Najstarsze transmisje cyfrowe prowadzono drogą radiową lub kablową za pośrednictwem alfabetu Morse’a.)

    Cofnijmy się teraz do początku. Gdy w latach pięćdziesiątych XIX wieku powstały pierwsze przewody transmisyjne długich linii przesyłu sygnałów analogowych (jak kabel pod Atlantykiem, zrealizowany finalnie w 1866 roku), ku powszechnemu zaskoczeniu zdiagnozowano ogromne zniekształcenia i spowolnienia transmisji prowadzonej tak długaśnym analogowym kablem z użyciem cyfrowego kodu alfabetu Morse’a. Skalę problemu obrazuje fakt, że pierwsza próba przesyłu z 1858 roku (ten pierwszy transatlantycki kabel zaraz potem uległ zniszczeniu podczas testów sprawdzania jego przepustowości poprzez wzmacnianie sygnału) pracowała w tempie jednego znaku alfabetu na dwie minuty transmisji. Poprowadzenie grubszych kabli, zdolnych przenosić mocniejsze prądy, pozwoliło kilka lat później na przyspieszenie rzędu ośmiu słów na minutę, co jednak w dalszym ciągu dalece nie odpowiadało potrzebom. Dalszy postęp okazał się już niezbywalnie wymagać rygorystycznego spełnienia warunków dopasowania impedancji falowej (wyrównania czasowego transferów wszystkich składowych częstotliwości), sformułowanych pod postacią równań różniczkowych przez Olivera Heaviside’a w pracach opublikowanych po 1876 roku. W praktyce wyraźny wzrost szybkości transmisji nastąpił jednak dopiero po kilkudziesięciu latach.

   W momencie pojawienia się w XX wieku nowych technik transmisji cyfrowych, korzystających już z tamtych opracowań, zakładana była od razu ich całkowita odporność na wszelkie zakłócenia i utratę danych, czyli pełna bezstratność i powtarzalność wymiany danych.

    (I)  Postawmy teraz pytanie: czy sygnał cyfrowy, wbrew tym optymistycznym założeniom, może ulegać zniekształceniu? Czy to w ogóle możliwe?

    Okazuje się, że może, ponieważ mimo użycia symboli logicznych to wciąż sygnał analogowy – wiązka kodowych znaków przesyłanych w domenie analogowej. Cyfrowość symboliczna pozostaje tutaj jedynie nakładką na analogowy nośnik transferu, wciąż podatny na swoje błędy.

  Dotyczy to każdej postaci „zera” i „jedynki” w procesie zapisu i odczytu (w pamięci, na taśmie, na dysku, w PCB), i tak samo w procesie transmisji kablowej (elektrycznej albo optycznej), w procesie konwersji bitowej (AD/DA), w procesie przetwarzania danych (uP/PCB/pamięć/przetworniki) – itd.

   Za wszystkimi tymi procedurami stoi jednakże wspierająco i zabezpieczająco szereg technik weryfikacji i korekcji błędów, mogących powstawać skutkiem nakładania się zachowań typowych dla analogowego nośnika na narzucane mu kodowanie cyfrowe.

    Przyjrzyjmy się tym zachowaniom. Pierwszym problemem są zniekształcenia treści samego sygnału, powstające na wszystkich etapach: generowania, transmisji, odczytu i archiwizacji.

   Na pierwszy rzut oka (oka naszego pojmowania) konstrukcja znaku logicznego (tym bardziej, że w grę wchodzą przecież jedynie dwa: jedynka i zero), nic nie wskazuje na to, by sam on mógł generować jakikolwiek błąd. To samo zdaje się odnosić do kolejnego etapu – do procedury transferowej.

   Logiczny znak zera, zgodnie z przyjętą normą, „widziany” jest przez bramkę logiczną jako impuls prądowy z przedziału 0,0 – 0,8 V, umowna jedynka zaś jako impuls z przedziału 2,4 – 5,0 V. (Po raz pierwszy takie napięcia zastosowano w tranzystorach bipolarnych.) Jak widać znajduje się pomiędzy tymi przedziałami martwy bufor 0,8 – 2,4 V, którego rozmiar i położenie na osi napięć świadczy o niesymetrii postrzegania przez bramkę niskiego i wysokiego napięcia. Co samo w sobie nastręcza już wątpliwości odnośnie poprawności sygnałów na jej wyjściu. Przy stosowaniu techniki MOS, z pomocą bramek zbudowanych w oparciu o tranzystory unipolarne, problem tej nierówności (niesymetryczności) zakresów znaku logicznego został naprawczo przesunięty w stronę wyrównania –  bramka MOS widziała już zera i jedynki w bliższych równości zakresach napięć.

  (II)   Zapytajmy teraz, czy bramka MOS (stosowana dziś niemal wszędzie) jest doskonale, albo przynajmniej wystarczająco, strzegącym przed błędami czytnikiem transmisji sygnałów cyfrowych? 

    Teoretycznie tak, ale praktycznie…

    Typowa bramka MOS jest zbudowana z tranzystorów o polaryzacji N oraz P; zachodzi jednak praktyczna trudność w zbudowaniu dokładnie zsymetryzowanych funkcyjnie tranzystorów stanowiących złożenie polaryzacji N i P, w następstwie czego poszczególne bramki mogą się różnić czasem pracy. Inaczej mówiąc: dystans czasowy pomiędzy wejściem a wyjściem nie jest dla różnych bramek (tranzystorów) w praktyce identyczny. W dodatku praca bramek jest obarczona opóźnieniami transmisji na wcześniejszych etapach, a także powstawaniem lokalnych zakłóceń i negatywnymi wpływami jonizacji. Empiria udowadnia, że przy tylu utrudnieniach transmisja sygnałów cyfrowych może zacząć się różnić od sygnału wzorcowego.

    W praktyce bowiem każda bramka, stanowiąca aktywny element elektroniczny, jest tak naprawdę zwykłym wzmacniaczem napięciowym (podobnie jak liniowy wzmacniacz operacyjny), w którym nie zastosowano ujemnej pętli sprzężenia zwrotnego (NFB), potrzebnej do minimalizacji zniekształceń sygnału pomiędzy wejściem a wyjściem, gdzie układ NFB analizuje stan „śledzenia” błędu w dziedzinie amplitudy i fazy. Bramka, której praca polega na wielokrotnym „przesterowywaniu” układu sygnałem pobudzającym, wywołującym szybsze narastanie i opadanie sygnału (mające na celu stopniowe przeistoczenie jego pierwotnie sinusoidalnego przebiegu w prostokątny) może doprowadzić do braku kontroli nad amplitudą oraz czasem pomiędzy wejściem a wyjściem. (Sama obecność bramek weryfikujących stan logiczny na wyjściu potwierdza istnienie problemu niezgodności sygnałów post transmisyjnych.)

    Problem zaburzającej pracy bramek nie będzie na szczęście degradacją zasadniczą, o ile tylko znaki logiczne zgodzą się z grubsza na koniec z protokołem transmisji (dzięki procedurom naprawczym). Gorzej niestety będzie ze ścisłością na osi czasu, zwłaszcza odnośnie szybkozmiennych sygnałów przenoszących obraz muzyczny z domeny analogowej w cyfrową lub odwrotnie.

    Gdyż niestety, czasowych błędów przesunięcia już skorygować się nie da.

  (III)   Zadajmy kolejne pytanie: Czy tylko w taki sposób powstają zniekształcenia w transmisjach sygnałów cyfrowych?

    Jeśli w domenie cyfrowej transmitowany jest pierwotnie analogowy sygnał stereofoniczny, efekt końcowy zależeć będzie od każdego ze składników protokołu, mamy więc analogię do łańcucha, zależnego od mocy każdego z ogniw.

    Cały sygnał cyfrowy S/PDIF, w którym zakodowano cyfrowo sygnały lewego i prawego kanału stereofonicznego, sygnał zegara taktującego i sygnał identyfikacji, jest przesyłany jednym przewodem – kablem koncentrycznym albo  optycznym.

    Do tego stopnia zunifikowana transmisja może być stosowana  dzięki  implementacji znaczników zegara taktującego na znakach logicznych pozostałych składników przesyłu, co wymagać będzie po stronie odbiorczej lokalnego generatora zsynchronizowanego z sygnałem dzięki obwodom pętli PLL. Od precyzji odczytywania przez ten generator taktu zegarowego zależeć będzie zgodność fazowa pomiędzy wszystkimi stanami logicznymi; ta procedura i jej precyzja decyduje o jakości pracy układów D/A converter, przywracających na ostatnim etapie pierwotny sygnał analogowy.

   Skupmy się zatem na własnościach przewodu koncentrycznego. Jego zdolność przesłania niezniekształconego sygnału okazuje się dyskusyjna; w standardzie określona progiem poprawnej interpretacji znaków logicznych do momentu, w którym fala odbita od fali wejściowej nie przekracza 25% wartości tej drugiej. Po przekroczeniu tego poziomu urządzenie odczytujące sygnał może odmówić współpracy.

(IV) Co to praktycznie oznacza?

   Oznacza zniekształcenia amplitudy przesyłanego sygnału poprzez powstające w kablu wtrącenia wtórnych amplitud odbiciowych, niezgodnych fazowo i czasowo. – Ogólnie biorąc deformację fali, mogącą powodować błędną interpretację znaków logicznych. (Pamiętajmy – znaków cały czas formułowanych w domenie analogowej.) Sam kabel generuje więc odbiciowo błędy narastania i opadania zbocza, deformujące kształt amplitudy oraz powodujące jej całościowe obniżenie skutkiem interferencji i opóźnień czasowych.

   By przeciwdziałać tym zniekształceniom zapobiegawczo unika się w złożonym sygnale cyfrowym długich ciągów jednego znaku – tzw. „składowej stałej” – ponieważ występujące po sobie np. trzy jedynki zaburzą obraz zbocza. Te trzy „jedynki” będą mieć wprawdzie idealnie równe czasy pomiędzy sobą, lecz „zero” (kolejny znak) w momencie opadania zbocza obarczone zostanie deformacją czasową w następstwie nietypowo małej pracy wykonanej poprzednio na sygnale. Tego rodzaju niesymetryczność skutkuje drżeniem znaków na osi czasu, a więc rozmyciem fazy.  (Podobnie, lecz w mniejszym stopniu, dotyczy to transmisji optycznej.)

   Nadmiar zjawisk ubocznych o różnym pochodzeniu, w tym tych generowanych przez sam przewód, może więc stać się powodem złej interpretacji (zero czy jeden) i braku poprawnej synchronizacji sygnału cyfrowego. 

   W rzeczywistych warunkach pracy bramek (które teoretycznie są wzmacniaczami napięciowymi o „liniowym” charakterze wzmocnienia, co nie jest prawdą), reakcja korygująca odnosi się jedynie do zmian na początku sygnału, nie odnosi natomiast do środkowych i dalszych. 

    Inaczej wygląda to w prawdziwych układach liniowych, czyli przywołanych wcześniej wzmacniaczach operacyjnych zasilanych bipolarnie. Te posiadają podwójne zasilanie, symetryczne względem zerowego potencjału GDN (zero lub ziemia), gdzie  GND  jest odniesieniem dla sygnału wejściowego wobec wyjściowego (zsymetryzowana skala zero-plus, zero-minus zasilania). W takich układach można  określić chwilowe zmiany napięć na wyjściu z dużą dokładnością czasową.

    Zwykłe bramki pracują natomiast z unipolarnym zasilaniem (pojedynczym zasilaniem), gdzie odniesienie dla granicy pomiędzy znakami zera i jedynki jest umowne, w następstwie czego przy przetwarzaniu sygnału odebranego z transmisji przewodowej będzie zachodzić ryzyko błędu. Będzie ono tym większe, że poziomy wewnętrznych sygnałów w urządzeniach cyfrowych są rzędu  5V – 1,2V podczas gdy sygnały w przewodzie to 0,7V. W oczywisty sposób zwiększa to ryzyko złej interpretacji znaków przez stopnie wejściowe i wyjściowe, wobec czego zdolność do „wytrącenia z równowagi” znaków logicznych (stany zero/bufor/jedynka) jest całkiem realna, a w takim razie i nieunikniona.

   Odpowiedzią na to są układy i algorytmy korygujące błędy, a samo ich istnienie dowodem na istnienie błędów w transmisji. Każda forma korekcji błędów jest przy tym sama źródłem błędów.

    Odporność na zakłócenia w dziedzinie sygnałów cyfrowych jest zatem czysto teoretyczna. W praktyce bramki pracują w domenie analogowej (podobnie jak wzmacniacze operacyjne), zachowując wrażliwość na zakłócenia. Tym będą one większe, im krótsze są interwały między znakami i niższe poziomy odróżniania samych znaków.

    Z powodów konstrukcyjnych, takich jak różny rodzaj przewodnika (miedź, srebro), typ izolacji, kształt rdzenia, średnica rdzenia i grubość ekranu, ilość tychże ekranów, całkowita długość przewodu oraz typ łącza, poszczególne przewody z pewnością będą się różnić pod względem bezbłędności przesyłu i sumarycznego poziomu zniekształceń. Tym samym będą wpływały na pracę systemu cyfrowego tak samo jak zmiana zegara taktującego albo rezonatora kwarcowego.

   Wobec faktu pracy przetwornika D/A z czasem o odstępach liczonych na poziomie nanosekund, jakiekolwiek błędy czasowe transmisji będą momentalnie powodem odczuwalnych zaburzeń. Przy czym urządzenia z przeciętnej grupy zaawansowania technologicznego, czyli po prostu tanie, nie będą reagowały w istotny sposób na zmiany kabli sygnałowych. Dotyczy to także zjawisk psycho-sonicznych u osób o niewyrobionej skali wrażliwości na materiał muzyczny i ignorantów muzycznych. Pink Floyd zaś zawsze będzie dobrze działał, niezależnie od użytego kabla S/PDIF, skutkiem trzech tylko funkcji w partyturze, zamplifikowanych w dodatku na przesterze. To niestety za mało, by zmiana kabla coś wniosła. Należy zmienić wykonawcę na bardziej wirtuozowsko zaawansowanego i muzykę na bardziej skomplikowaną, by sygnał o większej ilości danych ulegał w transmisji bardziej zauważalnym zniekształceniom.

Pokaż artykuł z podziałem na strony

32 komentarzy w “Kable cyfrowe – jedyny fragment Wszechświata przekraczający entropię

  1. Fon pisze:

    Ciekawy to wykład się zrobił,zapytam więc ,które to kable spełniają powyższe wymagania 🙂
    Zdaje się jakiś topowy Technics z lat 80 miał połączenie transportu z dacem optyczne…A kosztował fortunę,zastanawiające.

    1. Piotr+Ryka pisze:

      Daleko mi do możliwości powiedzenia o sobie, że znana mi jest odnośnie potencjału jakościowego paleta dostępnych kabli cyfrowych, znam mały jej wycinek.

  2. slawsim pisze:

    Z całym szacunkiem dla bardzo ciekawego materiału Panie Piotrze, nie daje mi spokoju ten fragment „0,0006 cm. (Sześć tysięcznych milimetra.)”. Pierwsza cyfra po przecinku reprezentuje liczbę dziesiątych, druga setne. Kolejne cyfry tysięczne, dziesięciotysięczne itd. Czy jest błąd w tekście czy ja coś pomyliłem? Ponadto czy będą to diesięciotysięczne milimetra czy napisanego za nimi centymetra? Zgłupiałem po covidzie, czy mam rację? 🙂 Pozdrawiam i absolutnie sie nie czepiam 🙂

    1. Piotr+Ryka pisze:

      To nie moja część tekstu, muszę sprawdzić.

    2. Sławek pisze:

      No to włącz sobie kalkulator. 0,0006 cm * 10 (bo cm to 10 mm) = 0,006 mm
      Pomyliłeś.

  3. Sławek pisze:

    To nie jest recenzja. To jest arcydzieło!

  4. Sławomir S pisze:

    Super temat i świetnie zredagowany. Może tylko budowanie polemiki do wyznawców zerojedynkowej doskonałości to już zabieg odrobinę niepotrzebny. Niech Oni zostaną sobie w swoim klubie uproszczonego postrzegania świata i nie zajmujmy się tym.
    Mamy zatem interesująco nakreślony temat transmisji sygnału (tu cyfrowego) za pomocą kabla. Czy możemy liczyć na dalsze rozważania o transmisji bezprzewodowej? Gdzie tu czają się zasadzki dla jakości? I co będzie przyszłością transmisji sygnałów w priorytecie jakości?

  5. Janek pisze:

    Panie Piotrze,
    Bardzo cenię Pana recenzje, opisy sprzętów hifi. Ale tym razem rozumiem, że ten tekst jest jakimś pastiszem, prowokacją oraz intelektualną rozróbą. Trudno mi zgodzić się z tym, że zaprzęga Pan całą fizykę klasyczną i kwantową, kosmologię oraz materiałoznawstwo do udowodnienia abstrakcyjnych tez, którymi są „różnice w graniu cyfrowych interkonektów”. Moim zdaniem, to, co Pan tutaj wyprawia jest znaczącym nadużyciem, nieprawdą i skrajną naiwnością. Chciałoby się napisać – głupotą. Dawno nie czytałem tak „odważnego” tekstu, który wydaje się być pisany niestety w prawdzie, a nie w fantazji. Julius Verne powinien Panu zazdrościć 🙂

    1. Piotr+Ryka pisze:

      Dlaczego abstrakcyjne? Skoro je słychać, to nie abstrakcyjne.

  6. Pawcio pisze:

    Cieszę się, ze temat został zebrany w pewną całość. Będzie można link na różnych forach podawać tym co zaszufladkowali sobie wiedzę w mocno uproszczonym schemacie nie opisującym nawet wycinka rzeczywistości i bronią zaciekle schematu (bez wnikania jakie temu towarzysza motywacje).
    Świetne opracowanie !!!
    Przy okazji już dawno w przypadku transmisji cyfrowej korzystam z jedynie z transmisji LAN a i tak w moim torze audio słychać różnice między kablami LAN, choć ich wpływ na dźwięk finalny nie jest tak znaczący jak innych kabli w systemie.

  7. Fon pisze:

    No ale przydałyby się przykłady konkretnych kabli Piotrze,które to spełniają wszystkie opisane tu parametry bo w tym gąszczu propozycji trudno się połapać .

    1. Piotr+Ryka pisze:

      Z przystępnych cenowo najpewniejsze są kable optyczne, jako z natury generujące najmniejsze zniekształcenia. Porównywalne z nimi elektryczne z reguły są drogie lub bardzo drogie. Ale co po najlepszym kablu jakiegoś typu, gdy dane urządzenie zostało przez twórców zoptymalizowane do innego rodzaju kabli, np. nie do koaksjalnych, a USB? Nawiasem za najlepszy do transmisji elektrycznej uważa się potrójny BNC, ale co z tego, jak żadne urządzenia poza bardzo nielicznymi wyjątkami złącz dla niego nie mają?

      1. Fon pisze:

        To z powodu tych komplikacji technicznych kabli najlepiej jest zastosowanie odtwarzacza zintegrowanego wysokiej klasy gdzie problem przewodów cyfrowych mamy z głowy:)

      2. Sławek pisze:

        Co do kabli optycznych, to miałem kiedyś transport CD Cambridge Audio CXC i podłączony zwykłym „plastikowym” optykiem grał „normalnie”, a podłączonym „szklanym” optykiem Wireworld Supernova7 grał dużo lepiej.
        Jednak dla mnie kable optyczne brzmią odrobinę szarawo, jakiś taki „kartonowy” nalot mają.
        W high endowym transporcie CD Jay’s Audio – dowolny model – brak wyjścia optycznego.

        1. Piotr+Ryka pisze:

          Bardzo dużo zależy od optymalizacji przetwornika do typu wejścia cyfrowego. Najczęstsze spotykane to pod USB, pod AES/EBU i pod I2S. Pamiętam jak specjalnie na użytek mojej recenzji Mytek optymalizował swojego Manhattana pod wejście optyczne. Specjalny moduł optymalizacyjny kosztował go grube pieniądze.

  8. Tomasz pisze:

    Szanowni Państwo,

    Dyskusja jest gorąca niczym upalne lato za oknem, ale niestety bezprzedmiotowa albowiem krytycy i sceptycy nie mając żadnych racjonalnych argumentów technicznych ani wiedzy stosują albo hejt (młodzian z kanału „Ton Składowy” i jego wyznawcy) albo publikują manifesty Partii Głuchych na zasadzie: „jeśli ja czegoś nie słyszę to znaczy, że tego nie ma”. Ryzykowna taktyka, ale jak się okazuje, skuteczna. Oto frakcja głuchych i hejtujących słyszenie u innych czuje się zwolniona z racjonalnej argumentacji. To słyszący muszą publikować mądre artykuły jak ten komentowany, to słyszący muszą się bronić przed atakami, to słyszący muszą udowadniać, że słyszą. Partia Głuchych stosuje prostą metodę rodem z filmu „Miś” Barei: „Nie mamy pańskiego płaszcza i co pan nam zrobi?”. W tym miejscu muszę wspomnieć z uznaniem o twórcy kanału „Reduktor Szumu”, bo po pierwsze posiada ogromną wiedzę teoretyczną i praktyczną a po drugie jest jednym nielicznych z frakcji sceptyków, który ma odwagę przyznać, że sprzęt z którym obcuje nie pozwala mu ocenić wielu zjawisk akustycznych zachodzących w wyniku zmian kabli, bezpieczników itd. Szacun, jak mawiają młodzi.

    Z poważaniem

    1. Piotr+Ryka pisze:

      Swoje zdanie na temat „Reduktora szumu” przedstawiłem tutaj: https://hifiphilosophy.com/krytyka-audiofilizmu-pod-haslem-audiovoodoo/

  9. Piotr+Ryka pisze:

    Kiedy przeglądam komentarze – zarówno jeden z tutejszych, jak i owe żałosne kwiki intelektualnej rejterady wesołej gromadki fejsbukowych antyaudiofili – coraz wyraźniej dociera do mnie, że komentującym najwyraźniej umknął podstawowy fakt, iż mianowicie tekst nie jest wyłącznie mój, tylko ma trzech autorów, z których dwóch to inżynierowie elektronicy. Z których jeden to były pracownik naukowy, specjalista od konstruowania systemów szybkiej łączności cyfrowej w Instytucie Elektroniki AGH; i właśnie on, podobnie zresztą jak kolega po fachu, przywołuje podstawowy fakt tego, że sygnał cyfrowy pozostaje w istocie analogowy, a jego analogowe rozmycie jest widoczne w pomiarach, a nie jedynie słyszalne. Zwyczajnym oszustwem jest zatem twierdzenie, że niedoskonałości transferu cyfrowego są wyłącznie aktami wiary ze strony tkniętych manią audiofili. No ale kto by tam chciał docierać z czytaniem aż do trzeciej strony, nie wspominając o ostatniej; dla antyaudiofilskich makówek to już zdecydowanie za dużo słów, podobnie jak dla cesarza Józefa II w partyturach Mozarta było za dużo nut. (Tylko żeby nie było, że porównuję siebie do Mozarta, bo już słyszę te intelektualne rozbłyski mistrzów dwuzdaniowego komentarza.)

    1. MirekM pisze:

      Niestety rzesze audiofili sądzą, iż w kablach cyfrowych przepływają zera i jedynki.

      1. Piotr+Ryka pisze:

        Myślę, że audiofile, zwłaszcza ci posługujący się kablami cyfrowymi, czytając ich opisy często natykają się na informację o ich faktycznej analogowości. Prędzej też wiedzą o tym, do jakiego stopnia przekaz cyfrowy jest obarczony błędami. Tego samego o antyaudiofilach bym już nie powiedział.

    2. Pe_eL pisze:

      „podstawowy fakt, iż mianowicie tekst nie jest wyłącznie mój, tylko ma trzech autorów, z których dwóch to inżynierowie elektronicy. Z których jeden to były pracownik naukowy, specjalista od konstruowania systemów szybkiej łączności cyfrowej w Instytucie Elektroniki AGH;”

      1. Czy – jako autor tekstu – przeprowadzil pan jakakolwiek weryfikacje twierdzen pozostalych autorow?

      „podstawowy fakt tego, że sygnał cyfrowy pozostaje w istocie analogowy, a jego analogowe rozmycie jest widoczne w pomiarach, a nie jedynie słyszalne. Zwyczajnym oszustwem jest zatem twierdzenie, że niedoskonałości transferu cyfrowego są wyłącznie aktami wiary ze strony tkniętych manią audiofili.”

      2. No ale wlasnie o to chodzi – ze cos moze byc rejestrowane w pomiarach dokonywanych precyzyjna aparatura i jednoczesnie nie byc slyszane przez ludzkie ucho i mozg, gdyz po prostu te roznice sa zbyt male, aby przez te organy byly rozroznialne. Po to wlasnie mamy aprature naukowa zeby nie polegac tylko na ludzkich zmyslach o ograniczonej czulosci.

      Oszustwem jedynie w calej tej duskisji jest panskie twierdzenie ze rozpoznawanie kazdej, najmniejszej niedoskonalosci transferu cyfrowego, nawet tej wielkosci 10^-12 rzedu wartosci ponizej progu rozpoznawalnosci ludzkiego mozgu sa czymkowliek wiecej niz li tylko aktem naiwnej wiary ulomnego umyslu ze strony maniakalnych i niedouczonych audiosfirow.

  10. Pe_eL pisze:

    Czy ja dobrze rozumiem, że cytowany tu pan Waszczyszyn twierdzi że uczestnicy jego testu są w stanie usłyszeć, rozróżnić i ocenić sygnały dźwiękowe o długości 20 femtosekund?

    1. Piotr+Ryka pisze:

      A Pan uważa, że femtosekundowe zegary to tak tylko dla jaj są oferowane, niczym słyszalnym się od mniej precyzyjnych nie różnią?

      1. Pe_eL pisze:

        Pewnie są oferowane po to, żeby je sprzedać i coś na nich zarobić.

        Ale ja nie o to pytam.

        Problem polega na tym, że – trochę to upraszczając – mózg ludzki nie działa na tyle szybko żeby femtosekundowe różnice dzwieku zarejestrować i ocenić. Po prostu prędkość przesyłania sygnałów między neuronami jest zbyt niska. W ciągu 20 fs impuls nie przedostanie się z jednego neuronu do drugiego, a to jest potrzebne żeby coś usłyszec.

        Mózg ludzki działa na poziomie mikrosekund.
        Jedna femtosekunda to 10^-12 mikrosekundy.
        12 rzędów wielkości różnicy.
        W jednej mikrosekundzie jest tyle femtosekund ile sekund w ponad 31 000 lat.

        Stąd moje pytanie.

        1. Piotr+Ryka pisze:

          Tak, to prawda, tylko że ta zegarowa precyzja nie służy bezpośredniemu postrzeganiu siebie samej, tylko precyzji wewnętrznego organizowania cyfrowej próbki muzycznej. Per analogiam – to tak jak powiedzieć, że prędkość karty graficznej RTX 4090 jest za duża, bo przecież nikt nie może zobaczyć 73 teraflopów obliczeń na sekundę (dziesięć do dwunastej operacji zmiennoprzecinkowych na sekundę), nikt nie może czegoś takiego ogarnąć wzrokiem. Ale te teraflopy nie są po to, żeby je same widzieć, tylko żeby organizować dynamiczną zmienność złożonego z wielu parametrów obrazu. Podobnie femtosekundowy zegar czuwa nad precyzją organizacji cyfrowego obrazu muzyki, nad brakiem jego rozmycia, a to rozmycie jest już słyszalne.

          1. Pe_eL pisze:

            „zegarowa precyzja nie służy bezpośredniemu postrzeganiu siebie samej”

            „organizować dynamiczną zmienność złożonego z wielu parametrów obrazu”

            „precyzją organizacji cyfrowego obrazu muzyki, nad brakiem jego rozmycia, a to rozmycie jest już słyszalne.”

            Pominawszy juz to, ze to jest jakies slowotworcze mumbo jambo, fakty sa takie, ze ludzki mozg nie jest w stanie rejestrowac czegokolwiek, zadnego cyfrowego rozmycia obrazu muzyki – ??? co to w ogole ma znaczyc – na poziomie 10^-12 nizszym niz jego zdolnosc do przesylania sygnalow elektrycznych miedzy neuronami. Sorry, ale mimo najszczerszych checi nie przeskoczymy tego.

          2. Piotr+Ryka pisze:

            Jeżeli nie jesteś w stanie pojąć rozróżnienia pomiędzy procesem a jego efektem, to trudno, tak już masz. W cząsteczce amoniaku atom azotu nieustanie przeskakuje od jednego do drugiego z trzech atomów wodoru i robi to z prędkością ponad miliarda razy na sekundę. A efektem jest nie jakiś szał, tylko śmierdząca ciecz, która wydaje się całkiem spokojna.

  11. R pisze:

    Forma i styl artykułów na hifiphilosophy to jest jakiś językowy koszmar. Czyta to się jak jakiś słowotok, w którym autor spisuje na bieżąco co mu ślina na język przyniesie bez sekundy zastanowienia się nad formą i stylem swojej wypowiedzi. Jakbym coś takiego pokazał polonistce w szkole podstawowej to mój zeszyt wyleciałby chwilę potem drzwiami a ja zaraz zanim z wielką pałą w dzienniczku. Polecam https://www.bryk.pl/jak-pisac/rozprawka.pokaz-cale-opracowanie i podrzucenie kilku artykułów korektorce lub znajomej polonistce. Polska jazyka trudna jazyka ale na pewnym poziomie wypadałoby jednak okazać mu jakiś szacunek.

    1. Piotr+Ryka pisze:

      Rozumiem, że chcesz mnie obrazić, ale proszę, nie czerp w tym celu z zagadnień, o których nie masz pojęcia.

  12. Adam M pisze:

    Komentarz żenujący, świadczący słabo o jego autorze i braku znajomości zagadnień o których pisze. Życzyłbym sobie żeby było więcej takich recenzentów umieją cych opisywać dźwięk w tak wyrafinowany sposób jak tutaj,że można go sobie (dźwięk) niemal wyobrazić.

  13. Tichy62 pisze:

    Mam kabel USB Supry. Wystarczy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

sennheiser-momentum-true-wireless
© HiFi Philosophy