Ucho i jego funkcja. percepcja słuchowa


Treść artykułu

PRZESŁUCHANIE, zdolność odbierania dźwięków. Słuch zależy od: 1) ucha - zewnętrznego, środkowego i wewnętrznego - które odbiera wibracje dźwiękowe; 2) nerw słuchowy, który przekazuje sygnały odbierane z ucha; 3) określone części mózgu (ośrodki słuchowe), w których impulsy przekazywane przez nerwy słuchowe powodują uświadomienie sobie pierwotnych sygnałów dźwiękowych.

Każde źródło dźwięku - struna skrzypiec, na której naciągnięto smyczek, słup powietrza poruszający się w piszczałce organowej lub struny głosowe osoby mówiącej - powoduje drgania w otaczającym powietrzu: najpierw chwilowe sprężenie, potem chwilowe rozrzedzenie. Innymi słowy, seria naprzemiennych fal zwiększonego i obniżone ciśnienie które szybko rozprzestrzeniają się w powietrzu. Ten poruszający się strumień fal tworzy dźwięk odbierany przez narządy słuchu.

Większość dźwięków, z którymi spotykamy się na co dzień, jest dość złożona. Generowane są przez złożone ruchy oscylacyjne źródła dźwięku, tworząc cały kompleks fal dźwiękowych. Eksperymenty słuchowe starają się wybierać jak najprostsze sygnały dźwiękowe, aby łatwiej było ocenić wyniki. Wiele wysiłku poświęca się zapewnieniu prostych okresowych oscylacji źródła dźwięku (jak wahadło). Powstały strumień fal dźwiękowych o jednej częstotliwości nazywany jest tonem czystym; jest to regularna, płynna zmiana wysokiego i niskiego ciśnienia.

Granice percepcji słuchowej.

Opisane „idealne” źródło dźwięku można zmusić do oscylacji szybko lub wolno. Pozwala nam to wyjaśnić jedno z głównych pytań, które pojawiają się w badaniu słuchu, a mianowicie, jaka jest minimalna i maksymalna częstotliwość oscylacji odbieranych przez ludzkie ucho jako dźwięk. Eksperymenty wykazały, co następuje. Gdy oscylacje są bardzo wolne, mniej niż 20 pełnych oscylacji na sekundę (20 Hz), każda fala dźwiękowa jest słyszalna oddzielnie i nie tworzy ciągłego tonu. Wraz ze wzrostem częstotliwości wibracji osoba zaczyna słyszeć ciągły niski ton, podobny do dźwięku najniższej piszczałki basowej organów. W miarę dalszego wzrostu częstotliwości odbierany ton staje się coraz wyższy; przy częstotliwości 1000 Hz przypomina górne C sopranu. Jednak ta nuta wciąż jest daleka od górnej granicy ludzkiego słuchu. Dopiero gdy częstotliwość zbliża się do około 20 000 Hz, normalne ucho ludzkie stopniowo przestaje słyszeć.

Czułość ucha na wibracje dźwiękowe o różnych częstotliwościach nie jest taka sama. Jest szczególnie wrażliwy na wahania średniej częstotliwości (od 1000 do 4000 Hz). Tutaj czułość jest tak duża, że ​​jakikolwiek znaczący jej wzrost byłby niekorzystny: jednocześnie odczuwalny byłby stały szum tła przypadkowego ruchu cząsteczek powietrza. Wraz ze spadkiem lub wzrostem częstotliwości w stosunku do średniego zakresu ostrość słuchu stopniowo maleje. Na krańcach postrzeganego zakresu częstotliwości dźwięk musi być bardzo silny, aby był słyszalny, tak silny, że czasami jest fizycznie odczuwalny, zanim zostanie usłyszany.

Dźwięk i jego percepcja.

Czysty ton ma dwie niezależne cechy: 1) częstotliwość i 2) siłę lub intensywność. Częstotliwość jest mierzona w hercach, tj. jest określona przez liczbę pełnych cykli oscylacyjnych na sekundę. Natężenie jest mierzone wielkością pulsującego ciśnienia fal dźwiękowych na dowolnej powierzchni oporowej i jest zwykle wyrażane w jednostkach względnych, logarytmicznych - decybelach (dB). Należy pamiętać, że pojęcia częstotliwości i natężenia dotyczą tylko dźwięku jako zewnętrznego bodźca fizycznego; to jest tzw. charakterystyka akustyczna dźwięku. Kiedy mówimy o percepcji, tj. o procesie fizjologicznym, dźwięk jest oceniany jako wysoki lub niski, a jego siła jest postrzegana jako głośność. Ogólnie rzecz biorąc, wysokość dźwięku – subiektywna cecha dźwięku – jest ściśle związana z jego częstotliwością; dźwięki o wysokiej częstotliwości są postrzegane jako wysokie. Ogólnie można też powiedzieć, że postrzegana głośność zależy od siły dźwięku: im głośniej słyszymy dźwięki bardziej intensywne. Wskaźniki te nie są jednak stałe i bezwzględne, jak się często przyjmuje. Na postrzeganą wysokość dźwięku w pewnym stopniu wpływa jego siła, podczas gdy na postrzeganą głośność wpływa jego częstotliwość. W ten sposób, zmieniając częstotliwość dźwięku, można uniknąć zmiany postrzeganej wysokości dźwięku poprzez odpowiednią zmianę jego siły.

„Minimalna zauważalna różnica”.

Zarówno z praktycznego, jak i teoretycznego punktu widzenia określenie minimalnej słyszalnej przez ucho różnicy w częstotliwości i natężeniu dźwięku jest bardzo ważnym problemem. Jak należy zmienić częstotliwość i siłę sygnałów audio, aby słuchacz to zauważył? Okazało się, że o minimalnej zauważalnej różnicy decyduje względna zmiana charakterystyki dźwięku, a nie bezwzględna zmiana. Dotyczy to zarówno częstotliwości, jak i siły dźwięku.

Względna zmiana częstotliwości niezbędna do rozróżnienia jest różna zarówno dla dźwięków o różnych częstotliwościach, jak i dla dźwięków o tej samej częstotliwości, ale o różnym natężeniu. Można jednak powiedzieć, że jest to około 0,5% w szerokim zakresie częstotliwości od 1000 do 12 000 Hz. Odsetek ten (tzw. próg dyskryminacji) jest nieco wyższy w okolicach więcej wysokie częstotliwości i znacznie wyższe przy niższych. W rezultacie ucho jest mniej wrażliwe na zmiany częstotliwości na krańcach zakresu częstotliwości niż na środku, co często zauważają wszyscy pianiści; przerwa między dwoma bardzo wysokimi lub bardzo niskimi nutami wydaje się być krótsza niż w przypadku nut w środkowym zakresie.

Minimalna zauważalna różnica pod względem siły dźwięku jest nieco inna. Dyskryminacja wymaga dość dużej zmiany ciśnienia fal dźwiękowych, około 10% (tj. około 1 dB), a wartość ta jest względnie stała dla dźwięków o niemal dowolnej częstotliwości i natężeniu. Jednakże, gdy intensywność bodźca jest niska, minimalna odczuwalna różnica znacznie wzrasta, szczególnie w przypadku tonów o niskiej częstotliwości.

Podteksty w uchu.

Cechą charakterystyczną prawie każdego źródła dźwięku jest to, że nie tylko wytwarza ono proste okresowe oscylacje (czysty ton), ale także wykonuje złożone ruchy oscylacyjne, które dają jednocześnie kilka czystych tonów. Zazwyczaj taki złożony ton składa się z szeregów harmonicznych (harmonicznych), tj. od najniższej, podstawowej częstotliwości plus alikwoty, których częstotliwości przekraczają podstawową liczbę całkowitą razy (2, 3, 4 itd.). Zatem obiekt wibrujący z częstotliwością podstawową 500 Hz może również wytwarzać alikwoty o częstotliwości 1000, 1500, 2000 Hz itd. Ludzkie ucho reaguje na sygnał dźwiękowy w podobny sposób. Cechy anatomiczne Uszy dają wiele możliwości zamiany energii przychodzącego czystego tonu, przynajmniej częściowo, na alikwoty. Tak więc nawet wtedy, gdy źródło podaje czysty ton, uważny słuchacz usłyszy nie tylko główny ton, ale także ledwo wyczuwalny jeden lub dwa alikwoty.

Interakcja dwóch tonów.

Gdy dwa czyste tony są odbierane przez ucho jednocześnie, można zaobserwować następujące warianty ich wspólnego działania, w zależności od charakteru samych tonów. Mogą się wzajemnie maskować poprzez wzajemne zmniejszanie głośności. Dzieje się tak najczęściej, gdy tony nie różnią się znacznie częstotliwością. Dwa tony mogą się ze sobą łączyć. Jednocześnie słyszymy dźwięki odpowiadające albo różnicy częstotliwości między nimi, albo sumie ich częstotliwości. Kiedy dwa tony mają bardzo zbliżoną częstotliwość, słyszymy pojedynczy ton, którego ton z grubsza odpowiada tej częstotliwości. Ten ton staje się jednak coraz głośniejszy i cichszy, ponieważ dwa nieco niedopasowane sygnały akustyczne nieustannie wchodzą w interakcje, wzmacniając się i eliminując się nawzajem.

Tembr.

Obiektywnie rzecz biorąc, te same złożone tony mogą różnić się stopniem złożoności, tj. skład i intensywność alikwotów. Subiektywną cechą percepcji, która generalnie odzwierciedla specyfikę dźwięku, jest barwa. Tak więc wrażenia wywołane tonem złożonym charakteryzują się nie tylko określoną wysokością i głośnością, ale także barwą. Niektóre dźwięki są bogate i pełne, inne nie. Przede wszystkim dzięki różnicom w barwie dźwięku rozpoznajemy głosy różnych instrumentów wśród różnorodnych dźwięków. Nutę A graną na pianinie można łatwo odróżnić od tej samej nuty granej na trąbce. Jeśli jednak uda się przefiltrować i stłumić alikwoty każdego instrumentu, to nut tych nie da się rozróżnić.

Lokalizacja dźwięku.

Ucho ludzkie nie tylko rozróżnia dźwięki i ich źródła; oboje uszu, współpracując, jest w stanie dość dokładnie określić kierunek, z którego dochodzi dźwięk. Ponieważ uszy są zlokalizowane przeciwne strony głowy, fale dźwiękowe ze źródła dźwięku nie docierają do nich w tym samym czasie i działają z nieco inną siłą. Ze względu na minimalną różnicę w czasie i sile mózg dość dokładnie określa kierunek źródła dźwięku. Jeśli źródło dźwięku znajduje się dokładnie z przodu, mózg lokalizuje je wzdłuż osi poziomej z dokładnością do kilku stopni. Jeśli źródło jest przesunięte w jedną stronę, dokładność lokalizacji jest nieco mniejsza. Odróżnienie dźwięku z tyłu od dźwięku z przodu, a także zlokalizowanie go wzdłuż osi pionowej jest nieco trudniejsze.

Hałas

często opisywany jako dźwięk atonalny, tj. składający się z różnych częstotliwości, które nie są ze sobą powiązane i dlatego nie powtarzają takiej przemiany fal wysokiego i niskiego ciśnienia wystarczająco konsekwentnie, aby uzyskać określoną częstotliwość. Jednak w rzeczywistości prawie każdy „szum” ma swoją wysokość, co łatwo zauważyć, słuchając i porównując zwykłe odgłosy. Z drugiej strony każdy „ton” ma w sobie elementy chropowatości. Dlatego różnice między szumem a tonem są trudne do zdefiniowania w tych kategoriach. Obecny trend polega na definiowaniu hałasu bardziej psychologicznie niż akustycznie, nazywając hałas po prostu niepożądanym dźwiękiem. Redukcja hałasu w tym sensie stała się palącym współczesnym problemem. Chociaż trwałe głośny hałas, bez wątpienia prowadzi do głuchoty, a praca w hałaśliwym otoczeniu powoduje chwilowy stres, ale prawdopodobnie ma mniej trwały i silny efekt, niż się jej czasem przypisuje.

Nieprawidłowy słuch i słuch u zwierząt.

Naturalnym bodźcem dla ludzkiego ucha jest dźwięk rozchodzący się w powietrzu, ale na ucho można wpływać w inny sposób. Na przykład wszyscy dobrze wiedzą, że pod wodą słychać dźwięk. Ponadto, jeśli źródło wibracji jest przykładane do części kostnej głowy, pojawia się wrażenie dźwięku z powodu przewodnictwa kostnego. Zjawisko to jest bardzo przydatne w niektórych postaciach głuchoty: mały nadajnik przyłożony bezpośrednio do wyrostka sutkowatego (część czaszki znajdująca się tuż za uchem) pozwala pacjentowi słyszeć dźwięki wzmacniane przez nadajnik przez kości czaszki dzięki na przewodnictwo kostne.

Oczywiście nie tylko ludzie mają słuch. Zdolność słyszenia pojawia się na wczesnym etapie ewolucji i istnieje już u owadów. Różne rodzaje Zwierzęta odbierają dźwięki o różnych częstotliwościach. Niektórzy ludzie słyszą mniejszy zakres dźwięków niż osoba, inni większy. Dobrym przykładem jest pies, którego ucho jest wrażliwe na częstotliwości poza ludzkim słuchem. Jednym z zastosowań tego jest wytwarzanie gwizdków, które są niesłyszalne dla ludzi, ale wystarczające dla psów.

W mechanizm percepcji dźwięku wziąć udział w różne struktury: fale dźwiękowe, które są drganiami cząsteczek powietrza, rozchodzą się ze źródła dźwięku, są wychwytywane przez ucho zewnętrzne, wzmacniane przez ucho środkowe i przekształcane przez ucho wewnętrzne w Impulsy nerwowe wchodzi do mózgu.


Fale dźwiękowe są wychwytywane przez małżowinę uszną i docierają przez zewnętrzny przewód słuchowy. bębenek Błona oddzielająca ucho zewnętrzne od ucha środkowego. Drgania błony bębenkowej przenoszone są do kosteczek słuchowych ucha środkowego, które informują swoje okienko owalne tak, że wibracje docierają do Ucho wewnętrzne wypełniony płynem. Wibrujące okienko owalne generuje ruch przychłonki, w którym powstaje swoisty rodzaj „fali”, przechodzącej przez cały ślimak, najpierw po drabince przedsionkowej, a następnie wzdłuż błony bębenkowej, aż do okrągłego okienka, w którym „fala” ustępuje. Dzięki fluktuacjom przychłonki pobudzany jest znajdujący się w ślimaku narząd Cortiego, który przetwarza ruchy przychłonki i na ich podstawie generuje impulsy nerwowe, które są przekazywane do mózgu poprzez nerw słuchowy.

Ruch przychłonki powoduje, że główna membrana, która tworzy powierzchnię zakrętu, w którym znajduje się narząd Cortiego, wibruje. Kiedy komórki czuciowe są poruszane przez wibracje, małe rzęski na ich powierzchni uderzają w błonę powłokową i powodują zmiany metaboliczne, które przekształcają bodźce mechaniczne w nerwy nerwowe ślimakowe i docierają do nerwu słuchowego, skąd wchodzą do mózgu, gdzie są rozpoznawane i postrzegane jako Dźwięki.

FUNKCJE KOŚCI UCHA ŚRODKOWEGO.

Kiedy błona bębenkowa drga, poruszają się również kosteczki słuchowe ucha środkowego: każda wibracja powoduje ruch młoteczka, który wprawia w ruch kowadełko, przekazując ruch do strzemiączka, następnie podstawa strzemiączka uderza w okienko owalne i w ten sposób tworzy fala w płynie zawartym w uchu wewnętrznym. Ponieważ błona bębenkowa ma powierzchnię większą niż okienko owalne, dźwięk jest skoncentrowany i wzmacniany, gdy przechodzi przez kosteczki słuchowe ucha środkowego, aby zrekompensować straty energii podczas przejścia fal dźwiękowych z powietrza do cieczy. Dzięki temu mechanizmowi można odbierać bardzo słabe dźwięki.

Ludzkie ucho może odbierać fale dźwiękowe o określonej charakterystyce natężenia i częstotliwości. Jeśli chodzi o częstotliwość, człowiek może odbierać dźwięki w zakresie od 16 000 do 20 000 herców (wibracji na sekundę), a słuch ludzki jest szczególnie wrażliwy na ludzki głos, który mieści się w zakresie od 1000 do 4000 herców. Intensywność, która zależy od amplitudy fal dźwiękowych, musi mieć określony próg, a mianowicie 10 decybeli: dźwięki poniżej tego znaku nie są odbierane przez ucho.


Uszkodzenie słuchu to pogorszenie zdolności odbioru dźwięków w wyniku wystąpienia pojedynczego silnego źródła hałasu (np. wybuch) lub długotrwałego (dyskoteki, koncerty, miejsce pracy itp.). W wyniku urazu słuchu osoba będzie dobrze słyszeć tylko niskie tony, natomiast zdolność słyszenia tonów wysokich ulegnie pogorszeniu. Istnieje jednak możliwość ochrony aparatu słuchowego za pomocą nauszników.

Zmysł słuchu jest jedną z najważniejszych rzeczy w życiu człowieka. Słuch i mowa tworzą razem ważne narzędzie komunikacja między ludźmi, służą jako podstawa relacji między ludźmi w społeczeństwie. Utrata słuchu może prowadzić do problemów behawioralnych. Dzieci głuche nie mogą nauczyć się pełnej mowy.

Za pomocą słuchu człowiek odbiera różne dźwięki, które sygnalizują to, co dzieje się w świecie zewnętrznym, odgłosy otaczającej nas przyrody - szelest lasu, śpiew ptaków, szum morza, a także różne utwory muzyczne. Za pomocą słuchu postrzeganie świata staje się jaśniejsze i bogatsze.

Ucho i jego funkcja. Dźwięk lub fala dźwiękowa to naprzemienne rozrzedzenie i kondensacja powietrza, rozchodzące się we wszystkich kierunkach od źródła dźwięku. Źródłem dźwięku może być dowolne wibrujące ciało. Wibracje dźwiękowe są odbierane przez nasz narząd słuchu.

Narząd słuchu ma bardzo złożoną budowę i składa się z ucha zewnętrznego, środkowego i wewnętrznego. Ucho zewnętrzne składa się z małżowiny usznej i przewodu słuchowego. Przedsionki wielu zwierząt mogą się poruszać. Pomaga to zwierzęciu złapać nawet najcichszy dźwięk. Ludzkie małżowiny uszne służą również do określania kierunku dźwięku, chociaż są nieruchome. Kanał słuchowy łączy ucho zewnętrzne z kolejnym odcinkiem - uchem środkowym.

Kanał słuchowy jest zablokowany na wewnętrznym końcu przez mocno rozciągniętą błonę bębenkową. Fala dźwiękowa uderzająca w błonę bębenkową powoduje jej oscylacje, wibracje. Częstotliwość drgań błony bębenkowej jest tym większa, im wyższy dźwięk. Im silniejszy dźwięk, tym bardziej membrana wibruje. Ale jeśli dźwięk jest bardzo słaby, ledwo słyszalny, to te wibracje są bardzo małe. Minimalna słyszalność wytrenowanego ucha jest prawie na granicy tych wibracji, które powstają w wyniku losowego ruchu cząsteczek powietrza. Oznacza to, że ucho ludzkie jest wyjątkowym aparatem słuchowym pod względem czułości.

Za błoną bębenkową znajduje się wypełniona powietrzem jama ucha środkowego. Ta jama jest połączona z nosogardłem wąskim przejściem - rurką słuchową. Podczas połykania dochodzi do wymiany powietrza między gardłem a uchem środkowym. Powoduje to zmiana ciśnienia powietrza na zewnątrz, na przykład w samolocie nieprzyjemne uczucie- „pionki uszu”. Wyjaśnia to ugięcie błony bębenkowej spowodowane różnicą między ciśnieniem atmosferycznym a ciśnieniem w jamie ucha środkowego. Podczas połykania rurka słuchowa otwiera się i ciśnienie po obu stronach błony bębenkowej wyrównuje się.

W uchu środkowym znajdują się trzy małe, kolejno połączone ze sobą kości: młoteczek, kowadełko i strzemiączko. Młotek połączony z błoną bębenkową przenosi swoje drgania najpierw na kowadełko, a następnie wzmocnione drgania przenoszone są na strzemię. W płytce oddzielającej jamę ucha środkowego od jamy ucha wewnętrznego znajdują się dwa okienka przesłonięte cienkimi membranami. Jedno okienko jest owalne, strzemię „stuka” w nie, drugie okrągłe.

Zaczyna się za uchem środkowym Ucho wewnętrzne. Znajduje się głęboko kość skroniowa czaszki. Ucho wewnętrzne to system labiryntów i krętych kanałów wypełnionych płynem.

W labiryncie są jednocześnie dwa narządy: narząd słuchu - ślimak i narząd równowagi - aparat przedsionkowy. Ślimak to spiralnie skręcony kanał kostny, który u ludzi ma dwa i pół obrotu. Drgania błony otworu owalnego przenoszone są na płyn wypełniający ucho wewnętrzne. A to z kolei zaczyna oscylować z tą samą częstotliwością. Wibrujący płyn podrażnia receptory słuchowe znajdujące się w ślimaku.

Kanał ślimaka na całej długości jest podzielony na pół błoniastą przegrodą. Część tej przegrody składa się z cienkiej membrany - membrany. Na błonie znajdują się komórki percepcyjne - receptory słuchowe. Drgania płynu wypełniającego ślimak podrażniają poszczególne receptory słuchowe. Generują impulsy, które są przekazywane nerwem słuchowym do mózgu. Diagram przedstawia wszystkie kolejne procesy przekształcania fali dźwiękowej w sygnalizację nerwową.

Percepcja słuchowa. W mózgu istnieje rozróżnienie między siłą, wysokością i charakterem dźwięku, jego położeniem w przestrzeni.

Słyszymy dwojgiem uszu i tak jest bardzo ważne określić kierunek dźwięku. Jeśli fale dźwiękowe docierają jednocześnie do obu uszu, odbieramy dźwięk w środku (przód i tył). Jeśli fale dźwiękowe docierają do jednego ucha nieco wcześniej niż do drugiego, wówczas dźwięk odbieramy albo po prawej, albo po lewej stronie.



Wiadomo, że 90% informacji o otaczającym nas świecie człowiek otrzymuje za pomocą wzroku. Wydawać by się mogło, że do słuchu nie zostało już wiele, ale w rzeczywistości narząd słuchu człowieka jest nie tylko wysoce wyspecjalizowanym analizatorem drgań dźwięku, ale także bardzo potężnym środkiem komunikacji. Lekarze i fizycy od dawna martwią się pytaniem: czy możliwe jest dokładne określenie zakresu ludzkiego słuchu w różne warunki, czy słuch kobiet i mężczyzn różni się, czy są „szczególnie wybitni” rekordziści, którzy słyszą dźwięki niedostępne lub potrafią je wytworzyć? Spróbujmy odpowiedzieć na te i kilka innych powiązanych pytań bardziej szczegółowo.

Ale zanim zrozumiesz, ile herców słyszy ludzkie ucho, musisz zrozumieć tak podstawową koncepcję, jak dźwięk, i ogólnie zrozumieć, co dokładnie mierzy się w hercach.

Wibracje dźwiękowe to wyjątkowy sposób przenoszenia energii bez przenoszenia materii, są to drgania sprężyste w każdym ośrodku. Jeśli chodzi o zwyczajne życie Człowieku, takim medium jest powietrze. Zawiera cząsteczki gazu, które mogą przenosić energię akustyczną. Energia ta reprezentuje przemianę pasm kompresji i naprężenia gęstości ośrodka akustycznego. W absolutnej próżni wibracje dźwiękowe nie mogą być przenoszone.

Każdy dźwięk jest falą fizyczną i zawiera wszystkie niezbędne cechy falowe. Jest to częstotliwość, amplituda, czas zaniku, jeśli mówimy o tłumionej oscylacji swobodnej. Spójrzmy na to na prostych przykładach. Wyobraź sobie na przykład dźwięk otwartej struny G na skrzypcach, gdy jest ona naciągnięta smyczkiem. Możemy zdefiniować następujące cechy:

  • cicho lub głośno. To nic innego jak amplituda lub moc dźwięku. Głośniejszy dźwięk odpowiada większej amplitudzie drgań, a cichszy dźwięk mniejszej. Dźwięk o większej sile słychać w większej odległości od miejsca pochodzenia;
  • czas trwania dźwięku. Każdy to rozumie i każdy jest w stanie odróżnić uderzenia werbla od przedłużonego brzmienia chóralnej melodii organowej;
  • wysokość lub częstotliwość fali dźwiękowej. Jest to podstawowa cecha, która pomaga nam odróżnić „piszczące” dźwięki z rejestru basowego. Gdyby nie było częstotliwości dźwięku, muzyka byłaby możliwa tylko w formie rytmu. Częstotliwość jest mierzona w hercach, a 1 herc jest równy jednej oscylacji na sekundę;
  • barwa dźwięku. Polega to na domieszce dodatkowych drgań akustycznych – formantów, ale żeby to wyjaśnić w prostych słowach bardzo proste: nawet z zamkniętymi oczami rozumiemy, że to skrzypce brzmią, a nie puzon, nawet jeśli mają dokładnie te same cechy, które wymieniłem powyżej.

Barwę dźwięku można porównać z wieloma odcieniami smaku. W sumie mamy smaki gorzki, słodki, kwaśny i słony, ale te cztery cechy są dalekie od wyczerpujących wszelkiego rodzaju wrażenia smakowe. To samo dzieje się z barwą.

Zatrzymajmy się bardziej szczegółowo na wysokości dźwięku, ponieważ od tej cechy zależy w największym stopniu ostrość słuchu i zakres postrzeganych wibracji akustycznych. Jaki jest zakres częstotliwości dźwięku?

Zasięg słyszenia w idealnych warunkach

Częstotliwości odbierane przez ludzkie ucho w laboratorium lub idealne warunki, mieszczą się w stosunkowo szerokim paśmie od 16 Hz do 20 000 Hz (20 kHz). Wszystko powyżej i poniżej - ludzkie ucho nie słyszy. To jest o o infradźwiękach i ultradźwiękach. Co to jest?

infradźwięki

Tego nie słychać, ale organizm to czuje, jak pracę dużego głośnika basowego – subwoofera. Są to wibracje infradźwiękowe. Wszyscy doskonale wiedzą, że jeśli stale osłabiasz strunę basową w gitarze, to mimo ciągłych wibracji dźwięk zanika. Ale te wibracje nadal można wyczuć opuszkami palców, dotykając struny.

Wiele narządów wewnętrznych człowieka pracuje w zakresie infradźwięków: dochodzi do skurczu jelit, rozszerzania i zwężania naczyń krwionośnych, wielu reakcji biochemicznych. Bardzo silny infradźwięk może wywołać ciężki stan chorobowy, a nawet falę paniki, która jest podstawą broni infradźwiękowej.

Ultradźwięk

Po przeciwnej stronie spektrum są bardzo wysokie dźwięki. Jeśli dźwięk ma częstotliwość powyżej 20 kiloherców, to przestaje „piszczeć” iw zasadzie staje się niesłyszalny dla ludzkiego ucha. Staje się ultradźwiękowy. USG ma świetna aplikacja w opartej na nim gospodarce narodowej diagnostyka ultrasonograficzna. Za pomocą ultradźwięków statki poruszają się po morzu, omijając góry lodowe i unikając płytkiej wody. Dzięki ultradźwiękom specjaliści znajdują puste przestrzenie w konstrukcjach całkowicie metalowych, np. w szynach. Wszyscy widzieli, jak pracownicy toczyli po szynach specjalny wózek do wykrywania wad, generując i odbierając wibracje akustyczne o wysokiej częstotliwości. Nietoperze używają ultradźwięków, aby bezbłędnie odnaleźć drogę w ciemności bez wpadania na ściany jaskiń, wieloryby i delfiny.

Wiadomo, że wraz z wiekiem zdolność rozróżniania dźwięków wysokich maleje, a dzieci najlepiej je słyszą. Nowoczesne badania pokazują, że już w wieku 9-10 lat zakres słyszenia u dzieci zaczyna się stopniowo zmniejszać, a u osób starszych słyszalność wysokich częstotliwości jest znacznie gorsza.

Aby usłyszeć, jak starsi ludzie postrzegają muzykę, wystarczy ściszyć jeden lub dwa rzędy wysokich częstotliwości na wielopasmowym korektorze w odtwarzaczu telefonu komórkowego. Wynikające z tego niewygodne „mamrotanie, jak z beczki” będzie świetną ilustracją tego, jak sami będziecie słyszeć po 70 roku życia.

w utracie słuchu ważna rola odgrywa niezdrową dietę, picie alkoholu i palenie tytoniu, odkładanie się blaszek cholesterolowych na ścianach naczyń krwionośnych. Statystyki laryngologiczne – lekarze twierdzą, że osoby z pierwszą grupą krwi częściej i szybciej dochodzą do utraty słuchu niż pozostali. Podchodzi do utraty słuchu, nadwagi, patologii endokrynologicznej.

Zakres słyszalności w normalnych warunkach

Jeśli odetniemy „marginalne sekcje” widma dźwięku, to dla wygodne życie nie ma tak wielu ludzi dostępnych: jest to przedział od 200 Hz do 4000 Hz, który prawie całkowicie odpowiada zakresowi ludzkiego głosu, od głębokiego basu-profundo do wysokiego sopran koloraturowy. Jednak nawet w komfortowych warunkach słuch człowieka stale się pogarsza. Zwykle najwyższa czułość i podatność u osób dorosłych do 40 roku życia jest na poziomie 3 kiloherców, a po 60 roku życia spada do 1 kiloherca.

Zakres słyszalności dla kobiet i mężczyzn

Obecnie segregacja płciowa nie jest mile widziana, ale mężczyźni i kobiety naprawdę inaczej postrzegają dźwięki: kobiety lepiej słyszą wysokie tony, a związana z wiekiem inwolucja dźwięku w obszarze wysokich częstotliwości jest wolniejsza, a mężczyźni postrzegają dźwięki wysokie nieco gorzej. Logiczne wydawałoby się założenie, że mężczyźni lepiej słyszą w rejestrze basowym, ale tak nie jest. Percepcja dźwięków basowych zarówno u mężczyzn, jak i u kobiet jest prawie taka sama.

Ale w „pokoleniu” dźwięków są wyjątkowe kobiety. Tak więc zakres głosu peruwiańskiej piosenkarki Ymy Sumac (prawie pięć oktaw) rozciągał się od dźwięku „si” dużej oktawy (123,5 Hz) do „la” czwartej oktawy (3520 Hz). Przykład jej wyjątkowego wokalu można znaleźć poniżej.

W tym samym czasie mężczyźni i kobiety mają dość duża różnica w funkcjonowaniu aparatu mowy. Kobiety wytwarzają dźwięki od 120 do 400 Hz, a mężczyźni od 80 do 150 Hz, według danych uśrednionych.

Różne skale wskazujące zasięg słyszenia

Na początku mówiliśmy o tym, że wysokość to nie jedyna cecha dźwięku. Dlatego istnieją różne skale, w zależności od różnych zakresów. Dźwięk słyszany przez ludzkie ucho może być np. cichy i głośny. Najprostszy i najbardziej akceptowalny praktyka kliniczna skala głośności dźwięku - taka, która mierzy ciśnienie akustyczne odbierane przez błonę bębenkową.

Skala ta opiera się na najmniejszej energii wibracji dźwiękowej, która jest zdolna do przekształcenia się w impuls nerwowy i wywołania wrażenia dźwiękowego. To jest próg percepcji słuchowej. Im niższy próg percepcji, tym wyższa czułość i odwrotnie. Specjaliści rozróżniają natężenie dźwięku, które jest parametrem fizycznym, oraz głośność, która jest wartością subiektywną. Wiadomo, że dźwięk o dokładnie takim samym natężeniu jest odbierany przez osobę zdrową i osobę niedosłyszącą jako dwa różne dźwięki, głośniejszy i cichszy.

Każdy wie, jak w gabinecie laryngologicznym pacjent stoi w kącie, odwraca się, a lekarz z sąsiedniego rogu sprawdza percepcję mowy szeptanej przez pacjenta, wypowiadając osobne cyfry. To jest najprostszy przykład diagnoza pierwotna utrata słuchu.

Wiadomo, że ledwo wyczuwalny oddech innej osoby to 10 decybeli (dB) natężenia dźwięku, normalna rozmowa w domu odpowiada 50 dB, wycie syreny strażackiej to 100 dB, a niedaleko startuje odrzutowiec, zamknąć próg bólu- 120 decybeli.

Może dziwić, że całe ogromne natężenie drgań dźwiękowych mieści się w tak małej skali, ale to wrażenie jest złudne. Jest to skala logarytmiczna, a każdy kolejny krok jest 10 razy bardziej intensywny niż poprzedni. Zgodnie z tą samą zasadą budowana jest skala oceny intensywności trzęsień ziemi, w której jest tylko 12 punktów.

Po rozważeniu teorii propagacji i mechanizmów powstawania fal dźwiękowych, warto zrozumieć, w jaki sposób dźwięk jest „interpretowany” lub odbierany przez człowieka. Odpowiada za percepcję fal dźwiękowych w organizmie człowieka sparowane organy- ucho. ludzkie ucho- bardzo złożony narząd, który odpowiada za dwie funkcje: 1) odbiera impulsy dźwiękowe 2) pełni funkcję aparatu przedsionkowego całego organizmu człowieka, określa położenie ciała w przestrzeni i daje zdolność życiową do utrzymania równowagi. Przeciętne ucho ludzkie jest w stanie wychwycić fluktuacje rzędu 20 - 20 000 Hz, ale występują odchylenia w górę lub w dół. Idealnie słyszalny zakres częstotliwości wynosi 16 - 20 000 Hz, co odpowiada również długości fali 16 m - 20 cm. Ucho jest podzielone na trzy części: ucho zewnętrzne, środkowe i wewnętrzne. Każdy z tych „działów” pełni swoją funkcję, jednak wszystkie trzy działy są ze sobą ściśle powiązane i faktycznie dokonują transmisji między sobą fali wibracji dźwiękowych.

ucho zewnętrzne (zewnętrzne).

Ucho zewnętrzne składa się z małżowiny usznej i przewodu słuchowego zewnętrznego. Małżowina jest elastyczną chrząstką o złożonym kształcie, pokrytą skórą. W dolnej części małżowiny usznej znajduje się płat, który składa się z tkanki tłuszczowej i jest również pokryty skórą. Małżowina działa jak odbiornik fal dźwiękowych z otaczającej przestrzeni. specjalny formularz Budowa małżowiny usznej pozwala na lepsze wychwytywanie dźwięków, zwłaszcza dźwięków z zakresu średnich częstotliwości, które odpowiadają za przekazywanie informacji mowy. Fakt ten wynika w dużej mierze z konieczności ewolucyjnej, ponieważ człowiek spędza większość swojego życia na komunikacji ustnej z przedstawicielami swojego gatunku. Ludzkie małżowiny uszne są praktycznie nieruchome, w przeciwieństwie do dużej liczby przedstawicieli gatunków zwierząt, które wykorzystują ruchy uszu do dokładniejszego dostrojenia się do źródła dźwięku.

Fałdy małżowiny usznej człowieka są ułożone w taki sposób, że dokonują korekt (niewielkich zniekształceń) względem pionowego i poziomego położenia źródła dźwięku w przestrzeni. To właśnie dzięki tej wyjątkowej funkcji człowiek jest w stanie dość jednoznacznie określić położenie obiektu w przestrzeni względem siebie, skupiając się wyłącznie na dźwięku. Ta funkcja jest również dobrze znana pod pojęciem „lokalizacji dźwięku”. Główną funkcją małżowiny usznej jest uchwycenie jak największej liczby dźwięków w słyszalnym zakresie częstotliwości. O dalszym losie „złapanych” fal dźwiękowych decyduje przewód słuchowy, którego długość wynosi 25-30 mm. W nim chrzęstna część małżowiny usznej zewnętrznej przechodzi do kości, a powierzchnia skóry kanału słuchowego jest wyposażona w gruczoły łojowe i siarkowe. Na końcu przewodu słuchowego znajduje się elastyczna błona bębenkowa, do której docierają drgania fal dźwiękowych, wywołując w ten sposób jego odpowiedź drganiową. Błona bębenkowa z kolei przekazuje te odbierane wibracje do obszaru ucha środkowego.

Ucho środkowe

Wibracje przenoszone przez błonę bębenkową docierają do obszaru ucha środkowego zwanego „obszarem bębenkowym”. Jest to obszar o objętości około jednego centymetra sześciennego, w którym znajdują się trzy kosteczki słuchowe: młotek, kowadełko i strzemiączko. To właśnie te „pośrednie” elementy działają niezbędna funkcja: Transmisja fal dźwiękowych do ucha wewnętrznego i jednoczesne wzmocnienie. Kosteczki słuchowe to niezwykle złożony łańcuch transmisji dźwięku. Wszystkie trzy kości są ściśle połączone ze sobą, a także z błoną bębenkową, dzięki czemu następuje przenoszenie wibracji „wzdłuż łańcucha”. Na dojściu do okolicy ucha wewnętrznego znajduje się okienko przedsionka, które jest zablokowane przez podstawę strzemienia. W celu wyrównania ciśnień po obu stronach błony bębenkowej (np. w przypadku zmian ciśnienia zewnętrznego) obszar ucha środkowego łączy się z nosogardłem trąbką Eustachiusza. Wszyscy doskonale zdajemy sobie sprawę z efektu zatykania uszu, który występuje właśnie z powodu tak precyzyjnego dostrojenia. Z ucha środkowego wibracje dźwiękowe, już wzmocnione, wpadają do obszaru ucha wewnętrznego, najbardziej złożonego i wrażliwego.

Ucho wewnętrzne

Najbardziej złożoną formą jest ucho wewnętrzne, które z tego powodu nazywane jest labiryntem. Labirynt kostny obejmuje: przedsionek, ślimak i kanały półkoliste, a także aparat przedsionkowy odpowiedzialny za równowagę. To ślimak jest bezpośrednio związany ze słyszeniem w tej wiązce. Ślimak to spiralny błoniasty kanał wypełniony płynem limfatycznym. Wewnątrz kanał jest podzielony na dwie części kolejną błoniastą przegrodą zwaną „membraną podstawową”. Membrana ta składa się z włókien o różnej długości (łącznie ponad 24 000), rozciągniętych jak struny, z których każda rezonuje własnym, specyficznym dźwiękiem. Kanał jest podzielony membraną na drabinki górną i dolną, które komunikują się na szczycie ślimaka. Z przeciwnego końca kanał łączy się z aparatem receptorowym analizator słuchu, który jest pokryty drobnymi komórkami włoskowatymi. Ten aparat analizatora słuchowego jest również nazywany Organem Cortiego. Kiedy wibracje z ucha środkowego dostają się do ślimaka, płyn limfatyczny wypełniający kanał również zaczyna wibrować, przenosząc wibracje na główną membranę. W tym momencie do akcji wkracza aparat analizatora słuchowego, którego komórki rzęsate, ułożone w kilku rzędach, przekształcają wibracje dźwiękowe w elektryczne impulsy „nerwowe”, które są przekazywane wzdłuż nerwu słuchowego do strefa czasowa Kora mózgowa. W tak złożony i ozdobny sposób osoba w końcu usłyszy pożądany dźwięk.

Cechy percepcji i tworzenia mowy

Mechanizm wytwarzania mowy kształtował się u człowieka przez cały okres jego ewolucji. Znaczenie tej zdolności polega na przekazywaniu informacji werbalnych i niewerbalnych. Pierwsza niesie ze sobą ładunek werbalny i semantyczny, druga odpowiada za przekazanie komponentu emocjonalnego. Proces tworzenia i odbioru mowy obejmuje: sformułowanie komunikatu; kodowanie na elementy zgodnie z regułami istniejącego języka; przejściowe działania nerwowo-mięśniowe; ruchy strun głosowych; emisja sygnału akustycznego; Następnie do akcji wkracza słuchacz, przeprowadzając: analizę spektralną odebranego sygnału akustycznego i selekcję cech akustycznych w obwodowym układzie słuchowym, transmisję wybranych cech przez sieci neuronowe, rozpoznanie kodu języka (analiza językowa), zrozumienie znaczenia wiadomości.
Urządzenie do generowania sygnałów mowy można porównać do złożonego instrumentu dętego, ale wszechstronność i elastyczność strojenia oraz umiejętność odtwarzania najdrobniejszych subtelności i szczegółów nie mają sobie równych w naturze. Mechanizm formowania głosu składa się z trzech nierozłącznych elementów:

  1. Generator- płuca jako rezerwuar objętości powietrza. Energia nadciśnienia magazynowana jest w płucach, następnie kanałem wydalniczym, przy pomocy układu mięśniowego, energia ta jest usuwana przez tchawicę połączoną z krtanią. Na tym etapie strumień powietrza jest przerywany i modyfikowany;
  2. Wibrator- składa się ze strun głosowych. Na przepływ wpływają również turbulentne strumienie powietrza (tworzą tony brzegowe) i źródła impulsów (eksplozje);
  3. Rezonator- obejmuje jamy rezonansowe o złożonym kształcie geometrycznym (gardło, jama ustna i nosowa).

W zespole indywidualnego urządzenia tych elementów powstaje niepowtarzalna i indywidualna barwa głosu każdej osoby z osobna.

Energia słupa powietrza jest generowana w płucach, które wytwarzają określony przepływ powietrza podczas wdechu i wydechu z powodu różnicy ciśnienia atmosferycznego i śródpłucnego. Proces gromadzenia energii odbywa się poprzez wdech, proces uwalniania charakteryzuje się wydechem. Dzieje się tak z powodu kompresji i rozszerzania klatki piersiowej, które są wykonywane za pomocą dwóch grup mięśni: międzyżebrowej i przepony, przy głębokim oddychaniu i śpiewie, mięśnie brzucha, klatki piersiowej i szyi również się kurczą. Podczas wdechu przepona kurczy się i opada, skurcz zewnętrznych mięśni międzyżebrowych unosi żebra i przenosi je na boki, a mostek do przodu. Rozszerzanie się klatki piersiowej prowadzi do spadku ciśnienia w płucach (w stosunku do atmosferycznego), a przestrzeń ta jest szybko wypełniana powietrzem. Podczas wydechu mięśnie odpowiednio się rozluźniają i wszystko wraca do poprzedniego stanu (klatka piersiowa wraca do pierwotnego stanu dzięki własnej grawitacji, przepona unosi się, zmniejsza się objętość wcześniej rozszerzonych płuc, wzrasta ciśnienie śródpłucne). Inhalację można opisać jako proces wymagający wydatku energii (aktywny); wydech to proces akumulacji energii (pasywny). Kontrola procesu oddychania i powstawania mowy odbywa się nieświadomie, ale przy śpiewaniu ustawienie oddechu wymaga świadomego podejścia i długotrwałego dodatkowego treningu.

Ilość energii, która jest następnie zużywana na tworzenie mowy i głosu, zależy od objętości zmagazynowanego powietrza i wielkości dodatkowego ciśnienia w płucach. Maksymalne ciśnienie wypracowane przez wyszkolonego śpiewaka operowego może osiągnąć 100-112 dB. Modulacja przepływu powietrza poprzez drgania strun głosowych i wytworzenie nadciśnienia podgardłowego, procesy te zachodzą w krtani, która jest rodzajem zastawki znajdującej się na końcu tchawicy. Zastawka spełnia podwójną funkcję: chroni płuca przed dostaniem się do nich obce obiekty i utrzymać wysokie ciśnienie krwi. To krtań działa jako źródło mowy i śpiewu. Krtań to zbiór chrząstek połączonych mięśniami. Krtań ma dość złożoną strukturę, której głównym elementem jest para strun głosowych. To właśnie struny głosowe są głównym (ale nie jedynym) źródłem powstawania głosu lub „wibratorem”. Podczas tego procesu struny głosowe poruszają się, czemu towarzyszy tarcie. Aby się przed tym zabezpieczyć, wydzielana jest specjalna wydzielina śluzowa, która działa jak środek poślizgowy. O powstawaniu dźwięków mowy decydują drgania więzadeł, co prowadzi do powstania strumienia powietrza wydychanego z płuc, do pewien rodzaj charakterystyka amplitudowa. Pomiędzy fałdami głosowymi znajdują się małe wnęki, które w razie potrzeby działają jak filtry akustyczne i rezonatory.

Cechy percepcji słuchowej, bezpieczeństwo słuchania, progi słyszenia, adaptacja, prawidłowy poziom głośności

Jak widać z opisu budowy ucha ludzkiego, narząd ten jest bardzo delikatny i ma dość złożoną budowę. Biorąc to pod uwagę, nietrudno stwierdzić, że ten niezwykle cienki i czuły aparat ma szereg ograniczeń, progów itp. Układ słuchowy człowieka jest przystosowany do odbioru dźwięków cichych, a także dźwięków o średnim natężeniu. Ekspozycja długoterminowa głośne dzwięki pociąga za sobą nieodwracalne przesunięcia progów słyszenia, a także inne problemy ze słuchem, aż do całkowita głuchota. Stopień uszkodzenia jest wprost proporcjonalny do czasu ekspozycji w głośnym otoczeniu. W tym momencie wchodzi też w życie mechanizm dostosowawczy – tj. pod wpływem długotrwałych głośnych dźwięków czułość stopniowo maleje, zmniejsza się odczuwana głośność, słuch się przystosowuje.

Adaptacja początkowo ma na celu ochronę narządu słuchu przed zbyt głośnymi dźwiękami, jednak to właśnie wpływ tego procesu powoduje najczęściej, że człowiek w niekontrolowany sposób zwiększa głośność systemu audio. Ochrona realizowana jest dzięki mechanizmowi ucha środkowego i wewnętrznego: strzemiączko jest wysuwane z okienka owalnego, chroniąc w ten sposób przed zbyt głośnymi dźwiękami. Ale mechanizm ochrony nie jest idealny i ma opóźnienie czasowe, wyzwalając tylko 30-40 ms po rozpoczęciu nadejścia dźwięku, co więcej, pełnej ochrony nie uzyskuje się nawet przy czasie trwania 150 ms. Mechanizm ochrony uruchamia się, gdy poziom głośności przekroczy poziom 85 dB, ponadto samo zabezpieczenie wynosi do 20 dB.
Najniebezpieczniejszy w ta sprawa, możemy rozważyć zjawisko „przesunięcia progu słyszenia”, które zwykle występuje w praktyce w wyniku długotrwałej ekspozycji na głośne dźwięki powyżej 90 dB. Proces rekonwalescencji narządu słuchu po takich szkodliwych skutkach może trwać nawet do 16 godzin. Przesunięcie progu rozpoczyna się już od poziomu natężenia 75 dB i wzrasta proporcjonalnie do wzrostu poziomu sygnału.

Podczas rozważania problemu właściwy poziom natężenia dźwięku, najgorsze, co można sobie uświadomić, to fakt, że problemy ze słuchem (nabyte lub wrodzone) są praktycznie nieuleczalne w dobie dość zaawansowanej medycyny. Wszystko to powinno skłonić każdego zdrowego na umyśle człowieka do zastanowienia się nad dbaniem o swój słuch, o ile oczywiście nie planuje się jak najdłuższego zachowania jego pierwotnej integralności i możliwości słyszenia całego zakresu częstotliwości. Na szczęście wszystko nie jest takie straszne, jak mogłoby się wydawać na pierwszy rzut oka, a przestrzegając szeregu środków ostrożności, można łatwo uratować słuch nawet w podeszłym wieku. Przed rozważeniem tych środków należy przypomnieć jeden ważna cecha percepcja słuchowa człowieka. Aparat słuchowy odbiera dźwięki nieliniowo. Podobne zjawisko polega na tym, że jeśli wyobrazimy sobie jakąkolwiek częstotliwość czystego tonu, na przykład 300 Hz, to nieliniowość objawia się, gdy w małżowinie usznej pojawiają się podtony o tej częstotliwości podstawowej zgodnie z zasadą logarytmu (jeśli częstotliwość podstawowa jest przyjęte jako f, to alikwoty częstotliwości będą wynosić 2f, 3f itd. w porządku rosnącym). Ta nieliniowość jest również łatwiejsza do zrozumienia i jest znana wielu pod tą nazwą „zniekształcenie nieliniowe”. Ponieważ takie harmoniczne (podtony) nie występują w oryginalnym czystym tonie, okazuje się, że ucho samo wprowadza do oryginalnego dźwięku własne poprawki i podtony, ale można je określić jedynie jako subiektywne zniekształcenia. Przy poziomie natężenia poniżej 40 dB subiektywne zniekształcenia nie występują. Przy wzroście natężenia od 40 dB zaczyna wzrastać poziom subiektywnych harmonicznych, ale już na poziomie 80-90 dB ich negatywny wkład w dźwięk jest stosunkowo niewielki (stąd ten poziom natężenia można warunkowo uznać za rodzaj „złoty środek” w sferze muzycznej).

Na podstawie tych informacji można w prosty sposób określić bezpieczny i akceptowalny poziom głośności, który nie zaszkodzi narządom słuchu, a jednocześnie pozwoli usłyszeć absolutnie wszystkie cechy i szczegóły dźwięku, np. w przypadku pracy z systemem „hi-fi”. Ten poziom „złotego środka” wynosi około 85-90 dB. To właśnie przy takim natężeniu dźwięku naprawdę można usłyszeć wszystko, co jest osadzone w torze audio, przy jednoczesnym zminimalizowaniu ryzyka przedwczesnego uszkodzenia i utraty słuchu. Za prawie całkowicie bezpieczny można uznać poziom głośności 85 dB. Aby zrozumieć, czym grozi głośne słuchanie i dlaczego zbyt niski poziom głośności nie pozwala usłyszeć wszystkich niuansów dźwięku, przyjrzyjmy się temu zagadnieniu bardziej szczegółowo. Jeśli chodzi o niskie poziomy głośności, brak celowości (ale częściej subiektywnej chęci) słuchania muzyki na niskim poziomie wynika z następujących przyczyn:

  1. Nieliniowość percepcji słuchowej człowieka;
  2. Cechy percepcji psychoakustycznej, które zostaną rozważone osobno.

Omówiona powyżej nieliniowość percepcji słuchowej ma znaczący wpływ na każdą głośność poniżej 80 dB. W praktyce wygląda to tak: jeśli włączysz muzykę na cichym poziomie, np. 40 dB, to zakres średnich częstotliwości kompozycji muzycznej będzie najwyraźniej słyszalny, niezależnie od tego, czy będzie to wokal wykonawcy / wykonawcy lub instrumentów grających w tym zakresie. Jednocześnie będzie wyraźny brak niskich i wysokich częstotliwości, właśnie ze względu na nieliniowość odbioru, a także fakt, że różne częstotliwości brzmią przy różnych poziomach głośności. Jest więc oczywiste, że dla pełnego postrzegania całości obrazu poziom intensywności częstotliwości musi być jak najbardziej wyrównany do jednej wartości. Pomimo tego, że nawet przy poziomie głośności 85-90 dB nie występuje wyidealizowane wyrównanie głośności różnych częstotliwości, poziom ten staje się akceptowalny dla normalnego, codziennego odsłuchu. Im mniejsza głośność w tym samym czasie, tym wyraźniej dla ucha zostanie odebrana charakterystyczna nieliniowość, czyli poczucie braku odpowiedniej ilości wysokich i niskich częstotliwości. Jednocześnie okazuje się, że przy takiej nieliniowości nie można poważnie mówić o odtwarzaniu dźwięku „hi-fi” o wysokiej wierności, ponieważ dokładność transmisji oryginalnego obrazu dźwiękowego będzie w tę szczególną sytuację.

Jeśli zagłębić się w te wnioski, staje się jasne, dlaczego słuchanie muzyki na niskim poziomie głośności, choć najbezpieczniejszym z punktu widzenia zdrowia, jest wyjątkowo negatywnie odczuwane przez ucho z powodu tworzenia wyraźnie nieprawdopodobnych obrazów instrumentów muzycznych i głos, brak skali sceny dźwiękowej. Ogólnie rzecz biorąc, ciche odtwarzanie muzyki może być używane jako akompaniament w tle, ale całkowicie przeciwwskazane jest słuchanie wysokiej jakości „hi-fi” przy niskim poziomie głośności, z powyższych powodów niemożliwe jest stworzenie naturalistycznych obrazów sceny dźwiękowej, która była tworzony przez inżyniera dźwięku w studiu na etapie nagrywania. Ale nie tylko niska głośność wprowadza pewne ograniczenia w odbiorze ostatecznego dźwięku, znacznie gorzej sytuacja wygląda przy zwiększonej głośności. Możliwe i dość proste jest uszkodzenie słuchu i wystarczające zmniejszenie czułości, jeśli słuchasz muzyki na poziomie powyżej 90 dB przez długi czas. Dane te opierają się na dużej liczbie badań medycznych, z których wynika, że ​​poziom dźwięku powyżej 90 dB powoduje realne i prawie nieodwracalne szkody dla zdrowia. Mechanizm tego zjawiska leży w percepcji słuchowej i cechach strukturalnych ucha. Kiedy fala dźwiękowa o natężeniu powyżej 90 dB dostaje się do przewodu słuchowego, do gry wchodzą narządy ucha środkowego, powodując zjawisko zwane adaptacją słuchową.

Zasada działania w tym przypadku jest następująca: strzemiączko jest odsuwane od okienka owalnego i chroni ucho wewnętrzne przed zbyt głośnymi dźwiękami. Proces ten nazywa się odruch akustyczny. Dla ucha jest to odbierane jako krótkotrwały spadek wrażliwości, co może być znane każdemu, kto kiedykolwiek był na przykład na koncertach rockowych w klubach. Po takim koncercie następuje krótkotrwały spadek wrażliwości, który po pewnym czasie wraca do poprzedniego poziomu. Jednak przywrócenie wrażliwości nie zawsze nastąpi i zależy bezpośrednio od wieku. Za tym wszystkim kryje się wielkie niebezpieczeństwo słuchania głośnej muzyki i innych dźwięków, których natężenie przekracza 90 dB. Wystąpienie odruchu akustycznego to nie jedyne „widoczne” niebezpieczeństwo utraty wrażliwości słuchowej. Przy długotrwałym narażeniu na zbyt głośne dźwięki włosy znajdujące się w okolicy ucha wewnętrznego (reagujące na wibracje) odchylają się bardzo mocno. W tym przypadku następuje efekt, że włos odpowiedzialny za percepcję określonej częstotliwości ugina się pod wpływem drgań dźwiękowych o dużej amplitudzie. W pewnym momencie taki włos może za bardzo odbiegać i nigdy nie wrócić. Spowoduje to odpowiedni efekt utraty czułości przy określonej określonej częstotliwości!

Najstraszniejsze w tej całej sytuacji jest to, że choroby uszu są praktycznie nieuleczalne, nawet najnowocześniejszymi metodami, znany medycynie. Wszystko to prowadzi do poważnych wniosków: dźwięk powyżej 90 dB jest niebezpieczny dla zdrowia i prawie na pewno spowoduje przedwczesną utratę słuchu lub znaczny spadek czułości. Jeszcze bardziej frustrujące jest to, że wspomniana wcześniej właściwość adaptacji wchodzi w grę z czasem. Ten proces w ludzkich narządach słuchowych zachodzi prawie niezauważalnie; osoba, która powoli traci wrażliwość, z prawdopodobieństwem bliskim 100%, nie zauważy tego, aż do momentu, gdy ludzie wokół niej zwrócą uwagę na ciągłe zadawanie pytań typu: „Co właśnie powiedziałeś?”. Wniosek na koniec jest niezwykle prosty: podczas słuchania muzyki ważne jest, aby poziom natężenia dźwięku nie przekraczał 80-85 dB! W tym samym momencie jest też pozytywna strona: poziom głośności 80-85 dB odpowiada w przybliżeniu poziomowi nagrywania dźwięku muzyki w środowisku studyjnym. Powstaje więc pojęcie „złotego środka”, powyżej którego lepiej nie wznosić się, jeśli kwestie zdrowotne mają choć trochę znaczenia.

Nawet krótkotrwałe słuchanie muzyki na poziomie 110-120 dB może powodować problemy ze słuchem, na przykład podczas koncertu na żywo. Oczywiście uniknięcie tego jest czasami niemożliwe lub bardzo trudne, ale niezwykle ważne jest, aby spróbować to zrobić, aby zachować integralność percepcji słuchowej. Teoretycznie krótkotrwała ekspozycja na głośne dźwięki (nie przekraczające 120 dB), jeszcze przed wystąpieniem „zmęczenia słuchowego”, nie prowadzi do poważnych negatywnych konsekwencji. Ale w praktyce zwykle zdarzają się przypadki długotrwałego narażenia na dźwięk o takim natężeniu. Ludzie ogłuszają się nie zdając sobie sprawy z pełnego zagrożenia w samochodzie podczas słuchania systemu audio, w domu w podobnych warunkach lub ze słuchawkami na przenośnym odtwarzaczu. Dlaczego tak się dzieje i co powoduje, że dźwięk jest coraz głośniejszy? Istnieją dwie odpowiedzi na to pytanie: 1) Wpływ psychoakustyki, który zostanie omówiony osobno; 2) Ciągła potrzeba „wykrzykiwania” głośnością muzyki jakichś zewnętrznych dźwięków. Pierwszy aspekt problemu jest dość ciekawy i zostanie szczegółowo omówiony później, ale drugi aspekt problemu prowadzi bardziej do negatywnych przemyśleń i wniosków na temat błędnego rozumienia prawdziwych podstaw prawidłowego słuchania dźwięku „hi- klasa fi.

Nie wchodząc w szczegóły, ogólna konkluzja dotycząca słuchania muzyki i prawidłowej głośności jest następująca: słuchanie muzyki powinno odbywać się przy natężeniu dźwięku nie wyższym niż 90 dB, nie niższym niż 80 dB w pomieszczeniu, w którym znajdują się bardzo stłumione lub całkowicie nieobecny obce dźwiękiźródła zewnętrzne (takie jak: rozmowy sąsiadów i inny hałas za ścianą mieszkania; hałas uliczny i hałas techniczny, jeśli jesteś w samochodzie itp.). Chciałbym raz na zawsze podkreślić, że to właśnie w przypadku spełnienia tak, być może surowych wymagań, można osiągnąć długo wyczekiwany balans głośności, który nie spowoduje przedwczesnego, niepożądanego uszkodzenia narządu słuchu, a przynoszą również prawdziwą przyjemność ze słuchania ulubionej muzyki z najdrobniejszymi szczegółami dźwięku w zakresie wysokich i niskich częstotliwości oraz precyzją, do której dąży sama koncepcja dźwięku „hi-fi”.

Psychoakustyka i cechy percepcji

Aby jak najpełniej odpowiedzieć na niektóre ważne pytania dotyczące ostatecznego postrzegania informacji dźwiękowych przez osobę, istnieje cała gałąź nauki, która bada ogromną różnorodność takich aspektów. Ta sekcja nazywa się „psychoakustyka”. Fakt jest taki percepcja słuchowa nie kończy się tylko na pracy narządów słuchu. Po bezpośredniej percepcji dźwięku przez narząd słuchu (ucho), wtedy w grę wchodzi najbardziej złożony i mało zbadany mechanizm analizy otrzymanych informacji, za co całkowicie odpowiada ludzki mózg, który jest zaprojektowany w taki sposób, że podczas podczas pracy generuje fale o określonej częstotliwości, które są również podawane w hercach (Hz). Różne częstotliwości fal mózgowych odpowiadają pewnym stanom człowieka. Okazuje się zatem, że słuchanie muzyki przyczynia się do zmiany dostrojenia częstotliwości w mózgu, co należy wziąć pod uwagę podczas słuchania kompozycji muzycznych. W oparciu o tę teorię istnieje również metoda terapii dźwiękiem poprzez bezpośrednie oddziaływanie na stan psychiczny człowieka. fale mózgowe istnieje pięć typów:

  1. Fale delta (fale poniżej 4 Hz). Zgodne z warunkami głęboki sen bez snów, bez żadnych doznań cielesnych.
  2. Fale Theta (fale 4-7 Hz). Stan snu lub głębokiej medytacji.
  3. Fale alfa (fale 7-13 Hz). Stany odprężenia i odprężenia podczas czuwania, senności.
  4. Fale Beta (fale 13-40 Hz). Stan aktywności, codzienne myślenie i aktywność umysłowa, pobudzenie i poznanie.
  5. Fale gamma (fale powyżej 40 Hz). Stan intensywnej aktywności umysłowej, strachu, podniecenia i świadomości.

Psychoakustyka, jako dziedzina nauki, szuka odpowiedzi na najwięcej ciekawe pytania odnoszące się do ostatecznego postrzegania informacji dźwiękowych przez osobę. W trakcie badania tego procesu ujawnia się ogromna liczba czynników, których wpływ niezmiennie występuje zarówno w procesie słuchania muzyki, jak iw każdym innym przypadku przetwarzania i analizowania wszelkich informacji dźwiękowych. Psychoakustyka bada prawie całą różnorodność możliwych wpływów, zaczynając od emocji i stan psychiczny człowieka w momencie słuchania, kończąc na osobliwościach budowy strun głosowych (jeśli mówimy o osobliwościach percepcji wszystkich subtelności wykonania wokalnego) i mechanizmie przetwarzania dźwięku na impulsy elektryczne mózg. O najciekawszych, a przede wszystkim najważniejszych czynnikach (które trzeba wziąć pod uwagę za każdym razem, słuchając ulubionej muzyki, a także budując profesjonalny system audio) opowiemy dalej.

Pojęcie współbrzmienia, współbrzmienie muzyczne

Urządzenie ludzkiego układu słuchowego jest wyjątkowe przede wszystkim w mechanizmie percepcji dźwięku, nieliniowości układu słuchowego, zdolności grupowania dźwięków na wysokości z dość wysokim stopniem dokładności. Bardzo ciekawa funkcja percepcji można zauważyć nieliniowość układu słuchowego, która przejawia się w postaci pojawiania się dodatkowych nieistniejących (w tonie głównym) harmonicznych, co szczególnie często objawia się u osób ze słuchem muzycznym lub absolutnym. Jeśli zatrzymamy się bardziej szczegółowo i przeanalizujemy wszystkie subtelności percepcji dźwięku muzycznego, łatwo rozróżnić pojęcie „konsonansu” i „dysonansu” różnych akordów i interwałów brzmienia. pojęcie "współbrzmienie" zdefiniowana jako spółgłoska (od Francuskie słowo odpowiednio dźwięk „zgoda”) i odwrotnie, "dysonans"- niespójny, niezgodny dźwięk. Mimo różnorodności różne interpretacje spośród tych koncepcji charakterystyki interwałów muzycznych najwygodniej jest zastosować „muzyczno-psychologiczną” interpretację terminów: współbrzmienie jest definiowany i odczuwany przez człowieka jako przyjemny i wygodny, miękki dźwięk; dysonans można opisać z drugiej strony jako dźwięk, irytujący, niepokój i stres. Taka terminologia jest nieco subiektywna, a ponadto w historii rozwoju muzyki przyjmowano zupełnie inne interwały dla „spółgłoski” i odwrotnie.

Współcześnie pojęcia te są również trudne do jednoznacznego postrzegania, ponieważ istnieją różnice między ludźmi o różnych preferencjach i gustach muzycznych, nie ma też ogólnie przyjętej i uzgodnionej koncepcji harmonii. Psychoakustyczne podstawy postrzegania różnych interwałów muzycznych jako spółgłoskowych lub dysonansowych zależą bezpośrednio od koncepcji „pasma krytycznego”. Pasek krytyczny to pewna przepustowość, w ramach której wrażenia słuchowe zmienić się drastycznie. Szerokość pasm krytycznych zwiększa się proporcjonalnie ze wzrostem częstotliwości. Dlatego poczucie współbrzmień i dysonansów jest bezpośrednio związane z obecnością pasm krytycznych. Narząd słuchu człowieka (ucho), jak wspomniano wcześniej, pełni rolę filtra środkowoprzepustowego na pewnym etapie analizy fal dźwiękowych. Rolę tę przypisuje się błonie podstawnej, na której znajdują się 24 pasma krytyczne o szerokości zależnej od częstotliwości.

Tak więc współbrzmienie i niekonsekwencja (konsonans i dysonans) zależą bezpośrednio od rozdzielczości układu słuchowego. Okazuje się, że jeśli dwa różne tony brzmią unisono lub różnica częstotliwości wynosi zero, to jest to idealna współbrzmienie. Ten sam współbrzmienie występuje, gdy różnica częstotliwości jest większa niż pasmo krytyczne. Dysonans występuje tylko wtedy, gdy różnica częstotliwości wynosi od 5% do 50% pasma krytycznego. najwyższy stopień dysonans w tym segmencie jest słyszalny, jeśli różnica wynosi jedną czwartą szerokości pasma krytycznego. Na tej podstawie łatwo jest przeanalizować dowolne zmiksowane nagranie muzyczne i kombinację instrumentów pod kątem współbrzmienia lub dysonansu dźwięku. Nietrudno się domyślić, jak dużą rolę odgrywa w tym przypadku realizator dźwięku, studio nagraniowe i inne elementy finalnej cyfrowej lub analogowej oryginalnej ścieżki dźwiękowej, a wszystko to jeszcze przed próbą odtworzenia jej na sprzęcie odtwarzającym dźwięk.

Lokalizacja dźwięku

System słyszenia obuusznego i lokalizacji przestrzennej pomaga człowiekowi dostrzec pełnię przestrzennego obrazu dźwiękowego. Ten mechanizm percepcji jest realizowany przez dwa odbiorniki słuchowe i dwa kanały słuchowe. Informacje dźwiękowe, które docierają tymi kanałami, są następnie przetwarzane w obwodowej części układu słuchowego i poddawane analizie widmowej i czasowej. Ponadto informacja ta jest przekazywana do wyższych części mózgu, gdzie porównywana jest różnica między lewym i prawym sygnałem dźwiękowym, a także tworzony jest pojedynczy obraz dźwiękowy. Ten opisany mechanizm to tzw słyszenie obuuszne. Dzięki temu osoba ma tak wyjątkowe możliwości:

1) lokalizacja sygnałów dźwiękowych z jednego lub więcej źródeł, tworząc jednocześnie przestrzenny obraz percepcji pola dźwiękowego
2) separacja sygnałów pochodzących z różnych źródeł
3) selekcja jednych sygnałów na tle innych (np. selekcja mowy i głosu z szumu lub brzmienia instrumentów)

Lokalizacja przestrzenna jest łatwa do zaobserwowania na prostym przykładzie. Na koncercie, na scenie, na której znajduje się pewna liczba muzyków w pewnej odległości od siebie, łatwo (w razie potrzeby, nawet przymykając oczy) określić kierunek nadejścia sygnału dźwiękowego każdego instrumentu, do oceny głębi i przestrzenności pola dźwiękowego. W ten sam sposób ceniony jest dobry system hi-fi, który jest w stanie niezawodnie „odtworzyć” takie efekty przestrzenności i lokalizacji, a tym samym faktycznie „oszukać” mózg, sprawiając, że poczujesz pełną obecność swojego ulubionego wykonawcy podczas występu na żywo. Lokalizacja źródła dźwięku jest zwykle określana przez trzy główne czynniki: czas, intensywność i widmo. Niezależnie od tych czynników istnieje wiele wzorców, które można wykorzystać do zrozumienia podstaw lokalizacji dźwięku.

Największy wpływ lokalizacji, odbierany przez ludzki narząd słuchu, występuje w obszarze średnich częstotliwości. Jednocześnie prawie niemożliwe jest określenie kierunku dźwięków o częstotliwościach powyżej 8000 Hz i poniżej 150 Hz. Ten ostatni fakt jest szczególnie szeroko stosowany w systemach hi-fi i kinie domowym przy wyborze lokalizacji subwoofera (low-frequency link), którego umiejscowienie w pomieszczeniu, ze względu na brak lokalizacji częstotliwości poniżej 150 Hz, praktycznie nie ma znaczenia, a słuchacz i tak otrzymuje holistyczny obraz sceny dźwiękowej. Dokładność lokalizacji zależy od położenia źródła promieniowania fal dźwiękowych w przestrzeni. Tym samym największą dokładność lokalizacji dźwięku notuje się w płaszczyźnie poziomej, osiągając wartość 3°. W płaszczyzna pionowa układ słuchowy człowieka znacznie gorzej określa kierunek źródła, dokładność w tym przypadku wynosi 10-15° (ze względu na specyficzną budowę małżowiny uszne i złożona geometria). Dokładność lokalizacji różni się nieznacznie w zależności od kąta ustawienia emitujących dźwięk obiektów w przestrzeni z kątami względem słuchacza, a stopień załamania fal dźwiękowych głowy słuchacza również wpływa na efekt końcowy. Należy również zauważyć, że sygnały szerokopasmowe są lepiej zlokalizowane niż szum wąskopasmowy.

Znacznie ciekawiej wygląda sytuacja z definicją głębi dźwięku kierunkowego. Na przykład osoba może określić odległość do obiektu za pomocą dźwięku, jednak dzieje się tak w większym stopniu ze względu na zmianę ciśnienia akustycznego w przestrzeni. Zwykle im dalej obiekt znajduje się od słuchacza, tym bardziej fale dźwiękowe są tłumione w wolnej przestrzeni (w pomieszczeniach dodawany jest wpływ fal dźwiękowych odbitych). Można zatem stwierdzić, że dokładność lokalizacji jest wyższa w pomieszczeniu zamkniętym właśnie ze względu na występowanie pogłosu. Fale odbite, które występują w przestrzeniach zamkniętych, dają tak ciekawe efekty, jak poszerzenie sceny dźwiękowej, obwiednie itp. Zjawiska te są możliwe właśnie dzięki podatności trójwymiarowej lokalizacji dźwięku. Głównymi zależnościami determinującymi poziomą lokalizację dźwięku są: 1) różnica czasu nadejścia fali dźwiękowej w lewo i prawe ucho; 2) różnica w natężeniu spowodowana dyfrakcją na głowie słuchacza. Aby określić głębokość dźwięku, ważna jest różnica w poziomie ciśnienia akustycznego i różnica w składzie widmowym. Lokalizacja w płaszczyźnie pionowej jest również silnie zależna od dyfrakcji w małżowinie usznej.

Sytuacja jest bardziej skomplikowana w przypadku nowoczesnych systemów dźwięku przestrzennego opartych na technologii Dolby Surround i analogach. Wydawać by się mogło, że zasada budowy systemów kina domowego jasno reguluje sposób odtwarzania dość naturalistycznego przestrzennego obrazu dźwięku 3D z nieodłączną głośnością i lokalizacją źródeł pozornych w przestrzeni. Jednak nie wszystko jest takie trywialne, ponieważ zazwyczaj nie bierze się pod uwagę mechanizmów percepcji i lokalizacji dużej liczby źródeł dźwięku. Przetwarzanie dźwięku przez narząd słuchu polega na dodawaniu do siebie sygnałów pochodzących z różnych źródeł różne uszy. Co więcej, jeśli struktura fazowa różnych dźwięków jest mniej więcej synchroniczna, to taki proces odbierany jest przez ucho jako dźwięk wydobywający się z jednego źródła. Istnieje również szereg trudności, w tym specyfika mechanizmu lokalizacji, co utrudnia dokładne określenie kierunku źródła w przestrzeni.

W związku z powyższym najtrudniejszym zadaniem jest oddzielenie dźwięków z różnych źródeł, zwłaszcza jeśli te różne źródła odtwarzają podobny sygnał amplitudowo-częstotliwościowy. I tak właśnie dzieje się w praktyce w każdym nowoczesnym systemie dźwięku przestrzennego, a nawet w konwencjonalnym systemie stereo. Kiedy człowiek słucha duża liczba dźwięków pochodzących z różnych źródeł, najpierw określa się przynależność każdego dźwięku do źródła, które go tworzy (grupowanie według częstotliwości, wysokości, barwy). I dopiero w drugim etapie plotka próbuje zlokalizować źródło. Następnie napływające dźwięki są dzielone na strumienie na podstawie cech przestrzennych (różnica w czasie dotarcia sygnałów, różnica w amplitudzie). Na podstawie otrzymanych informacji powstaje mniej lub bardziej statyczny i utrwalony obraz słuchowy, z którego można określić skąd pochodzi dany dźwięk.

Bardzo wygodnie jest prześledzić te procesy na przykładzie zwykłej sceny z zafiksowanymi na niej muzykami. Jednocześnie bardzo ciekawe jest to, że jeśli wokalista/performer, zajmując wstępnie określoną pozycję na scenie, zacznie płynnie poruszać się po scenie w dowolnym kierunku, to wcześniej ukształtowany obraz dźwiękowy się nie zmieni! Określenie kierunku dochodzącego dźwięku od wokalisty pozostanie subiektywnie takie samo, jakby stał on w tym samym miejscu, w którym stał przed ruchem. Dopiero w przypadku gwałtownej zmiany położenia wykonawcy na scenie następuje rozszczepienie powstałego obrazu dźwiękowego. Oprócz rozważanych problemów i złożoności procesów lokalizacji dźwięku w przestrzeni, w przypadku wielokanałowych systemów dźwięku przestrzennego dość dużą rolę odgrywa proces pogłosu w końcowym pokoju odsłuchowym. Najwyraźniej zależność tę obserwuje się, gdy ze wszystkich kierunków dochodzi duża liczba dźwięków odbitych – dokładność lokalizacji znacznie się pogarsza. Jeżeli nasycenie energią fal odbitych jest większe (przeważa) niż dźwięków bezpośrednich, wówczas kryterium lokalizacji w takim pomieszczeniu ulega skrajnemu zatarciu, niezwykle trudno (jeśli nie niemożliwie) mówić o dokładności określenia takich źródeł.

Jednak w pomieszczeniu o dużym pogłosie lokalizacja teoretycznie zachodzi, w przypadku sygnałów szerokopasmowych słyszeniem kieruje się parametr różnicy natężenia. W tym przypadku kierunek jest określony przez składową wysokiej częstotliwości widma. W każdym pomieszczeniu dokładność lokalizacji będzie zależała od czasu nadejścia dźwięków odbitych po dźwiękach bezpośrednich. Jeśli przerwa między tymi sygnałami dźwiękowymi jest zbyt mała, „prawo fali bezpośredniej” zaczyna działać, aby pomóc układowi słuchowemu. Istota tego zjawiska: jeśli dźwięki o krótkim odstępie czasu dobiegają z różnych kierunków, to lokalizacja całego dźwięku następuje według pierwszego dźwięku, który dotarł, tj. słuch ignoruje do pewnego stopnia dźwięk odbity, jeśli nadejdzie on zbyt krótko po dźwięku bezpośrednim. Podobny efekt pojawia się również przy określaniu kierunku nadejścia dźwięku w płaszczyźnie pionowej, jednak w tym przypadku jest on znacznie słabszy (ze względu na zauważalnie mniejszą podatność narządu słuchowego na lokalizację w płaszczyźnie pionowej).

Istota efektu pierwszeństwa jest znacznie głębsza i ma raczej charakter psychologiczny niż fizjologiczny. Przeprowadzono dużą liczbę eksperymentów, na podstawie których ustalono zależność. Efekt ten występuje głównie wtedy, gdy czas wystąpienia echa, jego amplituda i kierunek pokrywają się z pewnymi „oczekiwaniami” słuchacza od tego, jak akustyka danego pomieszczenia ułoży się na obraz dźwiękowy. Być może osoba miała już doświadczenie słuchania w tym lub podobnym pomieszczeniu, co stanowi predyspozycję układu słuchowego do wystąpienia „oczekiwanego” efektu pierwszeństwa. Aby obejść te ograniczenia tkwiące w ludzkim słuchu, w przypadku kilku źródeł dźwięku stosuje się różne sztuczki, za pomocą których ostatecznie tworzy się mniej lub bardziej wiarygodna lokalizacja instrumentów muzycznych/innych źródeł dźwięku w przestrzeni . Ogólnie rzecz biorąc, odtwarzanie stereofonicznych i wielokanałowych obrazów dźwiękowych opiera się na wielkie oszustwo i tworzenie iluzji słuchowej.

Gdy dwa lub więcej głośników (takich jak 5.1 lub 7.1 lub nawet 9.1) odtwarza dźwięk z różne punkty słuchacz jednocześnie słyszy dźwięki dochodzące z nieistniejących lub urojonych źródeł, odbiera pewną dźwiękową panoramę. Możliwość tego oszustwa tkwi w biologicznych cechach budowy ludzkiego ciała. Najprawdopodobniej dana osoba nie miała czasu na przystosowanie się do rozpoznania takiego oszustwa ze względu na fakt, że zasady „sztucznej” reprodukcji dźwięku pojawiły się stosunkowo niedawno. Ale chociaż proces tworzenia wyimaginowanej lokalizacji okazał się możliwy, implementacja wciąż daleka jest od doskonałości. Faktem jest, że słuch naprawdę odbiera źródło dźwięku tam, gdzie go faktycznie nie ma, ale poprawność i dokładność przekazywania informacji dźwiękowych (w szczególności barwy) jest dużym pytaniem. Metodą licznych eksperymentów w rzeczywistych pokojach pogłosowych iw komorach tłumionych stwierdzono, że barwa fal dźwiękowych różni się od rzeczywistych i urojonych źródeł. Wpływa to głównie na subiektywne postrzeganie głośności spektralnej, barwa w tym przypadku zmienia się w sposób znaczący i zauważalny (w porównaniu z podobnym dźwiękiem odtworzonym przez rzeczywiste źródło).

W przypadku wielokanałowych systemów kina domowego poziom zniekształceń jest zauważalnie wyższy z kilku powodów: 1) Wiele sygnałów dźwiękowych o podobnej charakterystyce amplitudowo-częstotliwościowej i fazowej pochodzi jednocześnie z różnych źródeł i kierunków (w tym fale odbite). do każdego kanału słuchowego. Prowadzi to do zwiększonych zniekształceń i pojawienia się filtrowania grzebieniowego. 2) Silne rozstawienie głośników w przestrzeni (względem siebie, w systemach wielokanałowych odległość ta może wynosić kilka lub więcej metrów) przyczynia się do wzrostu zniekształceń barwy i podbarwień dźwięku w rejonie wyimaginowanego źródła. W rezultacie można powiedzieć, że podbarwienie barwy w systemach dźwięku wielokanałowego i przestrzennego występuje w praktyce z dwóch powodów: zjawiska filtrowania grzebieniowego oraz wpływu procesów pogłosowych w danym pomieszczeniu. Jeżeli za odtwarzanie informacji dźwiękowych odpowiada więcej niż jedno źródło (dotyczy to również zestawu stereo z 2 źródłami), pojawienie się efektu „filtrowania grzebieniowego” spowodowanego Inne czasy przybycie fal dźwiękowych do każdego kanału słuchowego. Szczególną nierówność obserwuje się w rejonie górnego środkowego pasma 1-4 kHz.