Nasze zmysły i mózg są mocno nastawione na odbiór dźwięków mowy. Nie samych dźwięków, bo chociażby psy mają od nas lepszy słuch. Jako gatunek wyspecjalizowaliśmy się w słyszeniu mowy. Żadne inne zwierze nie ma tak rozbudowanego systemu językowego jak my. Pozwoliło nam to budować społeczeństwa i cywilizację. Dziś wiemy już bardzo dużo o tym jak uczymy się mowy jako dzieci. Wiemy w jaki sposób nasze ucho odbiera dźwięki i jak nasz mózg je interpretuje. Znamy się na akustyce i potrafimy zamieniać dźwięki na cyferki (MP3). W dzisiejszym artykule przedstawię Ci różne aspekty słyszenia oraz jaki to ma związek z pracą nad dykcją i emisją głosu.
piękne, piękniejsze, brzydkie
Do pomocy przy dzisiejszym artykule, użyjemy pewnej uniwersalnej koncepcji – koncepcji piękna. Będzie to fundament, dla większości poruszanych zagadnień. Tworzymy muzykę dla rozrywki, bo lubimy piękne dźwięki. Dla każdego określenie „piękne” będzie czymś innym, ale na każdego z nas działa to w jednakowy sposób. W podobny sposób doszukujemy się piękna i harmonii w czyjejś wypowiedzi. W tym procesie barwa głosu jest elementem, a nie jedyną cechą. To na nią zwracamy uwagę w pierwszej kolejności, bo łatwo ją wyodrębnić i nazwać. Natomiast brzmienie poszczególnych głosek umyka naszej świadomości. Niemniej one są i nasz mózg również interpretuje je w kategoriach „piękne-piękniejsze-brzydkie”. Wadę wymowy zauważymy od razu. Tak samo jak w piosence wychwycisz fałsz. Ale co sprawia, że muzyka jednych artystów podoba nam się bardziej od innych? Co sprawia, że wypowiedzi niektórych osób słucha nam się przyjemnie? Na początek, weźmy jednak pytanie, na które znasz odpowiedź:
Czy lubisz swój głos?
Jeśli słuchałeś kiedyś swojego nagranego głosu i myślałeś sobie „O masakra. To naprawdę ja?”, to znaczy, że masz reakcję identyczną jak 98% społeczeństwa. Wyjaśnijmy sobie, dlaczego tak się dzieje. Zacznijmy od samego dźwięku i tego, jak on się porusza. W poprzednim artykule pisałem, że dźwięk to falujące, drgające powietrze. Było to oczywiście duże uproszczenie. Powietrze jest jedynie nośnikiem tych drgań. Ciecze i ciała stałe takie jak: woda, metale lub beton, również mogą przenosić dźwięk. Jeśli nie wierzysz, to przypomnij sobie jak przykładałeś szklankę do ściany, aby podsłuchać sąsiadów. Albo przypomnij sobie jakie jest wrażenie, gdy zanurzysz głowę w wannie lub na basenie. Czy nagle nastaje głucha cisza? Nie. Oczywiście, nie są to już takie same wrażenia słuchowe, ale dźwięk jest.
W nowoczesnych muzeach naukowych (np. Centrum Nauki Kopernik), często znajduje się stanowisko z bardzo ciekawym eksperymentem. Do metalowej blaszki trzeba przycisnąć łokieć, a nadgarstek do głowy za uchem. Po wykonaniu tych czynności, usłyszysz Chopina lub Mozarta. Gdy oderwiesz łokieć, przestajesz słyszeć muzykę. Doświadczenie to opiera się na przewodnictwie kostnym. Tak, nasze kości – przewodzą dźwięk.
Wróćmy teraz do pytania: Dlaczego mój nagrany głos, brzmi dziwnie? Bo to co słyszysz na nagraniu, to tylko część dźwięków, które słyszysz w swoim głosie na co dzień. I najdziwniejsze jest to, że pozostałych nikt poza tobą nie usłyszy. Czego w takim razie brakuje?
Po pierwsze, Twojego własnego głosu, ale w przewodnictwie kostnym. Drgania, które powstają podczas produkcji mowy, przenoszą się na kości i wędrują bezpośrednio do ucha.
Po drugie, Twojego własnego głosu, ale słyszanego od środka. Ucho jest połączone z gardłem tak zwaną „trąbką Eustachiusza”. Ma ona jedno zadanie – wyrównywać ciśnienie w uchu. O jej działaniu (lub dysfunkcji) jesteśmy najbardziej świadomi w samolocie. Pod względem budowy jest to wąska rurka wypełniona powietrzem. Poprzez tę rurkę, nasz głos również dociera do ucha – tak jakby na skróty.
Po trzecie, Twojego własnego, ale wewnętrznego głosu. To ten sam głos, którym prowadzimy wewnętrzne monologi. Ten sam głos w naszej głowie, który dyktuje Ci co pisać. Ten sam głos, który właśnie czyta ten artykuł. On jest zawsze konkretny – ma swoje indywidualne brzmienie. Ten głos, to nic innego jak nasze wyobrażenie o tym, jak brzmi nasz głos. Nawet więcej, często jest to wyobrażenie o tym, jak byśmy chcieli, aby nasz głos brzmiał.
Na nagraniu nasz głos brzmi dziwnie-inaczej, bo brakuje w nim wielu elementów, do których jesteśmy przyzwyczajeni. Jednak, to że jest dziwny, nie jest powodem, dla którego on nam się nie podoba. Przypomnijmy sobie koncepcje piękna, która miała być fundamentem tego artykuły. To że nasz głos na nagraniu brzmi brzydko, w brew pozorom, nie jest wywołane naszym wyidealizowanym wyobrażeniem o nim. W przypadku mowy, lubimy niższe głosy. Dlatego w radiu i telewizji pracują głównie osoby o niskich głosach. Przewodnictwo kostne, o którym wspominałem, nie jest idealne. Kości dobrze przewodzą niskie dźwięki, a słabo wysokie. To trochę tak, jakby ktoś w Twoim wewnętrznym głośniku podbił basy. Zastanów się teraz, czy jednym z głównych pytań po odsłuchaniu swojego nagrania, nie było: Czy ja mam taki piskliwy głos? Czy ja tak wysoko mówię? Pracując z mikrofonem, musimy się przyzwyczaić, że to co słyszymy na nagraniu, to ten sam głos, który słyszą inni. I jeśli Ci się nie podoba jak brzmi, to możesz nad nim popracować.
Słyszenie a percepcja
Słyszenie dźwięków nie jest tym samym, co odbiór mowy. Samo ucho przerabia falujące powietrze na impulsy nerwowe. Dopiero nasz mózg interpretuje je jako głoskę [a] lub [z]. W poprzednim artykule pisałem, że każda głoska, to inny dźwięk. W tym momencie po raz kolejny muszę Cię przeprosić za małe kłamstwo. Każda głoska, to nie inny dźwięk, a zestaw dźwięków. To trochę tak, jak z grą na fortepianie. Możesz grać pojedyncze dźwięki – jeden klawisz albo cały akord – kilka klawiszy na raz. W tym drugim przypadku nie słyszymy osobnych dźwięków. Nadal odnosimy wrażenie, że słyszymy jeden dźwięk, tylko trochę bardziej złożony.
W przypadku mowy jest podobnie. Każda głoska, to taki akord. Z tą różnicą, że na fortepianie składa się on z 3-4 klawiszy, w mowie – z kilkudziesięciu czy nawet kilkuset klawiszy wciśniętych jednocześnie. Dodajmy do tego fakt, że każdy klawisz, to informacja do przetworzenia. Okazuje się wówczas, że słuchając kogoś, nasz mózg jest strasznie zapracowany. Jak on sobie z tym radzi? Dzięki dwóm czynnikom:
1) Ewolucji. To że jako gatunek zaczęliśmy używać mowy, nie było efektem nagłego odkrycia (jak komputery), a powolnego przystosowywania się to tego. Na przestrzeni setek tysięcy lat, nasz mózg wyspecjalizował się do odbioru mowy.
2) Kompresji. Tak samo jak w przypadku formatu MP3. Zanim go opracowano w 1993 roku, na jednej płycie CD mieściło się około 12 piosenek. Później, na jedną płytę można było nagrać dziesiątki albumów. Dlaczego? Okazuje się, że dużo dźwięków (informacji) jest niepotrzebnych, aby wywołać konkretne wrażenie słuchowe. W przypadku mowy, nasz mózg nie potrzebuje wszystkich dźwięków, które występują w głosce [a], aby rozpoznać ją właśnie jako [a].
Uważne słuchanie
W wcześniejszych artykułach kilkukrotnie zwracałem uwagę, że pracując nad dykcją, trzeba nauczyć się uważnie słuchać samego siebie. Nasz mózg nauczył się odbierać mowę w sposób bardziej wydajny, niż tylko odczytywanie ciągu dźwięków. W mówieniu nie chodzi o to, aby mówić. Istotą jest przekazywanie informacji – znaczeń ukrytych w słowa. Z potoku dźwięków jakim jest mowa, nasz mózg stara się wyłapać tylko tyle, aby dopasować do tego pasujące znaczenie. Inaczej mówiąc, nasz mózg domyśla się pewnych elementów, aby nie analizować każdego dźwięku z osobna. Jest w tym tak dobry, że przewiduje nawet całe słowo, które zaraz usłyszy. Zdarzyło Ci się, dopowiadać pojedyncze słowa za kogoś? To właśnie dzięki temu mechanizmowi.
Weźmy dla przykładu wyraz drzazga i zastanówmy się nad dwiema zaznaczonymi głoskami. Czy po zamianie pierwszego [a] lub [z] na jakąkolwiek inną głoskę, powstanie nam nowy wyraz o odrębnym znaczeniu? Nie. Tym samym, nasz mózg nie potrzebuje wszystkich składowych dźwięków głoski [a] lub [z], aby zinterpretować to słowo jako [drzazga]. Ułatwia to proces odbierania informacji poprzez mowę.
Aby zobrazować Ci wagę tego faktu i dojść do puenty, potrzebujemy dwóch informacji z poprzedniego artykułu: a) konkretne ułożenie i sposób pracy języka, decydują o wyprodukowaniu odpowiedniej głoski. b) w trakcie wypowiedzi, język ułatwia sobie pracę i część ruchów robi niedokładnie – w połowie drogi. W skutek tego, nie powstaje idealny dźwięk, a dźwięk pośredni miedzy dwiema głoskami. Gdybyśmy słowo [drzazga] nagrali, wyodrębnili każdą głoskę i odsłuchali z osobna, to okazałoby się, że pierwsze [a] jest dźwiękiem pośrednim miedzy [a] a [e]. Gdybyśmy grupie badawczej dali do odsłuchu tylko ten jeden dźwięk, część z nich powiedziałaby, że słyszy [a], a część, że [e]. Jednak słuchając całego wyrazu, wszyscy stwierdziliby, że to było [a].
Przykład z słowem drzazga jest bardzo łatwy dla naszego mózgu, bo nie ma takiego słowa jak drzezga. Decyzja łatwa do podjęcia. A co w przypadku słów baza – beza albo kasza-kasa-Kasia?
Puenta
Problem pojawia się gdy takich dźwięków pośrednich jest za dużo i/lub w nieodpowiednich miejscach. Nasz mózg ma po prostu za dużo roboty i się męczy. Nie powiemy, że ktoś ma wadę wymowy. Nie powiemy, że go nie zrozumieliśmy. Jeśli nie jesteś logopedą, językoznawcą czy dźwiękowcem, nie nazwiesz tego dokładnie, a jedynie określisz taką wymowę, jako niechlujną, knajpową. Nasz mózg po raz kolejny odwoła się do koncepcji piękna i przypisze wartość „brzydki”. Właśnie aby uniknąć takiego określenia, aktorzy czy dziennikarze, którzy nie mają wady wymowy, ćwiczą dykcję.