matssvensson skrev:jansch skrev:Du saknar egentligen aldrig riktning i ett lyssningsrum. Riktning är direktljud från ljudkällan enligt första vågfront. Är ljudkällan skymd (inget riktigt direktljud finns) kommer första vågfront gälla för första reflexen om denna åtminstonde är i rimlig nivå och frekvensspekta jämfört med diffusljudet i övrigt. Vi tål ganska rejält med reflexer/diffusljud innan låsning på riktning tappas.
Ljudhändelser som saknar transient kan dock låta luddigt i riktning. En förutsättning är också att frekvensspektrat är representerat över sådär 200Hz i normalrum för att riktning överhuvudtaget skall kunna detekteras.
Du svarar egentligen själv på frågan.
Balans mellan direktljud och diffusljud blir "fel"
Jag är med på att första vågfront från direktljudet hjälper hörseln att bestämma riktning. Men hur tolkar hörseln de inspelade reflexerna när även de först kommer från samma riktning som det inledande direktljudet vid uppspelningen, det vill säga från högtalarhållet? Är det bristen på ”riktning” hos de inspelade reflexerna som skapar upplevelsen av överdriven rumsklang?
När jag lyssnar direkt i en konsertlokal får jag inte samma upplevelse av överdriven rumsklang trots att balansen (mängden) mellan direktljud och diffusljudet är den samma som om vi skulle spelat in ljudet med mikrofoner på samma plats. Hjälper riktningsskillnaden på direkt och diffusljudet hörseln att uttolka ljudet som en naturligt upplevelse av en ljudhändelse i en konsertlokal? Eller är det påverkan från andra sinnen som synintryck som får upplevelsen att kännas naturlig?
2 st rundkännande mikrofoner på lyssnarplats i exempelvis mitten på 8e raden parkett i konserthus representerar inte alls det ljud som hörseln på denna plats registrerar, inte ens i närheten.
Ljudet in i mikrofonerna har ju samma nivå i SPL i båda kanalerna oavsett riktning in till mikrofonerna och det gäller allt direktljud samt alla tidiga reflexer och naturligtvis all efterklang. Det betyder att den inspelade koden i SPL är lika för båda kanalerna och återges då med samma SPL från båda högtalarna.
På direktljudets kod som skall ge riktning till den inspelade ljudkällan så kommer ljudvågen från höger högtalare och från vänster högtalare att ha i princip samma SPL.
I verkligheten på denna lyssnarplats, om vi tar ett musikinstrument exempelvis 20 grader till höger, så kommer direktljudet från instrumentet först till höger öra med given SPL och därefter med en fördröjning på ung 0,2 ms till vänster öra och då med flera dB lägre nivå SPL som visserligen är frekvensberoende.
Vi har 1 höger öronsignal (hö) och 1 vänster öronsignal (vö), tillsammans 2 öronsignaler.
I den inspelade koden kommer SPL vara lika i båda kanalerna d v s ICLD = noll. ICTD = 0,2 ms.
Spelar man upp detta med 2 högtalare i stereo så nås lyssnaren av 4 öronsignaler.
2 öronsignaler från höger högtalare och 2 öronsignaler från vänster högtalare.
Nu kan vi fördela dessa 4 öronsignaler där höger öra får 2 öronsignaler och vänster öra också får 2 öronsignaler.
Så, höger högtalare bidrar till en höger öronsignal och en vänster öronsignal.
Vi kallar höger högtalare utsignal för hh.
Vi kallar vänster högtalares utsignal för vh.
Vi kallar öronsignal vid höger öra för hö.
Vi kallar öronsignal vid vänster öra för vö.
Höger högtalare ger upphov till hhhö och hhvö.
Vänster högtalare ger upphov till vhvö och vhhö.
Det betyder att man får summera signalerna parvis vid respektive öra.
Således blir det vid höger öra: hhhö + vhhö.
Vid vänster öra blir det: vhvö + hhvö.
Musikinstrumentet i exemplet ovan är i verkligheten 20 grader till höger.
I verkligheten nås lyssnarens hö först med viss SPL och vö 0,2 ms senare med några dB lägre SPL.
Med beskriven kodning med A/B mikrofonteknik på samma plats, med inbördes avstånd mellan mikrofonkapslar motsvarande hörseln, fås följande öronsignaler vid uppspelning med stereo och 2 högtalare där lyssnaren är placerad på ekvidistans från högtalarna d v s i sweet spot:
Det blir 4 öronsignaler med viss tidsförskjutning. Jag beskriver först tidsförskjutningen.
Den första signalen från höger högtalare ges tiden noll. Övriga tider får Δt som representerar tidsfördröjning.
hhhö = 0 ms; inspelad kod
vhvö = 0,2 ms; inspelad kod
hhvö = 0,2 ms; ljudvåg runt huvud
vhhö = 0,4 ms; inspelad kod + ljudvåg runt huvud
Nu ser vi att vhvö är samtidig/koincident med hhvö. Då kan vi summera dessa signaler.
Eftersom kodningen har samma SPL från hh och vh, så kommer SPL på vänster öra (vö) bli starkare än SPL på höger öra vid Δt = 0,2 ms trots att musikinstrumentet är på höger sida. Den första ljudvågen når höger öra först med viss SPL och når vänster öra 0,2 ms senare, men med flera dB starkare SPL. Det är således motsatsen till verkligheten och synnerligen onaturligt. Den inspelade koden blir totalkorrupt vid uppspelning med 2 högtalare.
Därför ökar man avståndet mellan kapslarna till ungefär 0,5 - 1 meter samt sätter mikrofonerna på betydligt närmare avstånd till musikinstrumenten. Då får man viss skillnad i SPL mellan kanalerna och ökar andelen direktljud markant.
Just detta fenomen är anledningen till att Bertil Alving i princip gått ifrån ren A/B-teknik. Han använder det man kallar ekvivalensstereo där kodning mellan löptidsdifferens och nivådifferens är envivalent. Man får således med både Δt och ΔSPL i den inspelade koden.
Detta är ett exempel på problematik som de flesta inte tänker på, men som är synnerligen problematisk.
Sedan finns det ytterligare en uppsjö problem med vanlig stereo.
Mvh
Peter
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.