Moderator: Redaktörer
rajapruk skrev:Hur blir det för lokalisering av ljud som har så låg frekvens att de är längre än 0.8ms för en enda vågcykel? De blir inte lokaliserbara alls? Vilken högsta frekvens är det isf som vi inte kan lokalisera?
matssvensson skrev:Tack för ett intressant inlägg Peter! Mycket att fundera vidare på där. Som att det är höger/vänster högtalarna som fixar fantomprojiceringen från centerljudet i ditt Bremenupplägg och att lokalisering sker inom 0,8 ms samt identifiering i tidsspannet 1-100 ms oavsett vilka ljud och frekvenser det är (som jag tolkar innehållet i inlägget).
mvh, mats
Ragnwald skrev:Passade på att besöka min gamle vän Peter, under vistelsen i storstan. Jag har allt för länge väntat på att få äggen demonstrerade, men nu äntligen blev det av.
Med en kopp turkiskt kraftkaffe i handen, fick jag mig till del en föreläsning i ortoakustikens grunder och nyvinningar. Bla innebörden av rumsbidrag i inspelning och återgivning fick för mig nytt ljus, jag gick från klarhet till klarhet.
Undrar om det finns någon i detta land, som studerat den mänskliga hjärnans hörselfunktion både medicinskt, audiologiskt och samtidigt omgivningens akustiska förlopp, så till den grad som Peter har gjort? Imponerande.
Lyssningen började med musik där en man växelsjöng till vänster med en kvinna till höger. Reagerade direkt på hur exakt jag kunde peka ut deras positioner, samtidigt som det inspelade rumsbidraget gav fantastisk äkthet i djup och bredd. När vi släkte ner ljuset, upplevde jag inte Peters rum längre, jag blev förflyttad till den inspelade konsertsalen, väggarna upplöstes.
Vi lyssnade på en mängd CD-skivor med varierande musikstilar, jazz, klassiskt, underbara Alvinginspelningar, etc, etc både med och utan centern. Nu handlade det om akustiska inspelningar som ska återges så illusoriskt som möjligt, med alla inspelningens rumsreflexer, vilket ju är ortoakustikens väsen.
Med bara ett äggpar upplevde jag stereobilden aningens bred, vilket kanske inte var så konstigt iom deras placering på kortväggarna. Förmodligen klarar de sig utmärkt på egen hand, om de placeras på varsin långvägg och 90 graders omflyttning av lyssningsposition.
Men däremot som de nu var placerade och med centern inkopplad, fick stereobilden oklanderligt rätt bredd. Nu är ju inte detta en vanlig center, utan den ska tillsammans med äggen och en nyutvecklad tekniskt avancerad och unik box, fördela ljudet mellan högtalarna, vilket jag upplevde att den klarade helt korrekt. Ortoakustiken har tagit ett jättekliv in i framtiden.![]()
En storslagenhet i ljudet, man verkligen inte förväntar sig av så små och diskreta högtalare. En anläggning i tiden, enkel att trolla bort och få osynlig highend i hemmet. Waffaktorn är total.
Peter testade mig genom att ändra 1,5dB i filtret på ett ägg, utan att jag visste om det. Jag hörde det och påtalade att det lät annorlunda, varpå han avslöjade ändringen. Märkligt att så små filterförändringar blir så påtagligt hörbara.
Alltid kul att träffa Peter och diskutera gammalt och nytt.
Tackar för besöket och hoppas det inte ska dröja lika länge innan vi ses igen.
eljulio skrev:Tack Peter för ett par mycket trevliga timmar i fredags!
I eftermiddags kom jag hem igen till Revsudden, norr om Kalmar med min kära familj som åkte med upp till Stockholm.
På plats hos Peter i Saltsjö-Boo blev det först en introduktion till tänket bakom Bremenhögtalarna vilket var mycket intressant, men helt begripligt först när provlyssningen inleddes.
Provlyssningen skedde främst med två "ägg" plus center, men även med "bara" två ägg och med ännu mer inkopplat...
Två ägg:
Äggen är hemma hos Peter placerade mitt emot varandra. Med två Ägg är återgivningen såsom man kan förvänta sig av två högtalare men bättre. Ljudbilden är stor och väldigt ren. Tänk er ett fönster som har diskmedel på sig, så låter ofta högtalare. Här är fönstret helt transparent, släpper igenom ljuset och synintrycken på andra sidan glaset. Dynamiken är också slående. Med två ägg är det dock tydligt varifån ljudkällorna befinner sig och det finns en tydlig bästa lyssningspunkt, även om den är bred och man är inte sweetspot-beroende, även om det låter bäst där.
Med två ägg plus center:
En remarkabel förändring äger rum till det positiva. Alla goda egenskaper kvarstår. Fönstret är fortsatt helt transparent, men nu kan jag gå runt i rummet, helt utan restriktioner. Ljudbilden är exakt densamma, var jag än befinner mig. Dessutom försvinner väggarna helt, eller snarare, de flyttas längre bort än där de faktiskt är, rummet blir större. En mycket sällsam upplevelse.
Med två ägg, center och två ytterligare två ägg som bakkanaler:
Den här uppställningen är primärt (som jag förstod det) en fördel när liveupptagningar skall återges. Således spelades några livuptagningar och här kom haksläppet. Jag och min vän som följde med mig upplevde precis samma sak. Återgivningen var inte bara transparent, det vi hörde var inget annat än (det kände så) "the sense of live performance". Vad jag påstår är att återgivningen i Peters rum suddade ut rummets egenskaper och att återgivningen speglade (kopierade) det som hände live vid inspelningstillfället. Det här är lite svårt att förklara, men jag hoppas att ni förstår vad jag menar. Det skall dock tilläggas att det krävdes denna uppställning för att åstadkomma ovan nämnda beskrivning.
Vad tycker jag som potentiell köpare?
Två ägg.
Ja, klart intressant. Jag älskar designen, passar perfekt i mitt hem och återgivningen är i toppklass. Båda delar är viktiga, men återgivningen viktigast förstås.
Två ägg plus center?
Priset ökar förstås, men för att få total frihet (rörelse) är centern en förutsättning. Den skapar en ohörbar förändring som cementerar ljudbilden där den ska vara oavsett lyssningsposition.
Två ägg, center plus bakhögtalare?
Ett måsteköp för de som har rätt förutsättningar och lyssnar mycket på livemusik. En närmast perfekt upplevelse.
Ett frågetecken:
Det är inte möjligt för lyssnaren att exakt veta hur det har låtit live i den aktuella inspelningslokalen, om man inte var där själv. Där finns ett frågetecken. Men känslan var klanderfri.
Släpp äggen fria nu Peter. Handtaget får gärna vara vitt eller orange, bara de kommer ut nu, de är mer än bra nog. Sedan vill jag att centern kommer så snabbt som möjligt. Den tillför en viktig dimension, men jag vore nöjd länge med två nykläckta och pärlemorvita ägg.
Mvh
el julio
matssvensson skrev:Tack igen för fler inlägg med mycket intressant att fundera vidare på. Det du beskriver stämmer väl med mina egna erfarenheter av liknande ljudupplevelser. Jag kan förstå att inte allt står i Blauerts referensverk, men tänker att den kan hjälpa mig bygga på min grundförståelse i ämnet. Men först på sängbordet ligger nu en spännande historisk exposé över vikten av motiverande regler och struktur för utvecklingen av vårt välstånd.
mvh, mats
JM skrev:Du gör mig besviken Peter. Blauerts bok fungerar bara om vi hade mikrofoner i stället för trumhinnor. Hjärnans påverkan på hörandet är inte beaktad. Boken är urtypen på hur ingenjörer angriper psykologiska och fysiologiska frågeställningar. Mha tekniska förklaringsmodeller skapas pseudoförklaringar utan förankring i verkligheten.
Inga nya rön hur vi hör publicerat i neurofysiologin och neuropsykologin finns inte med. Boken kom 1972.
Läs inte boken!!!
Läs Tooles böcker upplagor 2 o 3 samt Moores bok 6 upplagan.
Artikel i början av den här tråden är även den av samma skäl pseudovetenskapligt dravel.
Vi hör aktivt och inte passivt likt mikrofoner. Hjärnan selekterar aktivt vilka ljud skall beaktas i en given kontext.
JM
JM skrev:Självklart. Inses lätt.
JM
JM skrev:Du gör mig besviken Peter. Blauerts bok fungerar bara om vi hade mikrofoner i stället för trumhinnor. Hjärnans påverkan på hörandet är inte beaktad. Boken är urtypen på hur ingenjörer angriper psykologiska och fysiologiska frågeställningar. Mha tekniska förklaringsmodeller skapas pseudoförklaringar utan förankring i verkligheten.
Inga nya rön hur vi hör publicerat i neurofysiologin och neuropsykologin finns inte med. Boken kom 1972.
Läs inte boken!!!
Läs Tooles böcker upplagor 2 o 3 samt Moores bok 6 upplagan.
Artikel i början av den här tråden är även den av samma skäl pseudovetenskapligt dravel.
Vi hör aktivt och inte passivt likt mikrofoner. Hjärnan selekterar aktivt vilka ljud skall beaktas i en given kontext.
JM
petersteindl skrev:. . .
Personligen, vill jag helst prata om hörselsinnet då det är hörseln som är inblandat och dominant i upplevelsen. Vi pratar ljudupplevelser. Nu skall jag tala om en liten hemlighet för dig. Den signal som når trumhinnorna och kan definieras som insignal är inte den signal som du hörDetta gäller naturligtvis det som du är medveten om d v s din hörselupplevelse. Mellan trumhinnorna och den medvetna upplevelsen sker det en hel del manipulation med insignalen och den manipulationen bygger på tidigare ljud d v s tidigare insignal. För att detta skall fungera behövs ett minne som lagrar tidigare signaler. All insignal blir till nervimpulser. Denna karta av nervimpulser går i flera steg till olika delar av hjärnan. För att hamna rätt så måste dessa nervimpulser sorteras. Det är om denna sorteringsprocess och om vad som händer efter varje sorteringssteg som sätter ljudet som hörs. Det är alltså en inre jämförande process av tidigare upplevt ljud som processerna använder sig av då ljudet simuleras fram. Det är alltså inte insignalen som blir direkt till ljudupplevelse, utan insignalen som blir till nervimpulser jämförs med tidigare insignalers nervimpulser och därmed kan sorteras och därmed i slutändan då all simulering har skett så är det ett upplevt ljud. Det är helt enkelt så vår perception fungerar. Det är processer som bygger på mönsterigenkänning av nervimpulsers mönster. Dessa processer bygger således på att det finns en minnesfunktion i hjärnan. Detta minne är den referens som bestämmer vad du hör. Det är alltså inte insignalen som bestämmer detta. Då den tioöringen trillar ner så är det mycket information som faller på plats och det är mycket som faller ifrån. Detta förfarande får nämligen en hel del konsekvenser vad gäller det som sätter ljudupplevelsen och hur vi bedömer ljud och vad som sätter totalupplevelsen.
MvH
Peter
petersteindl skrev:Den inkommande signalen blir till ett mönster av nervimpulser i hjärnan. Detta mönster kallas för "Bottom Up" och är en process. Detta är signalen in i människan. Detta mönster jämförs med ett uppbyggt minnesmönster i hjärnan d v s i hjärnan möts detta Bottom Up-mönster med ett lagrat mönster. Denna process kallas för "Top Down". Top Down-mönstret som är hörselperceptionens inre referens för hur man tidigare har tyckt det låta d v s ens tidigare subjektiva upplevelse kommer nu att bestämma hur Bottom Up-mönstret skall tolkas och vad som skall läggas till. Hela processen är en process av jämförelse av mönster i hjärnan där Top Down-mönstret är den dominanta faktorn för upplevelsen av Bottom Up-mönstret. Ändras Top Down-mönstret för ljudupplevelsen så låter Bottom Up-mönstret annorlunda trots att detta Bottom Up-mönster inte har förändrats! Samma Bottom Up-mönster kan alltså ge olika ljudupplevelser vid olika tillfällen. Det betyder att hörseln inte är tidsinvariant. Ett Bottom Up-mönster kan aldrig vara referens för upplevelsen men kan bidra till förändrad referens för upplevelsen vid nästkommande lyssningar.
Därför är skivan aldrig referens för det jag hör. Personligen väljer jag det som skall sätta min inre referens med omsorg. Hörseln och därmed människan är en högst adaptiv varelse och tillvänjer sig inför inkommande information. Det är en tillvänjningsprocess. Det är alltså en adaptiv och en kognitiv process som fortgår i vår hjärna. Men man kan tillvänja sig till olika saker. Det som jag skrivit betyder som sagt att hörseln inte är tidsinvariant. Och det är detta faktum som slår sönder allt om yttre referens för en inre upplevelse.
Sammanfattningsvis:
Lyssnandet är en process:
1 A.) Bottom Up:
Två yttre signaler, en för varje öra, når våra receptorer i innerörat blir till nervimpulser i hörselceller och som efter första synaps transporteras i varsina banor av nerver och som bildar var sitt mönster. Dessa mönster av nervimpulser går vidare i skilda nervbanor och når direkt olika delar i hjärnan. I de olika delarna i hjärnan sker avkodning av båda mönstren. Därefter når de olika nervbanorna gemensamma delar i hjärnan där de konvergerar. Där läggs höger och vänster nervimpulsmönster ihop till ett gemensamt enda nytt mönster av nervimpulser. Det är här som ITD Interaural Time Difference och ILD Interaural Level Difference kodas upp, används och därmed utplånas. Denna nya uppsättning nervimpulser fortsätter sedan resan mot högre delar i hjärnan.
Då avkodningen av all inkommande information är klar så är det ett helt nytt mönster av nervimpulser som skall bli till en ljudupplevelse d v s detta skall snart bli ljud helt rätt och slätt. Denna inkommande information kallas Bottom Up. Den går från det perifera nervsystemet och passerar de lägre delarna i hjärnan som bearbetar informationen och som skickar informationen mot de högre delarna i hjärnan. Det blir parallellt löpande flöden till olika delar av hjärnan högre upp i hjärnan beroende på vad informationen innehåller. Är det opera finns det även språkinfo som går till sina explicita delar i hjärnan och bearbetas till upplevd information om man lyssnar på textens innehåll vill säga.
Detta nu helt nya uppkodade Bottom Up-mönster av nervimpulser skall nu gå till nästa steg i processen mot att bli till upplevt ljud. Detta Bottom Up-mönster av nervimpulser skall där jämföras med annat mönster. Vad är då detta för mönster?
1B.) Top Down:
Jo, det är ett redan befintligt inre mönster som sedan tidigare har byggts upp och därmed finns lagrat i form av minne där synapserna spelar en stor roll. På engelska kallas denna del av processen för ”Pattern Recognition” d v s ett igenkännande av mönster.
Det är alltså inte så att Bottom Up-mönstret transformeras direkt till en ljudupplevelse d v s blir till ljud. Först sker det en inre minnesjämförelse med redan befintligt mönster som bildats vid tidigare lyssning. Detta minnesmönster kallas för Top Down och kommer från de högre delarna i hjärnan.
1 C.) Bottom Up – Top Down jämförelse:
Dessa mönster möts så att säga och ljudupplevelse uppstår. De som har hängt med förstår att Bottom Up är helt beroende av Top Down för ljudupplevelsen. Ändras Top Down så blir det en annan ljudupplevelse trots att Bottom Up är konstant. Man kan även säga att Bottom Up triggar Top Down som är ett betydligt mer komplicerat mönster som redan finns som lagrad information och detta läggs på eller fyller i Bottom Up så att en komplicerad ljudupplevelse kan uppnås trots att datamängden till medvetandet är högst begränsat, ja i stort sätt strypt.
Detta betyder att processen av ljudupplevelse inte är tidsinvariant utan varierar i tiden även om Bottom Up informationen inte skulle variera i tiden, men även den är inte tidsinvariant. Det finns tidsvarianta filter i hörselkanalerna som kan variera flödet av information på ett högst anmärkningsvärt sätt. Coctailpartyeffekten är ett typexempel på tidsvarianta filter som styr flödet i olika kanaler och ger fullständigt olika ljudupplevelser trots att de inkommande akustiska ljudvågorna är oförändrade.
Jag upprepar än en gång: Det är inte så att Bottom Up-mönstret transformeras direkt till en ljudupplevelse d v s blir till ljud.
MvH
Peter
petersteindl skrev:Strmbrg skrev:Nu hittade jag bilderna och inlägget jag gjorde för att illustrera vad jag menar är en skillnad mellan stereoåtergivning och verklighet.
Teckningarna är naturligtvis väldigt förenklade. Tex har jag inte ritat in reflexioner från väggen bakom lyssnaren.
Dessutom är det nog fel att rita in sångare framför högtalarlinjen, men bortse gärna från det.
Jag ids inte rita nya bilder just nu.
Jag citerar härmed mej själv i sin helhet:
Jag satt och funderade kring detta med stereoåtergivning och om den någonsin kan bli lika verkligheten.
Frekvensåtergivning tex, kanske kan åstadkommas med hyfsat god realism. Säkert en del andra parametrar också.
Men: betrakta de här skisserna jag har gjort:
Den vänstra skall illustrera fem sångare som står i ett rum om 5x8 meter och sjunger för en lyssnare.
Den högra skissen skall illustrera dessa fem sångare återgivna av två stereohögtalare (cirklarna) i samma rum.
Med lite skicklighet i mickningen och en hyfsad anläggning, så går det att återge sångarnas positioner någorlunda lika verkligheten. De två högtalarna ger en fantombild av de fem sångarnas positioner i rummet.
I verkligheten så är varje sångare en enskild ljudkälla i rummet, som skapar sina egna reflexmönster i rummet.
Återgivet via högtalarna så låter det som fem sångare i rummet. Men reflexmönstret i rummet skapas inte av fem ljudkällor utan av endast två.
Att detta betyder ett fel jämfört med originalet tycker jag är ganska uppenbart. Men jag har ingen aning om hur mycket detta fel påverkar illusionen av realism i stereoåtergivningen.
Men det kanske man kan reflektera över?
[ Bild ]
/Strmbrg,
Hej Strmbrg
Jag skall försöka reflektera lite över ämnet. Det som du försöker illustrera är en del av problematiken och du pratar om att återge sångarnas positioner. Men lokalisering av sångare med hjälp av hörseln bestäms av sångarnas direktljud till lyssnaren och direktljudet har du inte ritat in i dina skisser. Sångarnas position i förhållande till rummets begränsningsytor åskådliggörs dock däremot med deras första reflex i förhållande till deras direktljud till dig, både reflexernas tidsfördröjning i förhållande till direktljudet och reflexernas infallsvinkel i förhållande till direktljudets infallsvinkel bidrar till att ge signifikanta explicita hörselstimuli för positionering av sångarna i rummet och bidrar dessutom till deras totala klang.
Frekvenskurvan inne i hörselgången mätt t.ex. vid trumhinnorna varierar kraftigt beroende på ljudvågornas infallsvinkel till ytteröronen och därmed kan specifika hörselstimuli beroende på infallsvinkel uppstå. Man brukar sammanfatta detta i s.k. HRTF Head Related transfer Function. Alla specifika binaurella och monaurella stimuli som ljudvågorna alstrar skall på vägen via hörseln fram till medvetandet genom otaliga processer bearbetas och summeras i hjärnan och det sker på ett komplicerat sätt av vilka man inom psykoakustiken, psykofysiken och neurofysiologin kartlagt ganska mycket, men ännu vet man inte hur själva medvetandet uppstår.
Dock undrar jag om du inte möjligtvis far efter en annan sak i ditt sökande efter illusorisk realism i stereoåtergivning. Det finns som jag ser det ytterligare en viktig parameter att beakta inom ljudåtergivning om autenticitet med Liverealism skall uppnås. Om du tar din bild som relaterar till LIVE-händelsen och istället ritar upp ett konserthus eller en kyrka eller en annan stor lokal i en given skala och därefter i samma bild ritar in ditt eget lyssningsrum i samma skala på sådant sätt att din lyssnarposition är kvar på samma plats d v s i samma punkt i båda fallen d v s det blir då ett givet koordinatsystem utifrån ditt eget huvud på lyssnarposition och väggarna i ditt lyssningsrum hamnar då således inuti den stora lokalen runt omkring din egen lyssnarposition. Då kan du även applicera resonemangen utifrån premissen att du vill återge den stora lokalen i eller snarast expanderat utanför ditt eget lyssningsrum utan att ditt eget lyssningsrum tillför något av sin egen akustiska karakteristik och utan att ditt eget lyssningsrum ändrar det inspelade rummets karakteristik och inte minst utan att förvränga de reella ljudkällornas lokalisering i inspelningslokalen.Med andra ord, de väggar och tak från ditt eget lyssningsrum som du ritat upp inuti den stora konsertlokalen/kyrkan/inspelningslokalen skall vara akustiskt heltransparenta samtidigt som riktningarna från de reella ljudkällornas direktljud samt vinkeln på de första reflexerna från begränsningsytorna d v s från väggar och tak i konsertlokalen/kyrkan/inspelningslokalen skall i sin helhet bevaras i inspelningen samt i din lyssningssituation hemma. Då finns det möjlighet till att det uppnås en fullskalighet av ursprungshändelsen och dessutom med rätt tonal karaktär i återgivningen av ljudkällorna och sålunda utan att din egen loge därhemma gör sig påmind.
I en sådan återgivningssituation, under förutsättning att upptagningen har fångat ljudhändelsen akustiskt korrekt, så finns det en möjlighet att återge en hörselförnimmelse av denna upptagna akustiska fysikaliska ljudhändelse d v s samtliga dina egna väggar och tak därhemma blir akustiskt transparenta.
Du upplever då konsertlokalen/kyrkan/inspelningslokalen fast från din lyssningsposition hemma och upplever en volym på lokalen om ungefär 15 000 - 30 000 kubikmeter utan att höra ditt eget rums inverkan samt realistisk storlek och avstånd till ljudkällorna. Även en icke fulländad sådan återgivning kommer att upplevas som ganska häpnadsväckande.
Denna storskaliga upplevelse i skala 1:1 där instrumenten finns bevarade på sin givna verkliga position i förhållande till varandra och där konsertlokalen/kyrkan/inspelningslokalens storlek tydligt framgår samt där instrumenten eller sångarnas givna position i konsertlokalen/kyrkan/inspelningslokalen finns bevarad och framgår kallar jag för "the Sense of a Live Performance". Då har man fått den autentiska känslan av den inspelade verkligheten, fast återgivet hemma om upptagningen har fångat detta. Det består av två händelser, dels upptagning och dels uppspelning. Båda måste tillåta återgivning av ursprunget.
MvH
Peter
jansch skrev:Jag blir förvirrad av begreppet "lokalisering", framförallt om huvudämnet är citat: "stereosystems kompensation".
Det blir ännu mer förvirrande när man diskuterar "fantomprojicering" i stereosystem..... det blir helt enkelt ruggigt fel.
Vad är det för fel med "riktning"? Eller är det någon som tror på att fantomprojektion också står för avstånd?
Det är fysikaliskt/matemaiskt en vektor men storleken på vektorn har ingenting att göra med det upplevda avståndet.
jansch skrev:Medan jag ändå håller på.......
Om ett inspelat ljud är panorerat till t.ex extremt vänster kanal (inget ljud i höger kanal, åtminstone inget direktljud). Hur "rätt" blir det om återgivningen är "kompenserad för stererosystemfel"....
Det verkar som om alla diskussioner utgår från monoinspelning med stereoåtergivning.......
jansch skrev:Medan jag ändå håller på.......
Om ett inspelat ljud är panorerat till t.ex extremt vänster kanal (inget ljud i höger kanal, åtminstone inget direktljud). Hur "rätt" blir det om återgivningen är "kompenserad för stererosystemfel"....
Det verkar som om alla diskussioner utgår från monoinspelning med stereoåtergivning.......
matssvensson skrev:jansch skrev:Medan jag ändå håller på.......
Om ett inspelat ljud är panorerat till t.ex extremt vänster kanal (inget ljud i höger kanal, åtminstone inget direktljud). Hur "rätt" blir det om återgivningen är "kompenserad för stererosystemfel"....
Det verkar som om alla diskussioner utgår från monoinspelning med stereoåtergivning.......
Jag tänker att det centrala i ett framträdande/inspelning oftast också är centralt placerat, som sångare eller solist. Då blir det maximalt knas om det centrala ska återges som fantomprojicerade ljudkällor från två hötalare placerade maximalt långt från det de ska försöka återskapa. Därav alla konstnärliga försök att kompensera för detta stereosystemfel.
Omvänt blir det naturligtvis som du resonerar, att ett kompenserat system återger ett panorerat ljud mer fel än ett icke kompenserat system. Men ofta är väl panorerade ljud mindre betydelsefulla än de som centreras i mixen (enligt min första tanke), så de kanske enklare kan leva med en mindre realistisk återgivning. Brementänket med en dominerande center öppnar nya tankar för hur man kan återskapa en ljudinspelning, så tänker i alla fall jag.
mvh, mats
jansch skrev:Jag blir förvirrad av begreppet "lokalisering", framförallt om huvudämnet är citat: "stereosystems kompensation".
Det blir ännu mer förvirrande när man diskuterar "fantomprojicering" i stereosystem..... det blir helt enkelt ruggigt fel.
Vad är det för fel med "riktning"? Eller är det någon som tror på att fantomprojektion också står för avstånd?
Det är fysikaliskt/matemaiskt en vektor men storleken på vektorn har ingenting att göra med det upplevda avståndet.
petersteindl skrev:Nu trampar du in på ett område som jag tror de flesta inte är riktigt hemma i. Det blir lätt många parametrar.
Hur återges djup? Är det skillnad på djup d v s avstånd till ljudkällor om man pratar om Localization kontra Lateralization? Lateralization är det där andra begreppet som är närbesläktat men ändå inte.
Alla som läser, lägg detta med lateralisering på minnet!!!!! Ni kommer bli lite förvånade vilken impact det får då ni verkligen ser skillnaden mellan localization och lateralization.
Nu skall vi titta på Blauert och precedence och summing localization och lateralization. Kolla noga!
Här ser man klart och tydligt att summing localization sker inom den första millisekunden. Det är som sig bör. Därefter kommer precedenceområdet. Det handlar alltså om summing localization inom en millisekund.
SUMMING LOCALIZATION är en process som hjärnan och centrala nervsystemet gör inom 1 millisekund, men i testet sker det även en transform från 2 rumsdimensioner till 1 rumsdimension längs en linje Y med visst konstant avstånd från lyssnarens mittpunkt till linjen mellan högtalarna.
Konsekvensen blir ovillkorligen att resultaten inte går att direkt applicera in real life med reella ljudkällor i konserthus och inte heller med högtalare i bostadsrum!!!! Det är bara att gilla läget. Alla seriösa som forskar inom området vet om detta och man vill försöka få än mer verklighetsförankrade undersökningar som kan göras enligt strikt vetenskapliga metoder d v s med uprepningsbarhet. Günter Theile har ofta gått i spetsen och klagat för att påskynda processer i någon form av kontrollerade miljöer med högtalare som mer liknar hur det är irl.
[ Bild ]
Så, om man vill åstadkomma en lyssningssituation där man sitter närmare orkestern med bibehållen geometrisk linjäritet så går inte det med 2 högtalare, däremot går det om center införs och Bremens 3D-algoritm.
Mvh
Peter
goat76 skrev:matssvensson skrev:jansch skrev:Medan jag ändå håller på.......
Om ett inspelat ljud är panorerat till t.ex extremt vänster kanal (inget ljud i höger kanal, åtminstone inget direktljud). Hur "rätt" blir det om återgivningen är "kompenserad för stererosystemfel"....
Det verkar som om alla diskussioner utgår från monoinspelning med stereoåtergivning.......
Jag tänker att det centrala i ett framträdande/inspelning oftast också är centralt placerat, som sångare eller solist. Då blir det maximalt knas om det centrala ska återges som fantomprojicerade ljudkällor från två hötalare placerade maximalt långt från det de ska försöka återskapa. Därav alla konstnärliga försök att kompensera för detta stereosystemfel.
Omvänt blir det naturligtvis som du resonerar, att ett kompenserat system återger ett panorerat ljud mer fel än ett icke kompenserat system. Men ofta är väl panorerade ljud mindre betydelsefulla än de som centreras i mixen (enligt min första tanke), så de kanske enklare kan leva med en mindre realistisk återgivning. Brementänket med en dominerande center öppnar nya tankar för hur man kan återskapa en ljudinspelning, så tänker i alla fall jag.
mvh, mats
Det där med vad som har mest betydelse är i allra högsta grad beroende på vilken typ av musik man talar om.
Den rockmusik jag främst lyssnar på är väldigt gitarr-fokuserad, om det är två gitarrer så panoreras de allt som oftast långt ut på vardera sida i ljudfältet för maximal separation från varandra och gärna även en bit ifrån basgitarren som ofta ligger mer centralt för att få ett eget utrymme i mixen.
När det är en ensam gitarr så spelas den ofta in med flera mikrofoner som inte sällan panoreras brett med en liten fördröjning i ena kanalen för att medvetet skapa rum i mitten för trummor, sång och bas. Mixar med diverse liknande stereotrix är p.g.a av fördröjningen (fasförskjutningar) inte längre fullt 100% mono-kompatibla.
Dessa fasförskjutningar är inte ett speciellt stort problem då de enskilda ljuden spelas upp från varsin högtalare, det blir mest bara en stereo-effekt.
Men om båda kanalerna ska spelas upp från en centerhögtalare så blir nog fasförskjutningarna lite mer påtagliga, så vad sker då när de ljud som kommer från den "supportande" centern inte längre är fullt identiskt med de ljud den ska hjälpa vänster och höger högtalare att spela upp?
Kanske är det ett icke-problem?
Det är komplicerat det här.
Harryup skrev:goat76 skrev:matssvensson skrev:Jag tänker att det centrala i ett framträdande/inspelning oftast också är centralt placerat, som sångare eller solist. Då blir det maximalt knas om det centrala ska återges som fantomprojicerade ljudkällor från två hötalare placerade maximalt långt från det de ska försöka återskapa. Därav alla konstnärliga försök att kompensera för detta stereosystemfel.
Omvänt blir det naturligtvis som du resonerar, att ett kompenserat system återger ett panorerat ljud mer fel än ett icke kompenserat system. Men ofta är väl panorerade ljud mindre betydelsefulla än de som centreras i mixen (enligt min första tanke), så de kanske enklare kan leva med en mindre realistisk återgivning. Brementänket med en dominerande center öppnar nya tankar för hur man kan återskapa en ljudinspelning, så tänker i alla fall jag.
mvh, mats
Det där med vad som har mest betydelse är i allra högsta grad beroende på vilken typ av musik man talar om.
Den rockmusik jag främst lyssnar på är väldigt gitarr-fokuserad, om det är två gitarrer så panoreras de allt som oftast långt ut på vardera sida i ljudfältet för maximal separation från varandra och gärna även en bit ifrån basgitarren som ofta ligger mer centralt för att få ett eget utrymme i mixen.
När det är en ensam gitarr så spelas den ofta in med flera mikrofoner som inte sällan panoreras brett med en liten fördröjning i ena kanalen för att medvetet skapa rum i mitten för trummor, sång och bas. Mixar med diverse liknande stereotrix är p.g.a av fördröjningen (fasförskjutningar) inte längre fullt 100% mono-kompatibla.
Dessa fasförskjutningar är inte ett speciellt stort problem då de enskilda ljuden spelas upp från varsin högtalare, det blir mest bara en stereo-effekt.
Men om båda kanalerna ska spelas upp från en centerhögtalare så blir nog fasförskjutningarna lite mer påtagliga, så vad sker då när de ljud som kommer från den "supportande" centern inte längre är fullt identiskt med de ljud den ska hjälpa vänster och höger högtalare att spela upp?
Kanske är det ett icke-problem?
Det är komplicerat det här.
Möjligen ett av orsakerna varför jag aldrig föredragit mono-subbar till stereoljud. Man kan ju tänka sig att det är lättare att rumsakustiskt sprida ut ”samma ljud” överallt men då har man redan förlorat informationsförhållandet i musiken. Digitala filter och stereobild är det jag föredrar.
/Harry Up
JM skrev:petersteindl skrev:Nu trampar du in på ett område som jag tror de flesta inte är riktigt hemma i. Det blir lätt många parametrar.
Hur återges djup? Är det skillnad på djup d v s avstånd till ljudkällor om man pratar om Localization kontra Lateralization? Lateralization är det där andra begreppet som är närbesläktat men ändå inte.
Alla som läser, lägg detta med lateralisering på minnet!!!!! Ni kommer bli lite förvånade vilken impact det får då ni verkligen ser skillnaden mellan localization och lateralization.
Nu skall vi titta på Blauert och precedence och summing localization och lateralization. Kolla noga!
Här ser man klart och tydligt att summing localization sker inom den första millisekunden. Det är som sig bör. Därefter kommer precedenceområdet. Det handlar alltså om summing localization inom en millisekund.
SUMMING LOCALIZATION är en process som hjärnan och centrala nervsystemet gör inom 1 millisekund, men i testet sker det även en transform från 2 rumsdimensioner till 1 rumsdimension längs en linje Y med visst konstant avstånd från lyssnarens mittpunkt till linjen mellan högtalarna.
Konsekvensen blir ovillkorligen att resultaten inte går att direkt applicera in real life med reella ljudkällor i konserthus och inte heller med högtalare i bostadsrum!!!! Det är bara att gilla läget. Alla seriösa som forskar inom området vet om detta och man vill försöka få än mer verklighetsförankrade undersökningar som kan göras enligt strikt vetenskapliga metoder d v s med uprepningsbarhet. Günter Theile har ofta gått i spetsen och klagat för att påskynda processer i någon form av kontrollerade miljöer med högtalare som mer liknar hur det är irl.
[ Bild ]
Så, om man vill åstadkomma en lyssningssituation där man sitter närmare orkestern med bibehållen geometrisk linjäritet så går inte det med 2 högtalare, däremot går det om center införs och Bremens 3D-algoritm.
Mvh
Peter
Peter du är fortfarande kvar i sk psykoakusikträsket med "skämmande" förklaringar på psykologiska och neurofysiologiska fenomen.
I min värld verkar prefixet "psyko-" vekar mer komma från Alfred hitchkock än psykologi.
Blauerts bok ursprungligen från 1972 är klart tekniskt/matematiskt orienterad och beskriver ljudets akustik med felaktig koppling till hur vi faktiskt hör. Rekomenderas ej!
I artikeln 2005 av Blauert (vilken du ofta refererar till) har han uppmärksammat att vissa fundamentala neuropsykologiska och neurofysiologiska fynd men tyvärr sökt att förklara fynden mha tekniska/matematiska förklaringsmodeller.
Lateralisering: Lateralt - mediant är vanliga referensbegrepp inom medicinen och psykologin där referensen är godtyckligt angiven (i horisontalplanet (axialplanet ( tvärs längsriktningen) - medicinskt) ). Höger och vänster högtalare är lateralt belägna relativt en upplevd fantommitthögtlare. Fantommitthögtalaren är mediant belägen relativt höger och vänster högtalare.
"Summing lokalisation" registreras automatiskt av hjärnstammen (obs ingen initial medveten kognitiv process) inom mikrosekunder och är grunden vilken stereo- och flerkanalsupplevelsens lokalisation bygger på.
"Summing lokalisering" har ffa 2 viktiga variabler vilka ger lokalisationen i horisontalplanet.
Tidsskillnad mellan höger och vänster högtalare inom mikrosekunder. Vanligast är att variera ljudstyrkan i höger respektive vänster högtalare för att erhålla lokalisationen mellan högtalarna vid stereoupplevelse. Att variera tiden hos ljudet i högtalarna är svårare och leder ofta till att bara ena högtalaren hörs och triggar lätt precedensupplevelsen i stället för stereoupplevelsen.
Lokaliseringen av ljud sker med ca 2 graders azmutprecision. Dvs i stort sätt lika som bra som elefanten. Dvs avståndet mellan öronen är inte som Blauert påstår avgörande. Lokaliseringen är automatisk och reflexmässig utan initial identifikation av ljudkällan. Kraftiga plötsliga ljud startar motoriska autonoma reflexer via lillhjärnan med blinkning, undandragande mm.
Upplevelsen av djup i ljudet förklaras enklast utan vektorer. Det går att förklara djupupplevelsen med vektorer "on axis" på ett enklare och mer korrekt sätt än Peters med mina variabler nedom. Någon som orkar visa?
I upplevelsevärlden utomhus, dvs hur vi hör, uppfattas ett ljud vara allt mer långt borta när ljudstyrkan minskar. Likaså om de höga frekvenserna försvinner allt mer med ökat avstånd.
I ett reflekterande rum upplevs ett ljud komma allt närmare om direktljudet blir allt mer dominerande över reflexljudet och vise versa.
JM
Wiki skrev:Psychophysics quantitatively investigates the relationship between physical stimuli and the sensations and perceptions they produce. Psychophysics has been described as "the scientific study of the relation between stimulus and sensation" or, more completely, as "the analysis of perceptual processes by studying the effect on a subject's experience or behaviour of systematically varying the properties of a stimulus along one or more physical dimensions".
Psychophysics also refers to a general class of methods that can be applied to study a perceptual system. Modern applications rely heavily on threshold measurement, ideal observer analysis, and signal detection theory.
Wiki skrev:Psychophysical experiments have traditionally used three methods for testing subjects' perception in stimulus detection and difference detection experiments: the method of limits, the method of constant stimuli and the method of adjustment.
Method of limits
In the ascending method of limits, some property of the stimulus starts out at a level so low that the stimulus could not be detected, then this level is gradually increased until the participant reports that they are aware of it. For example, if the experiment is testing the minimum amplitude of sound that can be detected, the sound begins too quietly to be perceived, and is made gradually louder. In the descending method of limits, this is reversed. In each case, the threshold is considered to be the level of the stimulus property at which the stimuli are just detected.
In experiments, the ascending and descending methods are used alternately, and the thresholds are averaged. A possible disadvantage of these methods is that the subject may become accustomed to reporting that they perceive a stimulus and may continue reporting the same way even beyond the threshold (the error of habituation). Conversely, the subject may also anticipate that the stimulus is about to become detectable or undetectable and may make a premature judgment (the error of anticipation).
To avoid these potential pitfalls, Georg von Békésy introduced the staircase procedure in 1960 in his study of auditory perception. In this method, the sound starts out audible and gets quieter after each of the subject's responses, until the subject does not report hearing it. At that point, the sound is made louder at each step, until the subject reports hearing it, at which point it is made quieter in steps again. This way the experimenter can "zero in" on the threshold.
Method of constant stimuli
Instead of being presented in ascending or descending order, in the method of constant stimuli the levels of a certain property of the stimulus are not related from one trial to the next but presented randomly. This prevents the subject from being able to predict the level of the next stimulus, and therefore reduces errors of habituation and expectation. For 'absolute thresholds' again the subject reports whether he or she can detect the stimulus. For 'difference thresholds' there has to be a constant comparison stimulus with each of the varied levels. Friedrich Hegelmaier described the method of constant stimuli in an 1852 paper. This method allows for full sampling of the psychometric function, but can result in a lot of trials when several conditions are interleaved.
Method of adjustment
The method of adjustment asks the subject to control the level of the stimulus, instructs them to alter it until it is just barely detectable against the background noise, or is the same as the level of another stimulus. This is repeated many times. This is also called the method of average error. In this method the observer himself controls the magnitude of the variable stimulus beginning with a variable that is distinctly greater or lesser than a standard one and he varies it until he is satisfied by the subjectivity of two. The difference between the variable stimuli and the standard one is recorded after each adjustment and the error is tabulated for a considerable series. At the end mean is calculated giving the average error which can be taken as the measure of sensitivity.
Adaptive psychophysical methods
The classic methods of experimentation are often argued to be inefficient. This is because, in advance of testing, the psychometric threshold is usually unknown and much data is collected at points on the psychometric function that provide little information about the parameter of interest, usually the threshold. Adaptive staircase procedures (or the classical method of adjustment) can be used such that the points sampled are clustered around the psychometric threshold. However, the cost of this efficiency is that there is less information regarding the psychometric function's shape. Adaptive methods can be optimized for estimating the threshold only, or threshold and slope. Adaptive methods are classified into staircase procedures (see below) and Bayesian or maximum-likelihood methods. Staircase methods rely on the previous response only and are easier to implement. Bayesian methods take the whole set of previous stimulus-response pairs into account and are believed to be more robust against lapses in attention.
Staircase procedures
Main article: Up-and-Down Designs
Diagram showing a specific staircase procedure: Transformed Up/Down Method (1 up/ 2 down rule). Until the first reversal (which is neglected) the simple up/down rule and a larger step size is used.
Staircases usually begin with a high intensity stimulus, which is easy to detect. The intensity is then reduced until the observer makes a mistake, at which point the staircase 'reverses' and intensity is increased until the observer responds correctly, triggering another reversal. The values for the last of these 'reversals' are then averaged. There are many different types of staircase procedures, using different decision and termination rules. Step-size, up/down rules and the spread of the underlying psychometric function dictate where on the psychometric function they converge. Threshold values obtained from staircases can fluctuate wildly, so care must be taken in their design. Many different staircase algorithms have been modeled and some practical recommendations suggested by Garcia-Perez.[26]
One of the more common staircase designs (with fixed-step sizes) is the 1-up-N-down staircase. If the participant makes the correct response N times in a row, the stimulus intensity is reduced by one step size. If the participant makes an incorrect response the stimulus intensity is increased by the one size. A threshold is estimated from the mean midpoint of all runs. This estimate approaches, asymptotically, the correct threshold.
Bayesian and maximum-likelihood procedures
Bayesian and maximum-likelihood adaptive procedures behave, from the observer's perspective, similar to the staircase procedures. The choice of the next intensity level works differently, however: After each observer response, from the set of this and all previous stimulus/response pairs the likelihood is calculated of where the threshold lies. The point of maximum likelihood is then chosen as the best estimate for the threshold, and the next stimulus is presented at that level (since a decision at that level will add the most information). In a Bayesian procedure, a prior likelihood is further included in the calculation. Compared to staircase procedures, Bayesian and ML procedures are more time-consuming to implement but are considered to be more robust. Well-known procedures of this kind are Quest, ML-PEST, and Kontsevich & Tyler's method.
Magnitude estimation
In the prototypical case, people are asked to assign numbers in proportion to the magnitude of the stimulus. This psychometric function of the geometric means of their numbers is often a power law with stable, replicable exponent. Although contexts can change the law & exponent, that change too is stable and replicable. Instead of numbers, other sensory or cognitive dimensions can be used to match a stimulus and the method then becomes "magnitude production" or "cross-modality matching". The exponents of those dimensions found in numerical magnitude estimation predict the exponents found in magnitude production. Magnitude estimation generally finds lower exponents for the psychophysical function than multiple-category responses, because of the restricted range of the categorical anchors, such as those used by Likert as items in attitude scales.
JM skrev:Peter uppskattar om skriver om några bedömningar av min person. Därefter får du ett sakligt svar.
Därefter skall du ett svar.
JM
Kronkan skrev:JM skrev:Peter uppskattar om skriver om några bedömningar av min person. Därefter får du ett sakligt svar.
Därefter skall du ett svar.
JM
Jag förstår inte. Jag beskriver rakt upp och ner vad jag anser mig se. Jag har inte skrivit om dig som person, yrke utan om hur du skriver.
goat76 skrev:Harryup skrev:goat76 skrev:
Det där med vad som har mest betydelse är i allra högsta grad beroende på vilken typ av musik man talar om.
Den rockmusik jag främst lyssnar på är väldigt gitarr-fokuserad, om det är två gitarrer så panoreras de allt som oftast långt ut på vardera sida i ljudfältet för maximal separation från varandra och gärna även en bit ifrån basgitarren som ofta ligger mer centralt för att få ett eget utrymme i mixen.
När det är en ensam gitarr så spelas den ofta in med flera mikrofoner som inte sällan panoreras brett med en liten fördröjning i ena kanalen för att medvetet skapa rum i mitten för trummor, sång och bas. Mixar med diverse liknande stereotrix är p.g.a av fördröjningen (fasförskjutningar) inte längre fullt 100% mono-kompatibla.
Dessa fasförskjutningar är inte ett speciellt stort problem då de enskilda ljuden spelas upp från varsin högtalare, det blir mest bara en stereo-effekt.
Men om båda kanalerna ska spelas upp från en centerhögtalare så blir nog fasförskjutningarna lite mer påtagliga, så vad sker då när de ljud som kommer från den "supportande" centern inte längre är fullt identiskt med de ljud den ska hjälpa vänster och höger högtalare att spela upp?
Kanske är det ett icke-problem?
Det är komplicerat det här.
Möjligen ett av orsakerna varför jag aldrig föredragit mono-subbar till stereoljud. Man kan ju tänka sig att det är lättare att rumsakustiskt sprida ut ”samma ljud” överallt men då har man redan förlorat informationsförhållandet i musiken. Digitala filter och stereobild är det jag föredrar.
/Harry Up
Jag tror dock att det är ganska ovanligt att ljud med så låga frekvenser som 80 Hz och nedåt panoreras långt ut mot sidorna i stereobilden, kanske någon enstaka puka eller så.
Själv kör jag med en ensam REL sub som tar emot en högnivåsignal av både vänster och höger kanal från samma bindningsposter som fronthögtalarna, vilket gör att signalen den får är helt identisk med det frontarna får.
Det är inte en sub som på något vis ska avlasta frontarna utan endast ta vid där de inte kommer lägre, det gör att subben endast spelar så låga frekvenser där det knappast finns någon information som kan skapa utsläckningar p.g.a fasförskjutningar.
Kanske skulle det bli ännu bättre med en separat likadan sub placerad i det andra hörnet och att dessa fick spela sin respektive kanal, men som sagt, det mesta som spelas så lågt där dessa subbar opererar återfinns oftast ganska centralt i ljudbilden vilket gör att de två subbarna för det mesta skulle spela samma sak.
Den ensamma RELen jag har sprider dock ljudet i rummet såpass bra att jag inte brytt mig om att skaffa en till, och jag upplever inte heller några problem med att den står på ett lite längre avstånd från lyssningsplatsen än frontarna, vilket nog är ett större problem med avlastande subbar som spelar i högre frekvenser.
Harryup skrev:goat76 skrev:Harryup skrev:
Möjligen ett av orsakerna varför jag aldrig föredragit mono-subbar till stereoljud. Man kan ju tänka sig att det är lättare att rumsakustiskt sprida ut ”samma ljud” överallt men då har man redan förlorat informationsförhållandet i musiken. Digitala filter och stereobild är det jag föredrar.
/Harry Up
Jag tror dock att det är ganska ovanligt att ljud med så låga frekvenser som 80 Hz och nedåt panoreras långt ut mot sidorna i stereobilden, kanske någon enstaka puka eller så.
Själv kör jag med en ensam REL sub som tar emot en högnivåsignal av både vänster och höger kanal från samma bindningsposter som fronthögtalarna, vilket gör att signalen den får är helt identisk med det frontarna får.
Det är inte en sub som på något vis ska avlasta frontarna utan endast ta vid där de inte kommer lägre, det gör att subben endast spelar så låga frekvenser där det knappast finns någon information som kan skapa utsläckningar p.g.a fasförskjutningar.
Kanske skulle det bli ännu bättre med en separat likadan sub placerad i det andra hörnet och att dessa fick spela sin respektive kanal, men som sagt, det mesta som spelas så lågt där dessa subbar opererar återfinns oftast ganska centralt i ljudbilden vilket gör att de två subbarna för det mesta skulle spela samma sak.
Den ensamma RELen jag har sprider dock ljudet i rummet såpass bra att jag inte brytt mig om att skaffa en till, och jag upplever inte heller några problem med att den står på ett lite längre avstånd från lyssningsplatsen än frontarna, vilket nog är ett större problem med avlastande subbar som spelar i högre frekvenser.
Så tyckte jag också med bara en sub. Efter att fått tag i sub 2 så märkte jag att basen blev jämnare mellan oliks platser och att ljudbilden växte raktbakåt ifrån båda framhögtalarna. Innan blev det som en strut bakåt ifrån den där basen stod. Hördes endast med nummer 2 på plats men hade man hört det en gång så gick det ju att höra direkt.
Personligen så ser jag tänkbara problem med summation under t.ex. 100 Hz och ingen summation av övertonerna däröver. Och summation av motfasiga signaler men inte motfasiga övertoner. Och summation i subb men inte av grundtoner i sidohögtalarna i det området där alla högtalarna spelar hörbara nivåer samtidigt.
Användare som besöker denna kategori: Bing [Bot] och 34 gäster