Moderator: Redaktörer
petersteindl skrev:LeifB skrev:petersteindl skrev:Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?
Vilka appar är det?
Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.
Länka gärna till sådana program.![]()
![]()
Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.
Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.
Som sagt vilken app kan fixa det?
Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.
1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder.![]()
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.
Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.
Piece of cake. Hörseln fixar det på några hundra millisekunder.
I-or skrev:Man söker lämpligen på separate stems (eller möjligen demix audio). Separationen blir naturligtvis inte helt perfekt, speciellt inte om det ska handla om HiFi, men det finns massor av roliga och mycket imponerande mjukvaror att leka med (de bättre exemplen är som vanligt inte gratis).
petersteindl skrev:LeifB skrev:petersteindl skrev:Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?
Vilka appar är det?
Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.
Länka gärna till sådana program.![]()
![]()
Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.
Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.
Som sagt vilken app kan fixa det?
Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.
1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder.![]()
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.
Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.
Piece of cake. Hörseln fixar det på några hundra millisekunder.
jansch skrev:petersteindl skrev:LeifB skrev:
Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.
Som sagt vilken app kan fixa det?
Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.
1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder.![]()
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.
Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.
Piece of cake. Hörseln fixar det på några hundra millisekunder.
Näääää..... nu blev det väl fel.
Inspelat stereomaterial där man försöker separera sång, trummor etc skall ju inte förvanskas av torso etc utan förhoppningsvis vara ett perfekt urklipp av den inspelade stämman/musikinstrumentet. Annars blir det ju "kaka på kaka" oavsett om man gör mätningar eller neuroakustisk forskning.
Den akustiska lyssningsmiljön ingår ju förhoppningsvis inte heller i applikationen om man är ute efter att bedömma direktljud, fantomprojektion, etc.
Kraniet skrev:Mycket intressant.
Kan ju tillägga det häftiga faktum att det finns personer som lärt sig ekolokalisering. De cyklar tex mountainbike i skogen helt blinda![]()
Hörseln är otroligt häftig minst sagt.
JM skrev:Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637
JM
petersteindl skrev:JM skrev:Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637
JM
Självklart är det så att hörseln är ett mätinstrument som registrerar inkommande signaler. Hörseln är rätt bra på att detektera närliggande väggars reflexer. Du skriver ’optimalt försenad reflex’. Hur definierar du en ’försenad’ reflex? Har aldrig sett uttrycket förut. Den skall dessutom vara optimalt försenad. Reflexer är alltid efter i tiden i förhållande till direktljudet. ’Försenad’ förknippar jag med då man gick på engelskalektionerna på gymnasiet.antingen är man i tid eller också är man försenad. Men optimalt försenad? Det uttrycket skall jag använda nästa gång jag är försenad. Är det samma sak som att komma i Grevens tid?
JM skrev:petersteindl skrev:JM skrev:Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637
JM
Självklart är det så att hörseln är ett mätinstrument som registrerar inkommande signaler. Hörseln är rätt bra på att detektera närliggande väggars reflexer. Du skriver ’optimalt försenad reflex’. Hur definierar du en ’försenad’ reflex? Har aldrig sett uttrycket förut. Den skall dessutom vara optimalt försenad. Reflexer är alltid efter i tiden i förhållande till direktljudet. ’Försenad’ förknippar jag med då man gick på engelskalektionerna på gymnasiet.antingen är man i tid eller också är man försenad. Men optimalt försenad? Det uttrycket skall jag använda nästa gång jag är försenad. Är det samma sak som att komma i Grevens tid?
I ett ekofrittrum finns inga reflexer. Direktljudet i ekofriarummet upplevs ändå som suboptimalt innan adaptation.
I vanliga lyssningsrum är de laterala reflexerna från lådhögtalare suboptimala och måste dämpas för att inte göra direktljudet suboptimalt. Dämpningen tar bort ffa de högre frekvenserna.
Samtidigt råder det konsensus inom perceptionsforskningen att de absolut viktigaste reflexerna är de laterala reflexernas högre frekvenser för optimal detaljupplevelse och direktljudsupplevelse enligt Toole, Olive, Barron, Lokki mfl.
JM
jansch skrev:Förstår faktiskt inte utgångsläget att direktljud kan vara suboptimallt eller optimalt. Ej heller att det skulle finnas en optimal mix av direktljud och diffusljud.
Hörseln egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen.
Att vi kan gå in i ett ekofritt rum och till en början inte bara "lura" hörseln utan även andra sinnen beror ju på att miljön är okänd för hjärnan. Dock vi lär oss efter ett antal vistelser i "ekofri" miljö.
Samma primärkänsla kan vi ju uppleva i naturlig miljö, t.ex p en alptopp med pudersnö runt omkring. D v s småprassel från kläder blir väldigt distinkta, andning och kroppsljud hör vi inne i huvudet, det lätta -lite konstiga trycket i öronen av att omgivningen är alldeles tyst, osv.
Eller enkelt uttryckt - alla sinnen är samstämmiga om verkligetsbilden som byggs upp i hjärnan. När vi flytttar foten på alptoppen knarrar snön distinkt och så ska det vara. När vi gör samma sak i ett exofritt rum (flyttar foten) gungar nätet vi står på lätt och balansorganet och skicka info till hjärnan som stämmer med verkligheten.... när vi väl lärt oss hur ekofria rummets miljö funkar.
Så vad är suboptimalt eller optimalt? jo, när alla sinnen upplever situationen på ett sätt och är i harmoni har vi ett optimalt förhållande mellan direktljud/diffusljud. En sann bild av omgivningen skapad av bl.a hörselsinnet.
Att vi fejkar ett stereoperspektiv i ett lyssningsrum där OLIKA INSPELNINGARS efterklang ställer olika krav på rumsakustik och spridningsmönster från ljudkällorna kan bara bli en kompromiss och väldigt beroende av musiksmak och preferenser. Vilket är viktigast, perfekt och överdriven stereobild som inte finns i verkligheten eller luftighet och 3D känsla som är lika överdriven?
petersteindl skrev:jansch skrev:Förstår faktiskt inte utgångsläget att direktljud kan vara suboptimallt eller optimalt. Ej heller att det skulle finnas en optimal mix av direktljud och diffusljud.
Hörseln egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen.
Att vi kan gå in i ett ekofritt rum och till en början inte bara "lura" hörseln utan även andra sinnen beror ju på att miljön är okänd för hjärnan. Dock vi lär oss efter ett antal vistelser i "ekofri" miljö.
Samma primärkänsla kan vi ju uppleva i naturlig miljö, t.ex p en alptopp med pudersnö runt omkring. D v s småprassel från kläder blir väldigt distinkta, andning och kroppsljud hör vi inne i huvudet, det lätta -lite konstiga trycket i öronen av att omgivningen är alldeles tyst, osv.
Eller enkelt uttryckt - alla sinnen är samstämmiga om verkligetsbilden som byggs upp i hjärnan. När vi flytttar foten på alptoppen knarrar snön distinkt och så ska det vara. När vi gör samma sak i ett exofritt rum (flyttar foten) gungar nätet vi står på lätt och balansorganet och skicka info till hjärnan som stämmer med verkligheten.... när vi väl lärt oss hur ekofria rummets miljö funkar.
Så vad är suboptimalt eller optimalt? jo, när alla sinnen upplever situationen på ett sätt och är i harmoni har vi ett optimalt förhållande mellan direktljud/diffusljud. En sann bild av omgivningen skapad av bl.a hörselsinnet.
Att vi fejkar ett stereoperspektiv i ett lyssningsrum där OLIKA INSPELNINGARS efterklang ställer olika krav på rumsakustik och spridningsmönster från ljudkällorna kan bara bli en kompromiss och väldigt beroende av musiksmak och preferenser. Vilket är viktigast, perfekt och överdriven stereobild som inte finns i verkligheten eller luftighet och 3D känsla som är lika överdriven?
Jag diskuterar ljudåtergivning eftersom det var ljudåtergivning JM syftade på med lådhögtalare Yamaha NS-1000.
Jag diskuterar först och främst ljudåtergivning med högtalare hemma i bostadsmiljö där inspelad orkestermusik i konserthus skall återges.
Utifrån den utgångspunkten så låter det allt annat än bra vid återgivning i ekofri miljö d v s med enbart direktljud.
Då är förhållandet så, att en ljudåtergivning måste ta hänsyn till hörselns processer för att få allt på plats.
Då optimerar man de fysikaliska akustiska egenskaperna hos högtalare och rum och placering av högtalarna i rummet och placering av lyssnare i rummet.
Det gör man för att maximera lyssningsupplevelsen.
Man maximerar inte de akustiska egenskaperna för att optimera lyssningsupplevelsen.
Det är 2 helt skilda angreppssätt.
Hörselns egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen. Det är helt korrekt.
Det handlar om att få kontroll/uppfattning om omgivningen i inspelningens lokal.
Det handlar således inte om att få kontroll/uppfattning om omgivningen av lyssningsrummet d v s att höra sitt eget rum. Det egna lyssningsrummet finns inte i inspelningen.
För att optimera en sådan återgivningsprocess så krävs det att man vet hur man maximerar den upplevda ljudhändelsen.
Att höra akustiska musikinstrument i ekofria rum är helt meningslös sysselsättning och bortkastad tid.
Sedan är det så att även akustiker som bygger konserthus går efter principen att optimera fysikaliska akustiska egenskaper för att maximera lyssningsupplevelsen i lokalen, så det är inte enbart ljudåtergivning det gäller utan även vid återgivning live av akustiska musikinstrument. På operan optimeras akustiken annorlunda än i stora konserthus. I talstudios optimeras akustiken ytterligare annorlunda och i kyrkor likaså.
Du frågar om vad som är suboptimalt eller optimalt?
Parametrarna för optimering är förhållandet mellan direktljudet och tidiga reflexer samt förhållandet mellan direktljud och efterklang. 1a reflexernas infallsvinkel mot lyssnaren är essentiellt för maximal upplevelse. Frekvensgången är också viktig på 1a reflexerna så att hörseln får så enkelt som möjligt att sortera 1a reflexen till rätt nervbanor. Amplitud och i viss mån deras tidsdifferens gentemot direktljudet. Detta faktum är utrönt i åtskilliga forskarrapporter.
Hela hörselns perspektivlyssning utgår från dessa parametrar. Vill vi uppleva orkestern utspridd samt höra djup, istället för att höra hela orkestern på en 2-dimensionell platt vägg så krävs det att hörseln ges möjlighet att separera allt inkommande ljud. Då krävs en optimal balans mellan dessa parametrar och egenskaper. Lyckas man med det så har man kommit väldigt långt med ljudåtergivning av akustiska musikevent. Då inkluderar jag även inspelningstekniken.
Efterklangsfält är diffusljudfält.
Ljudfältet för 1a reflexer är inte diffusljudfält. Ett diffusljudfält är ett skalärfält. Ett direktljudsfält är ett vektorfält. Ett Ljudfält för 1a reflexer är också ett vektorfält under förutsättning att man inte diffuserar 1a reflexen. Detta fält är det viktigaste fältet för orientering av sig själv och ljudkällor i den akustiska miljön samt för att få kontroll/uppfattning om omgivningen. Då krävs det att det är ett vektorfält.
Vet man hur hörseln segregerar allt detta så förenklar det dimensioneringen av högtalare för ljudåtergivning hemma av inspelad orkestermusik i konserthus med dess akustik.
Det förenklar även förenklar dimensioneringen av själva konsertsalens akustik för återgivning av akustiska musikinstrument.
Vet man hur hörseln sorterar och segregerar alla dessa ljud så kan man handskas med högtalare och rum vid ljudåtergivning så att ens egna rums 1a reflexer inte blir destruktiva eller ger input som kännetecken och påminnelse om sitt eget lyssningsrum utan enbart ger 1a reflexer som istället styrker de inspelade musikinstrumenten i deras inspelningsmiljö som om man vore på plats i konsertlokalen.
Då har man lyckats optimera uppspelningen med högtalare, högtalarplacering och uppspelningsmiljö.
Detta ger maximal ljudupplevelse vid inspelad och återgiven akustisk konsertmusik.
Det är detta mitt förra inlägg handlar om som var medvetet analytiskt skrivet
MvH
Peter
LeifB skrev:Kan någon förklara hur ett optimalt lyssningsrum ska vara?
Påverkar rummet mer än högtalarna resultatet?
Har sett rum och placering av högtalare som är skrämmande i lyssningshänseende.
jansch skrev:LeifB skrev:Kan någon förklara hur ett optimalt lyssningsrum ska vara?
[...]
Dessutom har vi alla en subjektiv och varierande bild av vad som låter bra.
Användare som besöker denna kategori: Inga registrerade användare och 18 gäster