Vilka element ger mest mikrodetaljer?

Hur funkar tekniken bakom bra hifi?

Moderator: Redaktörer

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-24 18:42

Morgan skrev:Jag är lite förvånad över att ingen ställt den mer intressanta frågan: Vilka lyssningsrum ger mest microdetaljer.

Om man spelar musik i ett rum med lång efterklang och mycket tidiga reflexer så kommer smådetaljer maskeras av "gammalt ljud" som skvalpar runt. Det är därför man hör så extremt mycket detaljer med ett par riktigt bra hörlurar.
I ett rum med kort efterklang och en avsaknad av tidiga reflexer ökar artikulationsgraden tiofalt eller hundrafalt. Man kan lyssna djupare in i musiken och hör fler detaljer. Effekten är mycket, mycket större än skillnaden mellan t.ex "spitzenklasse" SB 17NBAC och "klart bättre än genomsnittet" Seas P17-RCY i mellanregistret, för att bara ta ett exempel.

Fast, detta är lite för förenklat. Det finns fler orsaker som gör att det blir en kombination av högtalare, lyssningsrum och position av lyssnare.

Her tänkt återkomma till detta i tråden. Jag har i princip redan gett visst svar med mitt tidigare korta inlägg som jag dessutom bumpat och i min fråga till Bill.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

Användarvisningsbild
I-or
Herr Ekvalisator
 
Inlägg: 6170
Blev medlem: 2020-08-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav I-or » 2023-03-24 19:20

Morgan skrev:Jag är lite förvånad över att ingen ställt den mer intressanta frågan: Vilka lyssningsrum ger mest microdetaljer.

Om man spelar musik i ett rum med lång efterklang och mycket tidiga reflexer så kommer smådetaljer maskeras av "gammalt ljud" som skvalpar runt. Det är därför man hör så extremt mycket detaljer med ett par riktigt bra hörlurar.
I ett rum med kort efterklang och en avsaknad av tidiga reflexer ökar artikulationsgraden tiofalt eller hundrafalt. Man kan lyssna djupare in i musiken och hör fler detaljer. Effekten är mycket, mycket större än skillnaden mellan t.ex "spitzenklasse" SB 17NBAC och "klart bättre än genomsnittet" Seas P17-RCY i mellanregistret, för att bara ta ett exempel.


Ja, detaljrikedomen med hörlurar har vi varit inne på ovan, liksom även inverkan av uppställningen, absorbenter och riktverkan: https://www.faktiskt.io/phpBB3/viewtopic.php?f=10&t=73912&start=60#p2269709.
Teknisk konsult inom akustik och audioteknik

Användarvisningsbild
Bill50x
Trevlig prick
 
Inlägg: 32008
Blev medlem: 2004-07-15
Ort: Bromma-Stockholm

Re: Vilka element ger mest mikrodetaljer?

Inläggav Bill50x » 2023-03-25 12:52

Morgan skrev:Om man spelar musik i ett rum med lång efterklang och mycket tidiga reflexer så kommer smådetaljer maskeras av "gammalt ljud" som skvalpar runt.

Härligt! Gammalt ljud som skvalpar runt... hahaha!

/ B
När Einstein insåg att allt var relativt började han kröka på rummet.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-25 13:36

Att få mycket detaljer kräver:
1. Låg distorsion
2. Rak frekvenskurva
3. Inga reflexer som stör.
4. Helst inga resonanser som påverka.
5. ?
Optimera mera!

Användarvisningsbild
Nattlorden
Pumpkin/Redaktör
 
Inlägg: 57177
Blev medlem: 2003-10-28
Ort: Grå Hamnarna

Re: Vilka element ger mest mikrodetaljer?

Inläggav Nattlorden » 2023-03-25 15:44

petersteindl skrev:
Bill50x skrev:
petersteindl skrev:Jag ser inte kompression som ett sätt att höra mikrodetaljer. Jag menar, detaljerna blir ju inte längre detaljer.

Nä. Men det känns som att man hör saker man inte hört tidigare och därför tror man att det är "mikrodetaljer".

/ B


Fast det är inte samma sak. Antingen hör man mikrodetaljer eller också inte, fast man tror att det är mikrodetaljer.


De är fortfarande mikrodetaljer _på fonogrammet_ även om de inte är mikrodetaljer vid återgivningstillfället. :wink:
It's all fun and games until Darth Vader comes.

Användarvisningsbild
Bill50x
Trevlig prick
 
Inlägg: 32008
Blev medlem: 2004-07-15
Ort: Bromma-Stockholm

Re: Vilka element ger mest mikrodetaljer?

Inläggav Bill50x » 2023-03-25 16:00

LeifB skrev:Att få mycket detaljer kräver:
1. Låg distorsion
2. Rak frekvenskurva
3. Inga reflexer som stör.
4. Helst inga resonanser som påverka.
5. ?

5. Att man tror de finns.

Det är klart de finns, men vad är definitionen? Att höra ett finger glida över en sträng på en gitarr är ingen mikrodetalj. Det är bara en närmickad gitarr, som man aldrig hör i verkliga livet. En pianist som stönar vid varje ansats, är det en mikrodetalj?
För mig är mikrodetaljer något som kan skilja tonen från en gitarrstaräng från en annan sträng. Alltså det lilla som skiijer sig hur man uppfattar ett instrument från ett annat.

/ B
När Einstein insåg att allt var relativt började han kröka på rummet.

Användarvisningsbild
Nattlorden
Pumpkin/Redaktör
 
Inlägg: 57177
Blev medlem: 2003-10-28
Ort: Grå Hamnarna

Re: Vilka element ger mest mikrodetaljer?

Inläggav Nattlorden » 2023-03-25 17:20

Bill50x skrev:
LeifB skrev:Att få mycket detaljer kräver:
1. Låg distorsion
2. Rak frekvenskurva
3. Inga reflexer som stör.
4. Helst inga resonanser som påverka.
5. ?

5. Att man tror de finns.

Det är klart de finns, men vad är definitionen? Att höra ett finger glida över en sträng på en gitarr är ingen mikrodetalj. Det är bara en närmickad gitarr, som man aldrig hör i verkliga livet. En pianist som stönar vid varje ansats, är det en mikrodetalj?
För mig är mikrodetaljer något som kan skilja tonen från en gitarrstaräng från en annan sträng. Alltså det lilla som skiijer sig hur man uppfattar ett instrument från ett annat.

/ B


Fanns en svensk högtalartillverkare en gång i tiden som hetter Wood Speakers (vill jag minnas) - de hade i mitt tycke en slogan med en av de bästa mikrodetaljerna beskrivna någonsin: "inte visste jag att John Lennon bet på naglarna". :mrgreen: :lol:
It's all fun and games until Darth Vader comes.

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-26 00:29

Bill50x skrev:
LeifB skrev:Att få mycket detaljer kräver:
1. Låg distorsion
2. Rak frekvenskurva
3. Inga reflexer som stör.
4. Helst inga resonanser som påverka.
5. ?

5. Att man tror de finns.

Det är klart de finns, men vad är definitionen? Att höra ett finger glida över en sträng på en gitarr är ingen mikrodetalj. Det är bara en närmickad gitarr, som man aldrig hör i verkliga livet. En pianist som stönar vid varje ansats, är det en mikrodetalj?
För mig är mikrodetaljer något som kan skilja tonen från en gitarrstaräng från en annan sträng. Alltså det lilla som skiijer sig hur man uppfattar ett instrument från ett annat.

/ B


Man får nog konstatera att begreppet "mikrodetaljer" är ett hittepå av high end-industrin och ev. från vissa journalistexperter.
Det borde annars vara "millidetaljer" eller kanske t o m "centidetaljer"......

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-26 02:26

petersteindl skrev:Vill man titta på mikrodetaljer på bild så zoomar man in.
Vill man höra mikrodetaljer i ljud, så zoomar man in.

petersteindl skrev:Säg att man är på konsert och man sitter långt bak i konserthuset.
Nu vill man höra mer mikrodetaljer från musikinstrument och sångare. Hur gör man då?


Säg att man tittar på ett träd 30 meter från trädet. Man ser att det är ett äppelträd.
Man går fram 25 meter och befinner sig istället 5 meter från trädet. Då ser man en massa detaljer som man inte såg tidigare.
Man har i princip zoomat in något genom att närma sig.
Ett annat alternativ är att man tar fram en liten kikare då man tittar på trädet. Då zoomar man in genom förstoring och ser detaljer.

Med ljud gäller båda dessa principer. Avståndet till ljudkälla ges genom detektion av storheten ljudtryck med enheten SPL då hörseln används som mätinstrument. Det gäller frifält.
I rum är det en kvot mellan direktljudets SPL och det reflekterade ljudets SPL som hörseln detekterar och bedömer avstånd till ljudkälla på.
Vill man höra saker tydligare så kan man även fixa flärpar så att öronen blir större eller sätta händerna bakom örat. Det funkar inte genom att sätta händerna framför örat. Det är direktljudet som man zoomar in på.

Är man på konsert och sitter långt bak i konserthuset och vill höra mer mikrodetaljer från musikinstrument och sångare så går man längre fram i konserthuset och sätter sig nära scenen.
Då ökar andelen direktljud i förhållande till reflekterat ljud. Ljudet upplevs också som starkare. Toppvärdet ökar. Medelvärdet likaså, men det reflekterade ljudet minskar i nivå.
Nu har vi alltså åstadkommit en situation där toppvärdet på direktljudet ökar och medelvärdet likaså men andelen reflekterat ljud har minskat. Detaljer hörs mycket tydligare.

En sak som minskar detaljupplösning är om andelen reflekterat ljud tappar nivå i diskanten i jämförelse med direktljudet. Det kan också låta mera avlägset till ljudkällorna d v s till de upplevda ljudobjekten.

Komprimeras ljudet så kommer akustiken högre i nivå och detaljupplösningen blir sämre.
Det är i princip tvärtom till det som skrivs d v s att vid kompression skulle detaljer höras bättre. Vid live blir det tvärtom. Så uppfattar jag saken.

Man kan även föra resonemang gällande akustik i bostadsrum. Där inträffar helt andra fenomen som man måste ta hänsyn till eftersom första reflexer kommer tidsmässigt relativt tidigt så att det blir destruktiv interferens i det hörbara känsliga området. Här kommer även högtalarnas spridning i diskanten in i jämförelse med spridningen i frekvensregistret under diskanten.
Sedan finns det ytterligare parametrar som bidrar till mer levandekänsla i förhållande till uppspelning av stereosignal med 2 högtalare i döddämpat/ekofritt rum.
Det är alltså inte samma förutsättning med multikanal och exempelvis filmljud där man återger ljud från flera olika riktningar.

Det får bli en balansgång mellan direktljud och vissa reflexer vid uppspelning i bostadsrum.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-26 10:16

Det fysiologiska hörandet av ljuddetaljer, då speciellt i relation till de fysikaliska stimuli typ direktljud och reflexer, är mer komplext än vad avancerade fysikaliska analyser gör gällande inom akustiken.

I hjärnan finns på olika nivåer olika aktiva fysiologiska processer vilka bearbetar yttre fysikaliska ljudstimuli. Fysikaliska stimuli är extremt viktiga att registrera exakt för förstå hur hörandet fysiologiskt reagerar och hur vi slutligen upplever ljudet i den psykologiska dimensionen.

Fysiologiskt i hörselcentra i temporalloben separerar människor och djur registrerade ljud frekvenskurvemässigt med avseende på tiden, inte kontinuerligt, utan i tidsrelaterade ljudpaket med varierande upplösning beroende på ljudets karaktär. Detta sker här automatiskt kontinuerligt en koll på avvikelser/likheter mellan olika närliggande ljudpaket frekvensmässigt. Tidssepareringen ger möjlighet till jämförelse med automatiska omedvetna korrigeringar av ofta förekommande felaktiga fysiologiskt registrerade direktljud. Oklart hur och enligt vilken princip korrigeringarna sker. Medelvärdesprincipen? Finns kopplingar till tidigare ljuderfarenheter?

Ljudkorrektions processandet frekvensmässigt i temporalloberna är skild från den mer kognitiva ljudkorrigeringen i frontalloberna. I frontalloberna gissar vi mer vad större oklara ljudpaket kan vara relation till tidigare erfarenheter medans i temporalloberna kollas mer likheter/olikheter i registrerade tonkurvor? Det är klart att frekvenser över 1000 Hz är viktigare i denna automatiska temporallobsprocess än frekvenser under.

Återigen är de således helt fundamentalt att förstå den vetenskapliga separationen av att vi hör i den fysiologiska världen utifrån exakta fysikaliska ljudstimuli medans ljudupplevelsen sker i den psykologiska världen.
Tyvärr blandas allt för ofta de väsensskilda dimensionerna relaterande till hörandet på ett olyckligt sätt även i publicerade "vetenskapliga" artiklar.

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-26 10:49

JM skrev:Det fysiologiska hörandet av ljuddetaljer, då speciellt i relation till de fysikaliska stimuli typ direktljud och reflexer, är mer komplext än vad avancerade fysikaliska analyser gör gällande inom akustiken.

I hjärnan finns på olika nivåer olika aktiva fysiologiska processer vilka bearbetar yttre fysikaliska ljudstimuli. Fysikaliska stimuli är extremt viktiga att registrera exakt för förstå hur hörandet fysiologiskt reagerar och hur vi slutligen upplever ljudet i den psykologiska dimensionen.

Fysiologiskt i hörselcentra i temporalloben separerar människor och djur registrerade ljud frekvenskurvemässigt med avseende på tiden, inte kontinuerligt, utan i tidsrelaterade ljudpaket med varierande upplösning beroende på ljudets karaktär. Detta sker här automatiskt kontinuerligt en koll på avvikelser/likheter mellan olika närliggande ljudpaket frekvensmässigt. Tidssepareringen ger möjlighet till jämförelse med automatiska omedvetna korrigeringar av ofta förekommande felaktiga fysiologiskt registrerade direktljud. Oklart hur och enligt vilken princip korrigeringarna sker. Medelvärdesprincipen? Finns kopplingar till tidigare ljuderfarenheter?

Ljudkorrektions processandet frekvensmässigt i temporalloberna är skild från den mer kognitiva ljudkorrigeringen i frontalloberna. I frontalloberna gissar vi mer vad större oklara ljudpaket kan vara relation till tidigare erfarenheter medans i temporalloberna kollas mer likheter/olikheter i registrerade tonkurvor? Det är klart att frekvenser över 1000 Hz är viktigare i denna automatiska temporallobsprocess än frekvenser under.

Återigen är de således helt fundamentalt att förstå den vetenskapliga separationen av att vi hör i den fysiologiska världen utifrån exakta fysikaliska ljudstimuli medans ljudupplevelsen sker i den psykologiska världen.
Tyvärr blandas allt för ofta de väsensskilda dimensionerna relaterande till hörandet på ett olyckligt sätt även i publicerade "vetenskapliga" artiklar.

JM


Är det inte så att ALLA ljud tolkas oavsett och dessutom brist på ljud tolkas. Vi behöver inte ens stimuli.

Det är nog helt klarlagt att ljuderfarenheter till stor del styr ljudupplevelsen.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-26 14:25

petersteindl skrev:
petersteindl skrev:Vill man titta på mikrodetaljer på bild så zoomar man in.
Vill man höra mikrodetaljer i ljud, så zoomar man in.

petersteindl skrev:Säg att man är på konsert och man sitter långt bak i konserthuset.
Nu vill man höra mer mikrodetaljer från musikinstrument och sångare. Hur gör man då?


Säg att man tittar på ett träd 30 meter från trädet. Man ser att det är ett äppelträd.
Man går fram 25 meter och befinner sig istället 5 meter från trädet. Då ser man en massa detaljer som man inte såg tidigare.
Man har i princip zoomat in något genom att närma sig.
Ett annat alternativ är att man tar fram en liten kikare då man tittar på trädet. Då zoomar man in genom förstoring och ser detaljer.

Med ljud gäller båda dessa principer. Avståndet till ljudkälla ges genom detektion av storheten ljudtryck med enheten SPL då hörseln används som mätinstrument. Det gäller frifält.
I rum är det en kvot mellan direktljudets SPL och det reflekterade ljudets SPL som hörseln detekterar och bedömer avstånd till ljudkälla på.
Vill man höra saker tydligare så kan man även fixa flärpar så att öronen blir större eller sätta händerna bakom örat. Det funkar inte genom att sätta händerna framför örat. Det är direktljudet som man zoomar in på.

Är man på konsert och sitter långt bak i konserthuset och vill höra mer mikrodetaljer från musikinstrument och sångare så går man längre fram i konserthuset och sätter sig nära scenen.
Då ökar andelen direktljud i förhållande till reflekterat ljud. Ljudet upplevs också som starkare. Toppvärdet ökar. Medelvärdet likaså, men det reflekterade ljudet minskar i nivå.
Nu har vi alltså åstadkommit en situation där toppvärdet på direktljudet ökar och medelvärdet likaså men andelen reflekterat ljud har minskat. Detaljer hörs mycket tydligare.

En sak som minskar detaljupplösning är om andelen reflekterat ljud tappar nivå i diskanten i jämförelse med direktljudet. Det kan också låta mera avlägset till ljudkällorna d v s till de upplevda ljudobjekten.

Komprimeras ljudet så kommer akustiken högre i nivå och detaljupplösningen blir sämre.
Det är i princip tvärtom till det som skrivs d v s att vid kompression skulle detaljer höras bättre. Vid live blir det tvärtom. Så uppfattar jag saken.

Man kan även föra resonemang gällande akustik i bostadsrum. Där inträffar helt andra fenomen som man måste ta hänsyn till eftersom första reflexer kommer tidsmässigt relativt tidigt så att det blir destruktiv interferens i det hörbara känsliga området. Här kommer även högtalarnas spridning i diskanten in i jämförelse med spridningen i frekvensregistret under diskanten.
Sedan finns det ytterligare parametrar som bidrar till mer levandekänsla i förhållande till uppspelning av stereosignal med 2 högtalare i döddämpat/ekofritt rum.
Det är alltså inte samma förutsättning med multikanal och exempelvis filmljud där man återger ljud från flera olika riktningar.

Det får bli en balansgång mellan direktljud och vissa reflexer vid uppspelning i bostadsrum.


Mycket bra skrivit.
Jag har noterat att desto längre ifrån högtalarna desto mer diffus ljudbild. Reflexerna påverkar mer.
Man kan rikta högtalarna med ett centrum korsas innan där man sitter så kan man föra isär högtalarna längre från varandra för att få en bredare ljudbild. Det fungerar bättre om man vill att reflexerna inte ska påverka så mycket.
Vi vill separera direktljud från reflexerna.. Vem vill höra reflexer.
Senast redigerad av LeifB 2023-03-26 14:32, redigerad totalt 1 gång.
Optimera mera!

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-26 14:29

JM skrev:Det fysiologiska hörandet av ljuddetaljer, då speciellt i relation till de fysikaliska stimuli typ direktljud och reflexer, är mer komplext än vad avancerade fysikaliska analyser gör gällande inom akustiken.

I hjärnan finns på olika nivåer olika aktiva fysiologiska processer vilka bearbetar yttre fysikaliska ljudstimuli. Fysikaliska stimuli är extremt viktiga att registrera exakt för förstå hur hörandet fysiologiskt reagerar och hur vi slutligen upplever ljudet i den psykologiska dimensionen.

Fysiologiskt i hörselcentra i temporalloben separerar människor och djur registrerade ljud frekvenskurvemässigt med avseende på tiden, inte kontinuerligt, utan i tidsrelaterade ljudpaket med varierande upplösning beroende på ljudets karaktär. Detta sker här automatiskt kontinuerligt en koll på avvikelser/likheter mellan olika närliggande ljudpaket frekvensmässigt. Tidssepareringen ger möjlighet till jämförelse med automatiska omedvetna korrigeringar av ofta förekommande felaktiga fysiologiskt registrerade direktljud. Oklart hur och enligt vilken princip korrigeringarna sker. Medelvärdesprincipen? Finns kopplingar till tidigare ljuderfarenheter?

Ljudkorrektions processandet frekvensmässigt i temporalloberna är skild från den mer kognitiva ljudkorrigeringen i frontalloberna. I frontalloberna gissar vi mer vad större oklara ljudpaket kan vara relation till tidigare erfarenheter medans i temporalloberna kollas mer likheter/olikheter i registrerade tonkurvor? Det är klart att frekvenser över 1000 Hz är viktigare i denna automatiska temporallobsprocess än frekvenser under.

Återigen är de således helt fundamentalt att förstå den vetenskapliga separationen av att vi hör i den fysiologiska världen utifrån exakta fysikaliska ljudstimuli medans ljudupplevelsen sker i den psykologiska världen.
Tyvärr blandas allt för ofta de väsensskilda dimensionerna relaterande till hörandet på ett olyckligt sätt även i publicerade "vetenskapliga" artiklar.

JM


+1
Optimera mera!

Användarvisningsbild
I-or
Herr Ekvalisator
 
Inlägg: 6170
Blev medlem: 2020-08-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav I-or » 2023-03-26 14:56

Mja, en lagom dos horisontella reflektioner är ett måste för att dölja stereosystemets inneboende brister. Högtalare med hög riktverkan och/eller lyssning i ekofritt rum ger stora likheter med hörlurslyssning, där den spatiella presentationen är klart bristfällig.
Teknisk konsult inom akustik och audioteknik

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-26 15:07

I-or skrev:Mja, en lagom dos horisontella reflektioner är ett måste för att dölja stereosystemets inneboende brister. Högtalare med hög riktverkan och/eller lyssning i ekofritt rum ger stora likheter med hörlurslyssning, där den spatiella presentationen är klart bristfällig.


Går det att jämnföra högtalare och hörlurar?
Jag kan höra i min anläggning att röster är bakom högtalarna. Det går inte att höra i hörlurar. Inte i mina iallafall.
Nej högtalare ger en större upplevelse.
Hörlurarna kan vara bättre på microdetaljer.
Optimera mera!

Användarvisningsbild
Chris71
 
Inlägg: 792
Blev medlem: 2012-07-15

Re: Vilka element ger mest mikrodetaljer?

Inläggav Chris71 » 2023-03-26 15:14

LeifB skrev:
I-or skrev:Mja, en lagom dos horisontella reflektioner är ett måste för att dölja stereosystemets inneboende brister. Högtalare med hög riktverkan och/eller lyssning i ekofritt rum ger stora likheter med hörlurslyssning, där den spatiella presentationen är klart bristfällig.


Går det att jämnföra högtalare och hörlurar?
Jag kan höra i min anläggning att röster är bakom högtalarna. Det går inte att höra i hörlurar. Inte i mina iallafall.
Nej högtalare ger en större upplevelse.
Hörlurarna kan vara bättre på microdetaljer.


Nu tror jag jämförelsen gällde elements möjlighet att återge detaljer, jag har åtminstone ett antal par hörlurar som gör det galant.

Men som I-or skrev så innebär det inte att det presenterar en målande bild av vad som hände vid inspelningen, vår hjärnas förmåga att avkoda ljud är inte så enkel.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-26 15:23

Chris71 skrev:
LeifB skrev:
I-or skrev:Mja, en lagom dos horisontella reflektioner är ett måste för att dölja stereosystemets inneboende brister. Högtalare med hög riktverkan och/eller lyssning i ekofritt rum ger stora likheter med hörlurslyssning, där den spatiella presentationen är klart bristfällig.


Går det att jämnföra högtalare och hörlurar?
Jag kan höra i min anläggning att röster är bakom högtalarna. Det går inte att höra i hörlurar. Inte i mina iallafall.
Nej högtalare ger en större upplevelse.
Hörlurarna kan vara bättre på microdetaljer.


Nu tror jag jämförelsen gällde elements möjlighet att återge detaljer, jag har åtminstone ett antal par hörlurar som gör det galant.

Men som I-or skrev så innebär det inte att det presenterar en målande bild av vad som hände vid inspelningen, vår hjärnas förmåga att avkoda ljud är inte så enkel.


Nej hjärnan går att lura.
Lyssnat på några dacar som målar upp en annan
soundstage. Från att vara strikt till ett enormt stort.
Jag gillar stort.. Men om det är det bästa kan vara delade åsikter om.
Optimera mera!

Användarvisningsbild
matssvensson
 
Inlägg: 1374
Blev medlem: 2010-11-30
Ort: Stockholm

Re: Vilka element ger mest mikrodetaljer?

Inläggav matssvensson » 2023-03-26 15:32

petersteindl skrev:
petersteindl skrev:Vill man titta på mikrodetaljer på bild så zoomar man in.
Vill man höra mikrodetaljer i ljud, så zoomar man in.

petersteindl skrev:Säg att man är på konsert och man sitter långt bak i konserthuset.
Nu vill man höra mer mikrodetaljer från musikinstrument och sångare. Hur gör man då?


Säg att man tittar på ett träd 30 meter från trädet. Man ser att det är ett äppelträd.
Man går fram 25 meter och befinner sig istället 5 meter från trädet. Då ser man en massa detaljer som man inte såg tidigare.
Man har i princip zoomat in något genom att närma sig.
Ett annat alternativ är att man tar fram en liten kikare då man tittar på trädet. Då zoomar man in genom förstoring och ser detaljer.

Med ljud gäller båda dessa principer. Avståndet till ljudkälla ges genom detektion av storheten ljudtryck med enheten SPL då hörseln används som mätinstrument. Det gäller frifält.
I rum är det en kvot mellan direktljudets SPL och det reflekterade ljudets SPL som hörseln detekterar och bedömer avstånd till ljudkälla på.
Vill man höra saker tydligare så kan man även fixa flärpar så att öronen blir större eller sätta händerna bakom örat. Det funkar inte genom att sätta händerna framför örat. Det är direktljudet som man zoomar in på.

Är man på konsert och sitter långt bak i konserthuset och vill höra mer mikrodetaljer från musikinstrument och sångare så går man längre fram i konserthuset och sätter sig nära scenen.
Då ökar andelen direktljud i förhållande till reflekterat ljud. Ljudet upplevs också som starkare. Toppvärdet ökar. Medelvärdet likaså, men det reflekterade ljudet minskar i nivå.
Nu har vi alltså åstadkommit en situation där toppvärdet på direktljudet ökar och medelvärdet likaså men andelen reflekterat ljud har minskat. Detaljer hörs mycket tydligare.

En sak som minskar detaljupplösning är om andelen reflekterat ljud tappar nivå i diskanten i jämförelse med direktljudet. Det kan också låta mera avlägset till ljudkällorna d v s till de upplevda ljudobjekten.

Komprimeras ljudet så kommer akustiken högre i nivå och detaljupplösningen blir sämre.
Det är i princip tvärtom till det som skrivs d v s att vid kompression skulle detaljer höras bättre. Vid live blir det tvärtom. Så uppfattar jag saken.

Man kan även föra resonemang gällande akustik i bostadsrum. Där inträffar helt andra fenomen som man måste ta hänsyn till eftersom första reflexer kommer tidsmässigt relativt tidigt så att det blir destruktiv interferens i det hörbara känsliga området. Här kommer även högtalarnas spridning i diskanten in i jämförelse med spridningen i frekvensregistret under diskanten.
Sedan finns det ytterligare parametrar som bidrar till mer levandekänsla i förhållande till uppspelning av stereosignal med 2 högtalare i döddämpat/ekofritt rum.
Det är alltså inte samma förutsättning med multikanal och exempelvis filmljud där man återger ljud från flera olika riktningar.

Det får bli en balansgång mellan direktljud och vissa reflexer vid uppspelning i bostadsrum.

Väl beskrivet. Jag tänker att det blåmarkerade framför allt gäller ljud inspelat i en tydlig akustisk miljö, vilket kanske inte är den typen av musik som främst "lider" av kompressionshysteri. Så att kompression faktiskt trots allt kan lyfta svagare detaljer från en akustiskt dödare studiomiljö/närmikning på ett onaturligt sätt, och ändå uppfattas som att vi hör mer detaljer av vår hörsel. Eller är jag ute och cyklar?
Skivaffär, IC kretsar, mobiltelefoner, hifi-skribent, näringslivsanalyser i CV:t. Har snöat in på dipolära högtalare, Stig Carlsson och psykoakustik

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-26 15:55

Jag vill kommentera både JMs inlägg och janschs. Inte för att kommentera något som jag anser skulle vara felaktigt. Men om information skall åskådliggöra något och öka en kunskapsnivå, så bör informationen förstås och tillfoga ny kunskap som tillför insikt och förklaring som leder till förståelse.
Varje använt ord blir då viktigt att definieras, dels för att ordet inte skall tolkas olika av olika personer dels för att ordets innebörd skall få korrekt betydelse i sammanhanget. I min förra mening har jag använt ordet ’tolka’. I det sammanhanget räknar jag med att läsarna förstår ordet ’tolka’. I det här fallet är innebörden att olika personer skulle kunna ge samma ord olika betydelse och i så fall blir vissa tolkningar felaktiga. Det kan bero på att budskapet inte är entydigt. I sådana fall kan missförstånd lätt uppstå. Det råder då tvetydighet.

I andra fall kan ordet ’tolka’ betyda ungefär samma som att översätta från ett språk till ett annat. Man kan exempelvis tolka en text från Tyska till Svenska. Ofta säger man istället att en tolk har översatt Tysk text Svenska.

Men vad menas med att ljud tolkas? Det är en aspekt man tilldelar hjärnan. Det är någon form av fysiologisk process som skall till som bygger på igenkänning och därmed utnyttjar minnesfunktion i CNS eller snarast i hjärnan gällande ljud.
T.ex. Jag hör en violin och en trumpet. Det betyder att violinens toner kan separeras från trumpetens toner. För att kunna definiera violinens toner som en violin och trumpetens toner som en trumpet, så innefattar det att man vet hur en violin respektive en trumpet låter. Det betyder att man har tidigare erfarenhet av ljudet från båda instrumenten och denna ljuderfarenhet måste finnas i någon form av minne i hjärnan. Det är en fysiologisk egenskap som kallas igenkänningsprocess. Här skulle man kunna säga att man tolkar det som en trumpet och som en violin. Men, är det verkligen rätt uttryckt? Tolkar man trumpeten som en trumpet? Kan det vara så att personen bredvid tolkar ljudet från trumpeten som en cello och ljudet från violinen som en klarinett?

Ofta används ordet ’tolka’ i samband med hjärnans processer, men jag gillar verkligen inte det ordet i samband med ljud och igenkänning av ljudkällor.

Sedan har vi riktningshörandet. Man kan exempelvis höra att violinen är 15 grader till höger och trumpeten 15 grader till vänster. Men är det så att man tolkar att violinen befinner sig 15 grader till höger? Jag säger definitivt nej till det. Det är överhuvudtaget inte fråga om någon tolkningsprocess vid riktningshörande d v s lokalisation av ljudkällor.

Hur är det med avståndsbedömning till ljudkälla. Är det en tolkningsprocess? Även om det skulle kunna vara eller är en inlärningsprocess, är det en tolkningsprocess? Här måste man sätta upp definitioner på vad en tolkningsprocess är.
Om detta kan man skriva en hel bok om. Avståndsbedömning till ljudkällor är svårt och skiljer sig markant mellan frifält kontra i rum med reflexer.

Trumpeten får sitt reflexmönster hos lyssnaren och violinen får sitt. Man hör violinens direktljud och varje reflex från violinens ljud summeras till violinen och varje reflex från trumpetens ljud summeras till trumpeten, åtminstone 1a reflex men även 2a reflex. Med efterklangen är det inte riktigt så.

På trumhinnorna d v s i den akustiska domänen summeras allt ljud, från alla instrument och alla direktljud och reflexer.
Det blir som en slags akustisk blender på respektive trumhinna. Matematiskt säger man att de akustiska ljudvågorna summeras enligt summationsprincipen i respektive punkt i rummet, exempelvis på trumhinnorna. Sätter man en mikrofon på en plats i rummet och spelar in musikinstrumenten där de spelar samtidigt och låter någon annan analysera inspelningen utan att lyssna och utan att veta vad det är, så är det nästintill eller troligtvis en helt omöjlig uppgift. Vilka tekniska analyseringsprocesser skulle i så fall användas för att veta vad som ingår i totalsumman av de olika ljuden? Jag kan inte se att det finns någon teknisk process som klarar en sådan analys. Det går helt enkelt inte. Vilken del av SPL tillhör trumpeten? Eller violinen, eller klarinetten eller valthornet osv? Och var befinner sig respektive okänd ljudkälla någonstans? Hur kan man med objektiva mätinstrument mäta på den inspelade akustiska ljudsumman? Jag kan inte se att det finns någon som helst möjlighet. Där kommer objektiva fysikaliska tekniska mätinstrument till korta.

Spelar man upp den inspelade orkestern i högtalare och istället använder hörseln som mätinstrument så kan man på några hundra millisekunder analysera ljudet och respektive instrument och respektive instruments placering, trots att allt ljud summerats på respektive trumhinna.

Här är hörseln triljarders gånger bättre än vilket objektivt tekniskt mätinstrument som helst och analysen går blixtsnabbt och med väldigt lite förbrukad energi med hörseln som mätinstrument.

Går det överhuvudtaget att bygga ett tekniskt fysikaliskt objektivt mätinstrument som klarar denna uppgift?
Jag tror det går, men då krävs det AI och simulerade neurala nätverk i datorn/mätinstrumentet och det krävs någon form av häftig dator som analyserar under viss tid. Hur bra sådant mätresultat skulle bli i förhållande till hörseln vet jag inte.

Men mitt och lilltrolls lilla experiment med inspelad musik på CD, det var Yves Montand live at Olympia. Lilltroll skrev mjukvara för AI och beräknade olika saker. Då kunde vi filtrera bort allt publikljud från rösten som applåder. Vi kunde separera olika instrument ur 2-kanalsinspelningen och lägga in dessa i separata kanaler och vi kunde göra en ny mix där vi exempelvis kunde variera avstånd till respektive instrument och sångare och sedan lägga på publikljud som vi ville. Sedan kunde vi placera musikinstrument och sångare var vi ville ha dem i ljudbilden. Vi kunde ändra på förhållandet mellan direktljudet och reflexer i inspelningen för att få distinktare rytm och större närhet till sångare med högre detaljrikedom på röster eller musikinstrument. OBS! Vi ändrade ingen frekvensgång. Ingen EQ.



Från början trodde vi att det var en totalt omöjlig uppgift. Inte ens lönt att börja. Men med AI och lilltrolls programmering så kunde häpnadsväckande resultat uppnås. Jag vågar nog påstå att med AI så kan man leka och prova sig fram och analysera och lära sig hjärnans arbetsuppgifter då det gäller att exekvera ljudinformation. Det är nästan kusligt och innebär revolution i förståelse och i att kunna handskas med ljud.

Vi fixade med en annan låt, babes in the wood med Mary Black. Jättefin låt.



Här kunde vi separera instrument och röster och vi kunde variera förhållandet mellan direktljud och reflexer på hennes röst och separat på instrumenten. På så sätt kunde vi få betydligt distinktare beat och klarare röst. Vi kunde få taktmarkeringarna distinktare och allt detta utan EQ.

Det bygger på att simulera neurala nätverk och då måste man förstå vilka som är de ingående fysiologiska processerna då hjärnan exekverar information. Vi har hyfsat koll på läget. Det var en intressant resa och vi var tagna och förvånade över resultaten och vad som går att göras, som tycktes vara en omöjlig uppgift.

Det går att skriva en mängd saker om hur hjärnan bearbetar inkommande ljudsignaler och det går att använda många ord för olika företeelser och processer.

Ordens betydelse måste dock definieras d v s det är nödvändigt villkor med krav på definition på varje enskilt ord som används för att beskriva processer och företeelser.

AI är framtidens lösningar på vissa problemställningar. Man kan se hjärnan som en sorteringsmaskin. För att sortera information så de går i rätt neurala kanaler så krävs igenkänning och därmed minne. Direktljudet går i sina kanaler och tidiga reflexer går i sina, allt beroende på skilda infallsvinklar. Dessutom går de olika frekvenserna i sina specifika celler och neuroner från de inre hårcellerna i innerörat och behåller denna relativa position i förhållande till varandra genom hjärnan och tillbaka till de yttre hårcellerna som fungerar som ett återkopplat neuralt system.

AI bygger dels på en inlärningsprocess där resultaten blir mer korrekta över en viss inlärningstid dels på flera andra komplicerade processer. Frågan är om jag vill använda ordet tolkning. Jag är inte säker på det. Ordet är förföriskt att använda i brist på annat eller för att slippa gå in på processer i detalj.

I ljudåtergivning ser jag det som att låta hela det akustiska skeendet från högtalare via rum till lyssnare, vara en process där man förbereder ljudfältet i rummet fram till öronen så att hjärnan kan sköta sorteringsarbetet så korrekt som möjligt för att höra korrekt perspektiv och ljudbild och korrekt klang på ett sådant sätt att lyssnaren befinner sig på plats vid det musikaliska inspelade skeendet.

Jag har inte korrekturläst. Hinner inte det.

Mvh
Peter
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-26 15:58

I-or skrev:Mja, en lagom dos horisontella reflektioner är ett måste för att dölja stereosystemets inneboende brister. Högtalare med hög riktverkan och/eller lyssning i ekofritt rum ger stora likheter med hörlurslyssning, där den spatiella presentationen är klart bristfällig.


Exakt så.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-26 16:46

petersteindl skrev:Jag vill kommentera både JMs inlägg och janschs. Inte för att kommentera något som jag anser skulle vara felaktigt. Men om information skall åskådliggöra något och öka en kunskapsnivå, så bör informationen förstås och tillfoga ny kunskap som tillför insikt och förklaring som leder till förståelse.
Varje använt ord blir då viktigt att definieras, dels för att ordet inte skall tolkas olika av olika personer dels för att ordets innebörd skall få korrekt betydelse i sammanhanget. I min förra mening har jag använt ordet ’tolka’. I det sammanhanget räknar jag med att läsarna förstår ordet ’tolka’. I det här fallet är innebörden att olika personer skulle kunna ge samma ord olika betydelse och i så fall blir vissa tolkningar felaktiga. Det kan bero på att budskapet inte är entydigt. I sådana fall kan missförstånd lätt uppstå. Det råder då tvetydighet.

I andra fall kan ordet ’tolka’ betyda ungefär samma som att översätta från ett språk till ett annat. Man kan exempelvis tolka en text från Tyska till Svenska. Ofta säger man istället att en tolk har översatt Tysk text Svenska.

Men vad menas med att ljud tolkas? Det är en aspekt man tilldelar hjärnan. Det är någon form av fysiologisk process som skall till som bygger på igenkänning och därmed utnyttjar minnesfunktion i CNS eller snarast i hjärnan gällande ljud.
T.ex. Jag hör en violin och en trumpet. Det betyder att violinens toner kan separeras från trumpetens toner. För att kunna definiera violinens toner som en violin och trumpetens toner som en trumpet, så innefattar det att man vet hur en violin respektive en trumpet låter. Det betyder att man har tidigare erfarenhet av ljudet från båda instrumenten och denna ljuderfarenhet måste finnas i någon form av minne i hjärnan. Det är en fysiologisk egenskap som kallas igenkänningsprocess. Här skulle man kunna säga att man tolkar det som en trumpet och som en violin. Men, är det verkligen rätt uttryckt? Tolkar man trumpeten som en trumpet? Kan det vara så att personen bredvid tolkar ljudet från trumpeten som en cello och ljudet från violinen som en klarinett?

Ofta används ordet ’tolka’ i samband med hjärnans processer, men jag gillar verkligen inte det ordet i samband med ljud och igenkänning av ljudkällor.

Sedan har vi riktningshörandet. Man kan exempelvis höra att violinen är 15 grader till höger och trumpeten 15 grader till vänster. Men är det så att man tolkar att violinen befinner sig 15 grader till höger? Jag säger definitivt nej till det. Det är överhuvudtaget inte fråga om någon tolkningsprocess vid riktningshörande d v s lokalisation av ljudkällor.

Hur är det med avståndsbedömning till ljudkälla. Är det en tolkningsprocess? Även om det skulle kunna vara eller är en inlärningsprocess, är det en tolkningsprocess? Här måste man sätta upp definitioner på vad en tolkningsprocess är.
Om detta kan man skriva en hel bok om. Avståndsbedömning till ljudkällor är svårt och skiljer sig markant mellan frifält kontra i rum med reflexer.

Trumpeten får sitt reflexmönster hos lyssnaren och violinen får sitt. Man hör violinens direktljud och varje reflex från violinens ljud summeras till violinen och varje reflex från trumpetens ljud summeras till trumpeten, åtminstone 1a reflex men även 2a reflex. Med efterklangen är det inte riktigt så.

På trumhinnorna d v s i den akustiska domänen summeras allt ljud, från alla instrument och alla direktljud och reflexer.
Det blir som en slags akustisk blender på respektive trumhinna. Matematiskt säger man att de akustiska ljudvågorna summeras enligt summationsprincipen i respektive punkt i rummet, exempelvis på trumhinnorna. Sätter man en mikrofon på en plats i rummet och spelar in musikinstrumenten där de spelar samtidigt och låter någon annan analysera inspelningen utan att lyssna och utan att veta vad det är, så är det nästintill eller troligtvis en helt omöjlig uppgift. Vilka tekniska analyseringsprocesser skulle i så fall användas för att veta vad som ingår i totalsumman av de olika ljuden? Jag kan inte se att det finns någon teknisk process som klarar en sådan analys. Det går helt enkelt inte. Vilken del av SPL tillhör trumpeten? Eller violinen, eller klarinetten eller valthornet osv? Och var befinner sig respektive okänd ljudkälla någonstans? Hur kan man med objektiva mätinstrument mäta på den inspelade akustiska ljudsumman? Jag kan inte se att det finns någon som helst möjlighet. Där kommer objektiva fysikaliska tekniska mätinstrument till korta.

Spelar man upp den inspelade orkestern i högtalare och istället använder hörseln som mätinstrument så kan man på några hundra millisekunder analysera ljudet och respektive instrument och respektive instruments placering, trots att allt ljud summerats på respektive trumhinna.

Här är hörseln triljarders gånger bättre än vilket objektivt tekniskt mätinstrument som helst och analysen går blixtsnabbt och med väldigt lite förbrukad energi med hörseln som mätinstrument.

Går det överhuvudtaget att bygga ett tekniskt fysikaliskt objektivt mätinstrument som klarar denna uppgift?
Jag tror det går, men då krävs det AI och simulerade neurala nätverk i datorn/mätinstrumentet och det krävs någon form av häftig dator som analyserar under viss tid. Hur bra sådant mätresultat skulle bli i förhållande till hörseln vet jag inte.

Men mitt och lilltrolls lilla experiment med inspelad musik på CD, det var Yves Montand live at Olympia. Lilltroll skrev mjukvara för AI och beräknade olika saker. Då kunde vi filtrera bort allt publikljud från rösten som applåder. Vi kunde separera olika instrument ur 2-kanalsinspelningen och lägga in dessa i separata kanaler och vi kunde göra en ny mix där vi exempelvis kunde variera avstånd till respektive instrument och sångare och sedan lägga på publikljud som vi ville. Sedan kunde vi placera musikinstrument och sångare var vi ville ha dem i ljudbilden. Vi kunde ändra på förhållandet mellan direktljudet och reflexer i inspelningen för att få distinktare rytm och större närhet till sångare med högre detaljrikedom på röster eller musikinstrument. OBS! Vi ändrade ingen frekvensgång. Ingen EQ.

[ YouTube ]


Från början trodde vi att det var en totalt omöjlig uppgift. Inte ens lönt att börja. Men med AI och lilltrolls programmering så kunde häpnadsväckande resultat uppnås. Jag vågar nog påstå att med AI så kan man leka och prova sig fram och analysera och lära sig hjärnans arbetsuppgifter då det gäller att exekvera ljudinformation. Det är nästan kusligt och innebär revolution i förståelse och i att kunna handskas med ljud.

Vi fixade med en annan låt, babes in the wood med Mary Black. Jättefin låt.

[ YouTube ]


Här kunde vi separera instrument och röster och vi kunde variera förhållandet mellan direktljud och reflexer på hennes röst och separat på instrumenten. På så sätt kunde vi få betydligt distinktare beat och klarare röst. Vi kunde få taktmarkeringarna distinktare och allt detta utan EQ.

Det bygger på att simulera neurala nätverk och då måste man förstå vilka som är de ingående fysiologiska processerna då hjärnan exekverar information. Vi har hyfsat koll på läget. Det var en intressant resa och vi var tagna och förvånade över resultaten och vad som går att göras, som tycktes vara en omöjlig uppgift.

Det går att skriva en mängd saker om hur hjärnan bearbetar inkommande ljudsignaler och det går att använda många ord för olika företeelser och processer.

Ordens betydelse måste dock definieras d v s det är nödvändigt villkor med krav på definition på varje enskilt ord som används för att beskriva processer och företeelser.

AI är framtidens lösningar på vissa problemställningar. Man kan se hjärnan som en sorteringsmaskin. För att sortera information så de går i rätt neurala kanaler så krävs igenkänning och därmed minne. Direktljudet går i sina kanaler och tidiga reflexer går i sina, allt beroende på skilda infallsvinklar. Dessutom går de olika frekvenserna i sina specifika celler och neuroner från de inre hårcellerna i innerörat och behåller denna relativa position i förhållande till varandra genom hjärnan och tillbaka till de yttre hårcellerna som fungerar som ett återkopplat neuralt system.

AI bygger dels på en inlärningsprocess där resultaten blir mer korrekta över en viss inlärningstid dels på flera andra komplicerade processer. Frågan är om jag vill använda ordet tolkning. Jag är inte säker på det. Ordet är förföriskt att använda i brist på annat eller för att slippa gå in på processer i detalj.

I ljudåtergivning ser jag det som att låta hela det akustiska skeendet från högtalare via rum till lyssnare, vara en process där man förbereder ljudfältet i rummet fram till öronen så att hjärnan kan sköta sorteringsarbetet så korrekt som möjligt för att höra korrekt perspektiv och ljudbild och korrekt klang på ett sådant sätt att lyssnaren befinner sig på plats vid det musikaliska inspelade skeendet.

Jag har inte korrekturläst. Hinner inte det.

Mvh
Peter


+1
Optimera mera!

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-27 02:30

Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-27 06:49

jansch skrev:Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.


+1
Där ser man.
Optimera mera!

Användarvisningsbild
RogerGustavsson
 
Inlägg: 22665
Blev medlem: 2004-05-02
Ort: Huskvarna

Re: Vilka element ger mest mikrodetaljer?

Inläggav RogerGustavsson » 2023-03-27 09:57

jansch skrev:Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.


Länka gärna!

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-27 11:37

jansch skrev:Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.

Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?

Vilka appar är det?

Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.

Länka gärna till sådana program. :) 8)

Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-27 12:36

petersteindl skrev:
jansch skrev:Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.

Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?

Vilka appar är det?

Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.

Länka gärna till sådana program. :) 8)

Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.


Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.

Som sagt vilken app kan fixa det?
Optimera mera!

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-27 13:27

Googla t.ex "vokal remover" eller t.ex "separate drums" osv. osv.
Jag kan inte länka från TV:n.

LALALA.AI och phonicmind.com lär vara bra, jag har nyttjat phonicmind (tror jag det var) någon gång tillsammans med spelkompisar.

Det finns en uppsjö av gratisappar och betalappar och man får väl kvalitet och avancerade funktioner i relation till vad man betalar.

Själv har jag tidigare (i 20år) ofta nyttjat en "softis" från en svensk utvecklare för att få ut basstämmor och accord men då på notpapper. Den får man nog se som rudimentär jämfört med vad man kan analysera/separera idag.

Peter, jag har ingen koll på alla möjliga funktioner i alla dessa appar. Du får botanisera.

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-27 13:35

LeifB skrev:
petersteindl skrev:
jansch skrev:Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.

Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?

Vilka appar är det?

Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.

Länka gärna till sådana program. :) 8)

Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.


Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.

Som sagt vilken app kan fixa det?


Kolla "wings of pegasus" på Tuben.Han använder ofta en sådan app när han analyserar sångare, allt från gamla monoinspelningar med Elvis till Queen osv.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-27 13:47

LeifB skrev:
petersteindl skrev:
jansch skrev:Peter,
Det finns sedan länge en mängd gratisappar som separerar ut musik, sång eller annat.

Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?

Vilka appar är det?

Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.

Länka gärna till sådana program. :) 8)

Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.


Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.

Som sagt vilken app kan fixa det?


Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.

1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder. :)
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.

Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.

Piece of cake. Hörseln fixar det på några hundra millisekunder.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-27 13:53

@ jansch. Jag skall kolla dessa. Som sagt, med AI så finns möjligheten att gå förbi vanliga matematiska samband.

Tackar för info! :)
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

FöregåendeNästa

Återgå till Teknikforum


Vilka är online

Användare som besöker denna kategori: Bing [Bot] och 5 gäster