Vilka element ger mest mikrodetaljer?

Hur funkar tekniken bakom bra hifi?

Moderator: Redaktörer

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-27 14:15

Tack jansch.
Det ska undersökas.
Optimera mera!

Användarvisningsbild
I-or
Herr Ekvalisator
 
Inlägg: 6170
Blev medlem: 2020-08-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav I-or » 2023-03-27 14:16

Man söker lämpligen på separate stems (eller möjligen demix audio). Separationen blir naturligtvis inte helt perfekt, speciellt inte om det ska handla om HiFi, men det finns massor av roliga och mycket imponerande mjukvaror att leka med (de bättre exemplen är som vanligt inte gratis).
Teknisk konsult inom akustik och audioteknik

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-27 14:19

petersteindl skrev:
LeifB skrev:
petersteindl skrev:Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?

Vilka appar är det?

Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.

Länka gärna till sådana program. :) 8)

Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.


Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.

Som sagt vilken app kan fixa det?


Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.

1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder. :)
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.

Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.

Piece of cake. Hörseln fixar det på några hundra millisekunder.



AI är framtiden.
Den lär sig själv.
Men med hjälp av ett program kommer man långt.
I brist på hjärna menar jag. :wink:
Optimera mera!

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-27 14:23

I-or skrev:Man söker lämpligen på separate stems (eller möjligen demix audio). Separationen blir naturligtvis inte helt perfekt, speciellt inte om det ska handla om HiFi, men det finns massor av roliga och mycket imponerande mjukvaror att leka med (de bättre exemplen är som vanligt inte gratis).


Som vanligt.. Inget bra är gratis.
+1
Senast redigerad av LeifB 2023-03-27 14:52, redigerad totalt 1 gång.
Optimera mera!

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-27 14:46

petersteindl skrev:
LeifB skrev:
petersteindl skrev:Det känner jag inte till.
Separerar ut musik? Vad betyder det? Separerar ut annat? Vad är det?

Vilka appar är det?

Kan de t.ex. ur en monoinspelning med symfoniorkester inspelad med endast 1 mikrofon i konserthus separera ut varje instrument och därefter lägga instrumenten i skilda kanaler och sedan separera ut inspelade rumsreflexer från direktljud på respektive instrument och sedan ändra förhållandet mellan direktljud och reflekterat ljud så att man därefter kan zooma in och ut på varje instrument för sig? Då kan man nämligen mixa ihop de separerade kanalerna efteråt till en god stereoinspelning, antingen till 2 stereo kanaler eller till multikanal.

Länka gärna till sådana program. :) 8)

Det viktiga i sammanhanget är att förstå hur sådant kan gå till. Att veta vilka algoritmer som behövs och vilka parametrar man har att jobba med. För, vet man det, så vet man också vilka medel hörseln har för att höra ljudbild d v s varför man hör separerade ljudkällor placerade på respektive plats, dels irl d v s live på konserthuset, dels hur hörseln fungerar vid stereoåtergivning med 2 högtalare.


Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.

Som sagt vilken app kan fixa det?


Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.

1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder. :)
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.

Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.

Piece of cake. Hörseln fixar det på några hundra millisekunder.


Näääää..... nu blev det väl fel.
Inspelat stereomaterial där man försöker separera sång, trummor etc skall ju inte förvanskas av torso etc utan förhoppningsvis vara ett perfekt urklipp av den inspelade stämman/musikinstrumentet. Annars blir det ju "kaka på kaka" oavsett om man gör mätningar eller neuroakustisk forskning.

Den akustiska lyssningsmiljön ingår ju förhoppningsvis inte heller i applikationen om man är ute efter att bedömma direktljud, fantomprojektion, etc.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-28 00:46

jansch skrev:
petersteindl skrev:
LeifB skrev:
Låter som man göra en egen mix.
Separera ut allt och bygga upp den igen.

Som sagt vilken app kan fixa det?


Det finns en app som separerar allt och bygger upp det.
Den appen finns i en dator som kallas för hjärnan.
Vill man bygga en motsvarande kopia av sådan hjärna/dator med app så finns det 2 sätt.

1. Du följer en gammal och beprövad anvisning som lyder: Varen fruktsamma och föröken eder. :)
2. Du bygger en kopia på hörseln i form av axlar + huvud + öron + trumhinnor + hjärna med exempelvis en Dell + Windows 10 som operativsystem + en mjukvara i form av app.
Den kopian skall uppfylla kraven att vara: In the image and in the likeness of a brain.

Nu gäller det bara att ta reda på hur den där appen ska fungera och hur den skall skrivas/programmeras för att åstadkomma korrekt slutresultat från given input. D v s, man går från en mängd akustiska ljudvågor som når 2 trumhinnor och blir till kod i nervsystemet och behandlas på visst sätt för att därefter bli ett resultat i form av output som sker på något sätt. Det är bara att sätta sig vid datorn och programmera. Man måste ju veta hur input ser ut och beskriva den med matematiska formler. Vågekvationen kan funka och hur summation av vågor ser ut matematiskt. Då hamnar ljudet i form av kod på trumhinnorna. Sedan går ljudet till mellanöra i form av mekanisk rörelse och därefter till inneröron och därefter i form av elektrokemisk kod i nervsystemet. Sedan fixar hjärnan det lilla extra, nämligen att segregera all kod till att bli skild kod beroende på respektive ljudkälla, musikinstrument, röster osv. samt även en total segregation av respektive ljudkällas första reflexer som beskriver den akustiska miljön samt respektive ljudkällas positionering i denna akustiska miljö. Direktljud och tidiga reflexer sätter respektive ljudkällas positionering i förhållande till varandra i 3 dimensioner och även på korrekt plats i den akustiska miljön som också kallas perspektiv.

Piece of cake. Hörseln fixar det på några hundra millisekunder.


Näääää..... nu blev det väl fel.
Inspelat stereomaterial där man försöker separera sång, trummor etc skall ju inte förvanskas av torso etc utan förhoppningsvis vara ett perfekt urklipp av den inspelade stämman/musikinstrumentet. Annars blir det ju "kaka på kaka" oavsett om man gör mätningar eller neuroakustisk forskning.

Den akustiska lyssningsmiljön ingår ju förhoppningsvis inte heller i applikationen om man är ute efter att bedömma direktljud, fantomprojektion, etc.


Nej, det jag skriver är 100 % helt korrekt. På något annat sätt är det inte. Fast, jag tror att du inte förstått det jag pratar om. Jag kanske inte varit tillräcklig tydlig. Jag gör ett nytt försök.
Jag pratar inte om inspelat stereomaterial där man försöker separera sång, trummor etc. Att jag nämner det, beror på att det är en vink, ett tips en antydan till vad som behöver förstås för att kunna förstå hörseln.
Objektet jag pratar om är: Hörselns förmåga att kunna höra enskilda musikinstrument och röster och vilka kvanta och parametrar som ligger till grund för detta.

Jag pratar enkom om hörselns funktion.
Jag är således helt ointresserad av att bedöma direktljud, fantomprojektion, etc.
Hörseln bedömer inte direktljud och heller inte fantomprojektion. Tror man det så har man missuppfattat hela hörselns funktion.

Då du t.ex. hör en cello i ett rum, så har inte hörseln förmågan att filtrera bort de tidiga reflexerna. Det kan i och för sig göras under förutsättning att man akustiskt dämpar de tidiga reflexerna. Men det är inte hörseln som fixar det.
Hörseln är byggd för att maskera ljud som ligger under en viss nivå i jämförelse med andra ljud som ligger över en viss nivå. Det är efterklangen som maskeras då direktljud och tidiga reflexer har en viss mängd högre nivå än efterklangen. I konserthus hörs detta strax efter slutackordet, d v s då efterklangen klingar ut. Det är ett intervall på ungefär 1,5-3 sekunder. Har konserthuset T60 på 2 sekunder och slutackordet kommer upp i 110 dB så har nivån sjunkit till 50 dB efter 2 sek. Då hörs den nivån fortfarande.

Hörseln hör en integrerad helhet mellan direktljud och reflexer.

Det du skriver angående neuroakustisk forskning är dessutom inte korrekt.
Menar du verkligen att hörseln kan detektera riktning och göra avståndsbedömning till ljudkällor utan ytteröron och utan att få med tidiga reflexer från den akustiska miljön?
Jag hävdar bestämt nej.
I alla de böcker och forskningsrapporter jag läst i ämnet gällande lokalisation av ljudkällor, så framkommer det tydligt att man som grundkrav måste ha med HRTF i resonemangen för att förstå hörselns funktion och det gäller även inom neuroakustik.
All HRTF är en kodning som varje människa tillför alla inkommande ljudvågor från yttre ljudkällor, således ej hörlurar. Den kodningen är till för att detektera riktning, inte för att avgöra klang, trots att mycket stor frekvenskurveförändring sker pga HRTF. Frekvensgångsförändring är således en parameter för riktning.

Kan hörseln detektera riktning med hjälp av HRTF, så innebär det att hörseln lyckats med uppgiften och trunkerar denna HRTF för klangbestämning. Det är således ett sorteringsarbete med avkodning och dechiffrering.

Detta betyder att hörseln måste känna igen om frekvenskurvan finns i ljudkällorna eller som en egen mekanism i hörseln.

Du skriver ibland att tekniska objektiva mätinstrument har 1000-falt högre upplösning än hörseln som mätinstrument.
Jag hävdar precis tvärtom. Hörseln som mätinstrument har miljoners-miljarders gånger högre upplösning än marknadens samtliga tekniska mätinstrument, beroende på vad som mäts.
Detta gäller t.ex. då man sitter på konserthus och hör orkestern spela musik. Man kan t.ex. vara helt blind.
Du hör storleken på rummet.
Du hör avstånd till väggar.
Du hör den akustiska miljön och du kan bedöma hur den ser ut.
Du hör instrumentens placering. Det betyder att du hör vilken infallsvinkel ljudvågorna från respektive instrument har till ditt huvud och det gäller direktljudet.
Hörseln detekterar direktljudet, men man hör inte direktljudet i sig. Man hör en summa av direktljud och tidiga reflexer.
Hörseln detekterar från vilken infallsvinkel de tidiga reflexerna kommer ifrån. Det är en helt essentiell information för hörseln i sin avståndsbedömning till ljudkällan.
Du hör nämligen perspektiv. Det fär med sig en del konsekvenser.

Men frågan är: Vilka parametrar styr hela denna process? Denna process kan inte ske med objektiva fysikaliska mätinstrument.

Allt ljud från samtliga instrument i orkestern som når mikrofonkapseln summeras vid kapseln enligt superpositionsprincipen. Hur vet mätinstrumentet vilken del som tillhör oboe eller violin eller trumpet eller valthorn?
Mätinstrumentet vet ju inte ens vad en violin eller en trumpet eller en oboe ens är för något.
Hur kan mätinstrumentet segregera mellan musikinstrumenten och dessutom sätta dem på rätt plats dels i förhållande till varandra dels i förhållande till lokalens väggar och tak.
Mätinstrumentet kan i detta fall inte mäta något som helst av detta.

Allt ljud från samtliga instrument i orkestern som når öronen summeras vid respektive trumhinna enligt superpositionsprincipen. Hur vet hörseln som mätinstrument vilken del som tillhör oboe eller violin eller trumpet eller valthorn?
Hörseln som mätinstrumentet vet vad en violin och en trumpet och en oboe är. Därmed finns förutsättningen att lösa upp ekvationerna för att kunna segregera all information som finns på trumhinnorna. Det är således en föregående inlärningsprocess inblandat i dechiffrering av kod i hjärnan. Men hur går det till? Vilka parametrar styr? Vilka storheter är det och med vilka enheter mäts de?
Det är här som AI blir synnerligen intressant som företeelse. Man kan alltså simulera med neurala nätverk och studera/analysera vilka parametrar hörseln använder sig av då hörseln exempelvis hör en trumpet 20 grader till höger och 3 meter bakom 2a-violiner osv.
Det är just detta jag tidigare ville ge en vink om.

Hörseln som mätinstrument klarar det galant och ganska snabbt. Därmed är hörseln som mätinstrument triljarder gånger mer överlägset än voltmetrar, spektrumanalysatorer, frekvensgångsmätare, distorsionsanalysatorer mm.

Inte ens spektrogram inom spektralanalysen duger i sammanhanget i att göra en analys av en symfoniorkester med alla instrument.
Bild
Kan du här se vad det är för ljud-källa/-or, avståndet till ljud-källan/-orna, hur rummet ser ut, osv?
Spektralanalys är en metod för att undersöka ett spektrum, den spektrala energifördelningen, det vill säga energifördelningen i frekvensplanet hos en signal.
Signalen redogörs för i ett spektrogram. Spektralanalys kan användas för olika typer av signaler, som t.ex. ljud.
Inom akustiken och talteknologin kallas spektralanalysen för spektrografi.

Vilka parametrar använder hörseln för dess uppgift att segregera varenda ton som finns på trumhinnorna och för att höra instrumentet, dess positionering, den akustiska miljön, eller för den delen, vad som spelas?

Ur allas försvar kan jag säga, det är inte ens utrett inom vetenskapen. Vissa hypoteser och antaganden vet man är felaktiga, men man har inget bättre alternativ än så länge.

Nu forskas det extremt mycket inom neurovetenskap gällande hörseln.
Man använder även AI för att söka förstå vilka parametrar som styr.

I artiklar jag läst har man gjort en hel del mätningar på densitet av impulser i nerver som funktion av akustiska stimuli. Till en början var samtliga resultat stokastiska och oanvändbara för analys.
Sedan gjorde man samma försök, men istället för att mäta på summation av signaler, så mätte man subtraktion av signaler d v s differensen. Då helt plötsligt blev densiteten av aktionspotentialer i neuronerna direkt proportionellt med akustiska stimuli från höger och vänster trumhinna. Om differenser finns i nervbanor så har hörseln ett enastående verktyg i att selektera bort information efter dechiffrering av ILD och HRTF.

Hörseln använder även kognitiva processer med jämförelse med minne d v s. inlärningsprocesser och då kan vi lära oss mycket av AI.
Det är därför jag tog upp AI. En frågeställning är hur detaljer upplevs. Det har jag svarat på. Jag har dessutom tagit upp vilka parametrar som styr och med vilka enheter det mäts.

Jag har ännu inte kommit in på de viktigaste parametrarna, nämligen olika former av korrelation och kovarians och en kombination dem emellan.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-03-28 10:21

Vi tackar peter för ett informativt inlägg.

+1
Optimera mera!

Kraniet
 
Inlägg: 12534
Blev medlem: 2003-10-04
Ort: Umeå

Re: Vilka element ger mest mikrodetaljer?

Inläggav Kraniet » 2023-03-29 16:41

Mycket intressant.

Kan ju tillägga det häftiga faktum att det finns personer som lärt sig ekolokalisering. De cyklar tex mountainbike i skogen helt blinda 8O
Hörseln är otroligt häftig minst sagt.
Mvh
Magnus

Användarvisningsbild
DVD-ai
 
Inlägg: 15350
Blev medlem: 2008-03-30
Ort: Stockholms skärgård

Re: Vilka element ger mest mikrodetaljer?

Inläggav DVD-ai » 2023-03-29 16:53

Kraniet skrev:Mycket intressant.

Kan ju tillägga det häftiga faktum att det finns personer som lärt sig ekolokalisering. De cyklar tex mountainbike i skogen helt blinda 8O
Hörseln är otroligt häftig minst sagt.


+1 !
Mvh//David
Klar och nyfiken på annat !

"Att mäta är att få svar på hur det man mäter, mäter"

Användarvisningsbild
I-or
Herr Ekvalisator
 
Inlägg: 6170
Blev medlem: 2020-08-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav I-or » 2023-03-29 17:23

Det finns personer som kan beskriva både form och ytstruktur på ett objekt, t.ex. ett träd eller en tegelvägg, enbart genom ekolokalisering. 8O

Det visar sig att hörseln speciellt för blinda personer är otroligt anpassningsbar. Hjärnan är fantastisk och många tänker inte på att vi hårdkodar den för olika uppgifter när vi tränar upp olika förmågor. Nya nervbanor kopplas upp för specifika uppgifter och detta sker effektivare när hjärnan inte behöver sätta av kapacitet för tolkning av de dominerande synintrycken. När det gäller ekolokalisering så vill man dock helst ha en "klickare" för att generera de nödvändiga pulserna. Här har fladdermössen och delfinerna en stor fördel.
Teknisk konsult inom akustik och audioteknik

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-29 20:02

Även seende är nästan lika bra på ekolokalisering som blinda. Ekolokalisering utan klickljud används dagligen även av seende. Vid avståndsbedömningar är det ffa höga frekvenser som avgör avståndet och egenskaperna hos prylarna i närområdet både i medicinska axialplanet som det sagitala planet. Seende med förbundna ögon kan använda ekolokalisering upptill 3 m medans blinda kan använda ekolokalisering på längre avstånd.
I ljudlokaliseringen finns även en sensomotorisk komponent. Dvs att huvudet vrids/lyfts mot ljudets lokalisation autonomt och jämförs med liknande motoriska/proprioceptions erfarenheter. På liknande sätt som aktiva pianospelare aktiverar motoriska areor i hjärnan vid lyssning på pianomusik på ett sätt som icke pianospelare inte gör.
Litovski visade redan i studie 1989 att ljudlokalisering och precedence effekten i mediala sagital planet sker med höga frekvenser trots att tidsskillanden är 0. Förklaringen till detta är att vid ljud rakt framifrån emottar hjärnan olika frekvenser från höger resp vänster öra pga att ytteröronen är asymmetriska och sitter vanligen på olika höjd. Vi har adapterat till detta och vid viss asymmetri i ljudet upplevs som varandes ljudkällan rakt framifrån. Egenskapen är inlärd och vid förändring av ytteröronens frekvensspektra sekundärt till tex skada tar det inte så lång tid tills vi har adapterat till de nya frekvenserna.
På samma sätt är det med synen. Klassiskt experiment är när försökspersonerna fick bära spegelglasögon dygnet runt där alla synintryck vändes upp o ner. Efter några veckor hade de adapterat till en spegelvänd värld. När experiment avslutades och spegelglasögonen togs av hade försökspersonerna lika svårt att adaptera till en icke upponer värld som i början av experimentet.

JM
Senast redigerad av JM 2023-03-29 20:25, redigerad totalt 1 gång.
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

Användarvisningsbild
I-or
Herr Ekvalisator
 
Inlägg: 6170
Blev medlem: 2020-08-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav I-or » 2023-03-29 20:24

Jag hade en god vän med många kreativa idéer som byggde en hjälm med "fågelögon" på sidorna. Några speglar och en lins per sida gjorde det möjligt för honom att uppleva världen ur ett riktigt fågelperspektiv med 360 graders synfält. Han berättade att känslan var mycket märklig till en början, men att han vande sig efter ett par timmar för att sedan utan problem kunna röra sig i olika miljöer och göra det han ville.
Teknisk konsult inom akustik och audioteknik

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-29 20:28

Häftigt!

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-29 20:34

Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-29 22:00

Blinda har även sin vita pinne som tickar rätt bra då man slår den mot trottoarkanten, d v s transienten blir rätt skarp. Den reflekteras mot husväggar på andra sidan gatan och avståndsbedömning och orientering kan ske.

Vad jag läst så kan, hos blinda personer sedan tidig ålder, hörseln ta över nervbanor som annars är vigda åt synen. Det förändrar upplösningen för hörseln i nervsystemet ganska rejält.

Det man också kan fundera över, är vilket koordinatsystem som används av människan. Det måste vara ett koordinatsystem i den neurala domänen d v s något som finns inuti varje människa. Annars funkar ingenting och hela balanssinnet slås ut.
Där kommer inneröronen in i bilden. Hörselsystemet med dess inneröron står för koordinatsystem med origo och axlar x,y,z och vinkel. Det är ju vårt sinne för lokalisation i total 3D d v s runtomkring oss, även bakom oss, vilket även beskrivs som 4π. I hörselsnäckan sitter ett stort antal vibrationskänsliga sinnesceller som registrerar rörelserna från ovala fönstret. Balans- och hörselnerven är den nerv som skickar information från sinnescellerna i snäckan och båggångarna till hjärnan. Båggångarna är tre till antalet och förhåller sig till varandra som de tre axlarna i ett tredimensionellt koordinatsystem. I varje båge finns vätska och grupper av celler som mäter flödet i vätskan, detta flöde översätts centralt till information om huvudets rörelse.
Detta kallas det vestibulära systemet som består av labyrinten i inneröronen och som känner av acceleration av huvudet i förhållande till jordens dragningskraft. Organet består av två hinnsäckar och tre båggångar som innehåller vätska.
I bilden syns de tre bågarna som utgör ett koordinatsystem. Sedan går information därifrån in i nervsystemet.
Bild
När vi rör huvudet kommer vätskan i båggångarna i rörelse och retar sinnescellerna som rapporterar till hjärnan om olika rörelser och om huvudets läge. Att tyngdkraften är av betydelse förstås om man testar balanssinnet ute i rymden. Då kan vårt balansorgan inte avgöra vad som är upp eller ned.
Båggångarna ingår, tillsammans med synen och sinnesceller i bland annat leder, i balanssinnet som gör att vi kan hålla balansen och uppfatta riktningsändringar.
Seende märker att man genast får svårt med balansen om man täcker för ögonen. Detta drabbar många äldre som förlorar synen. Hos en person som föds blind så har hjärnans plasticitet förmågan att kunna kompensera bristen på ett synnerligen effektivt sätt.
Synens orienteringsförmåga är dominant framåtriktad och fungerar om det finns tillräckligt med ljus.

Om man tänker sig att synen skulle ha sitt eget koordinatsystem med origo, så måste synens och hörselns koordinatsystem synkas med varandra i hjärnan, både till Origo och koordinataxlar x,y,z i ett 3-dimensionellt kartesiskt koordinatsystem. Det finns forskning på området och jag har läst några undersökningar.
Skulle dessa koordinatsystem i så fall spatialt komma ur synk med varandra, så blir det en schizofren upplevelse mellan syn och hörsel. Sådan ur synk upplevelse funkar inte speciellt bra. Man kan demonstrera ur synk-effekter mellan hörsel och syn via film och filmljud. Enklast är läppsynk, men det är en tidsderivata och inte spatialt.

Senast jag läst angående detta så har man inte hittat 2 skilda koordinatsystem. Däremot verkar det finnas en process som ser till att det blir en dominans gällande syn eller hörsel så att det inte skall kunna uppstå tvetydighet. Processen verkar ske via inhibition och trunkering mellan syn och hörsel. Synen har nervbanor till hörselns nerver för att kunna trunkera hörselinformation d v s nolla informationen. Det görs i synapser med inhibitoriska neurotransmittorer.
Det finns säkert massor med mer att läsa i ämnet idag.

Jag har koncentrerat mig på hörseln som sinne.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

hifi_nirvana
 
Inlägg: 267
Blev medlem: 2021-11-05

Re: Vilka element ger mest mikrodetaljer?

Inläggav hifi_nirvana » 2023-03-29 22:21

Örat är ett makalöst organ. När man börjar och titta på hur örat fungerar då börjar man nästan att undra vilken Ingenjör som har skapat denna makalösa maskin. Har du tid och ork en dag Peter. Då vore det kul och läsa din beskrivning av hur örat fungerar. Tror många hade fått sig en tankeställare när dom ser vilket enastående organ örat är. Det jag tänker på är hur örat omvandlar ljudvågor till för oss igenkännande ljud.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-30 01:57

JM skrev:Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637

JM


Självklart är det så att hörseln är ett mätinstrument som registrerar inkommande signaler. Hörseln är rätt bra på att detektera närliggande väggars reflexer. Du skriver ’optimalt försenad reflex’. Hur definierar du en ’försenad’ reflex? Har aldrig sett uttrycket förut. Den skall dessutom vara optimalt försenad. Reflexer är alltid efter i tiden i förhållande till direktljudet. ’Försenad’ förknippar jag med då man gick på engelskalektionerna på gymnasiet. :) antingen är man i tid eller också är man försenad. Men optimalt försenad? Det uttrycket skall jag använda nästa gång jag är försenad. Är det samma sak som att komma i Grevens tid?
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-30 07:48

petersteindl skrev:
JM skrev:Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637

JM


Självklart är det så att hörseln är ett mätinstrument som registrerar inkommande signaler. Hörseln är rätt bra på att detektera närliggande väggars reflexer. Du skriver ’optimalt försenad reflex’. Hur definierar du en ’försenad’ reflex? Har aldrig sett uttrycket förut. Den skall dessutom vara optimalt försenad. Reflexer är alltid efter i tiden i förhållande till direktljudet. ’Försenad’ förknippar jag med då man gick på engelskalektionerna på gymnasiet. :) antingen är man i tid eller också är man försenad. Men optimalt försenad? Det uttrycket skall jag använda nästa gång jag är försenad. Är det samma sak som att komma i Grevens tid?

I ett ekofrittrum finns inga reflexer. Direktljudet i ekofriarummet upplevs ändå som suboptimalt innan adaptation.

I vanliga lyssningsrum är de laterala reflexerna från lådhögtalare suboptimala och måste dämpas för att inte göra direktljudet suboptimalt. Dämpningen tar bort ffa de högre frekvenserna.

Samtidigt råder det konsensus inom perceptionsforskningen att de absolut viktigaste reflexerna är de laterala reflexernas högre frekvenser för optimal detaljupplevelse och direktljudsupplevelse enligt Toole, Olive, Barron, Lokki mfl.

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-30 10:43

JM skrev:
petersteindl skrev:
JM skrev:Trots hjärnans plasticitet lyssnar jag nu på lådhögtalare (Yamaha NS-1000) och saknar förväntade spatiala komponenter från optimalt försenade reflexer. Det finns uppenbarligen gränser för plasticiteten hos hjärnan.
https://pearl-hifi.com/06_Lit_Archive/1 ... nances.pdf
viewtopic.php?f=16&t=48126&p=2269637&hilit=Toole#p2269637

JM


Självklart är det så att hörseln är ett mätinstrument som registrerar inkommande signaler. Hörseln är rätt bra på att detektera närliggande väggars reflexer. Du skriver ’optimalt försenad reflex’. Hur definierar du en ’försenad’ reflex? Har aldrig sett uttrycket förut. Den skall dessutom vara optimalt försenad. Reflexer är alltid efter i tiden i förhållande till direktljudet. ’Försenad’ förknippar jag med då man gick på engelskalektionerna på gymnasiet. :) antingen är man i tid eller också är man försenad. Men optimalt försenad? Det uttrycket skall jag använda nästa gång jag är försenad. Är det samma sak som att komma i Grevens tid?

I ett ekofrittrum finns inga reflexer. Direktljudet i ekofriarummet upplevs ändå som suboptimalt innan adaptation.

I vanliga lyssningsrum är de laterala reflexerna från lådhögtalare suboptimala och måste dämpas för att inte göra direktljudet suboptimalt. Dämpningen tar bort ffa de högre frekvenserna.

Samtidigt råder det konsensus inom perceptionsforskningen att de absolut viktigaste reflexerna är de laterala reflexernas högre frekvenser för optimal detaljupplevelse och direktljudsupplevelse enligt Toole, Olive, Barron, Lokki mfl.

JM


Ok. Nu inför du begreppet suboptimalt. Lägger jag ihop ditt tidigare inlägg med detta så blir summan av dessa förståligt.

Det viktiga här är; att enkom direktljud i ekofritt rum är suboptimalt.

Detta kan faktiskt anses vara fakta i målet.

Utifrån detta kan man dra slutsatser och ställa upp hypoteser gällande hur man bör införa reflexer till direktljudet för att få till ett optimalt sammansatt ljud mellan direktljud och reflexer.

Analytiskt kan det beskrivas så här:

Summan av ljud blir: Direktljud D + Reflexer R (Reflekterat ljud) = Totalljud T som når lyssnaren.
Detta kan skrivas som D + R = T
Sätter man Reflexer R till noll så är Totalljudet T som når lyssnaren suboptimalt. Det vill vi inte. Men vad vill vi?

Nu återstår det således att lägga till Reflekterat ljud R på sådant sätt att Totalljudet T som når lyssnaren blir optimalt och inte suboptimalt.

Detta kan först göras genom att analysera olika typer av R.
Då kan R delas in i 1a R och sena R och Efterklang E.

1a R kan specificeras med olika infallsvinklar till lyssnaren och olika tidsfördröjningar i förhållande gentemot direktljudet samt specifik frekvensgång, fas och amplitud på varje 1a R i förhållande till D. OBS! Det finns flera 1a R, en från varje begränsningsyta i rummet (4 väggar + golv + tak).

Dessa parametrar ger väsentlig information för hörseln gällande att detektera ljudet och ge upplevt slutresultat.
Det upplevda slutresultatet kallas Ljudhändelse L på Svenska (Sound event på Engelska).

Nu kan man sätta upp en hypotes:

Optimalt T = Maximal godhetsfaktor på L, kallad Lmax.

Nu kan man via Trial & Error undersöka Optimalt T genom att variera R och låta försökspersoner sätta godhetsfaktor på L.

Det finns dock mer analytiska tillvägagångssätt genom att analysera hörselns verkningssätt och processer för att förstå de ingående parametrarna i R och i D som styr godhetsfaktorn på L.

Då kan man direkt sätta upp en formell hypotes gällande Optimalt T. Man kan även sätta upp analytiska matematiska fysikaliska samband för Optimalt T.

OBS! Optimalt T tillhör den fysikaliska Akustiska Domänen AD, medans Lmax är i den Psykologiska Domänen PD.
Däremellan finns den Neurala Domänen ND. Det är i denna domän som överföringsfunktionen mellan AD och PD sker.

PD = ND*AD

Maximerad god Lmax i PD = ND * Optimerad T i AD.

Optimering av T i AD är en förutsättning för att överföringsfunktionen i ND att kunna leverera Lmax i PD.

Detta kan synas vara ett cirkelresonemang eftersom överföringsfunktionen i ND är beroende av T i AD.
Detta är helt korrekt eftersom det handlar om en inlärningsprocess genom intelligens som även kan appliceras i AI.
Man itererar sig fram med statistiska modeller som bygger på fysikaliska statistiska egenskaper som korrelation, kovarians och en kombination dem emellan. Det finns många olika typer av korrelation. Här bör också nämnas faltning.
Vid varje iteration sker inlärning. Huruvida inlärning är samma sak som adaption så är mitt svar Nej. Adaption sätter jag snarast till dynamiskt varierande maskeringseffekt i hörseln som beror på icke-intelligenta processer. Inlärning är en intelligent process med minne. Egentligen är de varandras motsatser. Den ena ökar upplösningen, den andra minskar.

Det är dessa statistiska egenskaper som måste beräknas utifrån parametrarna i R i förhållande till D, som jag skrivit ovan.

Då jag konstruerar högtalare så använder jag detta som fundament.

Det kan vara så att AI d v s med inlärning kan ställas upp med Bayesianska modeller. :) 8) Detta får dock andra i teamet syssla med, än så länge.

Mvh
Peter
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-30 10:47

Och?

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-30 11:07

:?: Och vad? Vad menar du?
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-30 12:29

Förstår faktiskt inte utgångsläget att direktljud kan vara suboptimallt eller optimalt. Ej heller att det skulle finnas en optimal mix av direktljud och diffusljud.

Hörseln egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen.

Att vi kan gå in i ett ekofritt rum och till en början inte bara "lura" hörseln utan även andra sinnen beror ju på att miljön är okänd för hjärnan. Dock vi lär oss efter ett antal vistelser i "ekofri" miljö.
Samma primärkänsla kan vi ju uppleva i naturlig miljö, t.ex p en alptopp med pudersnö runt omkring. D v s småprassel från kläder blir väldigt distinkta, andning och kroppsljud hör vi inne i huvudet, det lätta -lite konstiga trycket i öronen av att omgivningen är alldeles tyst, osv.
Eller enkelt uttryckt - alla sinnen är samstämmiga om verkligetsbilden som byggs upp i hjärnan. När vi flytttar foten på alptoppen knarrar snön distinkt och så ska det vara. När vi gör samma sak i ett exofritt rum (flyttar foten) gungar nätet vi står på lätt och balansorganet och skicka info till hjärnan som stämmer med verkligheten.... när vi väl lärt oss hur ekofria rummets miljö funkar.

Så vad är suboptimalt eller optimalt? jo, när alla sinnen upplever situationen på ett sätt och är i harmoni har vi ett optimalt förhållande mellan direktljud/diffusljud. En sann bild av omgivningen skapad av bl.a hörselsinnet.

Att vi fejkar ett stereoperspektiv i ett lyssningsrum där OLIKA INSPELNINGARS efterklang ställer olika krav på rumsakustik och spridningsmönster från ljudkällorna kan bara bli en kompromiss och väldigt beroende av musiksmak och preferenser. Vilket är viktigast, perfekt och överdriven stereobild som inte finns i verkligheten eller luftighet och 3D känsla som är lika överdriven?

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-30 12:47

Jag relaterar till upplevt ljud ej uppmätt.

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-30 14:16

jansch skrev:Förstår faktiskt inte utgångsläget att direktljud kan vara suboptimallt eller optimalt. Ej heller att det skulle finnas en optimal mix av direktljud och diffusljud.

Hörseln egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen.

Att vi kan gå in i ett ekofritt rum och till en början inte bara "lura" hörseln utan även andra sinnen beror ju på att miljön är okänd för hjärnan. Dock vi lär oss efter ett antal vistelser i "ekofri" miljö.
Samma primärkänsla kan vi ju uppleva i naturlig miljö, t.ex p en alptopp med pudersnö runt omkring. D v s småprassel från kläder blir väldigt distinkta, andning och kroppsljud hör vi inne i huvudet, det lätta -lite konstiga trycket i öronen av att omgivningen är alldeles tyst, osv.
Eller enkelt uttryckt - alla sinnen är samstämmiga om verkligetsbilden som byggs upp i hjärnan. När vi flytttar foten på alptoppen knarrar snön distinkt och så ska det vara. När vi gör samma sak i ett exofritt rum (flyttar foten) gungar nätet vi står på lätt och balansorganet och skicka info till hjärnan som stämmer med verkligheten.... när vi väl lärt oss hur ekofria rummets miljö funkar.

Så vad är suboptimalt eller optimalt? jo, när alla sinnen upplever situationen på ett sätt och är i harmoni har vi ett optimalt förhållande mellan direktljud/diffusljud. En sann bild av omgivningen skapad av bl.a hörselsinnet.

Att vi fejkar ett stereoperspektiv i ett lyssningsrum där OLIKA INSPELNINGARS efterklang ställer olika krav på rumsakustik och spridningsmönster från ljudkällorna kan bara bli en kompromiss och väldigt beroende av musiksmak och preferenser. Vilket är viktigast, perfekt och överdriven stereobild som inte finns i verkligheten eller luftighet och 3D känsla som är lika överdriven?


Jag diskuterar ljudåtergivning eftersom det var ljudåtergivning JM syftade på med lådhögtalare Yamaha NS-1000.

Jag diskuterar först och främst ljudåtergivning med högtalare hemma i bostadsmiljö där inspelad orkestermusik i konserthus skall återges.

Utifrån den utgångspunkten så låter det allt annat än bra vid återgivning i ekofri miljö d v s med enbart direktljud.

Då är förhållandet så, att en ljudåtergivning måste ta hänsyn till hörselns processer för att få allt på plats.

optimerar man de fysikaliska akustiska egenskaperna hos högtalare och rum och placering av högtalarna i rummet och placering av lyssnare i rummet.
Det gör man för att maximera lyssningsupplevelsen.

Man maximerar inte de akustiska egenskaperna för att optimera lyssningsupplevelsen.

Det är 2 helt skilda angreppssätt.

Hörselns egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen. Det är helt korrekt.
Det handlar om att få kontroll/uppfattning om omgivningen i inspelningens lokal.
Det handlar således inte om att få kontroll/uppfattning om omgivningen av lyssningsrummet d v s att höra sitt eget rum. Det egna lyssningsrummet finns inte i inspelningen.

För att optimera en sådan återgivningsprocess så krävs det att man vet hur man maximerar den upplevda ljudhändelsen.

Att höra akustiska musikinstrument i ekofria rum är helt meningslös sysselsättning och bortkastad tid.

Sedan är det så att även akustiker som bygger konserthus går efter principen att optimera fysikaliska akustiska egenskaper för att maximera lyssningsupplevelsen i lokalen, så det är inte enbart ljudåtergivning det gäller utan även vid återgivning live av akustiska musikinstrument. På operan optimeras akustiken annorlunda än i stora konserthus. I talstudios optimeras akustiken ytterligare annorlunda och i kyrkor likaså.

Du frågar om vad som är suboptimalt eller optimalt?
Parametrarna för optimering är förhållandet mellan direktljudet och tidiga reflexer samt förhållandet mellan direktljud och efterklang. 1a reflexernas infallsvinkel mot lyssnaren är essentiellt för maximal upplevelse. Frekvensgången är också viktig på 1a reflexerna så att hörseln får så enkelt som möjligt att sortera 1a reflexen till rätt nervbanor. Amplitud och i viss mån deras tidsdifferens gentemot direktljudet. Detta faktum är utrönt i åtskilliga forskarrapporter.

Hela hörselns perspektivlyssning utgår från dessa parametrar. Vill vi uppleva orkestern utspridd samt höra djup, istället för att höra hela orkestern på en 2-dimensionell platt vägg så krävs det att hörseln ges möjlighet att separera allt inkommande ljud. Då krävs en optimal balans mellan dessa parametrar och egenskaper. Lyckas man med det så har man kommit väldigt långt med ljudåtergivning av akustiska musikevent. Då inkluderar jag även inspelningstekniken.

Efterklangsfält är diffusljudfält.
Ljudfältet för 1a reflexer är inte diffusljudfält. Ett diffusljudfält är ett skalärfält. Ett direktljudsfält är ett vektorfält. Ett Ljudfält för 1a reflexer är också ett vektorfält under förutsättning att man inte diffuserar 1a reflexen. Detta fält är det viktigaste fältet för orientering av sig själv och ljudkällor i den akustiska miljön samt för att få kontroll/uppfattning om omgivningen. Då krävs det att det är ett vektorfält.

Vet man hur hörseln segregerar allt detta så förenklar det dimensioneringen av högtalare för ljudåtergivning hemma av inspelad orkestermusik i konserthus med dess akustik.
Det förenklar även förenklar dimensioneringen av själva konsertsalens akustik för återgivning av akustiska musikinstrument.

Vet man hur hörseln sorterar och segregerar alla dessa ljud så kan man handskas med högtalare och rum vid ljudåtergivning så att ens egna rums 1a reflexer inte blir destruktiva eller ger input som kännetecken och påminnelse om sitt eget lyssningsrum utan enbart ger 1a reflexer som istället styrker de inspelade musikinstrumenten i deras inspelningsmiljö som om man vore på plats i konsertlokalen.
Då har man lyckats optimera uppspelningen med högtalare, högtalarplacering och uppspelningsmiljö.
Detta ger maximal ljudupplevelse vid inspelad och återgiven akustisk konsertmusik.

Det är detta mitt förra inlägg handlar om som var medvetet analytiskt skrivet

MvH
Peter
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-03-30 14:52

petersteindl skrev:
jansch skrev:Förstår faktiskt inte utgångsläget att direktljud kan vara suboptimallt eller optimalt. Ej heller att det skulle finnas en optimal mix av direktljud och diffusljud.

Hörseln egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen.

Att vi kan gå in i ett ekofritt rum och till en början inte bara "lura" hörseln utan även andra sinnen beror ju på att miljön är okänd för hjärnan. Dock vi lär oss efter ett antal vistelser i "ekofri" miljö.
Samma primärkänsla kan vi ju uppleva i naturlig miljö, t.ex p en alptopp med pudersnö runt omkring. D v s småprassel från kläder blir väldigt distinkta, andning och kroppsljud hör vi inne i huvudet, det lätta -lite konstiga trycket i öronen av att omgivningen är alldeles tyst, osv.
Eller enkelt uttryckt - alla sinnen är samstämmiga om verkligetsbilden som byggs upp i hjärnan. När vi flytttar foten på alptoppen knarrar snön distinkt och så ska det vara. När vi gör samma sak i ett exofritt rum (flyttar foten) gungar nätet vi står på lätt och balansorganet och skicka info till hjärnan som stämmer med verkligheten.... när vi väl lärt oss hur ekofria rummets miljö funkar.

Så vad är suboptimalt eller optimalt? jo, när alla sinnen upplever situationen på ett sätt och är i harmoni har vi ett optimalt förhållande mellan direktljud/diffusljud. En sann bild av omgivningen skapad av bl.a hörselsinnet.

Att vi fejkar ett stereoperspektiv i ett lyssningsrum där OLIKA INSPELNINGARS efterklang ställer olika krav på rumsakustik och spridningsmönster från ljudkällorna kan bara bli en kompromiss och väldigt beroende av musiksmak och preferenser. Vilket är viktigast, perfekt och överdriven stereobild som inte finns i verkligheten eller luftighet och 3D känsla som är lika överdriven?


Jag diskuterar ljudåtergivning eftersom det var ljudåtergivning JM syftade på med lådhögtalare Yamaha NS-1000.

Jag diskuterar först och främst ljudåtergivning med högtalare hemma i bostadsmiljö där inspelad orkestermusik i konserthus skall återges.

Utifrån den utgångspunkten så låter det allt annat än bra vid återgivning i ekofri miljö d v s med enbart direktljud.

Då är förhållandet så, att en ljudåtergivning måste ta hänsyn till hörselns processer för att få allt på plats.

optimerar man de fysikaliska akustiska egenskaperna hos högtalare och rum och placering av högtalarna i rummet och placering av lyssnare i rummet.
Det gör man för att maximera lyssningsupplevelsen.

Man maximerar inte de akustiska egenskaperna för att optimera lyssningsupplevelsen.

Det är 2 helt skilda angreppssätt.

Hörselns egenskaper i detta sammanhang är till för att få kontroll/uppfattning om omgivningen. Det är helt korrekt.
Det handlar om att få kontroll/uppfattning om omgivningen i inspelningens lokal.
Det handlar således inte om att få kontroll/uppfattning om omgivningen av lyssningsrummet d v s att höra sitt eget rum. Det egna lyssningsrummet finns inte i inspelningen.

För att optimera en sådan återgivningsprocess så krävs det att man vet hur man maximerar den upplevda ljudhändelsen.

Att höra akustiska musikinstrument i ekofria rum är helt meningslös sysselsättning och bortkastad tid.

Sedan är det så att även akustiker som bygger konserthus går efter principen att optimera fysikaliska akustiska egenskaper för att maximera lyssningsupplevelsen i lokalen, så det är inte enbart ljudåtergivning det gäller utan även vid återgivning live av akustiska musikinstrument. På operan optimeras akustiken annorlunda än i stora konserthus. I talstudios optimeras akustiken ytterligare annorlunda och i kyrkor likaså.

Du frågar om vad som är suboptimalt eller optimalt?
Parametrarna för optimering är förhållandet mellan direktljudet och tidiga reflexer samt förhållandet mellan direktljud och efterklang. 1a reflexernas infallsvinkel mot lyssnaren är essentiellt för maximal upplevelse. Frekvensgången är också viktig på 1a reflexerna så att hörseln får så enkelt som möjligt att sortera 1a reflexen till rätt nervbanor. Amplitud och i viss mån deras tidsdifferens gentemot direktljudet. Detta faktum är utrönt i åtskilliga forskarrapporter.

Hela hörselns perspektivlyssning utgår från dessa parametrar. Vill vi uppleva orkestern utspridd samt höra djup, istället för att höra hela orkestern på en 2-dimensionell platt vägg så krävs det att hörseln ges möjlighet att separera allt inkommande ljud. Då krävs en optimal balans mellan dessa parametrar och egenskaper. Lyckas man med det så har man kommit väldigt långt med ljudåtergivning av akustiska musikevent. Då inkluderar jag även inspelningstekniken.

Efterklangsfält är diffusljudfält.
Ljudfältet för 1a reflexer är inte diffusljudfält. Ett diffusljudfält är ett skalärfält. Ett direktljudsfält är ett vektorfält. Ett Ljudfält för 1a reflexer är också ett vektorfält under förutsättning att man inte diffuserar 1a reflexen. Detta fält är det viktigaste fältet för orientering av sig själv och ljudkällor i den akustiska miljön samt för att få kontroll/uppfattning om omgivningen. Då krävs det att det är ett vektorfält.

Vet man hur hörseln segregerar allt detta så förenklar det dimensioneringen av högtalare för ljudåtergivning hemma av inspelad orkestermusik i konserthus med dess akustik.
Det förenklar även förenklar dimensioneringen av själva konsertsalens akustik för återgivning av akustiska musikinstrument.

Vet man hur hörseln sorterar och segregerar alla dessa ljud så kan man handskas med högtalare och rum vid ljudåtergivning så att ens egna rums 1a reflexer inte blir destruktiva eller ger input som kännetecken och påminnelse om sitt eget lyssningsrum utan enbart ger 1a reflexer som istället styrker de inspelade musikinstrumenten i deras inspelningsmiljö som om man vore på plats i konsertlokalen.
Då har man lyckats optimera uppspelningen med högtalare, högtalarplacering och uppspelningsmiljö.
Detta ger maximal ljudupplevelse vid inspelad och återgiven akustisk konsertmusik.

Det är detta mitt förra inlägg handlar om som var medvetet analytiskt skrivet

MvH
Peter


Att Akustiska instrument låter torrt och konstigt i ekofri miljö är nog en självklarhet. Jag har dock bara provat gitarr. Kan tänka mej att t.ex trumpet låter väldigt onyanserat och extremt riktningsberoende. Ungefär som ett sinussvep som blir väldigt "stickigt".

Däremot låter tysk schagermusik i en Schaub Lorenz transistorradio helt ok, en aning basfattigt men klart lyssningsbart i ekofritt rum. Framförallt när man slipper höra sina egna ljud.

Användarvisningsbild
petersteindl
Der Eiermann
 
Inlägg: 39703
Blev medlem: 2007-04-17
Ort: Härnösand

Re: Vilka element ger mest mikrodetaljer?

Inläggav petersteindl » 2023-03-30 15:05

:D

Violiner t.ex. har så oerhörd konstig och frekvensberoende riktningskarakteristik att man måste ha med tidiga reflexer från många riktningar som tillsammans summerar till en behaglig och fyllig klangkaraktär. Ekofritt blir det spinkigt och obehagligt och väldigt beroende på hur man håller instrumentet i förhållande till mikrofon. Detta förutom att det låter torrt.

Tysk schlagermusik i Schaub Lorenz kan kanske funka bra ekofritt. :) Tror dig. Har själv aldrig provat.
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.

JM
 
Inlägg: 4817
Blev medlem: 2011-08-13

Re: Vilka element ger mest mikrodetaljer?

Inläggav JM » 2023-03-30 16:20

Jag har sannolikt varit otydligt med skillnaden mellan mätbart direktljud och hörbart direktljud. Jag relaterar inte till stereoljud utan till ljud uppspelat via en högtalare.
När vi lyssnar på musik/ljud i rum hör vi bara direktljudet så länge vi inte har hörbara ekon enligt precedence effekten. Hörbara direktljudet är färgat av reflexerna men reflexerna i sig är inte hörbara.

Hörandet är live i den bemärkelsen att ljudet upplevs bara en gång. Allt hörande är sekventiellt. Vi hör vid vanligtt tal ca 20 ljudsekvenser/s. Som vi alla vet missar vi ofta delar ljud där vi måste gissa vad vi egentligen hörde. Tidigare erfarenheter av liknade ljud och visuellt läppläsande ökar sannolikheten att vi gissar rätt. McGurk effekten är ett exempel när det blir fel.
https://www.youtube.com/watch?v=2k8fHR9jKVM

När jag lyssnar på mina NS-1000 är färgningen av hörbara direktljudet relativt suboptimalt. Reflexerna har en negativ inverkan på det hörbara direktljudet. Reflexerna är relativt starkare och tidigare samt mer frekvensmässigt avvikande ffa inom de viktiga högfrekvensområdet än fysikaliska direktljudet enligt konsensusforskningen.

När jag lyssnar på mina linje-dipoler går reflexerna betydligt en längre väg innan de blandas med det fysikaliska direktljudet. Relativa andelen reflexer hos linjedipolen är lägre pga högre riktverkan och destruktiva interferenser ortogonalt mot 0-axeln. Reflexljudet är frekvensmässigt mer likt direktljudet och har betydligt mer högfrekventa inslag. Allt detta enligt konsensusforskningen.
Färgningen av hörbara direktljudet hos linje-dipolerna är mindre suboptimalt.

Vi hör aktivt selektivt sekventiellt i nutiden i relation till dåtiden utifrån nya förväntningar på framtiden.

I hörselcentra i temporalloben är allt hörbart ljud organiserat tonotopiskt. Hörbara ljudet är utspritt anatomiskt i nervcellerna från låga frekvenser till höga frekvenser på ett mer detaljerat sätt än i choclea i innerörat. Ortogonalt mot denna tonotopiska frekvensgradient finns en temporalgradient där tidigare sekvenser är representerade. Denna funktion delar vi med däggdjuren.
En autonom process i temporalloben korrigerar inte bara felaktiga perceptioner över tiden utan kan även korrigera så att ord uppspelade baklänges uppfattas som om de var korrekt uppspelade! Dvs någon koppling till tidigare erfarenhet måste finnas.

Således blir det hörbara direktljudet blandat med optimala reflexer betydligt mer detaljrikt av fysiologiska skäl. Temporallobens korrektionsprocess gör således suboptimalt fysikaliskt direktljud till optimalt hörbart direktljud.
På hjärnstamsnivå finns en autonom koppling till överlevande funktioner som reagerar på högfrekvent ljud långt innan bastonerna har nått hjärnstammen. Tex skräckreflexen.
Tidsvariabeln är viktig på flera nivåer i hjärnan.

Optimalt hörbart direktljud med optimala reflexer är ej suddigt eller diffust utan betydligt mer detaljrikt och spatialt enligt Toole (se tidigare inlägg i denna tråd). Även Barron, Lokki mfl visar entydigt att optimala laterala reflexer gör hörbara direktljudet mer optimalt.

JM
Neuroscientist. Emotional Beauty is in the Ear of the Listener. "Kill your darlings" => scientific evolution.

Användarvisningsbild
LeifB
Trollkarl
 
Inlägg: 1853
Blev medlem: 2003-12-30

Re: Vilka element ger mest mikrodetaljer?

Inläggav LeifB » 2023-09-05 12:46

Kan någon förklara hur ett optimalt lyssningsrum ska vara?
Påverkar rummet mer än högtalarna resultatet?
Har sett rum och placering av högtalare som är skrämmande i lyssningshänseende.
Optimera mera!

jansch
 
Inlägg: 3675
Blev medlem: 2009-05-01

Re: Vilka element ger mest mikrodetaljer?

Inläggav jansch » 2023-09-06 16:48

LeifB skrev:Kan någon förklara hur ett optimalt lyssningsrum ska vara?
Påverkar rummet mer än högtalarna resultatet?
Har sett rum och placering av högtalare som är skrämmande i lyssningshänseende.


Den frågan är extremt komplex att svara på men: En dålig högtalare kan aldrig bli bra av ett perfekt anpassat rum och en bra högtalare kan låta "skit" i ett hopplöst rum.
En högtalare arbetar i symbios med rummet och programmaterialet (hur inpelningen är gjord) påverkar mycket.
Alltså 3 icke standardiserade "produkter" som skall samverka - inte direkt lysande förutsättnigar.
Dessutom har vi alla en subjektiv och varierande bild av vad som låter bra.

Användarvisningsbild
Almen
Hilbert
 
Inlägg: 17879
Blev medlem: 2005-01-01
Ort: Göteborg

Re: Vilka element ger mest mikrodetaljer?

Inläggav Almen » 2023-09-07 09:50

jansch skrev:
LeifB skrev:Kan någon förklara hur ett optimalt lyssningsrum ska vara?

[...]
Dessutom har vi alla en subjektiv och varierande bild av vad som låter bra.

Ja, den som bäst besvarar den frågan är nog LeifB själv.
Nämn tre av de köttätande växter som vid mässan i Hannover med hull och hår slukade den då ditresta gosskören. Svara!

FöregåendeNästa

Återgå till Teknikforum


Vilka är online

Användare som besöker denna kategori: Inga registrerade användare och 6 gäster