Hur mäter man upplösning?

Generell diskussion om hifi och områden runt hifi.

Moderator: Redaktörer

Användarvisningsbild
BB
 
Inlägg: 1227
Blev medlem: 2005-12-23

Inläggav BB » 2009-03-04 01:03

lennartj skrev:Upplösning kan vara negativt också, när homogenitet och timing mm. brister så att bas, mellanregister och diskant spretar både klangligt och tidsmässigt så det bland annat låter som om musikerna inte spelar i takt.
Usla högtalarkonstruktioner är nog värst, men vissa bitstream-DAC'ar kan ställa till det och även förstärkare.


Om inte samtliga de av dig uppräknade parametrarna ligger i synk, är, som jag ser det, inte vilkoren för hög upplösning uppfyllda.

Mvh//BB
F.d. Audio-Tronic, f.d. Centara. Consulting åt bl.a. Mark Levinson, (Red Rose Music), samt Cello Film & Music Systems. Grundare av Transmission Audio Inc., NJ, USA. http://www.transmissionaudio.com

Användarvisningsbild
lennartj
 
Inlägg: 6392
Blev medlem: 2007-10-03
Ort: Göteborg

Inläggav lennartj » 2009-03-04 01:26

Jag kallar det även upplösning = sönderfall av musikens sammanhang.
Inte ovanligt bland hemmatweakare som tappat spåret, och säger - hör så mycket detaljer, och återgivningen spretar åt alla håll.

krasse2
Semesterfirare
 
Inlägg: 170
Blev medlem: 2009-02-20

Inläggav krasse2 » 2009-03-04 08:37

Svante skrev:Jag tror, men vet inte säkert, att ordet upplösning först användes för bitdjupet på ADDA-omvandlare. Det lustiga är att den framförallt bestämmer en brusnivå för mediet. Den har förmodligen inte alls så mycket att göra med att höra små detaljer att göra. Åtminstone inte om man har tillräcklig upplösning, typ mer än 12 bitar.

Annars är det en association man lätt gör; att man om man kan representera små nivåskillnader i vågformen så hörs små detaljer i ljudet bättre. Så länge inte ljudet dränks av kvantiseringsbruset så tror jag att den kopplingen är svag.

Om inte jag är fel på det så kommer upplösning ifrån optikens värld och som dessutom har fått en renässans med digital fototeknik.

I optikens värld handlar det helt enkelt om hur små detaljer som utrustningen tillåter oss att urskilja i en bild.
I detta sammanhanget så är det ganska enkelt att konkretisera upplösning, ju mindre detaljer vi kan uppfatta i en bild, desto mer högupplöst är bilden. För att kunna urskilja detaljer så krävs det en viss ljusintensitet i bildpunkten och en skillnad mellan kringliggande bildpunkter.

Skulle man "översätta" detta till vår "hifi-värld" så handlar det först och främst om amplitud och tidsmässig skillnad mellan två toner av olika amplitud.

Som jag ser det så finns det 3 kritiska parametrar för ljudmässig upplösning.

Skillnaden i tid mellan tonerna.
Skillnaden i amplitud mellan tonerna.
Skillnaden i frekvens mellan tonerna.

Ju större någon enskild av dessa parametrar är desto lättare går det att skilja toner åt.

När det gäller högtalares upplösning så tror jag man kan utgå ifrån dessa parametrar och anta att hur högupplösta ett par högtalare är beror på hur de klarar av att återge toner med exakt rätt tidsrymd i mellan, hur de klarar av att skilja olika amplituder från varandra och till sist förmågan att skilja olika frekvenser ifrån varandra.

Börjar man då syna var och en av dessa parametrar så inser man att flera av dessa parametrar kan brytas ner i ytterligare fler parametrar.

Men det hinner jag inte med nu, för nu ska jag till tandläkaren...

Hej så länge...

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 08:59

krasse2 skrev:Som jag ser det så finns det 3 kritiska parametrar för ljudmässig upplösning.

Skillnaden i tid mellan tonerna.
Skillnaden i amplitud mellan tonerna.
Skillnaden i frekvens mellan tonerna.


Här har vi ett av problemen med hifi-terminologi.

Ordet upplösning är från början en teknisk term, som beskriver hur små förändringar som kan registreras. Det kan vara sista siffran på voltmetern, den kan vara kvantiseringssteget i A/D-omvandlaren, eller som du säger hur små förflyttningar i en bild som registreras.

Men det tre sakerna du beskriver är mycket starkare kopplade till perception än till de saker som en hifiutrustning påverkar. Du utgår från toner, dvs det vi hör.

Förstärkare, högtalare etc påverkar primärt vågformen. Vi "hör" dock inte vågformen (nåja) utan det spektralanalys som görs av vågformen i öronen.

Vi försöker alltså förstå den tekniska parametern upplösning i det vi hör, vilket blir något helt annat.

Visst man pratar om frekvensupplösning också (tex vid FFT), och den skulle ju då ha en närmare koppling till perceptionen. Är det kanske det vi menar? Mja, en apparat har mycket liten möjlighet att direkt påverka frekvensupplösningen (bortsett från olika snålkodningsformat).

Nä, för att veta hur man mäter upplösning så måste man först definiera vad det är man vill lösa upp. Har man tur så är det en teknisk parameter, då finns det en chans att mäta den, är den perceptuell... Tja.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
Nattlorden
Pumpkin/Redaktör
 
Inlägg: 57239
Blev medlem: 2003-10-28
Ort: Grå Hamnarna

Inläggav Nattlorden » 2009-03-04 09:28

Morgontrött tanke som säkert inte är inkalibrerad än, men när du nämnde FFT.

Skulle det kanske kunna vara så att "upplösning" är ett mått på hur finfördelad FFT som det är lönt att göra?
It's all fun and games until Darth Vader comes.

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 12:36

Nattlorden skrev:Morgontrött tanke som säkert inte är inkalibrerad än, men när du nämnde FFT.

Skulle det kanske kunna vara så att "upplösning" är ett mått på hur finfördelad FFT som det är lönt att göra?


Då får du definiera vad du menar med "upplösning" ;) .
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
Strmbrg
Syftistikerad
 
Inlägg: 16426
Blev medlem: 2009-01-06

Inläggav Strmbrg » 2009-03-04 13:11

Hm:

Bilder är ju liksom statiska över tid.

Ljud förändras över tid.

Jag menar:
Om jag med synsinnet skall bedöma en bilds kvaliteter, tex dess upplösning, så kan jag ju stirra på den så länge jag behöver eller vill.
Jag kan ta fram en lupp och fingranska bilden, om jag så önskar.
Därefter kan jag uttala mej om den.

Om jag med hörseln skall bedöma ett återgivet ljuds kvaliteter, så är ju förutsättningarna lite eljest.
Lite bökigare, skulle jag tro.
Bilden ligger ju där framför mej hela ti'n. Men ljudet upplever jag ju enbart i ett litet smalt tidsfönster i vilket informationen hela ti'n förändras.
Jag måste alltså nyttja minne och kanske perceptionssnabbhet på ett helt annat sätt än när jag bedömer en bild.

Åkej...

-Och?

8O

:)
Till slut vet bara de insiktslösa hur precis allt hänger ihop.
De insiktsfulla har sedan länge förstått att de inte förstår allt.

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 13:41

Strmbrg skrev:Bilder är ju liksom statiska över tid.

Ljud förändras över tid.


Nä.

Bilder förändras över tid, det är bara att titta ut genom fönstret så ser man det.

Ljud, däremot är statiskt. Varenda sinuston faktiskt. Det finns visserligen såna extremiteter som sinussvep, med DET är högre skolan, det. Så mycket ändras nästan inget.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
DIRAVI
 
Inlägg: 1882
Blev medlem: 2009-01-27
Ort: Umeå

Inläggav DIRAVI » 2009-03-04 15:02

RogerJoensson skrev:
sebatlh skrev:vad är upplösning i högtalarsammanhang?

Det beror på vem du frågar.
Någon vedertagen definition har jag aldrig sett, och många som använder begreppet verkar mena lite vad som helst när dom argumenterar med det. Med andra ord ett ganska värdelöst begrepp, annat som utfyllnad.


Som jag uppfattat det handlar det om "upplevelse av frekvensupplösnig"

Altså, att tonerna inte flyter ihop, utan att det blir enklare att särskilja de enkilda ljudkomponenterna i musiken.

Jag har, innan jag börjat reflektera över teoritiseringar av ljud, upplevt det som att vissa högtalare (eller andra delar av kedjan, men det är högtalare jag shiftar oftast) spelar så att det är enklare att höra fler olika komponenter i ljudbilden än med andra högtalare.

Det har jag tolkat som att de varit mer, eller mindre, upplösta, i frekvenskurvan.

Men det kan ju egentligen handla om att vissa register varit dominerande.


Nu har en slöjja fallit, inte från några högtalare, men från mina ögon. ;)
Saliga äro de träskalliga, ty de skola alldrig drunkna.

//Magnus

Användarvisningsbild
Nattlorden
Pumpkin/Redaktör
 
Inlägg: 57239
Blev medlem: 2003-10-28
Ort: Grå Hamnarna

Inläggav Nattlorden » 2009-03-04 15:29

Svante skrev:
Nattlorden skrev:Morgontrött tanke som säkert inte är inkalibrerad än, men när du nämnde FFT.

Skulle det kanske kunna vara så att "upplösning" är ett mått på hur finfördelad FFT som det är lönt att göra?


Då får du definiera vad du menar med "upplösning" ;) .


Det var det jag gjorde tyckte jag... "Hur hög förfining av FFT som behövs för att det inte längre skall tillkomma mer information."
It's all fun and games until Darth Vader comes.

Användarvisningsbild
BB
 
Inlägg: 1227
Blev medlem: 2005-12-23

Inläggav BB » 2009-03-04 16:15

Svante skrev:
Strmbrg skrev:Bilder är ju liksom statiska över tid.

Ljud förändras över tid.


Nä.

Bilder förändras över tid, det är bara att titta ut genom fönstret så ser man det.

Ljud, däremot är statiskt. Varenda sinuston faktiskt. Det finns visserligen såna extremiteter som sinussvep, med DET är högre skolan, det. Så mycket ändras nästan inget.


Vad menar du med att "ljud är statiskt"?

Slår du an en tangent på en flygel, får du som funktion över tiden:

1. Transientingress.
2. Kvasiperiodiskt förlopp.
3. Avklingning.

Transientingressen sätter ribban för vår förmåga att avgöra att det just i det här fallet är en ton från en flygel vi hör. (Den är m.a.o. den huvudsakliga informationsbäraren). Har högtalarelementen hög energilagring får hjärnan problem med avkodningen. Har högtalarsystemet dessutom allvarliga fasvridningar, försvåras "detekteringsförmågan" än mer.

MVH//BB

PS: Förutsätter att du i din text menade "extremer" och inte "extremiteter" vilket som bekant är något helt annat... :-)
F.d. Audio-Tronic, f.d. Centara. Consulting åt bl.a. Mark Levinson, (Red Rose Music), samt Cello Film & Music Systems. Grundare av Transmission Audio Inc., NJ, USA. http://www.transmissionaudio.com

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 19:10

BB: Det var ett skojinlägg... ;)
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 19:14

Nattlorden skrev:
Svante skrev:
Nattlorden skrev:Morgontrött tanke som säkert inte är inkalibrerad än, men när du nämnde FFT.

Skulle det kanske kunna vara så att "upplösning" är ett mått på hur finfördelad FFT som det är lönt att göra?


Då får du definiera vad du menar med "upplösning" ;) .


Det var det jag gjorde tyckte jag... "Hur hög förfining av FFT som behövs för att det inte längre skall tillkomma mer information."


Ah...

Ok, det innebär nog något annat än du tror, tror jag. Om en fördubbling av FFT-längden inte tillför någon information, då är vågformen periodisk med den första FFT-längden. Signalen upprepar sig alltså i fönsterhalva nummer två. Då kommer vart annat sampel i frekvensdomänen att vara noll, dvs ingen information har tillförts.

Det skulle också kunna innebära att tidssignalen har "nollpaddats", dvs andra halvan av det längre fönstret innehåller bara nollor. Då får man i stället en snygg interpolation i frekvensdomänen.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
subjektivisten
Semesterfirare
 
Inlägg: 18111
Blev medlem: 2003-10-16

Inläggav subjektivisten » 2009-03-04 19:31

Om man kan bestämma vad upplösning är och vad det beror på så borde det väl vara rätt lätt att mäta?
Ino i32s*(med ES filter), pY-4, cr80s, Nad 208, Rotel 1090, Pioneer 668, Denon 2106.

krasse2
Semesterfirare
 
Inlägg: 170
Blev medlem: 2009-02-20

Inläggav krasse2 » 2009-03-04 20:30

Svante skrev:
Strmbrg skrev:Bilder är ju liksom statiska över tid.

Ljud förändras över tid.


Nä.

Bilder förändras över tid, det är bara att titta ut genom fönstret så ser man det.

Ljud, däremot är statiskt. Varenda sinuston faktiskt. Det finns visserligen såna extremiteter som sinussvep, med DET är högre skolan, det. Så mycket ändras nästan inget.

Håller inte med.

Som jag ser det så handlar diskussionen om återgivning och när det gäller återgivning av bild så handlar det i stort sett alltid om statiska bilder. T.o.m. när det rör sej om "rörliga" bilder, då man bara visar upp en större mängd statiska bilder efter varandra.

Medan ljud...

Hmmm...

...Vänta nu lite...

Om en statisk bild skulle betraktas som en "sampling" och rörlig bild som många samplers efter varandra, så motsvarar ju detta faktiskt hur ljud kan behandlas och återges också.

T.ex. med 16 bitars samplers, 44000 gånger i sekunden.

Att jämföra med att visa 50 bilder i sekunden (eller 24, eller 25, eller vad man nu vill).

Äh.

Nu blev det nog rörigt, men poängen är nog att det är kanske inte någon större teknisk skillnad när det gäller upplösning hos bild och ljud om man börjar granska data-behandlingen som tekniken kräver för att vi ska kunna uppfatta någon bild eller något ljud.

Den uppenbara tekniska skillnaden är väl snarare att informationsmängden i en bildsampling behöver vara otroligt mycket större än informations-mängden i en ljudsampling.

Medan det inte bara krävs en registrering av intensitet (amplitud) och färg (frekvens) i en bildsampling utan informationen krävs i en stor mängd "bildpunkter" på samma gång, så när det gäller ljud så blir data-mängden radikalt mycket mindre när det räcker med att lagra information om intensitet och frekvens för en enda punkt på tidsaxeln.

Eller gör det det?

Kan inte flera olika toner höras vid exakt samma tillfälle?

Hmm...

Det känns som att jag bara tillför förvirring i den här tråden, så jag bör kanske vara tyst och läsa istället för att skriva ett tag nu...

Hej så länge.

Användarvisningsbild
Magnuz
 
Inlägg: 12349
Blev medlem: 2003-08-08

Inläggav Magnuz » 2009-03-04 21:01

krasse2 skrev:
Nu blev det nog rörigt, men poängen är nog att det är kanske inte någon större teknisk skillnad när det gäller upplösning hos bild och ljud om man börjar granska data-behandlingen som tekniken kräver för att vi ska kunna uppfatta någon bild eller något ljud.


När man talar om upplösning i bildsammanhang menar man normalt sett mängden bildpunkter per ytenhet som används för att bygga upp en bild.

krasse2 skrev:Den uppenbara tekniska skillnaden är väl snarare att informationsmängden i en bildsampling behöver vara otroligt mycket större än informations-mängden i en ljudsampling.


Det beror på upplösningen och på ljud/bild-innehållet, det. Men om man pratar om "normal" bild och "normalt" ljud så stämmer det.

krasse2 skrev:Kan inte flera olika toner höras vid exakt samma tillfälle?


Jodå, det kan de på sätt och vis, men otroligt nog går signalen (upp till halva samplingsfrekvensen) lik förbaskat att beskriva digitalt. Det här är inte helt lätt att förklara, men om du googlar på sampling eller a/d-d/a borde du kunna hitta lite information.

krasse2 skrev:Det känns som att jag bara tillför förvirring i den här tråden, så jag bör kanske vara tyst och läsa istället för att skriva ett tag nu...


Äsch då, förvirra på du bara. :wink:

Användarvisningsbild
Piotr
 
Inlägg: 12464
Blev medlem: 2005-02-06

Inläggav Piotr » 2009-03-04 21:23

Magnuz skrev:Jodå, det kan de på sätt och vis, men otroligt nog går signalen (upp till halva samplingsfrekvensen) lik förbaskat att beskriva digitalt. Det här är inte helt lätt att förklara, men om du googlar på sampling eller a/d-d/a borde du kunna hitta lite information.


Fast var det givet att det var fråga om en samplad signal? Eller tänker vi oss en helt analog signal?


/Peter

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 22:16

Svante skrev:
Strmbrg skrev:Bilder är ju liksom statiska över tid.

Ljud förändras över tid.


Nä.

Bilder förändras över tid, det är bara att titta ut genom fönstret så ser man det.

Ljud, däremot är statiskt. Varenda sinuston faktiskt. Det finns visserligen såna extremiteter som sinussvep, med DET är högre skolan, det. Så mycket ändras nästan inget.


Jag får väl förtydliga en gång till då:
Det här var på skoj, lite raljerande över oss tekniker som ser allt som sinustoner.

Det enda allvarliga var väl att även en bild har en tidsdimension.

Någon sa att bilden är samplad med 25 bilder per sekund och ljudet med 44100. Det är sant för medierna vi använder men det är inte riktigt sant för perceptionen. Vi har ju hjälp i örat av en spektrumanalysator, och den spektrumanalysen samplas sedan av hjärnan med en frekvens som är ungefär likvärdig med synen.

Synen samplar* alltså olika fysiska lägen med en frekvens på kanske 10-50 Hz, och hörseln samplar spektrum hos ljudet med ungefär samma frekvens.

Men för att representera ljudet på ett medium måste vi sampla mycket fortare eftersom spektralanalysen sitter där emellan. Iofs har även ögat spektralanalys (man ser färger) men den är betydligt grövre, den har bara tre band: rött grönt och blått.

*Alltså, det är inte tal om sampling egentligen, men både syn- och hörselintrycken omvandlas till nervimpulser som analyseras med en bandbredd som ligger där på några tiotal Hz.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
paa
Sökaren
 
Inlägg: 35497
Blev medlem: 2005-01-10

Inläggav paa » 2009-03-04 22:24

Alltså, på bilder har ju mätts upplösning länge och väl, långt innan de blev digitala.
För ljud däremot har det inte existerat något absolut mått på upplösning innan det började digitaliseras.
Men liksom en kameras upplösning beror både på digitalsensorns upplösning och objektivets upplösningsförmåga, så torde väl ljudet inte heller ha den fulla digitala upplösningen efter att det passerat högtalaren?
Medlem på forumet för hifi; Faktiskt.se, numera Faktiskt.io sedan jan 10, 2005
Numera pensionär.
Vi har sålt Sonic Design till Winn Scandinavia, vilka driver bl.a Ljudfokus och BRL.

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 22:28

subjektivisten skrev:Om man kan bestämma vad upplösning är och vad det beror på så borde det väl vara rätt lätt att mäta?


Det beror som sagt på vilken definition man använder.

Om jag får bestämma så betyder det det minsta steg i den registrerade storheten som kan registreras.

-I en AD-omvandlare är det helt enkelt kvantiseringssteget.

-I foto är det avståndet mellan pixlarna, och mäts oftast i dpi. Ibland blandas det ihop med antalet pixel i en bild.

-Hos en digital voltmeter är det skillnaden som blir när sista siffran växlar ett steg.

I analoga sammanhang blir det svårare att definiera, men brusnivån i systemet kan ju tyckas ha något med det hela att göra.

Man kan förstås överföra detta till perception, men det blir betydligt svårare att mäta. Som vanligt med perception, då.

-Man skulle kunna definiera det som minsta sidledsförflyttningen som kan detekteras i ett stereosystem.

-Man skulle kunna defniera det som det svagaste ljud som kan uppfattas i närvaron av andra.

-Man skulle kunna definiera det som hur många olika ljud man kan särskilja (även om det skulle likna antalet pixel i en bild, det är ju egentligen inte upplösning, se ovan)

osv osv.

Jag tror inte att någon har nog makt att genomdriva EN definition på upplösning. Jag tror vi får leva med att ordet kan betyde många saker, speciellt när det gäller perception. Iom det blir ordet ganska lite värt som ljudbeskrivade ord. Liksom de flesta andra ord, faktiskt.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-04 22:30

paa skrev:Alltså, på bilder har ju mätts upplösning länge och väl, långt innan de blev digitala.
För ljud däremot har det inte existerat något absolut mått på upplösning innan det började digitaliseras.
Men liksom en kameras upplösning beror både på digitalsensorns upplösning och objektivets upplösningsförmåga, så torde väl ljudet inte heller ha den fulla digitala upplösningen efter att det passerat högtalaren?


Upplösning i analoga bilder sätts i stor grad av kornstorleken på filmen. I någon mening är det ekvivalent med brusnivån.

En högtalare tillför inte brus i någon perceptuellt relevant mening, så därför borde inte högtalaren påverka upplösningen (om man definierar den med hjälp av brusnivå).
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
Martin
Vågledaren/redaktör
 
Inlägg: 10045
Blev medlem: 2003-08-24
Ort: Södertälje

Inläggav Martin » 2009-03-04 23:13

Definition:
Perceptuell upplösning ser jag som det man uppfattar i detaljer eller info i ljudet. Vart något ljud kommer ifrån, hur stor källan är och vilka detaljer man hör att det består av. Eller om det är en mängd ljud samtidigt som ska urskiljas.

Ett exemel kan tex vara ett mycket svagare ljud strax bredvid ett starkare ljud med en något högre frekvens. Det finns säker flera parametrar i ljudåtergivningen som kan påverka om det ljudet kommer uppfattas eller inte.

Möjliga lösningar
För att kunna mäta perceptuell upplösning krävs nog antingen att man har tillgång till en panel av lyssnare och kan mha statistik få fram något utav det eller en speciell mätteknisk lösning.

Man skulle tex kunna mäta med ett konsthuvud och behandla signalerna från mikrofonerna på så likt sätt som möjligt som hörseln gör. Tex med hörtrösklar, maskeringseffekter (när ljud som är olika nära varandra i frekvens skymmer varandra olika mycket), och riktningsbestämning beroende på tid, amplitud osv. Då skulle man kunna avgöra hur mycket information som återges i ljudet från högtalarna och kan uppfattas av hörseln jämfört med tex ett par högklassiga hörlurar med korrigering för geometriska förvrängningar av ljudbilden.
MEK - MetallElementKlubben

krasse2
Semesterfirare
 
Inlägg: 170
Blev medlem: 2009-02-20

Inläggav krasse2 » 2009-03-04 23:38

Svante skrev:
Svante skrev:
Strmbrg skrev:Bilder är ju liksom statiska över tid.

Ljud förändras över tid.


Nä.

Bilder förändras över tid, det är bara att titta ut genom fönstret så ser man det.

Ljud, däremot är statiskt. Varenda sinuston faktiskt. Det finns visserligen såna extremiteter som sinussvep, med DET är högre skolan, det. Så mycket ändras nästan inget.


Jag får väl förtydliga en gång till då:
Det här var på skoj, lite raljerande över oss tekniker som ser allt som sinustoner.

Det enda allvarliga var väl att även en bild har en tidsdimension.

Någon sa att bilden är samplad med 25 bilder per sekund och ljudet med 44100. Det är sant för medierna vi använder men det är inte riktigt sant för perceptionen. Vi har ju hjälp i örat av en spektrumanalysator, och den spektrumanalysen samplas sedan av hjärnan med en frekvens som är ungefär likvärdig med synen.

Synen samplar* alltså olika fysiska lägen med en frekvens på kanske 10-50 Hz, och hörseln samplar spektrum hos ljudet med ungefär samma frekvens.

Men för att representera ljudet på ett medium måste vi sampla mycket fortare eftersom spektralanalysen sitter där emellan. Iofs har även ögat spektralanalys (man ser färger) men den är betydligt grövre, den har bara tre band: rött grönt och blått.

*Alltså, det är inte tal om sampling egentligen, men både syn- och hörselintrycken omvandlas till nervimpulser som analyseras med en bandbredd som ligger där på några tiotal Hz.


När vi börjar prata om sampling-frekvens för vår perception, så börjar jag få ilningar längs med ryggraden.

Jag tror inte att det är att rekommendera att förenkla våra sinnens konstruktion på ett sätt så att vi kan börja jämföra dom med en teknisk samplings-teknik.

Ett exempel. Vore bandbredden hos våra nervimpulsers analyser på några tiotal Hz, så skulle det t.ex. innebära att vi inte alltid hinner att se ljuset ifrån en fotoblixt.

Vi skulle t.ex. inte kunna "bygga upp" synliga siffror och bokstäver med den där lysdiods-metronomen som tänder och släcker lysdioder i exakt rätt ögonblick om inte vårt synsinnes "samplings-frekvens vida överstiger den frekvens som lysdioderna tänds och släcks med.

Vad var det nu det kända teoremet sa. Dubbla samplingfrekvensen va?

RBE vore inte något problem heller om synen begränsades av en samplingfrekvens på något 10-tal Hz.

I själva verket så tror jag inte det är helt korrekt att dra paralleller till "teknisk" sampling när vi talar om hur våra sinnen fungerar.

Jag tror att våra sinnens konstruktion är ganska mycket mer komplicerad...

Framförallt om vi börjar beakta hjärnans betydelse för tolkning, "brusreducering" m.m. av sinnes-organens signalering.

Det är ju som bekant inte våra öron som "fokuserar" på en enskild individs tal i en samling av andra talande människor. Det sker en stor mängd "processing" i hjärnan innan t.ex. hörselorganets signalering blir något tydbart för vårt förstånd.

Användarvisningsbild
DQ-20
Skum fogare
 
Inlägg: 8579
Blev medlem: 2003-12-03
Ort: ografi

Inläggav DQ-20 » 2009-03-04 23:57

krasse2 skrev:Ett exempel. Vore bandbredden hos våra nervimpulsers analyser på några tiotal Hz, så skulle det t.ex. innebära att vi inte alltid hinner att se ljuset ifrån en fotoblixt.

Vi skulle t.ex. inte kunna "bygga upp" synliga siffror och bokstäver med den där lysdiods-metronomen som tänder och släcker lysdioder i exakt rätt ögonblick om inte vårt synsinnes "samplings-frekvens vida överstiger den frekvens som lysdioderna tänds och släcks med.

Vad var det nu det kända teoremet sa. Dubbla samplingfrekvensen va?

RBE vore inte något problem heller om synen begränsades av en samplingfrekvens på något 10-tal Hz.


Jag uppfattade att Svante avsåg hur ofta signaler från sinnesorganen "går vidare" till hjärnan. Ögat ser vad det ser och integrerar i realtid men hjärnan registerar förändringarna men en viss frekvens som i sammanhanget kan framstå som låg. Om man tar exemplet med en blixt så mättas ju synnerverna av ljuset som blixen sänder ut och ger en "överstyrd" signal (man bli bländad helt enkelt) betydligt längre än blixtens längd i tid.

Intressant vad diskussionen drar iväg mot just synintryck.

/D

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-05 00:23

krasse2 skrev:
Svante skrev:*Alltså, det är inte tal om sampling egentligen, men både syn- och hörselintrycken omvandlas till nervimpulser som analyseras med en bandbredd som ligger där på några tiotal Hz.


När vi börjar prata om sampling-frekvens för vår perception, så börjar jag få ilningar längs med ryggraden.


Du missade min sista kommentar där va? Där skriver jag ju just att det inte är sampling.

krasse2 skrev:Jag tror inte att det är att rekommendera att förenkla våra sinnens konstruktion på ett sätt så att vi kan börja jämföra dom med en teknisk samplings-teknik.

Ett exempel. Vore bandbredden hos våra nervimpulsers analyser på några tiotal Hz, så skulle det t.ex. innebära att vi inte alltid hinner att se ljuset ifrån en fotoblixt.


En impuls (tex en fotoblixt) innehåller ALLA frekvenser, inklusive DC, så det skulle ha gått alldeles utmärkt tom om det hade varit ett samplande system (med antivikningsfilter).

krasse2 skrev:
Vi skulle t.ex. inte kunna "bygga upp" synliga siffror och bokstäver med den där lysdiods-metronomen som tänder och släcker lysdioder i exakt rätt ögonblick om inte vårt synsinnes "samplings-frekvens vida överstiger den frekvens som lysdioderna tänds och släcks med.

Vad var det nu det kända teoremet sa. Dubbla samplingfrekvensen va?


Ja, det vi ser är ju DC-komponenten. Det finns ju inte negativ ljusamplitud, så är det något ljus alls, så finns det en DC-komponent.

krasse2 skrev:
RBE vore inte något problem heller om synen begränsades av en samplingfrekvens på något 10-tal Hz.

I själva verket så tror jag inte det är helt korrekt att dra paralleller till "teknisk" sampling när vi talar om hur våra sinnen fungerar.


Nej, det är nog rätt klart att vi inte samplar i vanlig bemärkelse. Det går tex inte att få vikningsdistorsion, vilket skulle gå med ett samplande system om det inte fanns ett perfekt antivikningsfilter. Däremot så har nervbanorna nåt man kan likna vid en bandbredd. Typiskt går det till så att låg intensitet av en stimulans ger glesa impulser i nerven, och intensiv stimulans ger tätare impulser. Jag har hört inspelade såna där signaler och det låter ungefär som en geigermätare. Det är ett under att hjärnan tolkar dem som ljud.

Om man tittar på bildskärmar så ser man flimmer upp till kanske 60-100 Hz. Det är dock väldigt olika på olika personer.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

Användarvisningsbild
Piotr
 
Inlägg: 12464
Blev medlem: 2005-02-06

Inläggav Piotr » 2009-03-05 01:07

krasse2 skrev:
När vi börjar prata om sampling-frekvens för vår perception, så börjar jag få ilningar längs med ryggraden.


Läste du inte hela Svantes inlägg? Han skriver ju inte samplar utan "samplar", han förklarar ju med en asterix att det inte är så men det var en liknelse.

Jag tror inte att det är att rekommendera att förenkla våra sinnens konstruktion på ett sätt så att vi kan börja jämföra dom med en teknisk samplings-teknik.


Va bra, det är nog ingen annan som gör det heller.

Ett exempel. Vore bandbredden hos våra nervimpulsers analyser på några tiotal Hz, så skulle det t.ex. innebära att vi inte alltid hinner att se ljuset ifrån en fotoblixt.


Vad grundar du det på? Kan ju tänkas att Svante har kikat på detta lite mer och djupare än vad du har gjort. Vet du vad Svante jobbar med?


Vi skulle t.ex. inte kunna "bygga upp" synliga siffror och bokstäver med den där lysdiods-metronomen som tänder och släcker lysdioder i exakt rätt ögonblick om inte vårt synsinnes "samplings-frekvens vida överstiger den frekvens som lysdioderna tänds och släcks med.


Vem är det nu som tänker fel och jämför med tekniska samplande system? Du har en märklig förmåga att hitta på själv hur saker är i stället för att studera dom och lära dig hur det egentligen ligger till.

Vad var det nu det kända teoremet sa. Dubbla samplingfrekvensen va?


Nä, mer än dubbla, men det är ju inte aktuellt för neurofysiologisk signalöverföring i levande organismer utan för linjära PCM-system. Shannon och Nyquist var väl inte biologer eller fysiologer såvitt jag vet. ;-)

I själva verket så tror jag inte det är helt korrekt att dra paralleller till "teknisk" sampling när vi talar om hur våra sinnen fungerar.


Bra, men man kan ju fortfrande använda sig utav en liknelse för att få en diskussion att fortgå på ett lättbegripligt sätt med folk som har olika bakgrund och ofta begränsad kunskap och förståelse..

Jag tror att våra sinnens konstruktion är ganska mycket mer komplicerad...


Mer komplicerad än vad om har betats av i tråden eller mer komplicerad än digitala samplande tekniska system?

Framförallt om vi börjar beakta hjärnans betydelse för tolkning, "brusreducering" m.m. av sinnes-organens signalering.


Prata med Peter Steindl om det, han kan ge dig tips på litteratur om du vill få lite insyn i hur hörseln fungerar, säkert Svante också.

Det är ju som bekant inte våra öron som "fokuserar" på en enskild individs tal i en samling av andra talande människor. Det sker en stor mängd "processing" i hjärnan innan t.ex. hörselorganets signalering blir något tydbart för vårt förstånd.


Exactumundo!


/Peter

krasse2
Semesterfirare
 
Inlägg: 170
Blev medlem: 2009-02-20

Inläggav krasse2 » 2009-03-05 18:18

Wow piotr!
Vad vevar du med stridsyxan för.

Jag har inte komptens inom området och försökte uttrycka en viss osäkerhet, men jag är inte helt blåst heller. Det finns en som har betydligt större insikt i ämnet än mej och han skrev en del i ämnet för ett tag sedan som kan vara läsvärt och relevant för vidare diskussioner om hur synen fungerar:

Hittade inte denna diskussion förrän nu men tycker att det är ett intressant ämne plus att jag har en del kunskaper i ämnet (inte specialiserad på just ögat och synen utan en allmän kunskap i biokemi). Så jag tänkte försöka tillföra det jag kan samt eventuellt rätta och klargöra en del av det som skrivits i denna samt andra trådar.

Kan väl säga redan från början, att hur synen fungerar är ett mycket komplext system. Hur en synimpuls uppkommer har vi mycket stora kunskaper om, men sedan när det gäller hur vi behandlar denna information i hjärnan så blir det mera hypoteser. Jag har inte här försökt att ge en hel bild av hur synen fungerar eftersom det skulle krävas åtskilliga meter inlägg för att göra detta. Vill mera förmedla en känsla av hur komplicerat detta ämne är, vilket kanske kan ge en insikt i att man inte ska ta till sig alla teorier och ”fakta” som presenteras i artiklar och på nätet som absoluta sanningar (dit även denna redogörelse per automatik sällar sig ).

Det är inga joner som träffas av ljus och ger upphov till elektriska urladdningar. I syncellerna, stavarna och tapparna, sitter det s.k. membran-diskar (ca 1000 st per stav/tapp) som innehåller stora mängder av ett protein – rhodopsin. I rhodopsinet sitter en ljuskänslig molekyl - retinal - som ändrar struktur när det träffas av ljus (cis-retinal övergår i trans-retinal). Rhodopsinet skiljer sig lite i struktur beroende på om det sitter i stavarna eller tapparna vilket gör att de reagerar på olika våglängder av ljus. Se vidare PJays inlägg ovan. Dock är det inte riktigt så att vi ser i RGB. Varje typ av tappar reagerar inom ett visst våglängdsintervall som överlappar varandra. Maximal känslighet för respektive typ av tappar är blått, grönt och gul-grönt. Stavarna har maximal känslighet vid blå-grönt. Dessa skillnader i rhodopsinet ger också upphov till att stavarna är mer ljuskänsliga än tapparna.

Det räcker med en enda foton (ett ljuskvanta) för att en retinal-molekyl ska reagera. Har i någon annan tråd sett att någon nämnt att synen reagerar väldigt snabbt, i storleksordningen en picosekund (0.000 000 000 001 s). Det är just denna strukturförändring av retinal som är så snabb, som i sin tur ger upphov till den snabbaste strukturförändring av ett protein som man idag känner till (om det inte har dykt upp något nytt protein senaste åren). Denna snabba reaktion innebär dock inte att vi kan uppfatta så snabba förlopp, och det går inte att omsätta detta värde i någon uppskattning av en eventuell fps hos ögat. Läs vidare så förstår ni varför. En parentes i ämnet är att retinal bildas av retinol (A-vitamin), som i sin tur kan bildas av ß-karoten. Så glöm inte att äta era morötter .

Sedan sker en hel kedja av reaktioner som jag inte kommer att gå in på här. För att förstå komplexiteten i det hela så kan dock reaktionsförloppet beskrivas så här (i något förkortad version):

Ljus -> cis-retinal -> trans-retinal -> GDP ersätts av GTP på tranducin -> T-alpha-GTP och T-beta-gamma-GTP bildas -> T-alpha-GTP aktiverar PDE -> PDE reducerar mängden cGMP genom omvandling till 5’GMP -> katjon-kanaler stängs -> antalet positiva joner (Na+ och Ca2+) sjunker -> den elektriska membranpotentialen ändras ca 1 mV -> signal till hjärnan.

Sedan måste systemet återställas: när antalet positiva joner sjunker -> aktivering av GC -> PDE inhiberas -> mängden cGMP ökar -> katjonkanaler öppnas -> antalet positiva joner ökar -> membranpotentialen återställd. Dessutom (via en annan kedja ) så byts trans-retinal ut mot cis-retinal så att en ny ljusaktiverad reaktion kan ske.

Denna kedja av reaktioner skapar en förstärkning av den första signalen (sådana här kedjor av reaktioner, för att skapa förstärkning, är för övrigt något som levande organismer utnyttjar i tusentals olika biologiska funktioner) vilket resulterar i att ca 1000 katjon-kanaler stängs för varje foton som absorberas (iaf vad gäller stavarna).

Av detta kan man också förstå att om ljusintensiteten in i ögat är stor så förbrukas stora delar av cis-retinalet samt att en stor del av alla katjon-kanaler stängs. Det är därför som det är lite svårt att se något om man t.ex. har stått och tittat in i solen. Det tar helt enkelt lite tid för hela systemet att återställas. Den tid det tar för oss att få ett bra mörkerseende ger en uppskattning av hur lång tid det tar för systemet att ”laddas upp”, och det tar i genomsnitt ca 30 min att uppnå 90 % av maximalt mörkerseende.

Man kan också göra experimentet där man stirrar på t.ex en röd upplyst kvadrat under 30 s. När man sedan flyttar blicken till ett vitt papper så kommer man att se en blå-grön kvadrat eftersom tapparna som registrerar rött ljus kommer att ha en lägre känslighet jämfört med de andra två typerna av tappar.

Jag skrev innan att förändringen av membranpotentialen i syncellerna skickar en signal till hjärnan. Denna signal går inte direkt till hjärnan utan via bipolära celler, horisontella celler och amacrina celler vidare till ganglier och sedan, via synnerven, till hjärnan. Det finns en mängd olika typer av ganglion-celler (ett ganglion, flera ganglier) som behandlar inkommande signaler på olika sätt. Just här i ganglierna sker den första behandlingen av den strida ström av synimpulser som hela tiden förmedlas av stavarna och tapparna och ganglierna detekterar bl.a. information om färg, form, storlek och avstånd samt en rörelses riktning och hastighet hos ett objekt. Som ni förstår så krävs det djupa kunskaper för att beskriva detta system (vilket jag inte har), för att inte tala om det utrymme som skulle krävas, varför jag avstår från att vidare gå in på detta ämne. Dock så måste en av funktionerna i ganglierna beskrivas lite närmare för att förtydliga fortsättningen av detta inlägg.

Väldigt förenklat kan man säga att det finns två typer av ganglion-celler som kallas ”på”- och ”av”-ganglier. Ett på-ganglion ger signal när det träffas av ljus medan ett av-ganglion ger signal när det inte träffas av ljus. Genom hur dessa är lokaliserade på näthinnan så reagerar vi mycket mer på kontraster än på ljusstyrkan som sådan vilket gör att vi blir mer känsliga för små variationer i den bild som omvärlden förmedlar till oss via våra ögon. Möjligen så kanske man kan hitta förklaringar till uppkomsten av ”wagon-wheel”-effekter och RBE redan i ganglierna?

Jaha, nu börjar vi närma oss det som tråden handlar om . Vad som eventuellt orsakar RBE och wagon-wheel-effekten (WWE).

För att börja med WWE (här definierad som den ”stroboskopeffekt” som även kan uppfattas i kontinuerlig ljus). Detta är ett fenomen som det forskas en del kring, och det är ffa två teorier som uppkommit. Den ena teorin är att vårt seende har en viss uppdateringsfrekvens. I själva verket är det just WWE som gjorde att några forskare först kom med denna teori.

Den andra teorin bygger på att olika ganglier, som känner av rörelse, känner av olika riktning. Om man sedan stirrar på en viss rörelse under en längre tid så kommer de ganglier som känner av denna rörelseriktning att mattas ut (adapteras) och man kommer då att få en större input från de ganglier som registrerar den mottsatta riktningen (jämför med experimentet med den röda kvadraten).

Vilken teori som är den rätta är ännu ej fastställd, och det är ffa två forskargrupper som via artiklar, ”scientific letters”, och ”replies” försöker övertyga varandra om vilka som har rätt. På ena sidan står Purves med ”fps-teorin”, och på den andra sidan står Kline med sin teori som han kallar ”illusory motion reversal caused by rivalry”. När det gäller fps-teorin så är det inga höga frekvenser vi talar om utan i storleksordningen 10-20 Hz. Vad som talar emot denna teori enligt Kline (som ju blir detsamma som en stroboskopeffekt om den stämmer) är vad som skiljer WWE och riktig stroboskopeffekt:

1. Rotationen står aldrig still

2. Rotationen går alltid i motsatt riktning i förhållande till verklig riktning

3. Rotationen uppstår bara under korta tidsperioder så att rotationen upplevs som att den går ömsom åt ena, ömsom åt andra hållet

4. WWE uppstår inte med en gång, utan det tar allt från några sekunder till flera minuter

Purves å sin sida ifrågasätter de analysmetoder som Kline har använt sig av. Själv lutar jag mig åt att det är Kline som har rätt. Dock kanske sanningen ligger någonstans mitt emellan?


Min poäng även om den tydligen gick att missuppfatta var att vi nog ska vara lite försiktiga med att förenkla processen för våra sinnes-intryck, med tanke på att inte ens experter som t.ex. Purves och Kline kan komma överens om hur det egentligen funkar...

Användarvisningsbild
celef
 
Inlägg: 16452
Blev medlem: 2003-06-28
Ort: helsefyr

Inläggav celef » 2009-03-05 19:15

jag gillar jämförelsen med bilar

för vissa biltillverkare är det viktigt att behålla vägkänslan, förmedla vägens beskaffenhet till förare genom ratt och chassie, minsta småsten ska kännas i ben och märg = hög upplösning

andra prioriterar en distanserad vägkänsla för ökad komfort och avkoppling = låg upplösning

inom audio har jag fått för mig att transientegenskapen är ett mått på upplösning, och man kan nog likt val av däck till bilen öka/minska upplösningen i hifianläggningen genom val av kabel
Bikinitider

Användarvisningsbild
Svante
Audiot!
 
Inlägg: 37552
Blev medlem: 2004-03-03
Ort: oakustisk

Inläggav Svante » 2009-03-06 00:12

Krasse2: Intressant men aningen pratigt inlägg du hittade. Jag visste inte att det fanns stroboskopeffekter i kontinuerligt ljus, men det låter ju som att några verkligen har hittat ett fall där det finns.

Och lyckas man detektera en sak så finns den ju. Misslyckas man så vet man ju bara inte ;) .

Hursomhelst så är väl såna effekter rätt ovanliga, även om jag vet många vanlig dödliga som har gjort misstaget att man tittar i vanligt 100Hz-ljus på något som rör sig. Det sker tex med de där burrande sidlinjerna som finns på många vägar; sett i gatljus så kan de "åka baklänges" ibland. Tänker man inte på att ljuset blinkar med 100 Hz så är det lätt att tro stroboskopeffekterna beror på ögat.

Nu säger jag inte att det är det som de där Purves och Kline har sett, antagligen är det det inte om det rör sig om riktig forkning.
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.

krasse2
Semesterfirare
 
Inlägg: 170
Blev medlem: 2009-02-20

Inläggav krasse2 » 2009-03-07 00:28

Nu var det visserligen upplösning som tråden handlade om, men jag tyckte inlägget innehöll en hel del tänkvärt vad det gällde diskussionen om någon slags "sampling-frekvens" hos synen och jag misstänker dessutom att principerna för signalöverföringen till hjärnans hörselcentrum skulle kunna vara snarlika som de som omnämns i inlägget för hur synintryck förmedlas till hjärnan.

Syftet med citatet var att belysa lite av komplexiteten i frågan och få lite distans till vårt tidigare teknik-relaterade prat om samplingar.

Stroboskop-effekter är förvisso också något som jag tycker är intressant att diskutera men jag är rädd för att vi lämnar denna tråden ämne ganska radikalt om vi tillåter oss att öppna även det ämnet för diskussion...

Det hade underlättat och kanske t.o.m. varit trevligt att betrakta vårt syn- och hörsel-sinne som något slags "samplande" organ med medveten om mina egna bristande kunskaper inom ämnet så säger mej min "magkänsla" att det kanske är att förenkla processerna lite för mycket och att processerna bakom våra sinnesintryck i själva verket är lite mer komplexa än så...

Som sagt, så är det ju något som också belyses av inlägget jag citerade.

...Även om det kanske kan upplevas som "pratigt", men det blir kanske så när det inte är citat ur en lärobok utan ett citat ifrån en pågående diskussion...

:!:

FöregåendeNästa

Återgå till Generellt om hifi


Vilka är online

Användare som besöker denna kategori: VintageHiFi och 21 gäster