
Moderator: Redaktörer
darkg skrev:Är det vanligt att knappt något finns över, säg, 15 kHz? Utmärker sig vissa medier?
RogerGustavsson skrev:Fast grafen säger inget om hur "styrkefördelningen" ser ut över frekvensregistret. Misstänker att många av instrumenten har förhållandevis låg nivå på sina övertoner t.ex. flertalet av basinstrumenten som visas. Sedan är nog de högre frekvenserna ganska avstånds- och riktningsberoende.
Svante skrev:Frågan måste besvaras med "ja", eftersom det är fysikaliskt omöjligt att göra et signal som är begränsad i tiden (=tex "en låt lång") och samtidigt strikt bandbegränsad (=inte innehåller NÅGOT över x kHz).
Svante skrev:Men det var inte det du menade. Jag tror att frågan du avser är "hur mycket brukar det finnas mellan 15 och 20 kHz?"? Kanske är det också intressant att relatera det till hörtröskeln däruppe, men den är ju väldigt ålders- och personberoende.
Svaret på den frågan finns att hitta i spektrum, man kan börja i MasVis och titta på spektrumgrafen. Påfallande ofta om man har en inspelning gjord utan eq, men med ordentliga mikrofoner, och på ska vi kalla det "normal" musik, så lutar spektrum med -6 dB/oktav ända upp till 20 kHz.
Ovanpå det är det vanligt att mikrofoner faller över 15 kHz och på äldre inspelningar kunde inspelningsutrustningen vara ganska dålig där. Idag är det å andra sidan vanligt att man i masteringen höjer diskanten med 5-10 dB. Möjligen har de två en historisk koppling, men det finns andra orsaker till diskanthöjningseländet som man kanske ska ta (och har tagit) i en annan tråd.
Spektrumgrafen i MasVis visar medelspektrum, det kan också vara intressant att titta mer kortvarigt eftersom det finns en ganska stor variation i diskantnivån över tid. Basinstrument tenderar i större grad att låta länge, instrument som är diskantrika markerar ofta rytm och kan därför ha rätt hög toppfaktor. En demo av det som jag har gjort flera gånger är att filtrera signalen i ett delningsfilter och titta på signalerna; det behövs typiskt mycket mindre medeleffekt vid höga frekvenser än vid låga, men toppeffekterna i diskanten är ofta lika höga som vid låga frekvenser. Exemplen jag har gjort gäller om man delar vid 2 kHz, här handlade det om "över 15 kHz" och då är det förstås mindre effekt. Fast kanske inte toppeffekt. Hmm.
Svante skrev:Ja, frågan måste som sagt förtydligas, och gå från om det finns något, till hur mycket det finns. Och hur mycket det finns får man veta om man tittar på ett spektrum. Möjligen kan man intressera sig för hur spektrum varierar över tid.
...och där nånstans är frågan besvarad.
I någon grad är frågan annorlunda än frågan om bas, eftersom instrument inte har "undertoner" (för det mesta). De har grundtoner (=den delton som har lägst frekvens) och övertoner. Detta är dock inte sant för alla instrument, alla instrument har inte toner, en baskagge, eller golvstamp tex har inte uthållna toner och då är situationen lite lik den i diskanten i det att det är svårt att sätta en undre gräns.
darkg skrev:Ja just, det där med under- och övertoner... Om vi tittar på ultraljud, här definierat som av ett givet subjekt med öronen odetekterbart ljud i det högre registret, alltså det som inte hörs för att det är för högt. En högtalare utstrålar detta, tänker vi. Kan då fenomen i tex kroppen eller rummet skapa hörbarhet, i kvasinormala fall? Jag vet att det går att ordna så att interferensen mellan två ultraljud hörs, så att säga, jag tänker mig här spontana effekter i normala (inklusive ovanliga) hifi-fall.
celef skrev:Dom som säljer sådana där superdiskanter som köps och läggs ovanpå befintliga högtalare, är det bortkastade pengar?
Svante skrev:darkg skrev:Ja just, det där med under- och övertoner... Om vi tittar på ultraljud, här definierat som av ett givet subjekt med öronen odetekterbart ljud i det högre registret, alltså det som inte hörs för att det är för högt. En högtalare utstrålar detta, tänker vi. Kan då fenomen i tex kroppen eller rummet skapa hörbarhet, i kvasinormala fall? Jag vet att det går att ordna så att interferensen mellan två ultraljud hörs, så att säga, jag tänker mig här spontana effekter i normala (inklusive ovanliga) hifi-fall.
Hehe, nu måste jag ju invända mot frågan igen. Först definierar du ultraljud som något som vi inte kan höra, och sedan frågar du om det kan höras. Med den frågeställningen blir det rimligen så att om man undersöker gränsen för hörbarhet och märker att lyssnaren kan detektera ljudet (det är ytterligt svårt att avgöra med VAD (öron eller "kropp") en person varseblir ett ljud) så borde man sortera ljudet till de hörbara ljuden. Inte anta att man kan höra ohörbara ljud.
RogerGustavsson skrev:FM-radio klarar max 15 kHz,
Kaha skrev:RogerGustavsson skrev:FM-radio klarar max 15 kHz,
Nja. En bra FM-tuner kan återge upp till 18 KHz. (t ex Yamaha CT-7000 och Yamaha T-2).
De flesta FM utsändningarna är begränsade till 15 kHz (brickwall)
Nagrania skrev:En utsändning på FM-bandet rullar av ganska snabbt efter 16,5 KHz och TV-ljudet från SVT går något högre men inte upp till 17 KHz. En CD skiva når i bästa fall upp till 21,6 KHz. Anledningen till att det sitter ett pilottonsfilter på varje kassettbandspelare av bättre slag.
Det är att om man inte gjorde så, då skulle Dolby:n inte längre fungera som en brusreducering.
RogerGustavsson skrev:Kaha skrev:RogerGustavsson skrev:FM-radio klarar max 15 kHz,
Nja. En bra FM-tuner kan återge upp till 18 KHz. (t ex Yamaha CT-7000 och Yamaha T-2).
De flesta FM utsändningarna är begränsade till 15 kHz (brickwall)
Nja, inte ens i Yamaha's egna data går den upp till 18 kHz. Pilottonfiltreringen är dramatisk vid 19 kHz.
[ Bild ]
Filterkurvan har sin knäck vid ca 15 kHz (FM är diskanthöjt vid utsändning och diskantsänkt vid mottagning, därav kurvans utseende).
Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
AndreasArvidsson skrev:JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
Här har du några vanliga termer när man pratar om ljud. I detta fall så beskrivs ett piano.
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
Svante skrev:Frågan måste besvaras med "ja", eftersom det är fysikaliskt omöjligt att göra et signal som är begränsad i tiden (=tex "en låt lång") och samtidigt strikt bandbegränsad (=inte innehåller NÅGOT över x kHz).
Perfector skrev:AndreasArvidsson skrev:JM skrev:Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
Här har du några vanliga termer när man pratar om ljud. I detta fall så beskrivs ett piano.
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
Tror det heter kantvågssvar på svenska.
Wiki skrev:ADSR envelope
Schematic of ADSR Attack Decay Sustain Release
Inverted ADSR envelopeWhen an acoustic musical instrument produces sound, the loudness and spectral content of the sound change over time in ways that vary from instrument to instrument. The "attack" and "decay" of a sound have a great effect on the instrument's sonic character. Sound synthesis techniques often employ an envelope generator that controls a sound's parameters at any point in its duration. Most often this is an "ADSR" (Attack Decay Sustain Release) envelope, which may be applied to overall amplitude control, filter frequency, etc. The envelope may be a discrete circuit or module, or implemented in software. The contour of an ADSR envelope is specified using four parameters:
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
An early implementation of ADSR can be found on the Hammond Novachord in 1938 (which predates the first Moog synthesizer by over 25 years). A seven-position rotary knob set preset ADS parameter for all 72 notes; a pedal controlled release time. The notion of ADSR was specified by Vladimir Ussachevsky (then head of the Columbia-Princeton Electronic Music Center) in 1965 while suggesting improvements for Bob Moog's pioneering work on synthesizers, although the earlier notations of parameter were (T1, T2, Esus, T3), then these were simplified to current form (Attack time, Decay time, Sustain level, Release time) by ARP.
Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
...
Olika instrument låter olika även om grundtonen är den samma. Perceptionsmässigt ger samma grundton hos olika instrument instrumentspecifika övertoner som "mixas" med grundtonen över tiden.
...
Så attacken av grundtonen + övertonerna över tiden är det som hjärnan registrerar. "Decay" delen av ljudet torde interpoleras i hjärnan.
Så eventuell distorsion i "decay" delen torde inte påverka perceptionen.
...
JM
Wiki skrev:ADSR envelope
When an acoustic musical instrument produces sound, the loudness and spectral content of the sound change over time in ways that vary from instrument to instrument. The "attack" and "decay" of a sound have a great effect on the instrument's sonic character.[65] Sound synthesis techniques often employ an envelope generator that controls a sound's parameters at any point in its duration. Most often this is an "ADSR" (Attack Decay Sustain Release) envelope, which may be applied to overall amplitude control, filter frequency, etc. The envelope may be a discrete circuit or module, or implemented in software. The contour of an ADSR envelope is specified using four parameters:
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
petersteindl skrev:Om man spelar in instrument med mikrofoner och sedan filtrerar bort insvängningsförloppen då tonerna alstras och spelar upp resultatet i ekofritt rum så att inga reflexer finns med och därmed endast direktljud d v s man har även tagit bort riktningskarakteristiken, då finns det inte längre möjlighet att höra vilket instrument som är inspelat. Sådana försök har gjorts vid otal tillfällen bl a av Kjell Stensson. Det går alltså inte att höra om det är ett piano, violin, trumpet, flöjt eller saxofon!
RogerJoensson skrev:petersteindl skrev:Om man spelar in instrument med mikrofoner och sedan filtrerar bort insvängningsförloppen då tonerna alstras och spelar upp resultatet i ekofritt rum så att inga reflexer finns med och därmed endast direktljud d v s man har även tagit bort riktningskarakteristiken, då finns det inte längre möjlighet att höra vilket instrument som är inspelat. Sådana försök har gjorts vid otal tillfällen bl a av Kjell Stensson. Det går alltså inte att höra om det är ett piano, violin, trumpet, flöjt eller saxofon!
Jo, det går att göra dylika demonstrationer om man bestämt sig för vad man vill visa upp, men om musikern spelar sådan musik som han brukar spela på instrumentet, så går det lättare att urskilja vilka instrument det rör sig om (även med attacken borttagen). Pianots ton är av förklarliga skäl svårt att göra så mycket med efter att den triggats, men en ton från t ex en fiol skapas under hela tiden den stråkas och ljudet från den innehåller med än en ton, bla brus från harts och tagel, detta i kombination med intonation och eller vibrato drar igång resonanser och även de andra stängarna kan då svänga med och påverka. Detta ger tonen fiolkaraktär så länge den hålls igång. Det samma gäller även många blåsinstrument, såvida man inte bestämt sig för att spela på ett sätt som gör att endast attacken avslöjar vad för instrument det rör sig om...
petersteindl skrev:Musikerna som spelat på instrumenten har varit med som försökspersoner i dessa försök och inte kunnat detektera instrumenten. Det har gjorts otaliga sådana försök med samma resultat. Oavsett om det är akustiker eller forskare inom psykoakustiken eller ljudingenjörer så har det alltid lett till samma resultat, detektion omöjlig. Jag har hittills inte hittat någon artikel där det står något annat. Jag har tagit upp detta med Bertil Alving och han instämmer med de observationer som gjorts.
RogerJoensson skrev:Gitarr och piano är exempel på instrument som gärna blir särskilt svårdefinierade om man tar bort attacken. Det är ju inte så konstigt eftersom själva soundet bygger på att man knäpper eller slår på strängen (som sedan fortsätter att svänga förhållandevis regelbundet av sig själv). Med t ex en fiol som spelas med stråke, eller ett blåsinstrument kan man lättare välja hur identifierbart det ska bli.
RogerJoensson skrev:petersteindl skrev:Musikerna som spelat på instrumenten har varit med som försökspersoner i dessa försök och inte kunnat detektera instrumenten. Det har gjorts otaliga sådana försök med samma resultat. Oavsett om det är akustiker eller forskare inom psykoakustiken eller ljudingenjörer så har det alltid lett till samma resultat, detektion omöjlig. Jag har hittills inte hittat någon artikel där det står något annat. Jag har tagit upp detta med Bertil Alving och han instämmer med de observationer som gjorts.
Att det går att göra ett test där man inte hör skillnad behöver inte betyda att man inte kan göra ett test där man hör skillnad.
Jag har själv testat att klippa attacker från t ex solofiol och saxofon och det var i dessa fall väldigt uppenbart vilka instrument det rörde sig om. En rak ton (fri från musikaliskt uttryck, om man får säga så) från en saxofon kan dock lika gärna vara en dragspelston. Det beror alltså på vilken passage man väljer att frisera och lyssna på.
Man kan, som sagt, påverka utfallet av en sådan där test med hur man spelar, men också hur man spelar in. Jag glömmer aldrig när jag hörde någon spela såg på radion, med väldigt imponerande fraseringar (samtidigt med det typiska vibratot). Jag sprang mot radion för att skruva upp, just vid slutet. Det visade sig vara Maria Callas och vad jag vet så spelade hon inte såg.![]()
Men hon sjöng med så hårt tyglade attacker, klang, djupt vibrato och var dessutom inspelad med så dålig teknik att jag blev lurad (under det korta förlopp vi pratar om).
petersteindl skrev:Det var violiner med och yrkesmusiker som spelade och det var träblåsinstrument och bläckblås och det hade ingen betydelse.
RogerJoensson skrev:petersteindl skrev:Det var violiner med och yrkesmusiker som spelade och det var träblåsinstrument och bläckblås och det hade ingen betydelse.
Jag skulle vilja se och höra det som presenterades, och kunna skapa en uppfattning om testerna utformats i syfte för att få fram ett önskat resultat (eller inte). Det kan ju t ex vara en ordentlig skillnad i både klang och övertonsmängd beroende på hur man stråkar och blåser...
RogerJoensson skrev:...och man kan prova att ta attacken från en ton på akustisk gitarr, klistra ihop den med en trombons spräckta ton och se om det fortfarande låter akustisk gitarr.
RogerJoensson skrev:Trombonisten kan välja att spräcka tonen när som helst, t ex mot tonens slut. Slutet på en ton brukar väl inte betraktas som en attack. Samma sak med fiolen, under det att tonen spelas kan man förändra intonation, göra tonhöjdsglidningar, lägga på vibrato, kväva tonen, eller göra den rå och skrapig genom låg hastighet med stråken och hårt tryck mot strängarna (långt efter att man startat tonen).
För att den där testen ska fungera krävs på många instrument att man gör på ett speciellt sätt som passar det man vill ha som utfall.
petersteindl skrev:Det som krävs är att man definierar vad insvängning är och vilken del av tonen som är sustained.
Jag är rätt övertygad om att man i dessa tester inte är intresserade av något specifikt som passar som utfall. Vi pratar inte om penisförlängarskaran på faktiskt.Man gör ett test och utfallet blir vad det blir.
Svante skrev:Alltså det här är väl ett exempel på ett fenomen som man kan vara nöjd med att förundras över.
RogerJoensson skrev:Svante skrev:Alltså det här är väl ett exempel på ett fenomen som man kan vara nöjd med att förundras över.
Klart man kan, men det är kanske samtidigt inte rimligt att dra vad för slutsatser som helst baserade på vissa försök.
galder skrev:Som det nämndes i föregående trådinlägg, en mycket intressant tråd.
Nu poppade tanken upp. Kan man utifrån T/S-parametrar se vilken diskant som har den bättre ”attacken”, enligt beskrivning i denna tråd. Om så, vilka är parametrarna i sådana fall, och i vilken storleksordning bör de vara.
Tycker att det låter som en bra idé att välja diskantelement utifrån detta?
Efter mycket modifierande och mätande så blev Bremendiskanterna till slut så här.
Efter att ha detekterat dessa vanliga fel i dome-diskanter...
petersteindl skrev:+1 Det är precis min åsikt också. Jag ställer mig då frågor som; Varför är det så? Vad är det som ger igenkänning? Vad är igenkänning? Vilka nervsystem är det som aktiveras? Hur triggas man igång fenomenet igenkänning? Finns det mellanting mellan att inte känna igen instrument och att känna igen? Om så är fallet, vad får det för konsekvens? Vilken typ av distorsion i apparater skulle i så fall kunna påverka detta?
Man kan sedan välja uteslutningsmetoder för att försöka ringa in problematiken. Som jag ser det har detta fenomen i princip inget med vanlig THD att göra. Minnesdistorsion kanske kan påverka. Tröghet i system också. osv.
Mvh
Peter
Svante skrev:Alltså, det här är en debatt vars problem är att man (vi) inte har definierat frågan. Vi diskuterar en massa svar utan att veta vad frågan är.
Svante skrev:petersteindl skrev:+1 Det är precis min åsikt också. Jag ställer mig då frågor som; Varför är det så? Vad är det som ger igenkänning? Vad är igenkänning? Vilka nervsystem är det som aktiveras? Hur triggas man igång fenomenet igenkänning? Finns det mellanting mellan att inte känna igen instrument och att känna igen? Om så är fallet, vad får det för konsekvens? Vilken typ av distorsion i apparater skulle i så fall kunna påverka detta?
Man kan sedan välja uteslutningsmetoder för att försöka ringa in problematiken. Som jag ser det har detta fenomen i princip inget med vanlig THD att göra. Minnesdistorsion kanske kan påverka. Tröghet i system också. osv.
Mvh
Peter
Mm, du skriver "ringa in problematiken". Alltså, du menar att det vi diskuterar (att mycket av ett instruments särdrag finns i attacken) är ett problem? Det kanske det är, en då måste man först speca vem/vad det är ett problem för.
Alltså, det här är en debatt vars problem är att man (vi) inte har definierat frågan. Vi diskuterar en massa svar utan att veta vad frågan är.
Om frågan är vad i människan som gör attacken så viktig för upplevelsen så är min gissning att förklaringen finns i hjärnan, inte i första hand i nervsystemet. Hjärnan lär sig att känna igen mönster i de nervimpulser den får och här finns en betydelsebärande skillnad i början av ljuden som kan användas för att skilja ljuden åt. Så orsaken att attacken gör så stor skillnad för upplevelsen är nog helt enkelt att det finns en skillnad i attacken som hjälper oss att identifiera ljuden konsekvent. Sedan har hjärnan adapterat till det.
Vid sådana här diskussioner skulle jag vilja uppleva omvärlden genom en nyfödds öron en kort stund. Med och utan min tränade hjärna.
petersteindl skrev: Vad är det i människan som gör attacken så viktig för upplevelsen?
RogerJoensson skrev:petersteindl skrev: Vad är det i människan som gör attacken så viktig för upplevelsen?
I människan?
Att attacken är så viktig (särskilt när man spelar statiskt och utan modulationer) är ju för att det är där det finns en massa unik information. På många instrument är det i attacken det unika händer, det svajar, knäpper, skrapar och pyser tills processen är igång och stabil (självsvängande). -Förutsatt att den som spelar inte gör något som påverkar längre in i tonen, som musiker ofta kan göra och gör när de spelar akustiska stråk och blåsinstrument. De dimensionerna (t ex äkta vibrato, glissando, tremolo, intonation mot andra strängar osv) som fungerar som det gör på de akustiska instrumenten, saknas nästan alltid helt i syntar, eftersom det är svårt att styra sådant via ett tangentbord. Det är av lättbegripliga skäl även mycket svårt att få med alla unika möjligheter och kombinationer av dessa i ljud-modellerna/generatorerna. Just därför låter ofta t ex solofiol extremt onaturligt spelat på en synt.
Just därför är det ofta poänglöst att göra klippabortattackenochtestaommankanidentifieraljudkällan på syntljud av sådana instrument, eftersom syntljuden efter attacken ofta är stendöda (inte sällan loopade kurvformer). -Förutsatt att man inte just väljer att spela "dött" på de akustiska instrument bara för att få ljuden att passa testen. Det går, men man har liksom inte testat annat än ett specialfall på hur instrumentet kan låta.
Pianoljud kan i motsats till solofiol fås att fungera mycket väl i syntar, just eftersom de inte går att påverka särskilt mycket efter att klubban dunkat mot strängen. Tonen klingar av stabilt och förutsägbart. Den typen av ljud passar ADSR-tänket mycket, mycket bättre än sådant man brukar spela på t ex stråkinstrument. Det är mycket lättare att samla in tillräcklig ljuddata från piano och spela från samplingarna eller de syntetiska modellerna, via ett tangentbord och få det att låta som på riktigt, än att göra det samma med en fiol.
Svante skrev:Om frågan är vad i människan som gör attacken så viktig för upplevelsen så är min gissning ...
Svante skrev:Om frågan är vad i människan som gör attacken så viktig för upplevelsen så är min gissning att förklaringen finns i hjärnan, inte i första hand i nervsystemet. Hjärnan lär sig att känna igen mönster i de nervimpulser den får och här finns en betydelsebärande skillnad i början av ljuden som kan användas för att skilja ljuden åt. Så orsaken att attacken gör så stor skillnad för upplevelsen är nog helt enkelt att det finns en skillnad i attacken som hjälper oss att identifiera ljuden konsekvent. Sedan har hjärnan adapterat till det.
Vid sådana här diskussioner skulle jag vilja uppleva omvärlden genom en nyfödds öron en kort stund. Med och utan min tränade hjärna.
JM skrev:Vi kan skilja ut två olika instrument som spelar samma ton.
Vi kan även identifiera samma melodi oberoende om det spelas av olika instrument.
Perceptionen är olika men lika.
JM
Har jag missat något?
galder skrev:Peter skrevHar jag missat något?
Off topic, ja PM.
petersteindl skrev:JM skrev:Vi kan skilja ut två olika instrument som spelar samma ton.
Vi kan även identifiera samma melodi oberoende om det spelas av olika instrument.
Perceptionen är olika men lika.
JM
Att vi kan skilja ut två olika instrument som spelar samma ton är väl knappast någon nyhet för någon, eller?![]()
Att vi även kan identifiera samma melodi oberoende om det spelas av olika instrument är väl också knappast någon nyhet.
Jag förstår inte riktigt vad du vill få fram i ditt inlägg. Har jag missat något?
Mvh
Peter
JM skrev:Vi kan skilja ut två olika instrument som spelar samma ton.
Vi kan även identifiera samma melodi oberoende om det spelas av olika instrument.
Perceptionen är olika men lika.
JM
RogerJoensson skrev:petersteindl skrev: Vad är det i människan som gör attacken så viktig för upplevelsen?
I människan?
Att attacken är så viktig (särskilt när man spelar statiskt och utan modulationer) är ju för att det är där det finns en massa unik information. På många instrument är det i attacken det unika händer, det svajar, knäpper, skrapar och pyser tills processen är igång och stabil (självsvängande). -Förutsatt att den som spelar inte gör något som påverkar längre in i tonen, som musiker ofta kan göra och gör när de spelar akustiska stråk och blåsinstrument. De dimensionerna (t ex äkta vibrato, glissando, tremolo, intonation mot andra strängar osv) som fungerar som det gör på de akustiska instrumenten, saknas nästan alltid helt i syntar, eftersom det är svårt att styra sådant via ett tangentbord. Det är av lättbegripliga skäl även mycket svårt att få med alla unika möjligheter och kombinationer av dessa i ljud-modellerna/generatorerna. Just därför låter ofta t ex solofiol extremt onaturligt spelat på en synt.
Just därför är det ofta hyggligt poänglöst att göra klippabortattackenochtestaommankanidentifieraljudkällan på syntljud av sådana instrument och använda resultaten som något slags allmän sanning om hur det är, eftersom syntljuden efter attacken ofta är stendöda (inte sällan loopade kurvformer). -Förutsatt att man inte just väljer att spela "dött" på de akustiska instrument bara för att få ljuden att passa testen. Det går, men man har liksom inte testat annat än ett specialfall på hur instrumentet kan låta. Syntljuden är ofta extra döda, för att det ska gå att spela på dem via tangentbord, för exakt likadana upprepningar av vanliga musikerstyrda färgningar inte låter klokt om de upprepas likadant varje gång de spelas. Därför har man sett till att får bort sådan't onödigt tjafs som musiker orsakar. -Det som får instrumentet att låta levande...
Pianoljud kan i motsats till solofiol fås att fungera mycket väl i syntar, just eftersom de inte går att påverka särskilt mycket efter att klubban dunkat mot strängen. Tonen klingar av stabilt och förutsägbart. Den typen av ljud passar ADSR-tänket mycket, mycket bättre än sådant man brukar spela på t ex stråkinstrument. Det är mycket lättare att samla in tillräcklig ljuddata från piano och spela från samplingarna eller de syntetiska modellerna, via ett tangentbord och få det att låta som på riktigt, än att göra det samma med en fiol.
Svante skrev: Som du säger så är det nog så att det finns information i attacken som är särskilt värdefull för identifikationen. Hjärnan/evolutionen har sedan ordnat så att vi kan vaska fram den. Vilket som är intressantast att studera beror väl på syfte och personlig preferens, men det är bra om man klargör vad det är.
JM skrev:JM skrev:Vi kan skilja ut två olika instrument som spelar samma ton.
Vi kan även identifiera samma melodi oberoende om det spelas av olika instrument.
Perceptionen är olika men lika.
JM
Visst är det självklart att det är så.
Men förklara hur map pitch mm.
JM
Svante skrev: ...
Jag tycker att attackviktigheten sätter ytterligare fokus på hur himla dåligt det är med kompressorer.
petersteindl skrev:JM skrev:JM skrev:Vi kan skilja ut två olika instrument som spelar samma ton.
Vi kan även identifiera samma melodi oberoende om det spelas av olika instrument.
Perceptionen är olika men lika.
JM
Visst är det självklart att det är så.
Men förklara hur map pitch mm.
JM
Om du vill läsa om pitch d v s tonhöjd så rekommenderar jag två författare, dels Licklider t.ex. A duplex theory of pitch perception, dels artiklar eller böcker av Brian C. J. Moore.
För att diskutera fysikaliska fakta och upplevda fenomen krävs någon form av grundläggande definitioner. Man kan skriva det enkelt och kortfattat, åtminstone till att börja med.
Tonhöjd = Det attribut hos en hörselupplevelse som bestämmer hur ljud kan rangordnas på en musikalisk skala. Tonhöjden relaterar till repetitionsgraden av vågformen hos ljudvågor.
Vid tonhöjdsvariationer uppnås en upplevelse av melodi.
Med dessa definitoner kan man exempelvis substituera ordet melodi i din utsaga. Då får man: Vi kan även identifiera samma tonhöjdsvariationer oberoende om det spelas av olika instrument.
Sedan kan man fortsätta att fylla på text.
Mvh
Peter
JM skrev:Peter du glömde att svara på frågan.
JM
petersteindl skrev:Tonhöjd = Det attribut hos en hörselupplevelse som bestämmer hur ljud kan rangordnas på en musikalisk skala. Tonhöjden relaterar till repetitionsgraden av vågformen hos ljudvågor.
Vid tonhöjdsvariationer uppnås en upplevelse av melodi.
JM skrev:Svante skrev: Som du säger så är det nog så att det finns information i attacken som är särskilt värdefull för identifikationen. Hjärnan/evolutionen har sedan ordnat så att vi kan vaska fram den. Vilket som är intressantast att studera beror väl på syfte och personlig preferens, men det är bra om man klargör vad det är.
Vad är det i attacken som är intressant o hur?
Hur är detta relaterat till hjärnan?
Svante skrev:JM skrev:Svante skrev: Som du säger så är det nog så att det finns information i attacken som är särskilt värdefull för identifikationen. Hjärnan/evolutionen har sedan ordnat så att vi kan vaska fram den. Vilket som är intressantast att studera beror väl på syfte och personlig preferens, men det är bra om man klargör vad det är.
Vad är det i attacken som är intressant o hur?
Hur är detta relaterat till hjärnan?
Jag vet inte. Attacken är märklig såtillvida att den inte riktigt låter sig analyseras signalmässigt med samma 1:1-koppling till det perceptuella som vi kan med den uthållna delen. Alltså, man kan förstås göra en FFT på en attack och få ut dess spektrum, men spektrum är ganska svårtolkat i jämförelse med hur det är med uthållna toner.
Typ.
Svante skrev:RogerJoensson skrev:Pianoljud kan i motsats till solofiol fås att fungera mycket väl i syntar, just eftersom de inte går att påverka särskilt mycket efter att klubban dunkat mot strängen. Tonen klingar av stabilt och förutsägbart. Den typen av ljud passar ADSR-tänket mycket, mycket bättre än sådant man brukar spela på t ex stråkinstrument. Det är mycket lättare att samla in tillräcklig ljuddata från piano och spela från samplingarna eller de syntetiska modellerna, via ett tangentbord och få det att låta som på riktigt, än att göra det samma med en fiol.
Jamen där håller jag med om precis allt. Möjligen håller jag inte med om att pianot är så himla enkelt om det inte är samplat.
petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
Svante skrev:Ja, så kan man göra, och man kan då få en uppfattning om hur mycket diskant det är i musiken. Attackerna blir dock tämligen djupt begravda i graferna, det är inte lätt att hitta dem.
petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
Svante skrev:petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
Hehe, nej, nu blandar du ihop "dimensioner" med "rymdvinkel". Synen har mycket bra förmåga att detektera dimensionerna vänster-höger och upp-ner eventuellt lite sämre nära-fjärran. Det är tre dimensioner, men är begränsat till en ganska liten rymdvinkel framåt. Genom att röra på ögon och huvud kan vi dock täcka in hela omgivningen.
Örat har halvtaskig förmåga att detektera dimensionen V-H, usel förmåga U-N, och en omgivningsberoende förmåga att detektera N-F. Genom att vrida på huvudet blir samtliga bättre. Örat detekterar dock ljud från alla vinklar.
Tillsammans blir hörsel och syn mycket bra för överlevnaden.
Svante skrev:petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
Hehe, nej, nu blandar du ihop "dimensioner" med "rymdvinkel". Synen har mycket bra förmåga att detektera dimensionerna vänster-höger och upp-ner eventuellt lite sämre nära-fjärran. Det är tre dimensioner, men är begränsat till en ganska liten rymdvinkel framåt. Genom att röra på ögon och huvud kan vi dock täcka in hela omgivningen.
Örat har halvtaskig förmåga att detektera dimensionen V-H, usel förmåga U-N, och en omgivningsberoende förmåga att detektera N-F. Genom att vrida på huvudet blir samtliga bättre. Örat detekterar dock ljud från alla vinklar.
Tillsammans blir hörsel och syn mycket bra för överlevnaden.
JM skrev:Svante skrev:Ja, så kan man göra, och man kan då få en uppfattning om hur mycket diskant det är i musiken. Attackerna blir dock tämligen djupt begravda i graferna, det är inte lätt att hitta dem.
Nu blottar jag min okunskap om syntetiska instrument men jag försöker förstå. Efter vad jag kan förstå är det den första delen av något som ger det instrumentspecifika ljudet.
Grundtonen för alla instrument måste vara den samma. Är det de tidsmässigt första övertonerna som ger den instrument specifika identiteten?
Även om grundtonen saknas "hör" vi grundtonen utifrån övertonerna enligt "the missing fundamental".
JM
idea skrev:petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
Jo men öronen gör det med en signal som är "endimensionell" dvs 3d-intrycket är inlärt från signalen som är nivå och tid medan ögats signalinput både är yta, tid och nivå. Att du kan höra ljud runt omkring dig har ju inget att göra med hur komplex signalbehandlaren är. Sen att detta kanske är mer fantastiskt att kunna plocka ut 3 dimensioner från en endimensionell signal än från en tvådimensionell är ju en annan historia som inte har att göra med vilken transmissionslänk som är mest komplex. Vi har ju absolut mycket enklare att placera objekt i rummet med hjälp av synen än med hörseln. Vi ser ju inte bara framåt, vi kan ju röra på huvet och vända oss om för att skapa en bild på samma sätt som vi vrider på huvudet för att lokalisera ljud. Det är olika sinnen och de används på olika sätt. Vi behöver inte gradera dem i att ett är överlägset ett annat. De är olika och båda är fantastiska på sitt sätt. Men om jag var tvungen att välja så behöll jag nog hellre hörsel än syn. Hörsel är "delaktighet i livet" medan syn mer är "praktisk förflyttning".
petersteindl skrev:JM skrev:Svante skrev:Ja, så kan man göra, och man kan då få en uppfattning om hur mycket diskant det är i musiken. Attackerna blir dock tämligen djupt begravda i graferna, det är inte lätt att hitta dem.
Nu blottar jag min okunskap om syntetiska instrument men jag försöker förstå. Efter vad jag kan förstå är det den första delen av något som ger det instrumentspecifika ljudet.
Grundtonen för alla instrument måste vara den samma. Är det de tidsmässigt första övertonerna som ger den instrument specifika identiteten?
Även om grundtonen saknas "hör" vi grundtonen utifrån övertonerna enligt "the missing fundamental".
JM
JM, det är varken grundton eller övertonerna som ger instrumenten dess instrumentkaraktär. De ligger nämligen inte i attacken. De byggs upp av attacken på grund av att man sätter en massa i svängning. Beroende på om massan är i en dimension eller två dimensioner eller tre så blir mönstret av harmoniska frekvenser olika komplext.
Med vänlig hälsning Peter
petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning ...
JM skrev:petersteindl skrev:JM skrev:Nu blottar jag min okunskap om syntetiska instrument men jag försöker förstå. Efter vad jag kan förstå är det den första delen av något som ger det instrumentspecifika ljudet.
Grundtonen för alla instrument måste vara den samma. Är det de tidsmässigt första övertonerna som ger den instrument specifika identiteten?
Även om grundtonen saknas "hör" vi grundtonen utifrån övertonerna enligt "the missing fundamental".
JM
JM, det är varken grundton eller övertonerna som ger instrumenten dess instrumentkaraktär. De ligger nämligen inte i attacken. De byggs upp av attacken på grund av att man sätter en massa i svängning. Beroende på om massan är i en dimension eller två dimensioner eller tre så blir mönstret av harmoniska frekvenser olika komplext.
Med vänlig hälsning Peter
Hänger inte med hur du tänker. Har du relevant länk som förklarar fenomenet?
Ex en flöjt sätter inte ngn massa i svängning annan än luften.
JM
RogerJoensson skrev:petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning ...
-Det som brukar kallas 3D-seende... https://sv.wikipedia.org/wiki/3D
Skillnaden mot hörseln är visserligen en begränsad detektionsrymd (synfält), när man inte tillåts t ex vrida huvudet, men en överlägsen precision vad gäller att avgöra position för objekt inom synfältet (i 3D dvs höjd, bredd, djup).
Även jag anser att hörseln har begränsad 3D i det att det ofta är svårt att höra skillnad på ljudkällans höjdposition. Även bak/fram kan vara svårt att skilja på i praktiken om man är blindad. Särskilt om ljudkällorna är stillastående. Huvudsakligen så rör det sig om höger/vänster/bredd/djup med precision långt ifrån det som ögat kan se.
JM skrev:petersteindl skrev:JM skrev:Nu blottar jag min okunskap om syntetiska instrument men jag försöker förstå. Efter vad jag kan förstå är det den första delen av något som ger det instrumentspecifika ljudet.
Grundtonen för alla instrument måste vara den samma. Är det de tidsmässigt första övertonerna som ger den instrument specifika identiteten?
Även om grundtonen saknas "hör" vi grundtonen utifrån övertonerna enligt "the missing fundamental".
JM
JM, det är varken grundton eller övertonerna som ger instrumenten dess instrumentkaraktär. De ligger nämligen inte i attacken. De byggs upp av attacken på grund av att man sätter en massa i svängning. Beroende på om massan är i en dimension eller två dimensioner eller tre så blir mönstret av harmoniska frekvenser olika komplext.
Med vänlig hälsning Peter
Hänger inte med hur du tänker. Har du relevant länk som förklarar fenomenet?
Ex en flöjt sätter inte ngn massa i svängning annan än luften.
JM
petersteindl skrev:RogerJoensson skrev:petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning ...
-Det som brukar kallas 3D-seende... https://sv.wikipedia.org/wiki/3D
Skillnaden mot hörseln är visserligen en begränsad detektionsrymd (synfält), när man inte tillåts t ex vrida huvudet, men en överlägsen precision vad gäller att avgöra position för objekt inom synfältet (i 3D dvs höjd, bredd, djup).
Även jag anser att hörseln har begränsad 3D i det att det ofta är svårt att höra skillnad på ljudkällans höjdposition. Även bak/fram kan vara svårt att skilja på i praktiken om man är blindad. Särskilt om ljudkällorna är stillastående. Huvudsakligen så rör det sig om höger/vänster/bredd/djup med precision långt ifrån det som ögat kan se.
Antingen pratar man 3D som en kvantitet i förhållande till 2D eller också pratar man precision. Precision är bara ett uttryck för vilken kvalitet det har inom området. Kvantiteten är en annan aspekt d v s själva området.
Mvh
Peter
idea skrev:Många dimensioner blir det. Det jag avser med en respektive tvådimensionell omvandlare är att örat på samma sätt som en mikrofon är en endimensionell omvandlare och ögat likt en kamera har en yta som omvandlar från två dimensioner. Kan det vara så konstigt att ta till sig.
Vad vi sen hör och ser är ju på en högre nivå och är resultatet av signalbehandling av inkommande signaler.
För att återknyta till trådtieln så är ju frekvensinnehållet för signaler från olika riktningar en del av riktningshörandet. Detta är troligen en pusselbit i varför vi är så bra på att höra skillnad på olika frekvenser. Bra riktningshörande var en gynsam överlevnadsfaktor som tidigare nämnts.
RogerJoensson skrev:petersteindl skrev:RogerJoensson skrev:-Det som brukar kallas 3D-seende... https://sv.wikipedia.org/wiki/3D
Skillnaden mot hörseln är visserligen en begränsad detektionsrymd (synfält), när man inte tillåts t ex vrida huvudet, men en överlägsen precision vad gäller att avgöra position för objekt inom synfältet (i 3D dvs höjd, bredd, djup).
Även jag anser att hörseln har begränsad 3D i det att det ofta är svårt att höra skillnad på ljudkällans höjdposition. Även bak/fram kan vara svårt att skilja på i praktiken om man är blindad. Särskilt om ljudkällorna är stillastående. Huvudsakligen så rör det sig om höger/vänster/bredd/djup med precision långt ifrån det som ögat kan se.
Antingen pratar man 3D som en kvantitet i förhållande till 2D eller också pratar man precision. Precision är bara ett uttryck för vilken kvalitet det har inom området. Kvantiteten är en annan aspekt d v s själva området.
Mvh
Peter
Jag menade att förutom att seendet är tredimensionellt https://sv.wikipedia.org/wiki/3D , så kan man med bättre precision peka ut saker som finns inom detektionsrymden med hjälp av synen än med hörseln (förutsatt att förhållandena är sådana att synen är användbar, t ex tillräckligt med ljus). Samtidigt är man med enbart hörseln som hjälp ofta är värdelös på att t ex peka ut vertikalläget på en ljudkälla men någon större precision.
Hörseln (utan hjälp av fantasi och synintryck) är därmed ofta sämre på 3D än synen. Tycker jag.
JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
petersteindl skrev:Svante skrev:petersteindl skrev:Synen har i ögat i princip 2 dimensioner med djupseende framåt för avståndsbedömning, men hörseln uppfattar 3 dimensioner. Vi hör i 4pi som det heter. Du kan höra ljud bakom dig och runt om dig och på olika avstånd. Du kan bara se framåt.
Mvh
Peter
Hehe, nej, nu blandar du ihop "dimensioner" med "rymdvinkel". Synen har mycket bra förmåga att detektera dimensionerna vänster-höger och upp-ner eventuellt lite sämre nära-fjärran. Det är tre dimensioner, men är begränsat till en ganska liten rymdvinkel framåt. Genom att röra på ögon och huvud kan vi dock täcka in hela omgivningen.
Örat har halvtaskig förmåga att detektera dimensionen V-H, usel förmåga U-N, och en omgivningsberoende förmåga att detektera N-F. Genom att vrida på huvudet blir samtliga bättre. Örat detekterar dock ljud från alla vinklar.
Tillsammans blir hörsel och syn mycket bra för överlevnaden.
Svante, du har inte förstått det jag skriver. Det som finns på ögats näthinna är en yta och det räknas som två dimensioner. Hörseln uppfattar 3 dimensioner. Hörseln hör och kan detektera i 4pi. Det gör inte ögonen. Dimensionerna vänster-höger och upp-ner är två dimensioner. Människan kan inte se bakåt. Dessutom förutsätter människans syn att det finns ljus. Du kan inte se i mörker. Du kan fortfarande höra allt runt omkring i mörker. Det finns djur som i princip kan se i 4pi, men inte människan.
Tillsammans blir hörsel och syn mycket bra för överlevnaden, så som du också skrivit.
Mvh
Peter
Svante skrev:petersteindl skrev:Svante skrev:
Hehe, nej, nu blandar du ihop "dimensioner" med "rymdvinkel". Synen har mycket bra förmåga att detektera dimensionerna vänster-höger och upp-ner eventuellt lite sämre nära-fjärran. Det är tre dimensioner, men är begränsat till en ganska liten rymdvinkel framåt. Genom att röra på ögon och huvud kan vi dock täcka in hela omgivningen.
Örat har halvtaskig förmåga att detektera dimensionen V-H, usel förmåga U-N, och en omgivningsberoende förmåga att detektera N-F. Genom att vrida på huvudet blir samtliga bättre. Örat detekterar dock ljud från alla vinklar.
Tillsammans blir hörsel och syn mycket bra för överlevnaden.
Svante, du har inte förstått det jag skriver. Det som finns på ögats näthinna är en yta och det räknas som två dimensioner. Hörseln uppfattar 3 dimensioner. Hörseln hör och kan detektera i 4pi. Det gör inte ögonen. Dimensionerna vänster-höger och upp-ner är två dimensioner. Människan kan inte se bakåt. Dessutom förutsätter människans syn att det finns ljus. Du kan inte se i mörker. Du kan fortfarande höra allt runt omkring i mörker. Det finns djur som i princip kan se i 4pi, men inte människan.
Tillsammans blir hörsel och syn mycket bra för överlevnaden, så som du också skrivit.
Mvh
Peter
Alltså, om du drar in näthinnan i detta och utifrån det menar att ögat bara kan detektera två dimensioner, så kan örat detektera noll dimensioner. Det mäter ljudtrycket i en punkt. Både i fallet med öga och öra lyckas dock hjärnan tolka signalerna från våra två ögon/öron så att vi får en tredimensionell varseblivning, hörseln har dock en mycket sämre spatial upplösning än synen.
Rymdvinkeln (4 pi) som du pratar om har ingenting med dimensionsantalet att göra. Världen framför mig har tre dimensioner, liksom världen bakom mig. Och det är samma dimenstioner som hela världen har. Att man inte kan se bakom huvudet betyder inte att man inte kan se dimensionen nära/fjärran. Det är bara bakåt det inte går.
Sen kan man blanda in tiden om man vill, men det gör ingen skillnad i princip eftersom den tillför en ytterligare upplevbar dimension både för syn och hörsel.
Wiki skrev:Fovea eller centralgropen (Fovea centralis) är en fördjupning i gula fläcken på näthinnan och platsen för ögats detaljcentrerade seende. I fovean sitter tapparna mycket tätt och fördjupningen gör också näthinnan tunnare här än i resten av ögat. Hos människan är fovean rund, men en del djur har i stället en horisontellt formad fovea vilket gör att deras detaljseende fungerar bra längs med horisonten. Många fåglar har två foveor som även innehåller många fler tappar och som därmed ger en skarpare syn.
Svante skrev:Flera har varit inne på att en mikrofon eller ett öra är en endimensionell omvandlare. Om man inte räknar tiden som en dimension är de faktiskt nolldimensionella omvandlare, eftersom de mäter ljudtrycket i en punkt. Hade de bestämt ljudtrycket på olika platser längs en linje hade de varit endimensionella omvandlare. Och hade de bestämt ljudtrycket på olika platser på en yta så hade de varit tvådimensionella omvandlare.
En kamera, eller ögat är exempel på tvådimensionella omvandlare, eftersom de mäter ljusstyrka över en yta.
Både ögon och öron är kopplade till hjärnan som lyckas ordna med en upplevelse som är tredimensionell, dvs jag får en uppfattning om var i rummets alla tre dimensioner som en ljus-/ljudkälla finns.
Men det betyder inte att omvandlarna är tredimensionella.
petersteindl skrev: Oavsett vilket, så vill jag med emfas poängtera den stora skillnaden mellan 4π och limiterad rymdvinkel.
Svante skrev:petersteindl skrev: Oavsett vilket, så vill jag med emfas poängtera den stora skillnaden mellan 4π och limiterad rymdvinkel.
Fast hur är det med det där egentligen. Alltså, visst hör vi ett ljud som kommer snett uppifrån/bakifrån, men hur säkra är vi på att peka ut riktningen om vi inte får vrida på huvudet? Jag tror att vi är sämre på det än många tror. Får man vrida på huvudet, och får man dessutom se källan så hör man precis var den är, men det är hjärnans fantastiskhet som förstår att det måste vara den där pippin som låter när man har sett den.
Och om man tillåter huvudvridning för hörseln så bör man tillåta det för synen.
Ögonen har ett synfält som täcker nästan 180 grader horisontellt, stereoskopiskt mindre, och i färg och högupplöst ännu mindre. Man kan dock argumentera för att i ögonen ingår även musklerna som vrider ögonen, och det gör vi blixtsnabbt och scannar av det som vi upplever som intressant. Vi kan alltså se högupplöst och i färg över en stor vinkel utan att vrida på huvudet.
Menmen, man behöver inte argumentera för vilket sinne som är bäst, både syn och hörsel är fanastiska på sina sätt. En intressant fråga är dock: skulle man helst bli blind eller döv? Jag skulle helst bli döv.
Svante skrev:petersteindl skrev: Oavsett vilket, så vill jag med emfas poängtera den stora skillnaden mellan 4π och limiterad rymdvinkel.
Fast hur är det med det där egentligen. Alltså, visst hör vi ett ljud som kommer snett uppifrån/bakifrån, men hur säkra är vi på att peka ut riktningen om vi inte får vrida på huvudet? Jag tror att vi är sämre på det än många tror. Får man vrida på huvudet, och får man dessutom se källan så hör man precis var den är, men det är hjärnans fantastiskhet som förstår att det måste vara den där pippin som låter när man har sett den.
Och om man tillåter huvudvridning för hörseln så bör man tillåta det för synen.
Ögonen har ett synfält som täcker nästan 180 grader horisontellt, stereoskopiskt mindre, och i färg och högupplöst ännu mindre. Man kan dock argumentera för att i ögonen ingår även musklerna som vrider ögonen, och det gör vi blixtsnabbt och scannar av det som vi upplever som intressant. Vi kan alltså se högupplöst och i färg över en stor vinkel utan att vrida på huvudet.
Menmen, man behöver inte argumentera för vilket sinne som är bäst, både syn och hörsel är fanastiska på sina sätt. En intressant fråga är dock: skulle man helst bli blind eller döv? Jag skulle helst bli döv.
Kaha skrev:Svante skrev:petersteindl skrev: Oavsett vilket, så vill jag med emfas poängtera den stora skillnaden mellan 4π och limiterad rymdvinkel.
Fast hur är det med det där egentligen. Alltså, visst hör vi ett ljud som kommer snett uppifrån/bakifrån, men hur säkra är vi på att peka ut riktningen om vi inte får vrida på huvudet? Jag tror att vi är sämre på det än många tror. Får man vrida på huvudet, och får man dessutom se källan så hör man precis var den är, men det är hjärnans fantastiskhet som förstår att det måste vara den där pippin som låter när man har sett den.
Och om man tillåter huvudvridning för hörseln så bör man tillåta det för synen.
Om du hör ett enstaka (tidsbegränsat) ljud, hur säker kommer du vara på ifrån vilken riktning det kom? i 3 dimensioner 360 grader?
Jag kan hyggligt exakt identifiera ljudet i 360 grader i 3 dimensioner.
Kaha skrev:Ögonen har ett synfält som täcker nästan 180 grader horisontellt, stereoskopiskt mindre, och i färg och högupplöst ännu mindre. Man kan dock argumentera för att i ögonen ingår även musklerna som vrider ögonen, och det gör vi blixtsnabbt och scannar av det som vi upplever som intressant. Vi kan alltså se högupplöst och i färg över en stor vinkel utan att vrida på huvudet.
180 grader är väldigt extremt för synen. Jag skulle säga 150 grader är mer normalt, om man koncentrerar sig väldigt bra och det man observerar inte har extremt bra kontrast.
Svante skrev:Varför ska hififolk alltid fokusera på sådant som är oviktigt för återgivningen?
Svante skrev:Flera har varit inne på att en mikrofon eller ett öra är en endimensionell omvandlare. Om man inte räknar tiden som en dimension är de faktiskt nolldimensionella omvandlare, eftersom de mäter ljudtrycket i en punkt.
Svante skrev:Hade de bestämt ljudtrycket på olika platser längs en linje hade de varit endimensionella omvandlare. Och hade de bestämt ljudtrycket på olika platser på en yta så hade de varit tvådimensionella omvandlare.
Användare som besöker denna kategori: MrLeng och 19 gäster