
Moderator: Redaktörer
darkg skrev:Är det vanligt att knappt något finns över, säg, 15 kHz? Utmärker sig vissa medier?
RogerGustavsson skrev:Fast grafen säger inget om hur "styrkefördelningen" ser ut över frekvensregistret. Misstänker att många av instrumenten har förhållandevis låg nivå på sina övertoner t.ex. flertalet av basinstrumenten som visas. Sedan är nog de högre frekvenserna ganska avstånds- och riktningsberoende.
Svante skrev:Frågan måste besvaras med "ja", eftersom det är fysikaliskt omöjligt att göra et signal som är begränsad i tiden (=tex "en låt lång") och samtidigt strikt bandbegränsad (=inte innehåller NÅGOT över x kHz).
Svante skrev:Men det var inte det du menade. Jag tror att frågan du avser är "hur mycket brukar det finnas mellan 15 och 20 kHz?"? Kanske är det också intressant att relatera det till hörtröskeln däruppe, men den är ju väldigt ålders- och personberoende.
Svaret på den frågan finns att hitta i spektrum, man kan börja i MasVis och titta på spektrumgrafen. Påfallande ofta om man har en inspelning gjord utan eq, men med ordentliga mikrofoner, och på ska vi kalla det "normal" musik, så lutar spektrum med -6 dB/oktav ända upp till 20 kHz.
Ovanpå det är det vanligt att mikrofoner faller över 15 kHz och på äldre inspelningar kunde inspelningsutrustningen vara ganska dålig där. Idag är det å andra sidan vanligt att man i masteringen höjer diskanten med 5-10 dB. Möjligen har de två en historisk koppling, men det finns andra orsaker till diskanthöjningseländet som man kanske ska ta (och har tagit) i en annan tråd.
Spektrumgrafen i MasVis visar medelspektrum, det kan också vara intressant att titta mer kortvarigt eftersom det finns en ganska stor variation i diskantnivån över tid. Basinstrument tenderar i större grad att låta länge, instrument som är diskantrika markerar ofta rytm och kan därför ha rätt hög toppfaktor. En demo av det som jag har gjort flera gånger är att filtrera signalen i ett delningsfilter och titta på signalerna; det behövs typiskt mycket mindre medeleffekt vid höga frekvenser än vid låga, men toppeffekterna i diskanten är ofta lika höga som vid låga frekvenser. Exemplen jag har gjort gäller om man delar vid 2 kHz, här handlade det om "över 15 kHz" och då är det förstås mindre effekt. Fast kanske inte toppeffekt. Hmm.
Svante skrev:Ja, frågan måste som sagt förtydligas, och gå från om det finns något, till hur mycket det finns. Och hur mycket det finns får man veta om man tittar på ett spektrum. Möjligen kan man intressera sig för hur spektrum varierar över tid.
...och där nånstans är frågan besvarad.
I någon grad är frågan annorlunda än frågan om bas, eftersom instrument inte har "undertoner" (för det mesta). De har grundtoner (=den delton som har lägst frekvens) och övertoner. Detta är dock inte sant för alla instrument, alla instrument har inte toner, en baskagge, eller golvstamp tex har inte uthållna toner och då är situationen lite lik den i diskanten i det att det är svårt att sätta en undre gräns.
darkg skrev:Ja just, det där med under- och övertoner... Om vi tittar på ultraljud, här definierat som av ett givet subjekt med öronen odetekterbart ljud i det högre registret, alltså det som inte hörs för att det är för högt. En högtalare utstrålar detta, tänker vi. Kan då fenomen i tex kroppen eller rummet skapa hörbarhet, i kvasinormala fall? Jag vet att det går att ordna så att interferensen mellan två ultraljud hörs, så att säga, jag tänker mig här spontana effekter i normala (inklusive ovanliga) hifi-fall.
celef skrev:Dom som säljer sådana där superdiskanter som köps och läggs ovanpå befintliga högtalare, är det bortkastade pengar?
Svante skrev:darkg skrev:Ja just, det där med under- och övertoner... Om vi tittar på ultraljud, här definierat som av ett givet subjekt med öronen odetekterbart ljud i det högre registret, alltså det som inte hörs för att det är för högt. En högtalare utstrålar detta, tänker vi. Kan då fenomen i tex kroppen eller rummet skapa hörbarhet, i kvasinormala fall? Jag vet att det går att ordna så att interferensen mellan två ultraljud hörs, så att säga, jag tänker mig här spontana effekter i normala (inklusive ovanliga) hifi-fall.
Hehe, nu måste jag ju invända mot frågan igen. Först definierar du ultraljud som något som vi inte kan höra, och sedan frågar du om det kan höras. Med den frågeställningen blir det rimligen så att om man undersöker gränsen för hörbarhet och märker att lyssnaren kan detektera ljudet (det är ytterligt svårt att avgöra med VAD (öron eller "kropp") en person varseblir ett ljud) så borde man sortera ljudet till de hörbara ljuden. Inte anta att man kan höra ohörbara ljud.
RogerGustavsson skrev:FM-radio klarar max 15 kHz,
Kaha skrev:RogerGustavsson skrev:FM-radio klarar max 15 kHz,
Nja. En bra FM-tuner kan återge upp till 18 KHz. (t ex Yamaha CT-7000 och Yamaha T-2).
De flesta FM utsändningarna är begränsade till 15 kHz (brickwall)
Nagrania skrev:En utsändning på FM-bandet rullar av ganska snabbt efter 16,5 KHz och TV-ljudet från SVT går något högre men inte upp till 17 KHz. En CD skiva når i bästa fall upp till 21,6 KHz. Anledningen till att det sitter ett pilottonsfilter på varje kassettbandspelare av bättre slag.
Det är att om man inte gjorde så, då skulle Dolby:n inte längre fungera som en brusreducering.
RogerGustavsson skrev:Kaha skrev:RogerGustavsson skrev:FM-radio klarar max 15 kHz,
Nja. En bra FM-tuner kan återge upp till 18 KHz. (t ex Yamaha CT-7000 och Yamaha T-2).
De flesta FM utsändningarna är begränsade till 15 kHz (brickwall)
Nja, inte ens i Yamaha's egna data går den upp till 18 kHz. Pilottonfiltreringen är dramatisk vid 19 kHz.
[ Bild ]
Filterkurvan har sin knäck vid ca 15 kHz (FM är diskanthöjt vid utsändning och diskantsänkt vid mottagning, därav kurvans utseende).
Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
AndreasArvidsson skrev:JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
Här har du några vanliga termer när man pratar om ljud. I detta fall så beskrivs ett piano.
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
Svante skrev:Frågan måste besvaras med "ja", eftersom det är fysikaliskt omöjligt att göra et signal som är begränsad i tiden (=tex "en låt lång") och samtidigt strikt bandbegränsad (=inte innehåller NÅGOT över x kHz).
Perfector skrev:AndreasArvidsson skrev:JM skrev:Kan du utveckla vad du menar med attacken? Hänger inte riktigt med vad du menar.
JM
Här har du några vanliga termer när man pratar om ljud. I detta fall så beskrivs ett piano.
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
Tror det heter kantvågssvar på svenska.
Wiki skrev:ADSR envelope
Schematic of ADSR Attack Decay Sustain Release
Inverted ADSR envelopeWhen an acoustic musical instrument produces sound, the loudness and spectral content of the sound change over time in ways that vary from instrument to instrument. The "attack" and "decay" of a sound have a great effect on the instrument's sonic character. Sound synthesis techniques often employ an envelope generator that controls a sound's parameters at any point in its duration. Most often this is an "ADSR" (Attack Decay Sustain Release) envelope, which may be applied to overall amplitude control, filter frequency, etc. The envelope may be a discrete circuit or module, or implemented in software. The contour of an ADSR envelope is specified using four parameters:
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
An early implementation of ADSR can be found on the Hammond Novachord in 1938 (which predates the first Moog synthesizer by over 25 years). A seven-position rotary knob set preset ADS parameter for all 72 notes; a pedal controlled release time. The notion of ADSR was specified by Vladimir Ussachevsky (then head of the Columbia-Princeton Electronic Music Center) in 1965 while suggesting improvements for Bob Moog's pioneering work on synthesizers, although the earlier notations of parameter were (T1, T2, Esus, T3), then these were simplified to current form (Attack time, Decay time, Sustain level, Release time) by ARP.
Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
JM skrev:Svante skrev:Man kan lägga till att karaktären för olika instrument i väldigt hög grad bestäms av attacken. Spektrum spelar in, men kanske mindre än man tror och i hög grad med hur spektrum varierar över tid.
...
Olika instrument låter olika även om grundtonen är den samma. Perceptionsmässigt ger samma grundton hos olika instrument instrumentspecifika övertoner som "mixas" med grundtonen över tiden.
...
Så attacken av grundtonen + övertonerna över tiden är det som hjärnan registrerar. "Decay" delen av ljudet torde interpoleras i hjärnan.
Så eventuell distorsion i "decay" delen torde inte påverka perceptionen.
...
JM
Wiki skrev:ADSR envelope
When an acoustic musical instrument produces sound, the loudness and spectral content of the sound change over time in ways that vary from instrument to instrument. The "attack" and "decay" of a sound have a great effect on the instrument's sonic character.[65] Sound synthesis techniques often employ an envelope generator that controls a sound's parameters at any point in its duration. Most often this is an "ADSR" (Attack Decay Sustain Release) envelope, which may be applied to overall amplitude control, filter frequency, etc. The envelope may be a discrete circuit or module, or implemented in software. The contour of an ADSR envelope is specified using four parameters:
Attack time is the time taken for initial run-up of level from nil to peak, beginning when the key is first pressed.
Decay time is the time taken for the subsequent run down from the attack level to the designated sustain level.
Sustain level is the level during the main sequence of the sound's duration, until the key is released.
Release time is the time taken for the level to decay from the sustain level to zero after the key is released.
petersteindl skrev:Om man spelar in instrument med mikrofoner och sedan filtrerar bort insvängningsförloppen då tonerna alstras och spelar upp resultatet i ekofritt rum så att inga reflexer finns med och därmed endast direktljud d v s man har även tagit bort riktningskarakteristiken, då finns det inte längre möjlighet att höra vilket instrument som är inspelat. Sådana försök har gjorts vid otal tillfällen bl a av Kjell Stensson. Det går alltså inte att höra om det är ett piano, violin, trumpet, flöjt eller saxofon!
RogerJoensson skrev:petersteindl skrev:Om man spelar in instrument med mikrofoner och sedan filtrerar bort insvängningsförloppen då tonerna alstras och spelar upp resultatet i ekofritt rum så att inga reflexer finns med och därmed endast direktljud d v s man har även tagit bort riktningskarakteristiken, då finns det inte längre möjlighet att höra vilket instrument som är inspelat. Sådana försök har gjorts vid otal tillfällen bl a av Kjell Stensson. Det går alltså inte att höra om det är ett piano, violin, trumpet, flöjt eller saxofon!
Jo, det går att göra dylika demonstrationer om man bestämt sig för vad man vill visa upp, men om musikern spelar sådan musik som han brukar spela på instrumentet, så går det lättare att urskilja vilka instrument det rör sig om (även med attacken borttagen). Pianots ton är av förklarliga skäl svårt att göra så mycket med efter att den triggats, men en ton från t ex en fiol skapas under hela tiden den stråkas och ljudet från den innehåller med än en ton, bla brus från harts och tagel, detta i kombination med intonation och eller vibrato drar igång resonanser och även de andra stängarna kan då svänga med och påverka. Detta ger tonen fiolkaraktär så länge den hålls igång. Det samma gäller även många blåsinstrument, såvida man inte bestämt sig för att spela på ett sätt som gör att endast attacken avslöjar vad för instrument det rör sig om...
Användare som besöker denna kategori: Google [Bot] och 17 gäster