Rille skrev:goat76 skrev:Rille skrev:"Otroligt simpelt när det egentligen inte existerar några problem att lösa." Jag tycker denna mening säger allt. I verkligheten med akustiska instrument uppstår inte frekvensmaskering, men på något sätt (jag förstår fenomenet) uppstår det i mixning vid komprimering/dist. Visst kan man vilja ha ett distat ljud, men när det låter så illa att man måste börja ändra klang på instrument i mixen via EQ frekvensbegränsa instrument vilket tar ned dynamiken ytterligare, är det ingen som inser att detta är en väldigt smal och obekväm och till och med dum väg att gå? samt att resultatet sällan är njutbart. Varför finns intresset att mixa musik så? det låter ju varken ballare, tyngre eller bättre, snarare blodfattigare, jobbigare och en önskan om att skruva ned snarare än upp infinner sig. Hm kanske håller jag på att bli gubbe?
För att svara på trådfrågan, så visst kan man det, men det krävs frekvens omfång och dynamisk kapacitet till den grad väldigt få faktiskt har.
Oftast uppstår inte problemet med frekvensmaskering i samma utsträckning när de enskilda instrument har sina individuella ljudkällor, där vi som lyssnare lättare kan skilja ljuden åt tack vare olika infallsvinklar. Vårat hörselsinne är fantastiskt på så vis, så som förmågan att både detektera infallsvinklar och fokusera lyssningen av ljud i verkligheten, som exempelvis den så kalkade cocktail effekten. Problemet uppstår i större utsträckning först när de ska mixas samman till två enstaka kanaler och sedan ska spelas upp av endast två ljudkällor, då hopar sig ljuden, bygger på varandra och maskerar varandra, och det kan då uppstå behov av att tydliggöra separationen i ljudmixen.
De som mixar i multikanal nämner inte sällan hur mycket färre problem som behöver lösas, just tack vare det större utrymmet av fler individuella kanaler/ljudkällor.
Vem annars än musikerna själva ska diktera hur deras instrument låter? Själv fullkomligen älskar jag ljudet av distade gitarrer, och ifall man i en mix vill höra mer av det akustiska rumssvaret från trummorna i en mix blandat med hårt distade instrument, så är ofta lösningen att man ökar andelen rumsljud från trummorna betänkligt (om man nu har en separat inspelning av detta), samt göra vissa väl valda korrigeringar med hjälp av EQ.

Min erfarenhet säger att ju mer dist/kompression och EQ desto mer problem med tex just maskering blir det (för att inte tala om hur mycket sämre det faktiskt låter med mindre dynamik och frekvens beskärning).
Det är precis det jag visade med mina ljudexempel att distade gitarrer ökar maskeringen av andra instrument, och av sin natur så följer såklart en viss "själv-kompression" med på det tåget utan att någon medveten kompression har använts. Men det som nog står för mestadelen av maskeringen är att gitarrerna inom rockmusik oftast spelas hyfsat konstant, och med en relativt stark medelnivå genom merparten av låtspåren. Men med det sagt så kan även ett inspelat spår av en distat gitarr hålla ett relativt högt dynamikomfång.
Men jag måste fråga, varför tror du användandet av EQ leder till ökad maskering eller minskad dynamik? Snarare är det ju så att man med EQ kan öka hörbarheten av ett önskat frekvensspann av ett ljudspår jämtemot ett annat, och samtidigt göra det omvända med ett önskat frekvensspann i det andra ljudspåret för att på så vis öka hörbarheten av båda spåren, för att på så vis få helheten att gagnas. Ofta är det så att ett specifikt instrument är det mest drivande inslaget i en låt, det kan vara ett solo-instrument, det kan vara sången, eller så kanske det är rytmik-dynamiken mellan trummorna och bas-instrumentet som är det som är mest drivande inslaget i en låt. Då kan det vara på plats att ge just det elementet mer utrymme i ljudmixen.
Rille skrev:absolut ska musikerna avgöra hur de vill att deras instrument ska låta. jag undrar dock om de fått veta hur ett alternativt sound låter? jag tror mycket få vet och det verkar heller inte vara bättre med ljudteknikerna eller producenterna i dag, det är bara att lyssna på vilken ny produktion som helst inom pop och rock. Jag tror att ett stort problem är att medhörningen är för dålig och alla gör som alla andra gjort i 30 år, utan att reflektera över att det kan göras annorlunda/bättre än panorerad mono/pingpong stereo. lyssna bara på nya produktioner och jämför med nästan vad som helst som släpptes före 1972. Jag undrar om vi kanske står för långt ifrån varandra i uppfattning i ämnet för att ta detta vidare?
Du verkar inte förstå hur långt de flesta musiker som spelar gitarr eller bas är beredda att gå för att uppnå just det sound de har uppnått. Inom exempelvis noise rock, vilket är den genre jag främst lyssnar på, så är soundet i princip minst lika viktigt som hur instrumentet spelas. Jag misstänker att du nog är ganska ointresserad och därmed ganska oinsatt i lite djupare/smalare subgenrer inom rock, punk och metal.
Hur olika musikgenrer spelas in beror mångt och mycket på vilka typer av inspelningstekniker som passar dem. Klassisk musik och olika typer av kammarmusik kan fungera väl med rena stereoupptagningar, även om dessa även de kan gagnas av en och annan närmickning för möjligheten att ge dem en förtydligande förstärkning i den slutgiltiga ljudmixen.
För rockinspelningar föredrar jag i regel de som är inspelade "live" i studio, det ger utrymme för nödvändig efterhandsbearbetning samtidigt som musiken får ett naturligt flöde i.o.m att musikerna spelar tillsammans, även om de råkar stå i separata rum av isolerande orsaker.
Vad gäller min uppfattning i ämnet så föredrar jag högt dynamiskt utrymme, minimalt användande av kompression och i regel bara till den grad att det gagnar ett realistiskt/semirealistiskt slutresultat. Minimal limitering kan vara till godo för att reducera enstaka transienttoppar som "stuckit iväg", så att de inte drar ned den övergripande volymnivån till problematisk nivå för en genomsnittlig återgivningsutrustning. Jag har inget problem med en viss grad av hyperrealism i en ljudproduktion, då avsaknaden av visuella intryck vid ren ljudåtergivning ibland kan behöva kompenseras för. Jag kan både uppskatta en inspelning som har som mål att "efterapa" en verklig ljudhändelse, samtidigt som jag kan uppskatta andra typer av ljudproduktioner som helt eller delvis använder stereoperspektivet för ett semirealistiskt syfte, så som exempelvis ett piano som nyttjar hela bredden av stereofältet.
De ljudproduktioner som jag vanligtvis uppskattar mest är de som blandar element av en ursprungliga ljudhändelsen, vilket exempelvis kan vara den övergripande rumsligheten från truminspelningen, men samtidigt nyttjar styrkorna i panorerade multimono-objekt så som exempelvis en ensam elgitarr som nyttjar flera mikrofonupptagningar för full stereobredd.
Jag säger inte att du gör det, men många audiofiler verkar dra slutsatsen att en inspelning är någon slags "replika" av ursprungsljuds-händelsen, och att all form av efterhandsbearbetning av det inspelade material kan därmed bara ta det hela allt längre ifrån det "sanna" ursprungsljudet. Men verkligheten är den att val av mikrofoner samt dessas placeringar även de färgar det inspelade slutresultatet, så en efterhands-bearbetning med hjälp av EQ och liknande ljudvertyg kan lika väl ta slutresutlatet ännu närmare det ursprungsljud man eftersträvat med inspelningen (om så var målet). Visst, i en perfekt värld skulle man kanske få till det perfekt redan vid inspelningtillfället, men i verkligheten blir det allt som oftast inte riktigt så bra.
