Jag skall kortfattat ge mina synpunkter.
Kraniet skrev:petersteindl skrev:sprudel skrev:Det är ju inte alltid som en produktion ser ut som du tänkt där Peter. Många gånger spelar man in olika instrument för sig, röster för sig, skruvar och rattar på det, lägger på eko, fixar ljudbild, bankar ihop det till ett album och lyssnar i sin studio.
Det är väl så som Kraniet ser det kanske, och då är det ännu svårare att veta hur det ska låta när man spelar upp det i sin egen anläggning.
Jo, det där är jag fullt medveten om. I inspelningsled så måste man skilja på kreativt musikskapande kontra dokumentation av musicerande. Ibland är det en slags kombination. Frågan blir om man vill skapa naturligt låtande ljud eller om man vill få fram helt nya fräcka sound. Men om en inspelningstekniker sätter ljudet i sin studioreferens men föredrar en avspelning i en annan mer sofistikerad anläggning, varför skall man då på något sätt sträva efter att åstadkomma studioreferensens ljud? Och, vad är i så fall ljudåtergivning?
Oavsett vilket så är jag helt ointresserad av studioreferensens ljud i sig. Blir det med min preferens även så att studioreferensens ljud faller på plats eller till det ännu bättre så är det så, men inget jag eftersträvar för min egen del.
Dock undrar jag om det är gängse studioproduktion som Kraniet i första hand tänkt sig d v s multimonomikrofonteknik med panpotting för intensitetsstereofoni. Jag kallar inte sådant för en verklig ljudhändelse. Jag ser det snarast som en slags konstlad virtuell ljudhändelse eller fantomljudhändelse som skall överföras till att bli till en fantomljudhändelse. En verklig ljudhändelse är för mig en ljudhändelse med någon form av akustisk verklighetsförankring. Istället för Virtual Reality så kanske man kan kalla det Ortho-Reality.
Det är du som är TS. Hur vill du att det skall låta?
Med vänlig hälsning
Peter
Jag är i första hand intresserad av "korrekt" informationsöverföring. Det ser jag som ett grundläggande krav och ett som Hi-Fi branschen i mångt och mycket helt ignorerar.
Ok, "korrekt" informationsöverföring skriver du. Då talar vi om något annat. Informationsöverföring är helt enkelt att man inför en så kallad black box med en signalingång och en signalutgång. Om boxens överföringsfunktion är 1, så är signalen på utgången = signalen på ingången. Jag anser fortfarande att ditt upplägg är felaktigt om man vill göra en konstruktiv analys. Om du tar bort likamedstecknet mellan varje steg så blir det enklare att följa flödet. Då gör du ett flödesschema istället och då införs pilar.
Exempelvis:
Verklig händelse
Inspelningsutrustning
Mastringsutrustning
Lagringsmedie (information)
LagringsmedieAvkodning
FörFörstärkare
Förstärkare
Högtalare/rum.
Med dina förkortningar blir det:
V
I
M
LI
LA
FF
F
H
Nu gäller det enligt dig att kravet H = V skall vara uppfyllt. Men du har även kravet att varje enskild överföringsfunktion = 1 och det är som jag ser det helt absurt. Det finns inget sådant och kommer heller aldrig att finnas. Det är ett tankefel. Varför har du med Mastering i en process där överföringsfunktionen skall vara = 1?
Det är ju i och för sig i så fall bra betalt, men ändå. . . typ.
Ett problem är att du sätter Högtalare/rum = H. Det är en förenkling som helt enkelt inte fungerar. Du går från endimensionell linje eller snarast nolldimensionell punkt till tredimensionell rymd på ett sätt som helt enkelt inte är acceptabelt i en sådan analys. Det finns fler problem med denna typ av analys du försöker göra.
Sedan upprepar jag: Frågeställningen är
hur det skall låta? Detta måste ovillkorligen helt och hållet skiljas från frågeställningen
hur det skall mäta? Diskuterar man hur det skall låta så måste man lämna objektiva mätningar helt åt sidan. De ingår överhuvudtaget inte i ekvationen. Detta är en springande punkt man helt enkelt måste acceptera. Om du exempelvis aldrig någonsin skulle lyssna på din stereo och ingen annan heller, hur bedömer man att din stereo i så fall låter? Du kan referera till mätningar av frekvensgång, fas, THD, impedans osv, men faktum kvarstår, ingen vet hur det låter därför att ingen har lyssnat på det. Hur det mäter är irrelevant information i sammanhanget. Det är en helt annan frågeställning. Det är enkom lyssnandet som gäller då frågeställningen är hur det låter. Det är min bestämda uppfattning.
Om du istället skulle välja att klassificera uppgiften där du väljer att kalla utgången på Inspelningsutrustningen I som det man kallar för källkod så blir det enklare att ha kontroll på.
OBS! Ursprungshändelsen är i sådant fall inte källkoden!! Sedan vill jag skilja på det mikrofonerna tar upp och vad som hamnar i Inspelningsutrustningen. Mikrofoner har en signalingång som registrerar akustiska ljudvågors ljudtryck i mikrofonkapselns position i varje tidpunkt över ett tidsintervall. Mikrofonens utgång är en elektrisk signal som representeras av en spänning i varje tidpunkt över samma tidsintervall.
Akustiska ljudvågors ljudtryck i mikrofonkapselns position i varje tidpunkt är en tredimensionell rumslig företeelse som kan uttryckas som en funktion av dimensionen tid T eftersom den akustiska ljudvågen är en vektor i ett vektorfält som kan vara föränderlig i tiden, åtminstone på direktljudet. Det är således en fyrdimensionell företeelse.
Den reella företeelsen före mikrofonkapseln kan beskrivas som en vektorstorhet i form av en tredimensionell vektor i ett rum med (x,y,z) som dimensioner. Det rör sig i så fall om ett vektorfält.
Man kan beskriva vektorn med Amplitud och Riktning. Om det är så att
Amplituden är olika på olika punkter i rummet som beskrivs med koordinater (x,y,z) i detta vektorfält i rummet så kan man uttrycka
en vektor som funktion av rummets koordinater (x,y,z). OBS! det handlar då om amplituddifferens i rummet vid en och samma tidpunkt, inte om amplituddifferens i tiden. Det kan kallas/liknas vid en lägesderivata i rummet eller rumsderivata. En korrekt benämning är riktningsderivatan. En annan benämning är Gradienten, t.ex. tryckgradienten som en akustisk ljudvåg har. Det är inte att förväxlas med en tidsderivata! Tryckgradienten är således en tryckdifferens mellan två punkter i rummet vid samma tidpunkt. Det är som ett fotografi som beskriver tryck i olika punkter/koordinater i rummet. Tidsderivatan är istället en video som registrerar tryckdifferensen i en given punkt under ett tidsintervall. Jag vill i nuvarande läge inte gå in på matematiken för dessa differentialekvationer, det finns inte tillräckligt med tid och lust till det just nu. Matematiken behövs för närvarande inte i denna redogörelse.
Mikrofonkapseln registrerar inte denna tredimensionella vektor. Den registrerar ingen vektor alls. Någon lägesderivata existerar inte för mikrofonkapseln ifråga. Den registrerar en skalär Amplitud i form av
ljudtryck i en och endast en punkt, d v s en skalär storhet med enheten Pascal Pa som för enkelhets skull görs om till en logaritmisk skala med enheten dB. Den har ingen rumslig dimension alls, däremot finns tiden som dimension. På
mikrofonkapselns utgång finns spänning som mäts i volt och då som funktion av tid, d v s en spänning som ändras i tiden. Det är en tidsderivata! OBS, skillnaden mellan rumsderivata och tidsderivata! Det här är fundamentala ting som måste förstås om man skall gå på djupet med ljud. Kan man inte ljud, så blir ljudåtergivning som fenomen ett meningslöst begrepp. Det anser jag. Därför vill jag försöka förklara så att meningsfulla diskussioner skall kunna uppstå.
Så, före mikrofonkapslarna finns ett vektorfält i en tredimensionell rymd. Man kallar denna rymd för ett Euklidiskt tredimensionellt rum med ett koordinatsystem enligt Cartesius d v s ett kartesiskt koordinatsystem som beskrivs med koordinaterna (x,y,z). Det Euklidiska rummet kan vara ett vektorfält och även ett skalärfält.
Efter mikrofonkapseln finns enkom något som kan liknas vid en punkt i ett skalärfält, helt utan någon vektor och helt utan någon riktning och helt utan något rum, egentligen inget fält alls. Det existerar helt enkelt inte något sådant i den elektriska signalen efter en mikrofonkapsel. Trist va! Det är bara att gilla läget. Trauma. Jag tycker synd om alla inspelningstekniker.
Nu kan man dock införa ytterligare en mikrofonkapsel för att åstadkomma så kallad stereofoni. Då har man i varje fall två punkter i ett akustiskt vektorfält i en tredimensionell rymd. Det är två skilda punkter. Punkt A och punkt B kan vi kalla dem för som jag gjort tidigare. Det rör sig om två skilda akustiska punkter med respektive noll rumsdimensioner och enkom med tidsdimension, ett ljudtryck som förändras i tiden i respektive punkt. Då har vi kommit så långt i Inspelningskedjan där i princip både den akustiska och den elektriska koden i A och koden i B är fullständigt och totalt stympat. Tryckgradienter och vektorer finns inte i koderna för respektive punkter A och B. Därför har jag gett rådet till var och en att lyssna på dessa, i princip vedervärdiga, koder genom att lyssna med in Ear lurar såsom jag tidigare beskrivit. Då får ni höra koderna i deras nakenhet. Någon annan kod finns inte i inspelningar. Ni får hålla till godo med det som finns. Det är bara att gilla läget.
(Jag vill påpeka att det test jag förespråkat är normal praxis vid psykofysiska tester med hörlurar. Att lyssna på 1 kanal i ett öra tillhör Monaural listening och det spelar ingen roll vilket av öronen som används. Detta skall inte förväxlas med monophonic. Monaural betyder 1 öra. Monophonic betyder 1 kanal. Spelar man upp monophonic sound i båda öronen så är det monophonic och binaural. Binaural betyder båda öronen. Stereophonic betyder 2 kanaler. Man skiljer på antal kanaler respektive antal öron man lyssnar med. Sedan lyssnar man monophonic binaural och det kallas diotic listening. Då rör det sig om samma signal i båda kanalerna men uppspelat i båda öronen istället för i ett öra. Om signalen skiljer sig mellan kanalerna och man spelar upp respektive signal simultant i respektive öra d v s man lyssnar på stereo i båda öronen så kallas detta dichotic listening. Det är vanliga vetenskapliga uttryck inom psykofysiken och psykoakustiken. Jag upprepar, lyssna på inspelad kod såsom jag beskrivit tidigare. Det är enkom vid dichotic listening som hörsln kan registrera Interaural differences såsom Interaural time Difference ITD och Interaural Level Difference ILD)Vem som helst, vid ovanstående lyssningstestförfarande jag rekommenderat, hör att (Verklig händelse) V är helt väsensskild från uppspelning H (högtalare/hörlur) även om koden i H (högtalare/hörlur) enligt objektiv mätning skulle vara identisk med koden i V (verklig händelse). Objektiva fysikaliska mätförfaranden är helt enkelt ointressant och irrelevant i sammanhanget. Man kan försöka mäta fas och distorsion och frekvensgång tills man petrifieras utan att det ger någon som helst information i sammanhanget gällande det tredimensionella vektorfältet. Jag hoppas verkligen att det förstås.
Nu har vi kommit fram till den elektriska domänen. Där finns ingen tredimensionell rymd, inget vektorfält. Poff, borta!
Går denna akustiska rymd i den verkliga händelsen att återskapas? Det är detta som jag ser som huvudfrågan i sammanhanget. Finns det någon maskin som kan registrera koden i A och koden i B och avkoda dessa koder korrekt så att det akustiska ursprungsvektorfältet i den verkliga händelsen återskapas? Svaret är nej!! Sådant finns inte. Sorry!
Vad kan man då göra? Man kan exempelvis studera den mänskliga hörseln för att ta reda på hur hörseln uppfattar det akustiska tredimensionella vektorfältet i den verkliga händelsen och kalla hörselns uppfattande för Ursprungshändelsen. Då blir Ursprungshändelsen själva källkoden i centrala nervsystemet och hjärnan som skall återskapas. Det akustiska blir efter en mängd ytterligare pålagd kod av människan själv till en ny kod i innerörat hos hårcellerna. Då får man ta reda på hur denna nya kod bidrar till upplevelsen. När man analyserat hela hörselns process så kan man komma till en förståelse vilka fördelar hörseln har och vilka kryphål det om möjligt finns för att måhända kunna lura hörseln så att den tredimensionella Ursprungshändelsen kan reproduceras till 100 %. Då måste man förstå vad som menas med 100 %. Jo, det är
hörselns uppfattning om den reella Ursprungshändelsen som inte behöver överensstämma med
den objektivt verkliga ursprungshändelsen. Det är denna diskrepans som man helt enkelt först måste bestämma sig för hur man skall handskas med. Vilket är det rätta att återge, d v s vad strävas efter vid ljudåtergivning. Jag skall förklara närmare.
Bell laboratories gjorde experimentet att ha en mängd sångare utspridda på ett podium som var indelat som ett schackbräde. Varje sångare hade sin exklusiva ruta d v s position. Publik fanns på plats och ett ljudtransparent skynke var mellan sångare och åhörare. Åhörarna fick varsitt papper med schackbrädet och skulle bestämma varje sångares position på podiet utan att se sångarna. Det visade sig att lyssningsresultatet blev skilt från den objektiva verkligheten. Den subjektiva reella verkligheten var inte samma som den reella objektiva verkligheten.
Det är nu man måste bestämma sig. VAD ÄR LJUD? VAD ÄR LJUDÅTERGIVNING? VAD ÄR KORREKT REPRODUKTION AV EN LJUDHÄNDELSE?
Ja, samma forskare på Bell Laboratories spelade även in sångarna och spelade upp det inspelade resultatet för åhörarna via högtalare på podiet. Åhörarna fanns på samma plats bakom samma skynke och fyllde i samma papper med samma schackbräde.
Beroende på inspelningsteknik och högtalarplacering och antal högtalare, antingen 2 stycken eller 3 stycken där 1 var centerhögtalare så blev reproduktionen helt olika.
Inget resultat blev som den objektiva verkligheten! Kan vara bra att veta.
Däremot blev resultatet så att absolut bästa resultat blev med centerhögtalare och då var den subjektiva överensstämmelsen av den reproducerade fantomprojiceringen av ljudkällor närmast den reella subjektiva verkligheten. Detta gällde 3-kanalsinspelning uppspelat med 3 högtalare samt även 2-kanalsinspelning uppspelat med samma 3 högtalare där ljudsignalen till centerhögtalaren var elektroniskt summerat från de två inspelningskanalerna. De provade flera olika sätt att summera signalerna på och ett sätt var bäst. Ingen av dessa var dock enligt den algoritm som jag har och använder mig av. Jag var inte ens född på den tiden. Experimentet gjordes på 1930-talet d v s samtida med Blumlein. Det var på hifi-patriarkernas tid då kunskap var huvudnyckeln till välljud. Det fanns dock inget media som klarade en kommersialisering av stereo på den tiden. Det kom först 1958 med microgroove LP. På 40-talet kom de första bra bandspelarna och även för stereo som krävde stereotonhuvud och bredare band.
Huvudfrågan består, VAD ÄR LJUD? Eftersom det subjektivt upplevda reella skiljer sig från det objektivt reella så måste man helt enkelt bestämma sig.
De är uppenbarligen inte samma. Lokaliseringen av sångarna med hörseln blev inte samma som den fysikaliska positioneringen av sångare. Vilket av dessa skall återges då man pratar om ljudåtergivning?
Väljer man att det är den fysikaliska positioneringen av sångare som skall reproduceras i ljudåtergivning så är LJUD = FYSIKALISKT REELT FENOMEN. Jag kallar det för ett akustiskt fenomen.
Väljer man att det är den subjektiva lokalisationen av sångare som skall reproduceras i ljudåtergivning så är LJUD = SUBJEKTIVT FENOMEN som uppstår i vårt centrala nervsystem och i vår hjärna. Jag kallar det för ett neuralt fenomen.
Det är bara att välja. Jag väljer att se fenomenet LJUD som ett neuralt fenomen. Dock är det inte riktigt hela förklaringen av fenomenet LJUD. Jag särskiljer detta från akustiska ljudvågor i luften. Men alstraren av vibrationerna som sätter luftmolekyler i vågrörelse ser jag som en LJUDKÄLLA. Ljudvågen ser jag som en akustisk ljudvåg i ett elastiskt medium exempelvis luft. Det handlar då om en transmission från en Ljudkälla till en ljudmottagare där det Euklidiska rummet är en transmissionsledare, helt enkelt en slags akustisk tredimensionell "kabel" som förbinder ljudkälla med ljudmottagare. Det betyder att om man skulle fixa vacuum mellan ljudkälla och ljudmottagare så registrerar mottagaren noll ljud men ljudkällan finns kvar och alstrar ljud i och med sin vibration. Den akustiska tredimensionella "kabeln" har man dock tagit bort i och med vacuumet istället för ett elastiskt medium som luften utgör. Även nu skulle det vara på plats att införa matematiska ekvationer.
Rent fysikaliskt så återstår det i princip enkom en mekanisk svängningskrets enligt massa-fjäder principen, harmonisk svängning och resonans. En reproduktion av denna mekaniska svängningskrets medelst högtalare eller hörlur och tillförd energi från förstärkare sker med en överföringsfunktion som tillåter högtalaren att kunna reproducera en eller flera mekaniska harmoniska svängningskretsar som kan bringas i resonans från exempelvis 10 Hz till 25 kHz. Då har man ett kontrollerbart system för ljudreproduktion.
Matematiskt sett gällande en harmonisk svängningskrets med massa och fjäder så kommer Newtons andra lag in för rörelse in i form av kraftekvationen F=m*a. m= massa. a = Acceleration som är derivatan på hastighet d v s måttet på hastighetsförändring. Hastighet är måttet på lägesförändring av position x d v s derivatan på lägesförändring. Båda dessa är tidsderivata och man får andraderivatan av position x. Då kan kraften skrivas som F=m*d²x/dt² bringas massan i rörelse kommer den att röra sig i oändlighet om det inte finns något som begränsar rörelsen och i detta fall finns fjädern. Då kommer ytterligare en kraft in enligt ekvationen F= -k*x. Där k = fjäderkonstanten. Nu kan man lägga ihop dessa ekvationer. Då fås att m*d²x/dt²= -k*x. Då har vi uppnått en andra ordningens differentialekvation. Då kan man ju lösa denna. då fås x(t)= xₒ*cos(t*√(k/m) + φₒ) där xₒ är hur mycket massan har förflyttats innan den släpps fri. φₒ är dess initiala fasläge vid tidpunkten noll.
Nu kan man gå vidare och härleda vad som händer med cosinusfunktionen över en full cykel om 360 grader d v s 2π radianer. En full cykel sker då t*√(k/m) = 2π. tiden för 1 cykel blir T= 2π/√(k/m). Frekvensen f = 1/T = √(k/m)/2π.
D v s massa-fjädersystemet har en naturlig intrinsisk frekvens f som systemet vill oscillera eller vibrera med. Det kallas resonansfrekvens. Om denna frekvens ligger inom tonfrekvensområdet 20-20 kHz så kan den höras som en ton. Massa-fjädersystemet är en ljudkälla. För att vibrationen/oscillationen skall höras som en ton så förutsätter det att det finns sammanhängande luft runtomkring ljudkälla och mottagare. Tar man bort luften så att vacuum uppstår så svänger systemet fortfarande på i stort sett samma sätt. Nu är frågan om massa-fjäder systemet fortfarande kan anses vara en ljudkälla, men en som inte hörs eftersom inget elastiskt medium finns så att transmission från ljudkälla till hörseln kan inträda. Jag ser systemet fortfarande som ljudkälla och det är denna ljudkälla som hörs då transmission medges, exempelvis via luft. Du hör inte dina trumhinnor, du hör ljudkällan. Det bygger på att hörseln har lokalisationsförmåga som funkar trots att mikrofoner inte registrerar någon kod gällande gradienter och vektorer och därmed riktning. Fast med hörlurar uppstår problem eftersom endast den inspelade koden i punkt A respektive i punkt B finns för hörseln att tillgå och det blir extra tydligt vid monaural listening med in Ear hörlur. Då blir det i princip trumhinnan som hörs. Väldigt obehagligt. Lyssnar man diotic så blir ljudet mitt i huvudet. Inte heller roligt.
Ljudet eller vibrationen från ljudkällan (massa-fjäder systemet) i den objektiva fysikaliska akustiska verkligheten kan nu höras eftersom det uppstått en akustisk ljudvåg i det elastiska mediet/luften mellan ljudkälla och människans hörsel. Utifrån denna matematik kan man härleda musikinstruments harmoniska vibrationer d v s ljud. På så sätt kan fenomenet ljud definieras. Man kan också införa vågekvationen och applicera den på akustiska ljudvågor i luften. Det är då vektoranalysen kommer in med vektorfält och vektorer i 3 rumsdimensioner där det sker tryckförändring i tiden samt tryckskillnader mellan olika punkter i rummet. Sedan kan man studera hörseln och hur den subjektivt uppfattar de harmoniska svängningarna inom tonfrekvensområdet.
Så, hur skall det låta?
Ljudåtergivning av en ljudursprungshändelse blir som jag ser på saken enligt den bild jag tidigare visat som modell över vad som skall åstadkommas. Detta är då ett neuralt fenomen.
Nu gäller det att lägga ihop allt till en fungerande adekvat hypotes som innefattar allt och som är korrekt, där fantomprojektion av ljudkällor ingår. Man kan vid närmare analys konstatera att det finns kryphål gällande den mänskliga hörseln och att man kan utnyttja dessa kryphål för att uppnå vissa resultat som man själv önskar uppnå. Ingvar gör det på sitt sätt, jag gör det på mitt sätt.
Jag vill passa på att inflika med inlägget från hcl.hcl skrev:Som jag ser det är dock inte de egenskaper som uppspelningslokalen bidrar med med nödvändighet väsentliga för att erhålla en fullständigt god upplevelse av det musikaliska innehållet i ursprungshändelsen. Den är det dock för att erhålla fullständig korrelation mellan upplevelserna av återuppspelningsupplevelsen och på-plats upplevelsen.
Detta är helt on spot om jag förstått hcl rätt. Jättebra skrivet. hcl använder även ordet korrelation som i sammanhanget är det helt rätta/korrekta ordet att använda. Kudos. Nu gäller det bara att förstå d v s att komma till insikt med varför det är så. Det är inte så lätt. Stig Carlsson klarade det inte. I intervju medgav han det offentligt, men han släppte aldrig sin övertygelse, och med rätta.
Kraniet skrev:Alltid i såna här debatter tycker jag det saknas någon slags fast grund att stå på. Det blir väldigt flummigt ifall vi inte ens kan etablera en "base line" för vad som är återgivning.
Jag har försökt belysa den base line jag utgår ifrån. Det är den grund jag står på.
Kraniet skrev:Det finns ju å ena sidan en "teknisk", "fysisk" verklighet och på andra sidan en "psykoakustisk överföringsfunktion" som ska bevaras.
Jag kallar det för fysikalisk objektiv reell verklighet med vektorljudfält till skillnad från subjektiv reell verklighet då det rör sig om att höra reella akustiska ljudkällor, exempelvis violin eller piano eller trumpet live eller ljud från
en högtalare.
Sedan finns det en subjektiv virtuell verklighet där man försöker återskapa det akustiska vektorljudfältet i den akustiska domänen. Det kallas Wave Field Synthesis WFS. Det kan man googla på.
Sedan finns det en subjektiv fantomprojicerad verklighet där man försöker återskapa det akustiska vektorljudfältet i den neurala domänen. Det kallas Stereo.
Kraniet skrev:Den första delen är saker som frekvenslinjäritet, distorsion, rumsakustik (i forma av "neutralt rum") Den delen borde inte vara så svår! Men trots det så har vi en multimiljonindustri som är centrerad runt nonsens. Med det en massa förvirrade människor som tror en massa fantastiska saker är involverat.
Nu blandar du ihop endimensionella överföringsfunktioner med tiden som dimension med det tredimensionella rummet som även den har tiden som ytterligare dimension. Mitt råd är att inte blanda ihop dessa fenomen. Du har fel i att det inte skulle vara så svårt. Jag vill påstå att ämnet är extremt svårt. Sedan vill jag säga att kunskap är en evolution som förhoppningsvis går framåt. Ingen är ännu i hamn. Dock anser jag att det är helt ok att det finns stereoprylar att köpa i brist på det fulländade.
Kraniet skrev:Sen har vi det psykoakustiska. Jag förstår din tanke och vad det är du vill uppnå och jag tycker det du säger är vettigt och viktigt.
Men precis som du är inne på så är jag ju intresserad av alla slags inspelade ljud.
Din modell fungerar ju under rätt förhållanden. Eller det är då den kan verifieras.
Men alla inspelningar där du inte haft kontroll på inspelningen. Hur vet du att den är relevant i de fallen?
Jag tror dock ändå att du än så länge inte förstår. Jag har än så länge inte klargjort det väsentligaste för full förståelse av vad jag menar och av vad jag strävar efter och varför jag strävar efter detta som än så länge är fundamentet och i bakgrunden av det jag vill förklara. Förklaringsmodellen är en process.
Kraniet skrev:Kanske är det så att det inte spelar någon roll? Eftersom vi inte vet vad V är i alla de där andra fallen så kanske det inte spelar någon roll vad uppspelningskedjan (H) gör??
Jag vet vad V (verklig ljudhändelse) är och det räcker för mig. Om det spelar roll för övriga, får övriga andra svara för.
Kraniet skrev:Men det vi kan vara helt säker på är att om det införs förvrängningar i kedjan mellan LI och H så kommer dessa påverka allt material som spelas upp.
För tydlighetens skull kanske P ska vara med också?
Ja, införs olinjära överföringsfunktioner mellan LI och H, så påverkar det signalen från samtliga fonogram. Jag förmodar att du med P menar Psykoakustik eller det psykologiska.
Kraniet skrev:Så kanske är det så att det måste delas upp i tre eller fyra delar?
Dvs LI=LA=FF=F alltså LI måste vara lika F
Som sagt, jag är inte överens med dina likhetstecken. Hur kan du lyssna på LI utan att använda LA eller FF eller F? Ja, med F/E-lyssning där man kunnat få fram FF och F som inte kan upptäckas med lyssning d v s där man inte lyckas motbevisa nollhypotesen, så kan man för tillfället utgå från att FF och F är transparenta och linjära med en överföringsfunktion som kan kallas k där k är ett linjärt reellt tal, t.ex. 27,8. 1 volt in ger 27,8 volt ut. Sen har man randvillkor, t.ex. 20 Hz - 20 kHz och att nivån in skall vara mindre än klippning på utgång och att signalen på utgången skall räcka för ens behov.
Detta är dock inte den springande punkten som jag ser det.
Kraniet skrev:Och sen behandla H separat?
Ja, det är helt separat eftersom vi här återkommer till det tredimensionella Euklidiska rummet. Problemet får en ny dignitet med magnituder av variabler.
Kraniet skrev:Och sist P?
Om man inte känner P så faller hela ljudåtergivningen som ett korthus.
Kraniet skrev:Men har man kontroll på hela kedjan LI-H så behöver det ju inte vara uppfyllt
LI=LA+=FF-=F+=H- skulle ju ge neutral "summa" även om de ingående komponenterna egentligen inte är neutrala.
I princip är det så. I praktiken bestämmer ekonomin. Kan man komma undan med betydligt mindre pengar för att genom kombinationer uppnå ett visst ändamål så ser jag inget fel med det.
Kraniet skrev:Men det blir ju snabbt ohållbart ifall man ska behöva matcha komponenter på sådant vis. Jag orkar inte ens tänka på hur många kombinationer det blir.
Det blir svårt för konsument, men då Harryup och jag hade Ljudbutiken så var det vår kunskap och vårt omdöme och vår professionalism och vår erfarenhet samt hjälp från di lärde på området som borgade för att vi kunde sätta ihop kombinationer som fungerade bra ihop.
Det var ju för väl att jag lyckades med att kortfattat ge mina synpunkter.
Mvh
Peter
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.