JM skrev:Tack jansch för en mycket klargörande sammanfattning! Håller med om att de olika modellerna du beskriver inte korrelerar så bra med hur vi hör.
Hörandets algoritm:
Här kommer en annorlunda ansats till hur vi hör utifrån vissa fysikaliska stimuli i den fysiologiska/psykologiska dimensionen.
Vi hör allt ljud utifrån vissa fysikaliska stimuli. Alla hörbara fysikaliska ljudstimuli är mer eller mindre relaterade och beroende av varandra inom viss tid i den fysiologiska/psykologiska dimensionen.
Med två fysiskt separerade öronsensorer, två partiellt korrelerade och delvis separerade hjärnhalvor sker hörandet enligt en komplicerad delvis okänd algoritm.
För att förenkla beskrivningen av hörandet i små rum fokuserar jag på ett kort bredspektrum artificiellt direktljud på ca 70 dB i horisontalplanet och dess reflexer samt de viktigaste variablerna vilka relaterar till algoritmen.
Hörandets fysikaliska algoritm:
Direktljudet är den enskilt viktigaste variabeln.
Med "gating" går det hyfsat att skatta direktljudet i fysikaliska dimensionen även i små rum enligt ovan.
Med två öron erhålls två varianter av direktljudet. När vi hör registrerar vi alltid två varianter av direktljudet. Båda intra-cerebralt registrerade ljuden från var sitt öra är mycket viktiga för optimalt ljud. Testa att hålla för ena örat med ljudkällan centrerad i sagitalplanet (medicinskt - ett plan hos ljudmottagaren genom halva näsan och halva kroppen) (0-axeln fysikaliskt utifrån ljudkälan). Två öron behövs för optimalt ljud även om fysikaliska stimuli är lika. I hjärnstammen optimeras ljudet frekvensmässigt utifrån signal från öronen. Frekvenser över 1000 Hz verkar vara avgörande.
Kommer direktljudet i en vinkel till sagitalplanet erhålls två olika stimuleringar via öronen utifrån lite olika fysik (ankomsttid, frekvenskurva, intensitet - enkelt att mäta). Trots att höger och vänster öra får lite olika fysikalisk stimulering upplevs inte två ljud. Dessa variabler kan lokalisera ljudet med en felmarginal på upp till 2 grader. Hur detta sker är oklart. Avståndet mellan öronen är inte avgörande. Sannolikt sker detta på synapsnivå i speciella nervceller med signaler från bägge öronen i hjärnstammen bortom viljans kontroll.
Reflexerna från direktljudet är helt avgörande om ljudet skall upplevas som optimalt eller ej.
På liknande sätt som vinklat direktljud ger reflexljudet ganska lika men något olika signaler till hjärnan. Avviker reflexerna för mycket från direktljudet kommer hjärnan att uppleva två ljud med med inte så obetydlig maskering. Är reflexljudet och direktljudet ganska lika upplevs ett ljud vilket är något färgat av reflexen enligt gestaltprincipen. Detta sker in hjärnstammen och närmare bestäm invid fyrhögsplattan.
Går det att mäta fysikaliskt relevanta aspekter av reflexerna?
Om det går att med "gating" mäta reflexerna selektivt i intervallen 5-10, 10-15, 15-20, 20-30 ms map riktning, frekvens, intensitet utifrån en kortvarig allspektrum ljudkälla borde rumsanalysen inte vara så svår.
De viktigaste fysikaliska variablerna i hörandets algoritm i små rum är ytterst uppmätt direktljud och reflexljud i lyssningspositionen i relation till ankomsttid, intensitet, frekvenspektrum och ankomstvinkel.
Hörandets fysiologiska/psykologiska algoritm:
Fysiologiska/psykologiska algoritmen har redovisats tidigare och hur dess variabler skall optimeras.
JM
Hej JM,
Jag noterar att du inför begreppet Algoritm. Det är visserligen i en annan tråd men jag lägger mitt inlägg i denna tråd eftersom det är väldigt OT i den andra tråden och mitt inlägg får representera min syn i frågan.
Vad gäller begreppet "algoritm" och då det sätts i samband med en biologisk funktion så vill jag ge ett svar.
ALGORITMVad är en algoritm?Inom matematiken och datavetenskapen är en algoritm en ändlig uppsättning (mängd) otvetydiga instruktioner som efter exekvering löser ett problem.
Algoritmen startar i ett givet tillstånd (starttillstånd) och når resultatet (sluttillstånd) inom ett ändligt antal steg. Varje steg måste vara tydligt och precist definierat på så sätt att utomstående ska kunna exekvera algoritmen och verifiera ett resultat.
Ytterligare är effektivitet viktigt, det vill säga varje steg måste vara elementärt och exakt, samt gå att beräkna inom en ändlig tidsram.
Det yttersta kriteriet för effektiva algoritmer är dess beräkningskomplexitet, något som mäts i antalet beräkningssteg som krävs för att nå ett resultat. Vanligtvis är det tidskomplexitet som mäts för att särskilja algoritmer, som uppmäts i tidsåtgång beroende på problemstorleken.
Det går även att mäta minneskomplexitet där man mäter hur mycket minne som krävs för att lösa ett problem.
Utifrån ett problems algoritmlösning kan man klassificera problem efter svårighetsgrad i så kallade komplexitetsklasser. Med klasser för tidskomplexitet är det möjligt att avgöra vilka problem som går att lösa inom en rimlig tid.
Informellt kan man illustrera algoritmer med hjälp av analogi i form av ett recept (även om många algoritmer är mycket mer komplexa än recept).
Konceptuellt sett, blir i så fall ingredienserna dess indata, receptet med tillagning (exekvering) själva algoritmen och maträtten ett resultat i form av dess utdata.
I stället för att blanda eller koka så finns andra grundläggande steg i algoritmer.
Man brukar räkna de fyra räknesätten och de logiska operationer på sanningsvärden som grundläggande operationer. Dessutom krävs att man till minne både kan läsa och skriva data. Detta är ett mycket känt bevis av Alan Turing gällande vilka operationer som krävs för att kunna beräkna vilken funktion som helst.
Detta gäller matematik och datavetenskap.
Nu kan vi i stället analysera hjärnan och det Centrala Nervsystemet med biologiska och biokemiska samt elektrokemiska processer där neuroner, celler, neurala processer som resulterar i psykologiska resultat.
Vi kommer ovillkorligen in på NEURALA NÄTVERK och dess domäner.
Vad är ett neuralt nätverk?Ett neuralt nätverk är en serie algoritmer som gör det möjligt att känna igen underliggande relationer i en uppsättning data genom en process som efterliknar hur den mänskliga hjärnan fungerar.
Neurala nätverk hänvisar till system av nervceller, antingen organiska eller konstgjorda till sin natur. Neurala nätverk kan anpassa sig till att ändra indata genom viktning. Nätverket genererar därför bästa möjliga resultat utan att behöva omforma utdatakriterierna. Begreppet neurala nätverk har sina rötter i artificiell intelligens.
Grunder inom neurala nätverk.Artificiellt neuralt nätverk (ANN); neuronnät (rekommenderad term enligt Svenska datatermgruppen)Ett neuronnät eller artificiellt neuronnät (ANN) är ett samlingsnamn på ett antal självlärande algoritmer som försöker efterlikna funktionen i biologiska neuronnät (exempelvis hjärnan).
Algoritmer som emulerar neuronnät kan ofta klara problem som är svåra att lösa med konventionella datalogiska metoder. Exempel på tillämpningar är: informationsutvinning (data mining), mönsterigenkänning, signalbehandling, reglerteknik, datorspel, prognoser, självorganisering, icke-linjär optimering, optimeringsproblem med många bivillkor (exempelvis schemaläggning) med mera.
Den mänskliga hjärnan bearbetar information parallellt genom att avfyra signaler mellan miljarder sammankopplade nervceller och ANN arbetar på samma sätt.
Alla neuronnät har en grundbyggsten: Neuronen, som omväxlande även kallas för nod eller cell eller enhet. I konstgjorda neuronnät abstraherar man neuronen till att bestå av en eller flera ingångar (dendriter), en kärna (soma) samt en utgång (axon).
I ett artificiellt neuronnätverk är kärnan kraftigt förenklad modell av soma. Kärnan består då av två separata delar, dels Summationsdelen, dels Transferfunktionen.
Ett neuralt nätverk fungerar på samma sätt som den mänskliga hjärnans neurala nätverk. En "neuron" i ett neuralt nätverk är en matematisk funktion som samlar in och klassificerar information enligt en specifik arkitektur.
Nätverket har en stark likhet med statistiska metoder som kurvmontering och regressionsanalys.
Ett viktigt och mycket enkelt neuronnät är perceptronen. Den beskrevs redan på 1950-talet.
Ett neuralt nätverk innehåller lager av sammankopplade noder. Varje nod är en perceptron och liknar en multipel linjär regression.
Inom statistik är multipel linjär regression en teknik med vilken man kan undersöka om det finns ett statistiskt samband mellan en responsvariabel (Y) och två eller flera förklarande variabler (X). Respons är det man ser på utgången. Den kan jämföras med ingången.
Till sitt förfogande har man sammanhörande mätvärden på X- och Y-variablerna och är intresserad av att undersöka huruvida en specifik linjär modell kan antas beskriva det uppsatta sambandet.
För att perceptronen skall fungera måste data vara linjärt separabelt. Det upptäcktes tidigt att perceptronen har begränsad kapacitet att lösa problem, men det finns lösningar på detta.
FlerlagersperceptronerEtt sätt att lösa problem som en perceptron inte klarar av, är genom att kombinera flera perceptroner. För att exempelvis lösa en ickelinjär funktion kan man kombinera två eller flera perceptroner, där ena kan lösa en sak och andra löser andra saker; sedan kombineras perceptronernas utdata för att få den totala ickelinjära lösningen. I neuroner förekommer den logiska funktionen antingen eller d v s information trunkeras. Det är en synnerligen olinjär transferfunktion.
Perceptronen matar signalen som produceras av en multipel linjär regression till en aktiveringsfunktion som kan vara icke-linjär.
Varje anslutning mellan nervceller är associerad med ett numeriskt tal som kallas vikt. Denna vikt fungerar som en variabel i neuronens utgångsfunktion. D v s varje ingång Vj, har en vikt Wj. Grundidén är att en mängd neuroner sitter hoplänkade i olika strukturer och vikterna ändras vid inlärning. Neuronnät måste tränas upp till önskad funktion.
Ett neuronnät måste tränas innan det kan användas. De flesta neuronnät arbetar därför i två faser, först en inlärningsfas där nätverket tränas på den uppgift som ska utföras. Sedan följer en tillämpningsfas där nätverket bara använder det som det har lärt sig. Det går också att låta nätet fortsätta att lära sig även när det används, men vanligen lämnas det som det är när det uppnått den precision som eftersträvades.
Det finns en specialingång V0 med vikten W0 som möjliggör justering av alla ingångsvärden. Ingångarna är anslutna till summationsdelen och utgången Y är ansluten till transferfunktionen.
Ett exempel på en transferfunktion är HRTF Head Related Transfer Function. Denna transferfunktion sker ju utanför hjärnan d v s innan trumhinnorna, men den representeras genom frekvensgång som blir Input till hörseln med nervsystem och hjärna.
I hjärnan finns en oöverskådlig mängd transferfunktioner som skall åtgärda information genom avkodning och omkodning och nykodning och sortera information till rätt neuroner så att informationen hamnar på rätt plats i hjärnan. Frekvensgången vid trumhinnorna skall ju transformeras från att vara frekvensgång på inkommande ljudvåg till trumhinnorna till att bli en absolut positionering av dess ljudkälla i rummet (x,y,z) och detta skall vara oberoende av hur vi vrider huvudet och därmed helt och hållet ändrar HRTF beroende på huvudets placering/rymdvinkel i förhållande till ljudkällan. Vrids huvudet så kommer frekvensgången på respektive trumhinna att förändras radikalt, men ljudkällans position förblir intakt och förflyttas inte absolut sett, men däremot förflyttas den relativt vårt huvuds koordinatsystem! Detta sker genom en övergång via sfäriska koordinater för att bli absoluta rumskoordinater enligt det kartesiska koordinatsystemet (x,y,z).
Ett ANN består av flera lager av nervceller 1. Det finns ett indatalager som tar emot den information som ges till det neurala nätet.
2. Det finns ett eller flera dolda lager.
3. Det finns slutligen ett utdata-lager.
De dolda lagren består av flera nervceller per lager och utgångslagret kan bestå av en eller flera neuroner som avvaktar vilket problem man åsyftar till att lösa.
För ett enkelt problem där utdata antingen är: "Sant" eller "Falskt", består utgångsskiktet av en och endast en neuron.
För ett mer komplext problem, typ såsom bildklassificering och igenkänning av röst behövs flera nervceller. Samtliga dessa nervceller är anslutna till alla nervceller i de intilliggande lagren.
Man kan väl använda begreppet Algoritm i neurala sammanhang. Man bör dock ha klart för sig den totala innebörden. Det är verkligen algoritmer det handlar om och framtidens svar ligger i att förstå dessa algoritmer och hur neurala nätverk fungerar. Det viktiga att förstå är matematiken i hur man räknar i algoritmer annars blir det ingen algoritm.
Det finns 2 saker att beakta gällande algoritmer och neurala nätverk/neuronnät.
1.
Summation, där Summationsdelen summerar de värden som registrerats på alla ingångar. I denna summering multipliceras varje ingångsvärde med respektive vikt:
2.
Transferfunktion, där transferfunktionen kan ha flera olika utseenden, t.ex. tröskelfunktion, linjärfunktion, olinjära funktioner, med flera. Tröskelfunktionen är en väsentlig del, kanske den mest väsentliga att förstå.
Vad gäller orden och begreppen "hörandet" och "optimalt" så ställer jag mig dock frågandes.
Vad gäller en del övrigt i ditt inlägg finns det anledning att återkomma till.
MvH
Peter
VD Bremen Production AB + Ortho-Reality AB; Grundare av Ljudbutiken AB; Fd import av hifi; Konstruktör av LICENCE No1 D/A, Bremen No1 D/A, Forsell D/A, SMS FrameSound, Bremen 3D8 m.fl.