Jo, sant.
De svarta svanarna har inte Ingvar uppfunnit.
Här var det magiska sökordet som gör att man hittar "den första vetenskapliga tesen" utanför Faktiskt.
http://sv.wikipedia.org/wiki/Falsifierbarhet
Återstår att ta reda på om namnet "den första vetenskapliga tesen" är hittepå av Ingvar eller inte, men företeelsen finns iaf beskriven på annat håll.
Men, tiotusenkronorsfrågan blir ändå: vad är värdet av en icke-detektion i en F/E-lyssning?
Wikipedia skrev:Popper ansåg att en utsaga bara är vetenskaplig ifall den (1) är falsifierbar och (2) har bekräftats av någon sorts observation[1]. Detta har kritiserats, eftersom påståendet i sig är en utsaga som inte är möjlig att falsifiera.[källa behövs] Ändå hävdade Popper att icke falsifierbara teorier trots allt har en funktion i vetenskapen förutsatt att de har underlättat för formuleringen av precisa falsifierbara teorier[1].
Popper själv gick alltså emot sin åsikt, och lite så är det väl. De svarta svanarna sätter fokus på ett vetenskapligt dilemma, men när man har funderat lite över det så måste man ändå komma till beslut. Det probabilistiska synsättet, som du säger är ett sätt att hantera det.
Det är ju så, att inte heller en detektion är ett hundraprocentigt säkert bevis för att påverkan finns. Även om man pekar ut objektet 10 ggr i rad så finns det en liten risk att man har lyckats av en slump. Den risken kan beräknas och göras så liten att man känner sig trygg med den. Men noll blir den aldrig.
Icke-detektionen är inte heller ett hundraprocentigt bevis på att påverkan inte finns. Även om man använder de skarpaste lyssnarna i världen och den mest avslöjande kringutrustningen, och den mest avslöjande musiken, så behövs det bara en detektion (visserligen med hundraprocentig konfidens) för att bevisa motsatsen. Risken för detta är inte beräkningsbar på samma sätt (fast här brukar du komma dragandes med "power", så den kanske är det ändå, givet oändliga resurser) så här måste vi lita till en bedömning av testförutsättningarna för att känna oss trygga med icke-resultatet. Man får försöka göra förutsättningarna tillräckligt bra så att risken blir så liten att man känner sig trygg med nollresultatet. Men noll blir aldrig risken att det ändå finns en hörbar påverkan.
Ingendera (vare sig detektion eller ickedetektion) är alltså hundraprocentigt säkra. Båda har dock ett vetenskapligt värde om man lägger ett probablilistiskt synsätt på försöket.
Detta kan ställas i kontrast till Poppers svanar. Den "första vetenskapliga tesen" bör kanske användas med viss försiktighet, eftersom den i någon mening bygger på hundraprocentiga sannolikheter, dvs bevis. Om man inte kräver hundra procent, utan något mindre så kan man kringgå tesen. Óm man nöjer sig med "bortom allt rimligt tvivel" i stället för "bevis" så blir man så mycket mer handlingskraftig. Testerna får ett större värde.
Och utfallet av en F/E-lyssning blir binärt.
F*n, det är nyttigt att fundera på det här. Du skrev nog just det här, men efter att jag har fått smälta det vill jag formulera det ändå. F/E-lyssningarna är konstruerade framför allt för
detektion med hög konfidens. Vi föredrar en försöksserie med tex nio rätt i rad. Vore det bara detektion med hög konfidens vi var ute efter så skulle vi kunna
kräva just nio rätt i rad och förkasta alla andra resultat. Vi säger dock att även 12 av 13 är ok, eller 14 av 16 (jag minns nu inte siffrorna exakt). Hmm.
Om man i stället skulle designa försöket för maximal detektion av ohörbarhet så skulle man göra ett mycket stort antal lyssningar (hundratals) och se om antalet riktiga svar blev 50 %. Då kunde man med statistikens hjälp kanske säga att de 51 % rätta svaren med 99 % konfidens betyder att objektet är hörbart. Det uppenbara problemet med det upplägget är lyssnartrötthet, men fördelen är att även om hörbarheten är statistiskt säkerställd så vet man att det bara ger 51 % riktiga svar. Hörbarheten är alltså bevisad men så liten att den är betydelselös.
Sådär gör vi inte i LTS F/E, men det att vi tillåter FP att göra några fel i sina svarsserier är ändå att gå åt det hållet. Vi jämför inte mot ett JND på 100 %-nivån om inte FP klarar 100 %, utan vi nöjer oss med JND på ungefär 87 %-nivån (tex 14 av 16 se tidigare inlägg).
Och detta påstår jag, är just för att icke-detektionen ska bli mer värdefull. Vore vi inte intresserade av att göra icke-detektionen värdefull så skulle vi stanna vid kravet nio rätt i rad.
Man kan tänka sig "andel riktiga svar" som ett mått på hörbarhet. 50% skulle då vara synonymt med ohörbart och 100% skulle vara fullständigt hörbar. Alla nivåer däremellan skulle gå att säkerställa med 99 % konfidens, och 100 %-nivån är den som skulle kräva färst lyssningar. 60 %-nivån skulle kräva ruskigt många lyssningar om man ville ha 99 % konfidens och vid 50 % går det mot oändligt många lyssningar.
Den där nivån (50-100 %) är då ett mått på hörbarheten.
Det faktum att vi tillåter felsvar ner till 87 %-nivån gör att vi faktiskt gör en mätning på andelrättskalan, men att den slutar vid 87 %. Mätningen vi gör är inte ens binär, den har fyra lägen. Ett lätt hörbart objekt får 100 % (9 av 9) Ett som är svårare att höra får 92 % (12 av 13), och en som är ytterligare svår att höra får 87 % (14 av 16). Sen klumpar vi ihop resten i en kategori < 87 %.
Vad är det om inte en mätning.
Ursäkta det långa tänkahögtinlägget.
Tack DQ!
Edit: snavfel
Så länge har jag längat efter att loudness war skulle vara över. Nu börjar jag tro att vi faktiskt är där. Kruxet är att vi förlorade.