
Moderator: Redaktörer
Johan_Lindroos skrev:Tell skrev:Nattlorden skrev:
Du har ingen upplösning i tid, eftersom signalen är kontinuerlig.Eller om vi skall hårdra det, upplösningen är oändlig.
Upplösningen är 44100 samples/sek på samma sätt som en bild kan ha upplösnignen 300 pixlar/tum.Morello skrev:Det finns ingen anledning att konstruera ett fikonspråk när begreppen redan är definierade.
Men vi vet ju sen tidigare trådar att dina definitioner kan vara lite väl snäva o inte helt hundra
Det fungerar inte så som du tror. Morello har helt rätt.
Morello skrev:Kanske detta också bör studeras av Tell:
http://www.ti.com/lit/ml/swrp201/swrp201.pdf
Se speciellt sid 6.
Tell skrev:Morello skrev:Kanske detta också bör studeras av Tell:
http://www.ti.com/lit/ml/swrp201/swrp201.pdf
Se speciellt sid 6.
Kolla sidan fem under "Time domain" o längst ner, vad står det där?
idea skrev:Johan_Lindroos skrev:Tell skrev:
Upplösningen är 44100 samples/sek på samma sätt som en bild kan ha upplösnignen 300 pixlar/tum.
Men vi vet ju sen tidigare trådar att dina definitioner kan vara lite väl snäva o inte helt hundra
Det fungerar inte så som du tror. Morello har helt rätt.
En digital signal är diskretiserad i både amplitud OCH tidplan. Därför finns det en upplösning både i amplitud och tidplan! Detta är fakta och inget tyckande.
Att majoriteten endast syftar på amplitudupplösningen när man pratar upplösning och menar hur många bitar man hanterar i en PCM-signal påverkar inte att det även finns en upplösning i tidplanet som för en PCM-signal ger övre gränsfrekvens.
Men om vi tittar på en DSD-signal så styrs ju amplitudupplösningen av antalet bitar per tidsenhet medan amplituden på den digitala signalen växlar mellan noll och ett - är det då för tid eller amplitudplanet som vi skall prata om upplösning.
Så för en D/A-omvandlad signal så styrs upplösningen (dvs minsta skillnad mellan två signaler) både av amplitud och frekvensupplösningen.
Nu kan vi ju för det mesta strunta i frekvensupplösningen i ett PCM-system för "HiFi" eftersom detta normalt är standardiserat till ett fåtal frekvenser - 44, 48, 88, 96, 192 kHz och signalen dessutom är bandbegränsad till c:a 20 kHz.
Tell skrev:Vad exakt dom pratar om vet jag dock inte då ingen av dom som använder ordet "upplösning" på ett otekniskt sätt verkar för länge sen har lämnat tråden.
Tell skrev:Nattlorden skrev:Tell skrev:
Du får mindre brus och/eller mindre kvantiseringfel. Alltså jag förstår typ hur man kan applicera upplösning på bitdjup, men det är inte lika självklart som upplösningen i tid där signaler vid olika frekvenser har olika upplösningar.
Du har ingen upplösning i tid, eftersom signalen är kontinuerlig.Eller om vi skall hårdra det, upplösningen är oändlig.
Upplösningen är 44100 samples/sek på samma sätt som en bild kan ha upplösnignen 300 pixlar/tum.Morello skrev:Det finns ingen anledning att konstruera ett fikonspråk när begreppen redan är definierade.
Men vi vet ju sen tidigare trådar att dina definitioner kan vara lite väl snäva o inte helt hundra
goat76 skrev:Tell skrev:Vad exakt dom pratar om vet jag dock inte då ingen av dom som använder ordet "upplösning" på ett otekniskt sätt verkar för länge sen har lämnat tråden.
Jag tog mig tiden att kolla hur många gånger ordet upplösning har använts hittills i tråden vilket är 191 gånger!
Den enda som använt ordet på ett otekniskt sätt är trådskaparen i första inlägget, hur länge ska ni dividera om det?
Tell skrev:Alltså för att klargöra, självklart har bitdjupet också en ren tekniskt upplösning, den består av antal bitar. Men i slutändan så har inte bitdjup med upplösningen av ljud att göra utan brus o dynamik.
Samplefrekvens har ju också en upplösning, alltså antal samples per sekund mäter man den upplösningen i. Frekvenser har ju också en upplösning o det har med hz att göra, alltså svängningar per sekund.
Så i min värld är det mycket mer självklart att tala om frekvenserna när det pratas om upplösning, o det är ju även det som gopnik har pratat om (att dom har oändligt med upplösning, fast det har dom ju inte enligt min mening då dom är låsta till sampleraten). Det är alltså på samma sätt som att pixlar i bredd i en bild handlar om upplösning, o pixlarna och samples är exakt samma sak i en digital definition. Även bitdjup inom bild och ljud handlar om brus i slutändan (även fast dither tyvärr inte används lika flitigt inom bild).
Men sen har jag också frågat ett par gånger om vad Strmbrg och andra menar när dom säger att nånting låter mer högupplöst osv. För det är nånting som snackas rätt ofta om i Hifikretsar, och jag kan garantera att dom allra flesta inte talar om antal bitar i en PCM-signal. Vad exakt dom pratar om vet jag dock inte då ingen av dom som använder ordet "upplösning" på ett otekniskt sätt verkar för länge sen har lämnat tråden.
dewpo skrev:Detta med kontinuitet har gjort mig lätt fundersam, Finns det verkligen ingen begränsning i tidsplan
Går de tre förloppen nedan alla att koda lika bra med 44.1 kHz samplingsfrekvens?
dewpo skrev:Detta med kontinuitet har gjort mig lätt fundersam, Finns det verkligen ingen begränsning i tidsplan
Går de tre förloppen nedan alla att koda lika bra med 44.1 kHz samplingsfrekvens?
petersteindl skrev:dewpo skrev:Detta med kontinuitet har gjort mig lätt fundersam, Finns det verkligen ingen begränsning i tidsplan
Går de tre förloppen nedan alla att koda lika bra med 44.1 kHz samplingsfrekvens?
Det syns i en FFT.
Johan_Lindroos skrev:dewpo skrev:Detta med kontinuitet har gjort mig lätt fundersam, Finns det verkligen ingen begränsning i tidsplan
Går de tre förloppen nedan alla att koda lika bra med 44.1 kHz samplingsfrekvens?
Japp!
Pulskodmudulering är ett tidskontinuerligt system. Begränsningen är att man bara kan koda signaler som är lägre än halva samplingsfrekvensen.
petersteindl skrev:Johan_Lindroos skrev:dewpo skrev:Detta med kontinuitet har gjort mig lätt fundersam, Finns det verkligen ingen begränsning i tidsplan
Går de tre förloppen nedan alla att koda lika bra med 44.1 kHz samplingsfrekvens?
Japp!
Pulskodmudulering är ett tidskontinuerligt system. Begränsningen är att man bara kan koda signaler som är lägre än halva samplingsfrekvensen.
Jag skrev mitt svar eftersom jag är osäker på om det finns högre frekvenser med i en 20 kHz burst. Jag minns faktiskt inte. Det syns i FFT. Det man dock kan se är att envelopen har en lägre frekvens än 20 kHz.
Mvh
Peter
Morello skrev:Vilket medför att man i vetenskaplig mening inte kan dra någon annan slutsats än att man tyckte si eller tyckte så och så tar man en slurk kaffe till
petersteindl skrev:Tills det är slutdividerat. Frågor på det.![]()
Mvh
Peter
idea skrev:Om vi jämför med vad Wikipedia skriver om Upplösning - "Optisk upplösning – den minsta detalj som kan urskiljas med ett optiskt instrument" så blir analogt den minsta skillnad mellan två signaler som kan överföras via en digital signal = signalens upplösning. Och den beror på samplingsfrekvens och antalet diskreta nivåer i amplitudplanet.
Så det är visst helt korrekt att kalla detta upplösning.
idea skrev:En digital signal är diskretiserad i både amplitud OCH tidplan.
Tell skrev:petersteindl skrev:Tills det är slutdividerat. Frågor på det.![]()
Mvh
Peter
Eller tills nån ger upp, vilket jag gör nu för ni fattar ju verkligen inte. Vissa på det här forumet som är så instängda i sina små boxar så dom verkligen inte klarar av att tänka utanför den.
Tell skrev:petersteindl skrev:Tills det är slutdividerat. Frågor på det.![]()
Mvh
Peter
Eller tills nån ger upp, vilket jag gör nu för ni fattar ju verkligen inte. Vissa på det här forumet som är så instängda i sina små boxar så dom verkligen inte klarar av att tänka utanför den.
gopnik skrev:idea skrev:Om vi jämför med vad Wikipedia skriver om Upplösning - "Optisk upplösning – den minsta detalj som kan urskiljas med ett optiskt instrument" så blir analogt den minsta skillnad mellan två signaler som kan överföras via en digital signal = signalens upplösning. Och den beror på samplingsfrekvens och antalet diskreta nivåer i amplitudplanet.
Så det är visst helt korrekt att kalla detta upplösning.
Jag invänder. Det är i sammanhanget underförstått att optiska systems upplösning är inom ramarna för deras bandbredd. Om man precis kan urskilja ett objekt av en given storlek i två optiska system, som är identiska sånär som på att det ena även kan registrera ultraviolett - så skulle man aldrig komma på tanken att säga att det senare har högre upplösning!
Det senare systemet har större bandbredd, men båda systemen har likvärdig upplösning.
sprudel skrev:Morello skrev:Vilket medför att man i vetenskaplig mening inte kan dra någon annan slutsats än att man tyckte si eller tyckte så och så tar man en slurk kaffe till
Njae, gärna ett glas rött.
Jag vetenskapar på jobbet, vid musikanläggningen ägnar jag mig åt annat
Tell skrev:petersteindl skrev:Tills det är slutdividerat. Frågor på det.![]()
Mvh
Peter
Eller tills nån ger upp, vilket jag gör nu för ni fattar ju verkligen inte. Vissa på det här forumet som är så instängda i sina små boxar så dom verkligen inte klarar av att tänka utanför den.
gopnik skrev:idea skrev:Om vi jämför med vad Wikipedia skriver om Upplösning - "Optisk upplösning – den minsta detalj som kan urskiljas med ett optiskt instrument" så blir analogt den minsta skillnad mellan två signaler som kan överföras via en digital signal = signalens upplösning. Och den beror på samplingsfrekvens och antalet diskreta nivåer i amplitudplanet.
Så det är visst helt korrekt att kalla detta upplösning.
Jag invänder. Det är i sammanhanget underförstått att optiska systems upplösning är inom ramarna för deras bandbredd. Om man precis kan urskilja ett objekt av en given storlek i två optiska system, som är identiska sånär som på att det ena även kan registrera ultraviolett - så skulle man aldrig komma på tanken att säga att det senare har högre upplösning!
Det senare systemet har större bandbredd, men båda systemen har likvärdig upplösning.
På samma vis skulle man aldrig påstå att två bildskärmar med samma antal pixlar och bildyta, där det ena har större färgrymd (=bandbredd), har olika upplösning! Eller för den delen att två i övrigt identiska skärmar, men med den ena högre uppdateringsintervall och den andra lägre, har olika upplösning. Även om man i de här fallen skulle kunna göra ett rent argumentationstekniskt case för det, då det handlar om diskreta signalnivåer/frekvenser, men rent språkligt händer det inte. Och ett sådant (sökt) argument kommer inte överfört gå att applicera på digitalt ljud, som är tidskontinuerligt.idea skrev:En digital signal är diskretiserad i både amplitud OCH tidplan.
Som flera andra påpekar är detta felaktigt. En korrekt avkodad digital ljudström är varken diskret i tid eller amplitud. Det ena löser samplingsteoremet och det andra löser ditherbruset.
idea skrev:gopnik skrev:idea skrev:Om vi jämför med vad Wikipedia skriver om Upplösning - "Optisk upplösning – den minsta detalj som kan urskiljas med ett optiskt instrument" så blir analogt den minsta skillnad mellan två signaler som kan överföras via en digital signal = signalens upplösning. Och den beror på samplingsfrekvens och antalet diskreta nivåer i amplitudplanet.
Så det är visst helt korrekt att kalla detta upplösning.
Jag invänder. Det är i sammanhanget underförstått att optiska systems upplösning är inom ramarna för deras bandbredd. Om man precis kan urskilja ett objekt av en given storlek i två optiska system, som är identiska sånär som på att det ena även kan registrera ultraviolett - så skulle man aldrig komma på tanken att säga att det senare har högre upplösning!
Det senare systemet har större bandbredd, men båda systemen har likvärdig upplösning.
På samma vis skulle man aldrig påstå att två bildskärmar med samma antal pixlar och bildyta, där det ena har större färgrymd (=bandbredd), har olika upplösning! Eller för den delen att två i övrigt identiska skärmar, men med den ena högre uppdateringsintervall och den andra lägre, har olika upplösning. Även om man i de här fallen skulle kunna göra ett rent argumentationstekniskt case för det, då det handlar om diskreta signalnivåer/frekvenser, men rent språkligt händer det inte. Och ett sådant (sökt) argument kommer inte överfört gå att applicera på digitalt ljud, som är tidskontinuerligt.idea skrev:En digital signal är diskretiserad i både amplitud OCH tidplan.
Som flera andra påpekar är detta felaktigt. En korrekt avkodad digital ljudström är varken diskret i tid eller amplitud. Det ena löser samplingsteoremet och det andra löser ditherbruset.
Nu gör du det misstag som allt för många gör vad gäller digitala signaler (inklusive Peter) du blandar ihop den amplitud och tidsdiskreta digitala representationen med den amplitud och tisdkontinuerliga analoga signalen som är input till den digitala "lagringen (A/D) och sedan återskapas i D/A. För att kunna lagra och behandla en ljudsignal digitalt måste den vara både amplitud och tidsdiskret! Det finns ingen väg runt detta utan det är så det digitala fungerar PUNKT. MEN i den analoga världen är alla signaler ALLTID amplitud OCH tidskontinuerliga.
Detta innebär att det för en analog signal blir svårt att definiera vad man menar med signalens (ljudets) upplösning eftersom det helt beror på vilket system man skickar signalen genom (beror på THD, SNR, frekvensgång mm). För en digital signal kan vi däremot enkelt definiera möjlig upplösning (om vi då menar minsta skillnad vi kan registrera mellan två signaler) genom att titta på samplingsfrekvensen och amplitudupplösningen. Det man sällan tänker på vad gäller digitala signaler är att det är bara en samling siffror där man separat måste notera vilken samplingsfrekvens och antalet amplitudsteg man använt vid A/D-omvandlingen för att entydigt kunna återskapa signalen.
Samplingsteoremet fastslår att man entydigt kan återskapa en analog signal som har bandbredd lägre än halva samplingsfrekvensen (men säger inget om att man då egentligen måste ha oändligt många amplitudsteg i omvandlingen för att det skall var formellt entydigt). Det den inte säger något om är hur man skall tolka en digital signal i sig och det är här de flesta kör i diket - man kan inte direkt jämföra en digital och en analog signal. Det är två helt olika representationer av signalen. De här fyrkanterna som man ritar för en digital signal och den "upphackade" signalen är ju bara nonsens. Den visar bara att man inte fattat någonting om hur det fungerar. Vi kan till exempel inte utläsa absolut peaknivå i en digital signal men vi kan entydig återskapa den på den analoga sidan. Det enda vi kan lyssna på är analoga signaler och de är var sig fyrkantiga eller upphackade efter D/A.
Vad gäller bild så verkar det som samma missförstånd upprepas. En digital bild är uppbyggd på exakt likartat sätt men vi representerar då amplitud och rum (om vi talar stillbild som är ett fryst ögonblick i tiden, rörliga bilder måste även samplas i tiden) istf amplitud och tid med en samling siffror. Eftersom frekvenserna är så mycket högre för ljus får vi ta en omväg genom att dela upp ljuset i sina grundfärger och titta på amplituden i varje punkt för dessa för att kunna A/D-omvandla ljuset. Men varje pixel är ett sampel på samma sätt som för ljud och på samma sätt som för ljud måste man separat notera upplösningen och vad siffrorna står för för att kunna återskapa bilden. Och samplingsteoremet gäller även för bilder. Det fungerar även vad gäller komprimering på samma sätt, JPEG - MP3, där man tar bort "överflödig" information för att representera en nästan likvärdig representation av ursprunget. Vi kan då prata om upplösning för digitala bilder på samma sätt som för ljud dvs både upplösning i rum (pixlar/tum) och nivå (antalet bitar i A/D-omvandlaren).
idea skrev:gopnik skrev:idea skrev:Om vi jämför med vad Wikipedia skriver om Upplösning - "Optisk upplösning – den minsta detalj som kan urskiljas med ett optiskt instrument" så blir analogt den minsta skillnad mellan två signaler som kan överföras via en digital signal = signalens upplösning. Och den beror på samplingsfrekvens och antalet diskreta nivåer i amplitudplanet.
Så det är visst helt korrekt att kalla detta upplösning.
Jag invänder. Det är i sammanhanget underförstått att optiska systems upplösning är inom ramarna för deras bandbredd. Om man precis kan urskilja ett objekt av en given storlek i två optiska system, som är identiska sånär som på att det ena även kan registrera ultraviolett - så skulle man aldrig komma på tanken att säga att det senare har högre upplösning!
Det senare systemet har större bandbredd, men båda systemen har likvärdig upplösning.
På samma vis skulle man aldrig påstå att två bildskärmar med samma antal pixlar och bildyta, där det ena har större färgrymd (=bandbredd), har olika upplösning! Eller för den delen att två i övrigt identiska skärmar, men med den ena högre uppdateringsintervall och den andra lägre, har olika upplösning. Även om man i de här fallen skulle kunna göra ett rent argumentationstekniskt case för det, då det handlar om diskreta signalnivåer/frekvenser, men rent språkligt händer det inte. Och ett sådant (sökt) argument kommer inte överfört gå att applicera på digitalt ljud, som är tidskontinuerligt.idea skrev:En digital signal är diskretiserad i både amplitud OCH tidplan.
Som flera andra påpekar är detta felaktigt. En korrekt avkodad digital ljudström är varken diskret i tid eller amplitud. Det ena löser samplingsteoremet och det andra löser ditherbruset.
Nu gör du det misstag som allt för många gör vad gäller digitala signaler (inklusive Peter) du blandar ihop den amplitud och tidsdiskreta digitala representationen med den amplitud och tisdkontinuerliga analoga signalen som är input till den digitala "lagringen (A/D) och sedan återskapas i D/A. För att kunna lagra och behandla en ljudsignal digitalt måste den vara både amplitud och tidsdiskret! Det finns ingen väg runt detta utan det är så det digitala fungerar PUNKT. MEN i den analoga världen är alla signaler ALLTID amplitud OCH tidskontinuerliga.
Detta innebär att det för en analog signal blir svårt att definiera vad man menar med signalens (ljudets) upplösning eftersom det helt beror på vilket system man skickar signalen genom (beror på THD, SNR, frekvensgång mm). För en digital signal kan vi däremot enkelt definiera möjlig upplösning (om vi då menar minsta skillnad vi kan registrera mellan två signaler) genom att titta på samplingsfrekvensen och amplitudupplösningen. Det man sällan tänker på vad gäller digitala signaler är att det är bara en samling siffror där man separat måste notera vilken samplingsfrekvens och antalet amplitudsteg man använt vid A/D-omvandlingen för att entydigt kunna återskapa signalen.
Samplingsteoremet fastslår att man entydigt kan återskapa en analog signal som har bandbredd lägre än halva samplingsfrekvensen (men säger inget om att man då egentligen måste ha oändligt många amplitudsteg i omvandlingen för att det skall var formellt entydigt). Det den inte säger något om är hur man skall tolka en digital signal i sig och det är här de flesta kör i diket - man kan inte direkt jämföra en digital och en analog signal. Det är två helt olika representationer av signalen. De här fyrkanterna som man ritar för en digital signal och den "upphackade" signalen är ju bara nonsens. Den visar bara att man inte fattat någonting om hur det fungerar. Vi kan till exempel inte utläsa absolut peaknivå i en digital signal men vi kan entydig återskapa den på den analoga sidan. Det enda vi kan lyssna på är analoga signaler och de är var sig fyrkantiga eller upphackade efter D/A.
Vad gäller bild så verkar det som samma missförstånd upprepas. En digital bild är uppbyggd på exakt likartat sätt men vi representerar då amplitud och rum (om vi talar stillbild som är ett fryst ögonblick i tiden, rörliga bilder måste även samplas i tiden) istf amplitud och tid med en samling siffror. Eftersom frekvenserna är så mycket högre för ljus får vi ta en omväg genom att dela upp ljuset i sina grundfärger och titta på amplituden i varje punkt för dessa för att kunna A/D-omvandla ljuset. Men varje pixel är ett sampel på samma sätt som för ljud och på samma sätt som för ljud måste man separat notera upplösningen och vad siffrorna står för för att kunna återskapa bilden. Och samplingsteoremet gäller även för bilder. Det fungerar även vad gäller komprimering på samma sätt, JPEG - MP3, där man tar bort "överflödig" information för att representera en nästan likvärdig representation av ursprunget. Vi kan då prata om upplösning för digitala bilder på samma sätt som för ljud dvs både upplösning i rum (pixlar/tum) och nivå (antalet bitar i A/D-omvandlaren).
idea skrev:gopnik skrev:idea skrev:Om vi jämför med vad Wikipedia skriver om Upplösning - "Optisk upplösning – den minsta detalj som kan urskiljas med ett optiskt instrument" så blir analogt den minsta skillnad mellan två signaler som kan överföras via en digital signal = signalens upplösning. Och den beror på samplingsfrekvens och antalet diskreta nivåer i amplitudplanet.
Så det är visst helt korrekt att kalla detta upplösning.
Jag invänder. Det är i sammanhanget underförstått att optiska systems upplösning är inom ramarna för deras bandbredd. Om man precis kan urskilja ett objekt av en given storlek i två optiska system, som är identiska sånär som på att det ena även kan registrera ultraviolett - så skulle man aldrig komma på tanken att säga att det senare har högre upplösning!
Det senare systemet har större bandbredd, men båda systemen har likvärdig upplösning.
På samma vis skulle man aldrig påstå att två bildskärmar med samma antal pixlar och bildyta, där det ena har större färgrymd (=bandbredd), har olika upplösning! Eller för den delen att två i övrigt identiska skärmar, men med den ena högre uppdateringsintervall och den andra lägre, har olika upplösning. Även om man i de här fallen skulle kunna göra ett rent argumentationstekniskt case för det, då det handlar om diskreta signalnivåer/frekvenser, men rent språkligt händer det inte. Och ett sådant (sökt) argument kommer inte överfört gå att applicera på digitalt ljud, som är tidskontinuerligt.idea skrev:En digital signal är diskretiserad i både amplitud OCH tidplan.
Som flera andra påpekar är detta felaktigt. En korrekt avkodad digital ljudström är varken diskret i tid eller amplitud. Det ena löser samplingsteoremet och det andra löser ditherbruset.
Nu gör du det misstag som allt för många gör vad gäller digitala signaler (inklusive Peter) du blandar ihop den amplitud och tidsdiskreta digitala representationen med den amplitud och tisdkontinuerliga analoga signalen som är input till den digitala "lagringen (A/D) och sedan återskapas i D/A. För att kunna lagra och behandla en ljudsignal digitalt måste den vara både amplitud och tidsdiskret! Det finns ingen väg runt detta utan det är så det digitala fungerar PUNKT. MEN i den analoga världen är alla signaler ALLTID amplitud OCH tidskontinuerliga.
Detta innebär att det för en analog signal blir svårt att definiera vad man menar med signalens (ljudets) upplösning eftersom det helt beror på vilket system man skickar signalen genom (beror på THD, SNR, frekvensgång mm). För en digital signal kan vi däremot enkelt definiera möjlig upplösning (om vi då menar minsta skillnad vi kan registrera mellan två signaler) genom att titta på samplingsfrekvensen och amplitudupplösningen. Det man sällan tänker på vad gäller digitala signaler är att det är bara en samling siffror där man separat måste notera vilken samplingsfrekvens och antalet amplitudsteg man använt vid A/D-omvandlingen för att entydigt kunna återskapa signalen.
Samplingsteoremet fastslår att man entydigt kan återskapa en analog signal som har bandbredd lägre än halva samplingsfrekvensen (men säger inget om att man då egentligen måste ha oändligt många amplitudsteg i omvandlingen för att det skall var formellt entydigt). Det den inte säger något om är hur man skall tolka en digital signal i sig och det är här de flesta kör i diket - man kan inte direkt jämföra en digital och en analog signal. Det är två helt olika representationer av signalen. De här fyrkanterna som man ritar för en digital signal och den "upphackade" signalen är ju bara nonsens. Den visar bara att man inte fattat någonting om hur det fungerar. Vi kan till exempel inte utläsa absolut peaknivå i en digital signal men vi kan entydig återskapa den på den analoga sidan. Det enda vi kan lyssna på är analoga signaler och de är var sig fyrkantiga eller upphackade efter D/A.
Vad gäller bild så verkar det som samma missförstånd upprepas. En digital bild är uppbyggd på exakt likartat sätt men vi representerar då amplitud och rum (om vi talar stillbild som är ett fryst ögonblick i tiden, rörliga bilder måste även samplas i tiden) istf amplitud och tid med en samling siffror. Eftersom frekvenserna är så mycket högre för ljus får vi ta en omväg genom att dela upp ljuset i sina grundfärger och titta på amplituden i varje punkt för dessa för att kunna A/D-omvandla ljuset. Men varje pixel är ett sampel på samma sätt som för ljud och på samma sätt som för ljud måste man separat notera upplösningen och vad siffrorna står för för att kunna återskapa bilden. Och samplingsteoremet gäller även för bilder. Det fungerar även vad gäller komprimering på samma sätt, JPEG - MP3, där man tar bort "överflödig" information för att representera en nästan likvärdig representation av ursprunget. Vi kan då prata om upplösning för digitala bilder på samma sätt som för ljud dvs både upplösning i rum (pixlar/tum) och nivå (antalet bitar i A/D-omvandlaren).
Användare som besöker denna kategori: Bing [Bot] och 24 gäster