Mycket kortfattat så har de problem jag haft helt berott på frame rate hos film/grafikkort/TV, 2 inställningar i TV:n, interlaced/progressive, samt vilken mediaspelare jag använder.
Rent teoretiskt så kan hackande bero på i stort sett allt: Codecs och andra inställningar i mediaspelaren, CPU som överbelastas (och då kan det vara olika delar av CPU:n: FSB, antal GHz i CPU:n, mm), GPU:ns HW-acceleration, hårddisken eller DVD/BD-enheten, för lite minne, brister i Windows, problem med HDMI, begränsat antal format som stöds av grafikkort och TV, TV:ns inställningar och prestanda, dåligt kodade rippar...
Testobjekt:
Min TV: Philips 42PFL7633D. Min HTPC: Moderkort Gigabyte E7AUM-DS2H (med NVIDIA GeForce 9400 grafikchip), CPU Intel E5200, 2x1GB RAM, Windows XP. Har även provat en Asus EEE Box B206.
De spelare som funkar bäst för mig är: För AVI-filmer "Media Player Classic - Home Cinema" med dess defaultinställningar. För DVD-skivor: senaste WMP. För Blu-Ray: TotalMedia Theatre.
HD-format som stöds: Min preliminära slutsats är att alla nya grafikchip från ATI och NVIDIA stödjer 1080p 60Hz samt 1080i 50, 30, 25 och 24Hz. Min TV stödjer enligt manualen dels 60Hz 1080p och 1080i "datorformat", dels 1080i 50 & 60Hz samt 1080p 24, 25, 30, 50 och 60Hz "för video".
Jag kollade även i manualen för en Samsung LE-40A656 eftersom Samsung är betydligt vanligare än Philips, där står bl a att HDMI stödjer 1080p och 1080i vid 50 och 60Hz (detta gäller nog "video", ej "PC"), att den för PC stödjer 1080p (ej 1080i), att "100hz Motion Plus" inte stöds i "PC Display Modes" och att "Movie Plus" inte stödjer 1080p/24Hz.
Lämpliga test-filmer för "hackande": Första 2 minuterna av "Wall-E", "Once Upon a Time in the West" och "The Wrestler" (eftersom de innehåller långsamma panoreringar).
Flimmer:
Dvs att alla tunna vågräta linjer blinkar hysteriskt om det sker någonting på PC:n (t ex om man rör musen). Detta har ju säkert nåt att göra med interlacing, eftersom, vad jag förstår, denna typ av problem är typiska med med interlacing, och om man tänker efter, kan man ju förstå att det nog är så, eftersom interlacing ju just innebär att varannan halvbild innehåller varannan linje - enligt Wikipedia så instrueras TV-personal att undvika kläder med vågräta tunna linjer! (Anm: progressivt är motsatsen till interlaced, dvs att varje bild innehåller samtliga pixlar)
Att döma av listan på stödda format ovan, borde jag alltså välja 60Hz 1080p eftersom det är enda progressiva formatet som stöds av både grafikkort och TV. Och enligt TV:ns manual är det viktigt att sätta PC:n till 60Hz, det är den enda instruktion om PC som står tydligt.
Men... så är det inte. För det första så funkar det precis lika bra/dåligt för mig med andra frame rates (t ex 24 och 25 Hz) trots att dessa knappast verkar stödjas om man läser manualerna. För det andra så har detta val ingen inverkan på flimret. En annan inställning i TV:n fixar dock problemet, nämligen att sätta "input" till rätt kategori: Om jag sätter den till "PC" så försvinner flimret. Det där med "ingångs-kategorier" beskrivs väldigt dåligt, men det verkar som om "PC" ger vissa egenskaper, och att alla som inte är "PC" kan klumpas ihop till en grupp och kallas "icke-PC", och enna grupp ger alltså andra egenskaper.
Förresten, att stänga av "HD Natural Motion" i ett "icke-PC-läge" tar inte bort flimret, så det är inte "HD Natural Motion" som är boven. Detta är bara en av 1 000 000 000 inställningsmöjligheter jag provat som inte har någon effekt, jag tänkte låta bli att nämna de 999 999 999 andra..
Hackande:
Förmodligen är det denna inställning som det är meningen att man ska ha (1080p 60Hz i läge "PC") kan jag tro. Tyvärr så medför detta att alla filmer går småhackigt precis hela tiden. Att t ex se inledningen på "The Wrestler" (där man panorerar över tidningsurklipp) gör det nästan smärtsamt jobbigt att försöka läsa texten, och ett annat fenomen är att vid panoreringar över t ex ett mörkt område som innehåller ett ljust långsmalt lodrätt objekt så blinkar det ljusa objektet hysteriskt. Dessa två exempel är väl egentligen samma fenomen. Jag kan tänka mig att interlacing skulle kunna orsaka fenomen av denna karaktär men inte med denna frekvens (det blinkar för långsamt) och magnitud (den blinkar alldeles för mkt).
Om man instället bryter mot alla rekommendationer i TV:n s manual så funkar det mkt bättre:
* Sätt "input-mode" till vad som helst utom "PC"
* Se till att TV, grafikkort och film har samma eller matchande frame rate (t ex om filmen är 25Hz, kan grafikkortet sättas till 25 eller 50Hz, och TV:n ställer sig väl automatiskt på detsamma)
* Se till att "Natural Motion" är på i TV:n. Denna finess finns nog i alla HDTV (dess funktion är att se till att filmer löper jämnare) men heter nog olika saker i olika TV. Om jag sätter den till "minimum" eller "maximum" spelar ingen roll vad jag kan se, men om den är av, hackar det som nyss.
Om jag ställer in det hela enligt ovan, funkar det som bäst. Den är då dock kinkig på flera sätt:
* Det spelar roll vilken spelare jag väljer, de jag skrivit ovan är de som hackar minst
* Jag kan få alla DVD-skivor och de flesta AVI att löpa hackfritt (nåt enstaka hack kan förekomma i vissa filmer), däremot Blu-Ray har en större tendens att hacka (äger dock bara "Wall-E"), bara några gånger per film men ändå
Obs att DVD-skivor är kodade i ~24Hz i NTSC-länder och 25Hz i PAL-länder (och att rippar av dessa får motsvarande frame rate), men att Blu-Ray-skivor, om de är 1080p (som min Wall-E), alltid är ~24Hz. Så stöd för 24Hz i systemet blir bara viktigare med tiden.
Att döma av supportade format, gissar jag att signalen i HDMI-kabeln överförs som interlaced, och att någon mjukvara i TV:n lyckas snygga till detta så att interlacing-fenomenen försvinner. Om det är riktigt som det står, att grafikkortet bara stödjer 24Hz 1080 som interlaced och TV:n bara 24Hz 1080 som progressive, skulle det betyda att TV:n omvandlar interlaced till progressive!
Diverse:
Flimret syns tydligt i Windows (t ex i Utforskaren) och det är svårt att se det när man spelar en film. Men det är där. Och när man väl identifierat det, inser man att de 1920x1080 punkter man trodde man hade snarare är 1920x540.. Man få fokusera ögonen på skarpa kanter etc så ser man det. Jag vet förresten mkt lite om MKV, det borde ju vara lämliga testobjekt om de är 1080 pixlar höga men jag har hört att många MKV är uppskalade från 720p och då syns förmodligen flimret inte (men då är det ju heller inte 1080 pixlar).
Vad krävs för att få 100%-ig kvalitet? Jag kan gissa att det vore bra om grafikkortet kunde köra progressivt även vid 24 och 25Hz (så att alla interlacingfenomen försvinner) men det lär inte hända inom nån snar framtid. Eller annars om TV:n lyckas lära sig att snygga till signalen ännu bättre.
Jag har sett precis samma flimmer och hackande på en EE Box B206 (som har ett ATI grafikchip). Skulle vara intressant att höra erfarenheter från nån som har en annan setup, framför allt nån med annat fabrikat på TV:n.