80s Glam ha chiesto in Elettronica di consumoTV · 6 anni fa

Differenza frequenza di refresh e fotogrammi per secondo?

Ciao, diammine ho passato le ore a leggere tutta sta roba sui PC e ora mi è preso sto dubbio che non mi riesce togliere! Mi rifate un attimo un riassuntino e dite LA DIFFERENZA tra le due cose? Perché entrambe consistono nella riproduzione dell'immagine determinate volte al secondo! Quindi per esempio 200hz a 25fps sarebbero all'incirca 9 refresh a fotogramma?? :O Aiuto!!!

E un'altra domanda: Avere una TV a 720p e metterci un gioco o film a 1080p, icche succede??

1 risposta

Classificazione
  • Vanz
    Lv 6
    6 anni fa
    Migliore risposta

    appen arisposto un paio di giorni fa

    Gli fps sono letteralmente ''fotogrammi per secondo'' cioè quanti fotogrammi si susseguono in un'immagine in un secondo. questi sono generalmente compresi da 24 e 60.

    Gli hz invece sono il numero di volte in cui un'immagine viene refreshata (ossia ridisegnata) sullo schermo in un secondo. generalmente questi coincidono con gli fps o sono un loro multiplo. ad esempio un video può avere 60fps ed essere trasmesso a 60hz, ossia per ogni fotogramma viene ridisegnato uno schermo una volta, oppure potremmo avere un video a 30fps a 60hz cioè che ogni fotogramma viene ridisegnato 2 volte, con l'effetto di una maggiore stabilita e meno sfarfallio o tremolio nelle inquadrature veloci. nel cinema è proprio questo il metono per far apparire l'immagine naturale, ossia i filmati sono a 24fps ma vengono trasmessi a 96hz, ossia ogni fotogramma viene ridisegnato 4 volte e si ha un'immagine molto nitida. a 60fps l'immagine è più fluida, ma risulta un po' più innaturale, quindi non vengono adottati nel cinema, ma vengono utilizzati nei videogiochi per appunto maggior fluidità.

    ATTENZIONE che gli herz (hz) in realtà non sono quelli che trovi scritti sui televisori ldc e led poichè quelli sono sistemi di iterpolazione che creano da 1 (100hz) a 3 (200hz) fotogrammi tra due gia esistenti, in poche parole aumentando il numero di fotogrammi dell'immagine, solo che essendo sistemi elettronici non sono perfettamente precisi e quindi spesso creano artifici sgradevoli all'occhio. sappi che il massimo di hz in questi televisori è 200hz, tutti gli altri sono più sistemi da 100hz e 200hz che lavorano simultaneamente, ottenedo effetti simili, ma spesso con più artifici.

    se hai una tv a 720 e metti una fonte 1080p?

    Il sistema di videoprocessing sulla abse di un algoritmo scala l'immagina (downscaling) alla risoluzione del tuo pannello

Altre domande? Fai una domanda e ottieni le risposte che cerchi.