ho spostato in questa discussione, dove ci sono già alcuni approfondimenti di merito (se ricordo bene..

).
Ad ogni modo di base è così: più fps ci sono, più (a parità di tempo, il secondo appunto) hai elementi su cui lavorare, e quindi fluidità.
Non definizione, perchè quella non cambia, cambia la frequenza di informazione che ricevi, non la qualità di queste.
Quindi, il vero "Problema" è dato da una semplice constatazione: più informazioni, a parità di risoluzione, devo inserire in un secondo, più lo streaming (il flusso dati) sarà oneroso, e mi serve quindi un "vettore" in grado di portare tutte queste info.
Es. 1080/50p @ 28 Mbps
ti dice: RISOLUZIONE 1080, FREQUENZA 50 fps (dove la "p" sta per "progressivo", dato che può invece essere "i" ovvero "interlacciato"), 28 Megabit per secondo è invece il bitrate, ovvero quante info viaggiano al secondo.
Ecco perchè, se ci fai caso, spesso certi codec funzionano solo con certe triangolazioni, ad es. il 60p ce l'hai solo in 720, mentre il 30p ce l'hai anche a 1080, a parità di camera. Non è il sensore che ha problemi, quanto il "buffer" della videocamera, ed il codec che è stato scelto (ad es. il classico H.264).
Prendi la mia videocamera Panasonic: gira a 1080 per 50p, e "guarda caso" usa un codec AVCHD. Pesantissimo, inutilizzabile (devo riconvertire ogni volta) in ambiente FCP, però spettacolare come definizione e "capacità" di trasporto dati. Tanto è che, visto sul Mac, spesso mette in crisi l'hardware e sfarfalla. :shock:
Passato però sotto un bel ProRes, che di fatto diminuisce la quantità di info trasportate senza compromettere molto la fluidità (ed anche la qualità, in questo caso), il tutto gira fluido.
Detto questo, se vuoi aprire un vero e proprio "vaso di pandora" ti suggerisco una lettura
qui, con tanto di intervento di un "compressionist"... Suggerisco però di farlo con ansiolitici a portata di mano!
