Erotyka â strony, Obrazki i wiele wiÄcej na WordPress
Prosiłbym o wyjaśnienie jaka jest różnica między przetwornikiem video 10-bit/108MHz a 12-bit/108MHz. Wiem, że intuicyjnie 12-bit jest lepszy (cokolwiek by to miało oznaczać). Skąd to pytanie? Analizując Sony HX-750, 950 a także 650 stwierdziłem, że mają one przetworniki 10-bitowe (przynajmniej w/g specyfikacji na stronie Sony). Starsze modele np HX-1000 ma przetwornik 12-bit. Również odtwarzacz Sony HS-78 ma przetwornik 12-bit. Czyżby Sony zrobiło krok w tył czy też jest jakaś inna okoliczność, która sprawia, że jednak ten 10-bitowy przetwornik lepiej spełnia swoje zadania w np HX-750. Ktoś ma jakieś wytłumaczenie? Z góry dzięki.
Intuicja Cię nie zawodzi - lepsze wrogiem słabszego
Pomyślmy jedynie o jakim przetwarzaniu piszemy Zapis ciągle pozostaje 8 bitowy , zaś same przetworniki robią różne rzeczy Np. Denon wychwalał obróbkę na poziomie 14bit/216Mhz , a taki Samsung w swoich TV stosuje np. przetwarzanie 18 bitowe Na początku napisałem o jakim sygnale mówimy , reszta to jak widać dzielenie włosa na czworo i poprawa rzdzielczości i palety barw ...
Generalna zasada w tych trudnych, marketingowych czasach - poszedłem, zobaczyłem, wybrałem !
Pzdr.
A moze tak. Jak palete sa w stanie pokazac LCD ? Moze np. 12bit to w tej chwili technologiczny max ?
W tej chwili to z 24-bitową paletą (8-bitów na kanał) sobie ledwo radzi