Não. Na verdade, se você tiver dois sensores com a mesma tecnologia e o mesmo tamanho físico, o que tiver menos megapixels vai ser melhor.
Sim, isso mesmo. MENOS megapixels formam uma imagem melhor. E, pra entender isto, vamos ver como funciona um sensor de câmera digital - de uma forma bastante simplificada, é claro.
O sensor é uma superfície especial subdividida em várias microscópicas células fotoelétricas. Célula fotoelétrica todo mundo sabe o que é, né? É uma célula que, quando banhada por luz, gera uma corrente elétrica. Ela é muito usada pra manter portas de elevadores abertas, aquele feixe de luz de um lado pro outro normalmente embaixo. Enquanto a luz atinge a célula, ela gera uma corrente, e um amperímetro mantém as portas fechadas; quando o feixe é cortado por causa dos pés dos passageiros passando, a célula não fornece eletricidade e o mecanismo deixa a passagem aberta.
Então, no sensor, o que acontece? Quando você bate uma foto, cada uma dessas células do sensor recebe uma certa quantidade de luz e, de acordo com a intensidade luminosa, ela gera uma corrente elétrica mais forte ou mais fraca. Mas essas correntes são muito fraquinhas e precisam ser amplificadas pra serem úteis e serem encaminhadas pro processador da câmera pra ele montar a imagem, ponto a ponto, de acordo com a informação recebida pelas microcélulas, se ali é preto, branco ou um degradê de cinza. Cada uma delas é um pixel.
Se as câmeras digitais fossem em preto e branco (1) isso seria tudo que você precisaria saber. Mas elas são coloridas. Então é preciso botar um filtro em cima de cada célula, um filtro vermelho, verde ou azul, as cores primárias, pra misturar a informação de cada uma delas e obter assim todas as outras. Certo?
Mais ou menos.
Você neste momento está lindo isto na tela de um computador, tablet ou espertofone - ou algum aparelho a ser lançado depois da data de postagem que vai tornar todos esses outros obsoletos, mas ignoremos este último. Nesse display que você está encarando, cada pixel, cada ponto da imagem, é subdivido em três, cada subdivisão com um filtro de uma cor primária. Variando a intensidade de cada subdivisão no pixel, podemos fazer que ele tome qualquer cor (em teoria). Ativando 25% de azul, 10% de verde e mais 31% de vermelho, ou qualquer outra combinação.
O senso comum diria que o sensor é montado da mesma forma. Mas, quando fotografia digital surgiu, os sensores eram caríssimos e não havia tecnologia pra fazê-los pequenos o suficiente pra subdividir cada microcélula em três. Então criou-se uma solução de compromisso. Cada célula do sensor - cada pixel - na verdade só é sensível a UMA cor. Ele tem um único filtro, de uma única cor primária, e só capta AQUELA cor e mais nenhuma.
O sensor de uma câmera digital parece com isso
Como três é um número difícil pra se encaixar aos milhares (antes da era dos megapixels) em um quadrado, alguém teve a ideia de que devia se usar quatro cores, em uma grade 2 x 2, pra ocupar melhor o espaço do sensor. Como não existem quatro cores primárias, a solução foi dobrar uma. E assim surgiu o sensor RGBG, instalado em todas as câmeras com as quais você precisa se preocupar.
RGBG significa Red-Green-Blue-Green. Já deu pra perceber que existem duas vezes mais pixels verdes do que qualquer outro. A razão é que o verde é a cor para a qual o olho humano é mais sensível. Deve ter algo a ver com nossos antepassados vivendo a saltar de galho em galho e precisando distinguir bem a distância e a cor entre as folhas etc. etc. Então, ao contrário do seu monitor ou de sua tevê LCD, que tem as três cores primárias em cada pixel, o sensor da câmera digital tem vários quadrados medindo 2 pixels por 2, os dois de cima sendo vermelho e verde e os dois de baixo sendo verde e azul.
Cada pixel recebe apenas uma cor primária; a quantidade de verdes é igual ao total de azuis e vermelhos somados; fotografando mato você vai se dar bem
A informação que sai desse tipo de sensor chega à câmera toda esquisita. É o programa que vem no chip da máquina que vai permitir criar a foto. Ele equilibra as cores e usa a informação das microcélulas vizinhos pra tentar "adivinhar" quanto de cada uma das outras 2 cores primárias tem em cada pixel. É por isso que é bom você comprar câmeras digitais de fabricantes de responsa ou porque você vê uma diferença enorme entre duas câmeras com sensores iguais: o principal responsável pela qualidade da imagem é o processador de imagem, esse programa que "monta" as fotografias a partir de dados parciais. Ele não só toma conta do colorido como aplica o balanço de branco, usa filtros pra aumentar a nitidez e a saturação, elimina a aberração cromática (um problema que existe em algum grau em TODAS as lentes) e diminui o ruído (aquelas manchas coloridas que aparecem principalmente quando a foto foi batida em ambientes escuros).
Algumas máquinas mais antigas permitiam salvar a informação que saía diretamente do sensor, para que o fotógrafo pudesse fazer ele mesmo o tratamento e obter a melhor qualidade possível, de acordo com seu gosto. Observando essas imagens não tratadas você pode ver o quanto ela é esverdeada, com níveis de contraste tresloucados e cheios de ruído e problemas. Tudo isso era corrigido pelo processamento da máquina. Hoje em dia as câmeras aplicam pelo menos o balanço do colorido e o contraste antes de dar acesso do usuário à foto.
Então você já sabe: o PROCESSADOR DE IMAGEM da câmera é mais importante do que o número de megapixels. O celular da Nokia consegue fotos tão mirabolantes porque em vez de usar um sensor de 5 megapixels pra montar uma foto de 5 megapixels, ele usa um sensor de 41 megapixels pra isso, ou seja, tem oito vezes mais informação do que as outras máquinas. Como o chip do aparelho vai ter uma overdose de informação, a qualidade de cada pixel individual não precisa ser tão boa assim, e eles podem montar um sensor mais barato do que se pretendessem realmente uma imagem com 41 milhões de pontos. E ninguém precisa de mais de 5 megapixels, na verdade.
Sim, não precisa. Uma foto de cinco megapixels tem aproximadamente 2.500 pontos por 2.000. O olho humano não consegue distinguir, em média, a uma distância de leitura, mais de 100 a 120 pontos por centímetro. Então, com 5 megapixels, você pode imprimir uma foto de 24 x 18 centímetros na boa.
"Ué, mas se eu quiser fazer um poster? Ou um outdoor?", poderia alguém argumentar. Mas aí os números mudam: ninguém faz um poster pra ser visto à distância em que alguém lê um livro. Se você chega perto assim de cartazes, você normalmente consegue divisar os pixels da imagem. Pode acreditar em mim: num mundo onde a maioria das fotos é vista hoje numa tela de computador ou num espertofone, você não precisa de mais de 5 megapixels. Os frabricantes dão muita importância a esse número porque fica cada vez mais fácil enfiar mais e mais nos sensores. Quando eu comprei minha primeira câmera, em 1998, que tirava fotos 320 x 240, uma evolução pra 1 megapixel era uma coisa importante (mais de 10 vezes o aumento da resolução). Mas, na nossa hipótese acima, de um sensor com 2.500 por 2.000 pontos, se você puser 200 pixels a mais em cada coluna (10%) já obtém outro megapixel na contagem geral.
Mas o processador de imagem ainda não é o ponto final nessa história. Talvez ainda mais importante do que ele seja o TAMANHO do sensor. O tamanho físico, quanto ele mede em centímetros. E porque isto é importante vai ficar pro próximo capítulo.
(1) Algumas, inclusive uma caríssima Leica digital, têm sensores em preto e branco mesmo. A ideia é que, sem filtros coloridos na frente, as microcélulas recebem mais luz e ainda por cima mais pura.
Sem comentários:
Enviar um comentário