Um algoritmo edita as tuas fotos mesmo antes de as tirares

O algoritmo do MIT e da Google pode fazer correcções nas imagens que estás a captar em menos de 20 milissegundos.

 
O Shifter precisa de dinheiro para sobreviver.
Se achas importante o que fazemos, contribui aqui.

Número de megapixels e lentes não são tudo no que toca à qualidade fotográfica que as câmaras dos nossos telemóveis permitem. Uma boa parte da magia acontece no software, mais concretamente ao nível da inteligência artificial. Recentemente investigadores do MIT e da Google fizeram um avanço que pode ajudar-nos a fazer melhores fotos com smartphones.

Criaram um algoritmo que é capaz de aperfeiçoar em tempo real uma imagem que tiramos. A tecnologia não é propriamente nova – a novidade aqui é a eficiência do algoritmo que consegue fazer o seu trabalho em menos de 20 milissegundos. “Isso é 50 vezes por segundo”, nota à Wired Michael Gharbi, estudante de doutoramento do MIT que liderou o projecto. O algoritmo de Gharbi transforma as fotos tão rápido que consegues ver a versão editada da imagem no visor do telemóvel antes sequer de disparares.

Gharbi e a sua equipa recorreram criaram uma rede neural e, através dela, treinaram o algoritmo. Basicamente escreveram uma série de código, “mostraram-lhe” fotos já editadas e deixaram que “aprendesse” com os exemplos reais – a isto chama-se aprendizagem automática. Foi usada uma base de dados de 5 mil fotos da Adobe e do MIT, todas elas manualmente editadas por cinco fotógrafos profissionais – o algoritmo de Gharbi usou estes dados para ganhar competências para a sua função, aprendendo que retoques são precisos nas imagens, como reduzir o brilho aqui ou aumentar a saturação ali. O algoritmo não aplica as alterações sempre a toda a imagem, sabendo quando deve fazê-lo apenas a uma parte, seja uma cara que precisa de mais luz ou uma poça de água que deveria estar mais azul.

Um algoritmo deste género tem de ser rápido o suficiente para correr bem num smartphone. “A chave para fazê-lo rápido e capaz de correr em tempo real é não processar todos os pixels de uma imagem”, explica Michael Gharbi. O seu algoritmo cria para cada foto uma versão de baixa resolução, usando-a para tomar as decisões de edição de que essa imagem precisa. Faz o seu trabalho e depois converte a imagem para a resolução original.

Este trabalho de investigadores do MIT e da Google ainda está na fase de investigação, mas poderá ser aplicado no futuro às câmaras dos smartphones. À Wired, Gharbi sugere que o seu algoritmo pode tornar o processamento de fotos HDR tão rápido que não temos de esperar meio seguro para ver a foto final.

Podes saber mais sobre esta investigação aqui.

Por curiosidade, o software de auto-correção de fotografias da Google/Android, esteve recentemente debaixo de duras críticas do criador do Google+, Vic Gundotra, que num só comentário explica a importância do software na fotografia digital. A sua conclusão pode não ser consensual mas a explicação é útil para perceber as diferenças na qualidade de fotográfica entre os diversos fabricantes.

Se não conseguirmos aumentar o número de patronos, a 2ª edição da revista será a última, e o Shifter como o conheces terminará no final de Dezembro. O teu apoio é fundamental!