Geçtiğimiz Aralık ayında, Google Fotoğraflar harika bir yeni özellik ekledi: Sinematik Fotoğraflar. Kullanıcılar bu içeriği uygulamadan otomatik olarak oluşturulabilecekler.
Sinematik Fotoğraflar, Google Fotoğraflar’da nasıl çalışır?
Google’a göre sinematik fotoğraflar, hem kameranın yaptığı hareketi hem de 3D konsepti simüle ederek kullanıcıyı “fotoğrafı çektikleri anın sürükleyici hissini” yeniden yaşatmaya çalışmak istiyor. 2B bir resmi 3B’ye nasıl dönüştürüyorlar?
Google, alan derinliğini tek bir RGB resimle tahmin etmek için Pixel 4’lerle çekilen fotoğraflar üzerinde eğitilmiş sinir ağlarını kullanıyor.
Google, tıpkı portre modu veya artırılmış gerçeklikte olduğu gibi, sinematik fotoğrafların da 3D yapı hakkında bilgi vermek için bir derinlik haritasına ihtiyaç duyduğunu açıklıyor. Çift kamerası olmayan herhangi bir cep telefonunda bu etkiyi elde etmek için, tek bir RGB görüntüsünden bir derinlik haritasını tahmin etmek için bir sinir ağını geliştirdiler.
Yeni sistem yalnızca tek bir bakış açısıyla (fotoğrafın düzlemi), nesnelerin göreceli boyutları, fotoğrafın perspektifi, bulanıklık gibi monoküler ipuçlarıyla fotoğrafın derinliğini tahmin edebilir. Bu bilgileri daha eksiksiz hale getirmek için, Pixel 4’ün kamerasıyla toplanan verileri, Google’ın ekibi tarafından profesyonel kameralarla çekilen diğer fotoğraflarla birleştirmek için kullanıyorlar.
Teknik olarak, Piksel portre modu ile benzerlik söz konusu: Görüntü analiz edilir, bölümlere ayrılır ve arka plan başarılı bir şekilde izole edildikten sonra, arka plan kaydırılarak hareket simüle edilir. Bu, fotoğraf üzerinde birkaç düzeltme ve analiz gerektirdiğinden, birkaç yanlış yorumlanmış piksel nihai sonucu mahvedebileceğinden, oldukça karmaşıktır.