10 Juli 2021

Tatkala Algoritma Menjadi Lensa

Oleh: Ahmad Zaenudin


“Ketika saya berkarir sebagai sinematografer, semua kamera (yang ada dan yang saya gunakan) bersifat mekanis,” tutur Emmanuel Lubezki, peraih Best Achievement in Cinematography di ajang Academy Awards (Oscar) untuk film Gravity (2013), Birdman (2014), dan The Revenant (2015). Karena kamera yang digunakan bersifat mekanis, lanjut Lubezki, “seorang sinematografer harus memikirkan dan melakukan segala hal teknis terkait pengambilan gambar,” yang tidak mudah dilakukan karena kamera profesional cenderung memiliki berat yang tak main-main dan rumit dioperasikan.

Untunglah, bagi Lubezki, iPhone 12 lahir. Lubezki terpukau dengan kualitas gambar yang dihasilkan iPhone 12--khususnya varian Pro--yang dapat menghasilkan gambar berkualitas Dolby Vision. Katanya, dengan kualitas yang dihasilkan, "semua pembuat film di seluruh dunia dapat menggunakan iPhone 12 Pro untuk membuat film,” dengan mudah dan murah tanpa perlu memikirkan hal-hal teknik. “Kamera iPhone 12 Pro sangat luar biasa. Kamera ini bagai berpikir,” puji Lubezki.

Tentu, pujian yang dilontarkan Lubezki, yang disampaikannya dalam acara peluncuran iPhone 12 oleh Apple pada Selasa (13/10) lalu, merupakan bagian dari strategi pemasaran iPhone, yang untungnya, tak terlalu berlebihan. iPhone 12 memang dapat digunakan, baik oleh kalangan profesional maupun amatiran, untuk membuat film. Namun, yang perlu diingat, bukan hanya iPhone 12 saja yang dapat digunakan membuat film. Kamera-kamera yang tersemat dalam ponsel pintar masa kini memang dapat dimanfaatkan membuat film. Christopher English, seorang pembuat film amatiran, menggunakan ponsel Google Pixel untuk membuat film pendek berjudul Kepler 22-B dan Revenge. Lalu, sutradara asal Korea Selatan bernama Kim Jee-woon, memanfaatkan Samsung Galaxy S20 dan Note 20 untuk membuat film berjudul Untact.

Semenjak Google merilis Pixel generasi pertama di tahun 2016 silam, kamera yang tersemat dalam ponsel--khususnya pada seri-seri bertitel “flagship--memang menghasilkan foto/video yang ciamik. Yang patut disimak, iPhone 12 maupun ponsel-ponsel premium lainnya menghasilkan foto/video dengan cara yang sedikit berbeda dibandingkan kamera DSLR maupun mirrorless.

Prinsip Obscura yang Tak Lekang Oleh Waktu

“Kebanyakan kamera yang ada saat ini masih menggunakan prinsip kamera obscura--yang berarti ‘ruang gelap,’ suatu prinsip yang kali pertama dieksplorasi oleh filsuf Cina di abad ke-5 sebelum masehi,” tutur Shree K. Nayar, pengajar Ilmu Komputer pada Columbia University, dalam studinya berjudul “Computational Cameras” yang dipaparkan dalam Conference Vision Applications, Mei 2007 silam di Tokyo, Jepang.

Dalam prinsipnya untuk menghasilkan “foto,” secara sederhana, suatu ruang rapat diberi lubang di salah satu dinding. Melalui lubang tersebut, cahaya masuk dan seakan memancarkan bentuk gambar di dinding yang kedua. Ya, obscura tak ubahnya sebuah kamera pinhole. Di awal penemuan prinsip ini, seniman melukis di dinding yang kedua itu, tak ubahnya seperti seniman digital saat ini tatkala melakukan tracing melalui Photoshop. Perlahan, untuk mempertajam gambar yang dihasilkan, muncul lensa. Suatu alat optik yang dapat membuat cahaya terorganisir, terpusat. Lalu, merujuk Marc Levoy, Profesor Ilmu Komputer pada Stanford University, dalam studinya berjudul “Experimental Platforms for Computational Photography,” di sekitar dekade 1820-an, seorang bernama Joseph Nicéphore Niépce melakukan terobosan pada prinsip obscura itu. Dibandingkan menggunakan dinding untuk menghasilkan gambar--yang membutuhkan seniman untuk menghasilkan gambar sesungguhnya, Niépce menembakkan dan merekam cahaya ke medium yang sensitif terhadap cahaya, fotosensitif, plat tembaga. Dan seiring berjalannya waktu, plat digantikan oleh film.

Terobosan selanjutnya di dunia teknologi terjadi di dekade 1970-an. Kala itu, atas kerja keras Willard Boyle dan George E. Smith, mereka berdua menemukan sensor digital peka cahaya bernama charge-coupled device (CCD). Sayangnya, sebagaimana dilaporkan James Estrin untuk The New York Times, CCD memiliki kelemahan terkait mudah hilangnya gelombang elektronik yang tertangkap sensor ini. Karena kelemahan ini, CCD sukar diimplementasikan menjadi sensor untuk kamera. Sensor untuk menciptakan foto/video. Beruntunglah, karyawan baru Kodak bernama Steven Sasson memperbaiki kelemahan CCD ini. Melalui tangan Sasson, cahaya yang mengenai tubuh CCD yang berjenis elektronik, diubahnya menjadi angka. Menjadi binari, 0 atau 1. Lalu, angka tersebut ia simpan ke dalam RAM, dan kemudian ditaruh secara permanen pada pita magnetik digital.

Pada 1975, Sasson akhirnya menciptakan kamera digital pertama di dunia, Rube Goldberg.

Brian Hayes, dalam laporannya yang terbit pada American Scientist Volume 96 berjudul “Computational Photography,” menyebut bahwa meskipun kamera digital melakukan terobosan yang besar di dunia fotografi, fotografi digital tak pernah meninggalkan prinsip obscura. Cara kerjanya masih sama saja. Namun, yang patut disimak, ada kerja komputer yang dilakukan kamera digital untuk menghasilkan foto. Papar Hayes, sensor peka cahaya yang tersemat dalam kamera digital terbentuk dari sekumpulan persegi, atau lazim disebut piksel. Masalahnya, piksel-piksel itu tidak menangkap semua warna, melainkan hanya RGB alias red, green, dan blue sebagai warna dasar. Untuk menghasilkan warna yang sesuai dengan kenyataan, kerja komputer yang tersemat dalam kamera bekerja. Komputer, melalui sensor peka cahaya tersebut, mengukur seberapa kuat intensitas cahaya yang mengenai sensor. Dengan algoritma khusus, ia akhirnya menciptakan warna. 

Tegas Hayes, kamera digital sesungguhnya “tidak mengambil foto, melainkan menciptakan foto.” Dan kamera digital melakukan proses komputer yang terbilang sederhana untuk “menciptakan” foto. 

Proses inipun dilakukan oleh kamera yang tersemat dalam ponsel. Sayangnya, bentuk atau form factor ponsel kecil, yang pada akhirnya menciptakan kelemahan dalam membuat foto/video, wabilkhusus soal sensor yang dapat disematkan dalam ponsel. Kamera DSLR atau mirrorless bertitel “full-frame” memiliki sensor sebesar 35x24 milimeter. Sementara itu, kamera bertitel “APS-C” memiliki sensor yang menciut 1,52 kalinya full-frame, yakni sebesar 23,6x15,6 milimeter. Di sisi lain, sensor peka-cahaya yang termuat dalam ponsel ukurannya berada di kisaran 6,17x4,55 milimeter.

Besar-kecilnya sensor berpengaruh terhadap banyak-sedikitnya cahaya yang bisa masuk. Dan fakta ini berpengaruh terhadap kualitas gambar. Maka, dengan hanya melihat ukuran sensor, foto/video yang dihasilkan kamera ponsel tak akan sebagus DSLR atau mirrorless. Awalnya, untuk mengakali kelemahan ini, produsen-produsen ponsel memilih untuk memperbesar piksel. Tentu, dengan cahaya yang terbatas, piksel yang besar tak terlalu berpengaruh pada kualitas foto yang dihasilkan. Maka, produsen ponsel memilih jalan lain agar kamera yang tertanam dalam ponsel menghasilkan gambar yang berkualitas. Alih-alih memerintahkan sensor untuk menghasilkan gambar, mereka memaksa prosesor untuk melakukannya--jauh lebih kompleks dibandingkan yang telah dilakukan kamera digital biasa. Computational photography atau fotografi komputasi akhirnya lahir.

Tatkala Algoritma Menjadi Lensa

Fotografi merupakan proses “menggambar dengan cahaya” untuk menghasilkan foto. Masalahnya, dengan form factor yang terbatas, kamera ponsel sukar melakukan proses ini. Dengan form factor terbatas, kamera ponsel akhirnya memiliki sensor peka-cahaya yang terbatas pula. Pun, dengan alasan yang sama, kamera ponsel tidak dapat melanggar hukum fisika untuk menempatkan lensa yang bertenaga. Maka, sebut Yael Pritch Knaan, ilmuwan Google yang telah menghasilkan 50 studi tentang fotografi, untuk menghasilkan foto/video yang bagus dari kamera ponsel, “alih-alih memperlakukan piksel selayaknya sebuah piksel, kami mencoba memahami apa sesungguhnya piksel.” Alih-alih memotret foto hanya melalui cahaya, kamera ponsel--khususnya yang tersemat pada ponsel premium--melakukan proses fotografi komputasi untuk menghasilkan foto/video.

Marc Levoy, dalam “Experimental Platform for Computational Photography,” menyebut bahwa fotografi komputasi merupakan proses di dalam aplikasi kamera ponsel untuk menghasilkan potret, yang lebih menekankan kekuatan prosesor, machine learning, serta algoritma alih-alih sensor peka-cahaya dan lensa. Yang jelas, proses ini bukan memodifikasi foto yang telah jadi seperti yang dilakukan melalui filter-filter Instagram. Namun, pertama-tama cahaya yang ditangkap sensor peka-cahaya kamera ponsel, tidak lantas dijadikan sebagai hasil utuh, melainkan dijadikan sebagai data untuk diproses. Tentu, tak hanya satu data. Untuk menghasilkan foto/video berkualitas, memerlukan data yang beragam dan banyak. Pada kasus iPhone 12 Pro misalnya, data yang beragam dihasilkan melalui tiga modul kamera ponsel yang tersemat di dalamnya, dengan lensa berbeda-beda. iPhone 12 Pro memiliki lensa ultrawide, wide, dan telephoto dengan masing-masing memanfaatkan resolusi sebesar 12 megapiksel. Tak ketinggalan, untuk memahami objek yang hendak dipotret, iPhone 12 Pro menyematkan LiDAR, dan dalam kasus ponsel lain, menggunakan infra red. Lalu, ketika tombol rana ditekan, kumpulan modul kamera dengan ragam lensanya dan modul tambahan itu tak hanya memotret sekali, melainkan berkali-kali--secara otomatis, tanpa disadari pengguna--alias “burst of images.” Data-data yang diperoleh ini dialirkan pada RAM yang ada di ponsel untuk diproses prosesor. Secara spesifik, ponsel-ponsel premium memiliki chip khusus untuk memproses data ini. Pada iPhone 12, perangkat ini memiliki Smart HDR 3 yang tertanam di A14 Bionic. Pada Pixel, Google menyematkan Pixel Visual Core (PVC).

Ketika data diterima chip khusus itu, machine learning dan algoritma bekerja. Sebagaimana disebut Knaan, di titik ini, chip dan algoritma berusaha keras memahami apa sesungguhnya data dari piksel-piksel sensor peka-cahaya itu. Akhirnya, potret yang kualitasnya tak kalah dengan DSLR lahir. Disuguhkan pada pengguna sebagai foto/video utuh.

Dalam studi berjudul “Google’s Lens: Computational Photography and Platform Capitalism,” Sy Taffel menjelaskan bahwa tatkala aplikasi kamera yang terpasang di Pixel dibuka, aplikasi tersebut langsung memotret, tanpa diketahui pengguna. Ketika akhirnya pengguna menekan tombol potret, aplikasi telah bekerja setengah jalan untuk urusan memotret. Catat Taffel, sebelum pengguna menekan tombol untuk memotret, aplikasi telah memotret sebanyak 15 kali, dan ketika pengguna menekan tombol, aplikasi memotret 15 kali lagi. Untuk membuat pengguna tidak menunggu lama melihat hasil, ketika aplikasi memotret diam-diam itu, Pixel langsung melakukan proses komputasinya. Mirip sebagaimana kita menonton video di Youtube, di mana frame-frame selanjutnya telah dipancarkan bahkan sebelum kita sampai di frame tersebut.

Knaan, dalam “Sky Optimization: Semantically Aware Image Processing of Skies in Low-Light Photography,” menyebut bahwa untuk mempermudah kerja ponsel menghasilkan foto/video berkualitas, di beberapa kasus, produsen ponsel telah membuat suatu basis data untuk objek-objek tertentu. Langit, misalnya. Pada Pixel, Google memiliki basis data yang besar terkait potret langit. Ketika pengguna Pixel memotret objek berlatar belakang langit, Pixel akan mengisolasi objek dan latar belakang langit itu. Langit diproses tersendiri. Memanfaatkan machine learning, Pixel mencoba memahami langit yang terpotret oleh penggunanya dengan langit di basis data yang Pixel miliki Hasilnya, entah siang atau malam, Pixel sukses menghasilkan foto berlatar belakang langit yang ciamik.

Dengan fotografi komputasi, ponsel perlahan mengikis ketertinggalannya dengan DSLR atau mirrorless.

Tentu, fotografi komputasi tidak ujug-ujug lahir tatkala Google memperkenalkan Pixel atau Apple memperkenalkan iPhone. Secara konsep, fotografi komputasi telah ada semenjak dunia fotografi mengenal foto high-dynamic-range (HDR). Sementara itu, cikal bakal fotografi komputasi pada ponsel terjadi di tahun 2007. Kala itu, merujuk Kari Pulli dalam “Mobile Computational Photography with FCam,” sebuah tim gabungan Nokia Research center dan Stanford University, saat mencoba mengatasi keterbatasan kamera ponsel, menciptakan Frankencamera. Ya, nama Frankencamera memang diambil dari monster Frankenstein, dengan alasan kamera ini mengambil dan mencampurbaurkan modul-modul untuk menciptakan gambar berkualitas dari berbagai alat. Frankencamera, secara pondasi, dibuat dari tubuh Nokia N95.

Pada Frankencamera itu, N95 diotak-atik. Ditambahi algoritma khusus, ditambahi modul kamera tambahan (atau digabungkan dengan unit N95 lain), flash, dan lain sebagainya, sebagai sumber data yang berbeda untuk menghasilkan satu foto utuh. Atas penelitian ini, perlahan, algoritma dan aplikasi akhirnya dapat menjadi lensa.



© 2016-2021 Madzae

Proyek pribadi dari Ahmad Zaenudin, jurnalis Tirto.id

Berisi artikel-artikel baru serta versi mentah (tanpa diedit) dari yang dipublikasikan di Tirto.id

Redaksi | Kontak | Pedoman Media Siber | Privasi

Temukan di Google Play


Dibaca normal menit



10 Juli 2021

Tatkala Algoritma Menjadi Lensa

Oleh: Ahmad Zaenudin


“Ketika saya berkarir sebagai sinematografer, semua kamera (yang ada dan yang saya gunakan) bersifat mekanis,” tutur Emmanuel Lubezki, peraih Best Achievement in Cinematography di ajang Academy Awards (Oscar) untuk film Gravity (2013), Birdman (2014), dan The Revenant (2015). Karena kamera yang digunakan bersifat mekanis, lanjut Lubezki, “seorang sinematografer harus memikirkan dan melakukan segala hal teknis terkait pengambilan gambar,” yang tidak mudah dilakukan karena kamera profesional cenderung memiliki berat yang tak main-main dan rumit dioperasikan.

Untunglah, bagi Lubezki, iPhone 12 lahir. Lubezki terpukau dengan kualitas gambar yang dihasilkan iPhone 12--khususnya varian Pro--yang dapat menghasilkan gambar berkualitas Dolby Vision. Katanya, dengan kualitas yang dihasilkan, "semua pembuat film di seluruh dunia dapat menggunakan iPhone 12 Pro untuk membuat film,” dengan mudah dan murah tanpa perlu memikirkan hal-hal teknik. “Kamera iPhone 12 Pro sangat luar biasa. Kamera ini bagai berpikir,” puji Lubezki.

Tentu, pujian yang dilontarkan Lubezki, yang disampaikannya dalam acara peluncuran iPhone 12 oleh Apple pada Selasa (13/10) lalu, merupakan bagian dari strategi pemasaran iPhone, yang untungnya, tak terlalu berlebihan. iPhone 12 memang dapat digunakan, baik oleh kalangan profesional maupun amatiran, untuk membuat film. Namun, yang perlu diingat, bukan hanya iPhone 12 saja yang dapat digunakan membuat film. Kamera-kamera yang tersemat dalam ponsel pintar masa kini memang dapat dimanfaatkan membuat film. Christopher English, seorang pembuat film amatiran, menggunakan ponsel Google Pixel untuk membuat film pendek berjudul Kepler 22-B dan Revenge. Lalu, sutradara asal Korea Selatan bernama Kim Jee-woon, memanfaatkan Samsung Galaxy S20 dan Note 20 untuk membuat film berjudul Untact.

Semenjak Google merilis Pixel generasi pertama di tahun 2016 silam, kamera yang tersemat dalam ponsel--khususnya pada seri-seri bertitel “flagship--memang menghasilkan foto/video yang ciamik. Yang patut disimak, iPhone 12 maupun ponsel-ponsel premium lainnya menghasilkan foto/video dengan cara yang sedikit berbeda dibandingkan kamera DSLR maupun mirrorless.

Prinsip Obscura yang Tak Lekang Oleh Waktu

“Kebanyakan kamera yang ada saat ini masih menggunakan prinsip kamera obscura--yang berarti ‘ruang gelap,’ suatu prinsip yang kali pertama dieksplorasi oleh filsuf Cina di abad ke-5 sebelum masehi,” tutur Shree K. Nayar, pengajar Ilmu Komputer pada Columbia University, dalam studinya berjudul “Computational Cameras” yang dipaparkan dalam Conference Vision Applications, Mei 2007 silam di Tokyo, Jepang.

Dalam prinsipnya untuk menghasilkan “foto,” secara sederhana, suatu ruang rapat diberi lubang di salah satu dinding. Melalui lubang tersebut, cahaya masuk dan seakan memancarkan bentuk gambar di dinding yang kedua. Ya, obscura tak ubahnya sebuah kamera pinhole. Di awal penemuan prinsip ini, seniman melukis di dinding yang kedua itu, tak ubahnya seperti seniman digital saat ini tatkala melakukan tracing melalui Photoshop. Perlahan, untuk mempertajam gambar yang dihasilkan, muncul lensa. Suatu alat optik yang dapat membuat cahaya terorganisir, terpusat. Lalu, merujuk Marc Levoy, Profesor Ilmu Komputer pada Stanford University, dalam studinya berjudul “Experimental Platforms for Computational Photography,” di sekitar dekade 1820-an, seorang bernama Joseph Nicéphore Niépce melakukan terobosan pada prinsip obscura itu. Dibandingkan menggunakan dinding untuk menghasilkan gambar--yang membutuhkan seniman untuk menghasilkan gambar sesungguhnya, Niépce menembakkan dan merekam cahaya ke medium yang sensitif terhadap cahaya, fotosensitif, plat tembaga. Dan seiring berjalannya waktu, plat digantikan oleh film.

Terobosan selanjutnya di dunia teknologi terjadi di dekade 1970-an. Kala itu, atas kerja keras Willard Boyle dan George E. Smith, mereka berdua menemukan sensor digital peka cahaya bernama charge-coupled device (CCD). Sayangnya, sebagaimana dilaporkan James Estrin untuk The New York Times, CCD memiliki kelemahan terkait mudah hilangnya gelombang elektronik yang tertangkap sensor ini. Karena kelemahan ini, CCD sukar diimplementasikan menjadi sensor untuk kamera. Sensor untuk menciptakan foto/video. Beruntunglah, karyawan baru Kodak bernama Steven Sasson memperbaiki kelemahan CCD ini. Melalui tangan Sasson, cahaya yang mengenai tubuh CCD yang berjenis elektronik, diubahnya menjadi angka. Menjadi binari, 0 atau 1. Lalu, angka tersebut ia simpan ke dalam RAM, dan kemudian ditaruh secara permanen pada pita magnetik digital.

Pada 1975, Sasson akhirnya menciptakan kamera digital pertama di dunia, Rube Goldberg.

Brian Hayes, dalam laporannya yang terbit pada American Scientist Volume 96 berjudul “Computational Photography,” menyebut bahwa meskipun kamera digital melakukan terobosan yang besar di dunia fotografi, fotografi digital tak pernah meninggalkan prinsip obscura. Cara kerjanya masih sama saja. Namun, yang patut disimak, ada kerja komputer yang dilakukan kamera digital untuk menghasilkan foto. Papar Hayes, sensor peka cahaya yang tersemat dalam kamera digital terbentuk dari sekumpulan persegi, atau lazim disebut piksel. Masalahnya, piksel-piksel itu tidak menangkap semua warna, melainkan hanya RGB alias red, green, dan blue sebagai warna dasar. Untuk menghasilkan warna yang sesuai dengan kenyataan, kerja komputer yang tersemat dalam kamera bekerja. Komputer, melalui sensor peka cahaya tersebut, mengukur seberapa kuat intensitas cahaya yang mengenai sensor. Dengan algoritma khusus, ia akhirnya menciptakan warna. 

Tegas Hayes, kamera digital sesungguhnya “tidak mengambil foto, melainkan menciptakan foto.” Dan kamera digital melakukan proses komputer yang terbilang sederhana untuk “menciptakan” foto. 

Proses inipun dilakukan oleh kamera yang tersemat dalam ponsel. Sayangnya, bentuk atau form factor ponsel kecil, yang pada akhirnya menciptakan kelemahan dalam membuat foto/video, wabilkhusus soal sensor yang dapat disematkan dalam ponsel. Kamera DSLR atau mirrorless bertitel “full-frame” memiliki sensor sebesar 35x24 milimeter. Sementara itu, kamera bertitel “APS-C” memiliki sensor yang menciut 1,52 kalinya full-frame, yakni sebesar 23,6x15,6 milimeter. Di sisi lain, sensor peka-cahaya yang termuat dalam ponsel ukurannya berada di kisaran 6,17x4,55 milimeter.

Besar-kecilnya sensor berpengaruh terhadap banyak-sedikitnya cahaya yang bisa masuk. Dan fakta ini berpengaruh terhadap kualitas gambar. Maka, dengan hanya melihat ukuran sensor, foto/video yang dihasilkan kamera ponsel tak akan sebagus DSLR atau mirrorless. Awalnya, untuk mengakali kelemahan ini, produsen-produsen ponsel memilih untuk memperbesar piksel. Tentu, dengan cahaya yang terbatas, piksel yang besar tak terlalu berpengaruh pada kualitas foto yang dihasilkan. Maka, produsen ponsel memilih jalan lain agar kamera yang tertanam dalam ponsel menghasilkan gambar yang berkualitas. Alih-alih memerintahkan sensor untuk menghasilkan gambar, mereka memaksa prosesor untuk melakukannya--jauh lebih kompleks dibandingkan yang telah dilakukan kamera digital biasa. Computational photography atau fotografi komputasi akhirnya lahir.

Tatkala Algoritma Menjadi Lensa

Fotografi merupakan proses “menggambar dengan cahaya” untuk menghasilkan foto. Masalahnya, dengan form factor yang terbatas, kamera ponsel sukar melakukan proses ini. Dengan form factor terbatas, kamera ponsel akhirnya memiliki sensor peka-cahaya yang terbatas pula. Pun, dengan alasan yang sama, kamera ponsel tidak dapat melanggar hukum fisika untuk menempatkan lensa yang bertenaga. Maka, sebut Yael Pritch Knaan, ilmuwan Google yang telah menghasilkan 50 studi tentang fotografi, untuk menghasilkan foto/video yang bagus dari kamera ponsel, “alih-alih memperlakukan piksel selayaknya sebuah piksel, kami mencoba memahami apa sesungguhnya piksel.” Alih-alih memotret foto hanya melalui cahaya, kamera ponsel--khususnya yang tersemat pada ponsel premium--melakukan proses fotografi komputasi untuk menghasilkan foto/video.

Marc Levoy, dalam “Experimental Platform for Computational Photography,” menyebut bahwa fotografi komputasi merupakan proses di dalam aplikasi kamera ponsel untuk menghasilkan potret, yang lebih menekankan kekuatan prosesor, machine learning, serta algoritma alih-alih sensor peka-cahaya dan lensa. Yang jelas, proses ini bukan memodifikasi foto yang telah jadi seperti yang dilakukan melalui filter-filter Instagram. Namun, pertama-tama cahaya yang ditangkap sensor peka-cahaya kamera ponsel, tidak lantas dijadikan sebagai hasil utuh, melainkan dijadikan sebagai data untuk diproses. Tentu, tak hanya satu data. Untuk menghasilkan foto/video berkualitas, memerlukan data yang beragam dan banyak. Pada kasus iPhone 12 Pro misalnya, data yang beragam dihasilkan melalui tiga modul kamera ponsel yang tersemat di dalamnya, dengan lensa berbeda-beda. iPhone 12 Pro memiliki lensa ultrawide, wide, dan telephoto dengan masing-masing memanfaatkan resolusi sebesar 12 megapiksel. Tak ketinggalan, untuk memahami objek yang hendak dipotret, iPhone 12 Pro menyematkan LiDAR, dan dalam kasus ponsel lain, menggunakan infra red. Lalu, ketika tombol rana ditekan, kumpulan modul kamera dengan ragam lensanya dan modul tambahan itu tak hanya memotret sekali, melainkan berkali-kali--secara otomatis, tanpa disadari pengguna--alias “burst of images.” Data-data yang diperoleh ini dialirkan pada RAM yang ada di ponsel untuk diproses prosesor. Secara spesifik, ponsel-ponsel premium memiliki chip khusus untuk memproses data ini. Pada iPhone 12, perangkat ini memiliki Smart HDR 3 yang tertanam di A14 Bionic. Pada Pixel, Google menyematkan Pixel Visual Core (PVC).

Ketika data diterima chip khusus itu, machine learning dan algoritma bekerja. Sebagaimana disebut Knaan, di titik ini, chip dan algoritma berusaha keras memahami apa sesungguhnya data dari piksel-piksel sensor peka-cahaya itu. Akhirnya, potret yang kualitasnya tak kalah dengan DSLR lahir. Disuguhkan pada pengguna sebagai foto/video utuh.

Dalam studi berjudul “Google’s Lens: Computational Photography and Platform Capitalism,” Sy Taffel menjelaskan bahwa tatkala aplikasi kamera yang terpasang di Pixel dibuka, aplikasi tersebut langsung memotret, tanpa diketahui pengguna. Ketika akhirnya pengguna menekan tombol potret, aplikasi telah bekerja setengah jalan untuk urusan memotret. Catat Taffel, sebelum pengguna menekan tombol untuk memotret, aplikasi telah memotret sebanyak 15 kali, dan ketika pengguna menekan tombol, aplikasi memotret 15 kali lagi. Untuk membuat pengguna tidak menunggu lama melihat hasil, ketika aplikasi memotret diam-diam itu, Pixel langsung melakukan proses komputasinya. Mirip sebagaimana kita menonton video di Youtube, di mana frame-frame selanjutnya telah dipancarkan bahkan sebelum kita sampai di frame tersebut.

Knaan, dalam “Sky Optimization: Semantically Aware Image Processing of Skies in Low-Light Photography,” menyebut bahwa untuk mempermudah kerja ponsel menghasilkan foto/video berkualitas, di beberapa kasus, produsen ponsel telah membuat suatu basis data untuk objek-objek tertentu. Langit, misalnya. Pada Pixel, Google memiliki basis data yang besar terkait potret langit. Ketika pengguna Pixel memotret objek berlatar belakang langit, Pixel akan mengisolasi objek dan latar belakang langit itu. Langit diproses tersendiri. Memanfaatkan machine learning, Pixel mencoba memahami langit yang terpotret oleh penggunanya dengan langit di basis data yang Pixel miliki Hasilnya, entah siang atau malam, Pixel sukses menghasilkan foto berlatar belakang langit yang ciamik.

Dengan fotografi komputasi, ponsel perlahan mengikis ketertinggalannya dengan DSLR atau mirrorless.

Tentu, fotografi komputasi tidak ujug-ujug lahir tatkala Google memperkenalkan Pixel atau Apple memperkenalkan iPhone. Secara konsep, fotografi komputasi telah ada semenjak dunia fotografi mengenal foto high-dynamic-range (HDR). Sementara itu, cikal bakal fotografi komputasi pada ponsel terjadi di tahun 2007. Kala itu, merujuk Kari Pulli dalam “Mobile Computational Photography with FCam,” sebuah tim gabungan Nokia Research center dan Stanford University, saat mencoba mengatasi keterbatasan kamera ponsel, menciptakan Frankencamera. Ya, nama Frankencamera memang diambil dari monster Frankenstein, dengan alasan kamera ini mengambil dan mencampurbaurkan modul-modul untuk menciptakan gambar berkualitas dari berbagai alat. Frankencamera, secara pondasi, dibuat dari tubuh Nokia N95.

Pada Frankencamera itu, N95 diotak-atik. Ditambahi algoritma khusus, ditambahi modul kamera tambahan (atau digabungkan dengan unit N95 lain), flash, dan lain sebagainya, sebagai sumber data yang berbeda untuk menghasilkan satu foto utuh. Atas penelitian ini, perlahan, algoritma dan aplikasi akhirnya dapat menjadi lensa.


 

 

© 2016-2021 Madzae

Personal project of Ahmad Zaenudin, Tirto.id's journalist

 

Redaksi | Kontak | Pedoman Media Siber | Privasi

Temukan di Google Play