Perhitungan Jumlah Pohon Kelapa Sawit Pada Citra Ortofoto Menggunakan Algoritma Template Matching dan Faster R-CNN
Abstract
Data ortofoto telah banyak digunakan untuk pemantauan kondisi lahan pertanian, khususnya kelapa sawit. Kelapa sawit berperan penting dalam meningkatkan perekonomian Indonesia. Oleh karena itu dibutuhkan perhitungan pohon secara otomatis untuk mempercepat proses monitoring perkebunan secara akurat dan berkala. Penelitian ini bertujuan untuk menghitung jumlah pohon kelapa sawit secara otomatis menggunakan dua algoritma, yaitu Template Matching dan Faster R-CNN. Lokasi penelitian mencakup area perkebunan kelapa sawit yang terletak di Kecamatan Bunga Raya, Kabupaten Siak, Provinsi Riau. Data yang digunakan yaitu data foto udara perkebunan kelapa sawit PT. Teguh Karsa Wana Lestari pada tahun 2017. Data foto udara diolah menjadi data ortofoto. Data ortofoto selanjutnya digunakan untuk perhitungan pohon secara otomatis menggunakan kedua algoritma. Uji akurasi setiap algoritma dibandingkan dengan acuan hitungan manual yang diasumsikan memiliki ground truth. Hasil perhitungan manual (ground truth) sebanyak 4777 pohon, dan hasil perhitungan secara otomatis dengan template matching yaitu 4500 pohon dengan selisih 277 pohon lebih sedikit dibandingkan dengan ground truth. Selain itu, Faster R-CNN menghasilkan 4713 pohon dengan selisih 64 pohon lebih sedikit dibandingkan dengan ground truth. Overall accuracy perhitungan pohon kelapa sawit dengan algoritma Template Matching sebesar 91,58%, Faster R-CNN sebesar 97,98 %. Dengan demikian, algoritma Faster R-CNN secara kuantitatif memberikan hasil yang lebih baik.
References
Ammar, A., Koubaa, A., & Benjdira, B. (2021). Deep-learning-based automated palm tree counting and geolocation in large farms from aerial geotagged images. Agronomy, 11(8). https://doi.org/10.3390/agronomy11081458
Cao, C., Wang, B., Zhang, W., Zeng, X., Yan, X., Feng, Z., Liu, Y., & Wu, Z. (2019). An Improved Faster R-CNN for Small Object Detection. IEEE Access, 7, 1. https://doi.org/10.1109/ACCESS.2019.2932731
Chaudhuri, A. (2021). Hierarchical Modified Fast R-CNN for Object Detection. Informatica, 45. https://doi.org/10.31449/inf.v45i7.3732
eCognition. (2021). Trimble eCognition Reference Book. Trimble Germany. https://doi.org/10.2.0
Gavrilescu, R., Zet, C., Fosalau, C., Skoczylas, M., & Cotovanu, D. (2018). Faster R-CNN:an Approach to Real-Time Object Detection.https://doi.org/10.1109/ICEPE.2018.8559776
Hanapi, S. N. H. S., Shukor, S. A. A., & Johari, J. (2021). Normalized Cross Correlation Template Matching for Oil Palm Tree Counting from UAV image. Journal of Physics: Conference Series, 2107(1). https://doi.org/10.1088/1742-6596/2107/1/012036
Hassan Salam, H. J. , S. H. (2021). You Only Look Once (YOLOv3): Object Detection and Recognition for Indoor Environment. https://doi.org/10.5281/ZENODO.4906284
Irsanti, D., Sasmito, B., & Bashit, N. (2019). Kajian Pengaruh Penajaman Citra untuk Perhitungan Jumlah Pohon Kelapa Sawit Secara Otomatis Menggunakan Foto Udara (Studi Kasus : KHG Bentayan Sumatra Selatan). Jurnal Geodesi Undip Januari, 8
Jia, S., Diao, C., Zhang, G., Dun, A., Sun, Y., Li, X., & Zhang, X. (2019). Object Detection Based on the Improved Single Shot MultiBox Detector. Journal of Physics: Conference Series, 1187(4), 042041. http://link.springer.com/10.1007/978-3-319-39034-5
Kementerian Pertanian. (2021). Statistik Perkebunan Unggulan 2019-2021.
Li, W., Fu, H., Yu, L., & Cracknell, A. (2017). Deep learning based oil palm tree detection and counting for high-resolution remote sensing images Remote Sensing, 9(1). https://doi.org/10.1016/B978-0-12-815985-9.00001-1
Lin, T.-Y., Goyal, P., Girshick, R. B., He, K., & Dollár, P. (2017). Focal Loss for Dense Object Detection. 2017 IEEE International Conference on Computer Vision (ICCV), 2999–3007
Zhang B, Wang C, Ding X, Zhu W, and Wu S (2018) Correction of Ionospheric Artifacts in SAR Data: Application to Fault Slip Inversion of 2009 Southern Sumatra Earthquake. IEEE Geoscience and Remote Sensing Letters 15 (9):1327-1331. doi:10.1109/LGRS.2018.2844686