p pp 100-104 deteksi objek bergerak pada video bawah air
TRANSCRIPT
https://jurnaleeccis.ub.ac.id/ p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
Jurnal EECCIS Vol. 13, No. 3, Agustus 2019 pp 100-104
Manuscript submitted at May 2019, accepted and published at August 2019
Deteksi Objek Bergerak Pada Video Bawah Air Menggunakan Metode Frame Differencing
Reza Muhamad, Titin Yulianti, Sri Ratna Sulistiyanti, Sri Purwiyanti, F.X. Arinto Setyawan Jurusan Teknik Elektro Fakultas Teknik, Universitas Lampung, Bandar Lampung, Indonesia
Email: [email protected], [email protected], [email protected], [email protected], [email protected]
Abstract—Fish finder is an electronic device that
operated on a ship that can measure the depth of sea. The principle work of the device is by measuring the depth of the ocean by pulse of vibration sound. There is a transducer that transmits pulse vibrations vertically to the bottom of the sea, then the transducer will receive the reflection of its. To increase modern fishing technology, a technology research using other methods are needed. One idea of modern fishing technology is object detection methods. There are several methods that can be used in the detection of moving objects. One of the method is the frame differencing method. This research designed the program of underwater object detection using frame differencing method by taking pictures with moving camera. The video was recorded using action camera. There are 3 kinds of data are processed according to the time, morning, noon, and night. This method compares two frames then the difference is considered the movement of an object. The effectiveness of this method is evaluated based on the value of recall and precision. The results showed that frame differencing method successfully detected the objects of the three videos with the highest value of recall is 73% and precision around 96% and execute duration in 0.36s.
Index Terms— Object Detection, Underwater Detection, Frame Differencing.
Abstrak–- Salah satu gagasan mengenai teknologi penangkapan ikan modern adalah dengan menggunakan metode deteksi objek. Terdapat beberapa metode yang dapat digunakan dalam proses pendeteksian objek bergerak. Salah satu metode yang digunakan untuk mengidentifikasi obyek adalah metode frame differencing. Pada penelitian ini dirancang program deteksi obyek dalam air menggunakan metode frame differencing dengan pengambilan gambar dengan kamera bergerak. Penggunaan kamera bergerak memerlukan preprocessing pada video agar latar belakang menjadi seragam dan dapat dilakukan pembandingan antar frame. Pada penelitian ini data berupa video yang direkam menggunakan action cam. Penelitian ini menggunakan 3 buah data video yang diolah sesuai waktu pengambilan gambar, yaitu pagi, siang, dan malam. Metode yang diusulkan dilakukan dengan membandingkan dua buah frame yang yang berurutan dan selisihnya dianggap pergerakan dari sebuah objek. Hasil pembandingan diberi tanda untuk menyatakan objek yang dideteksi. Efektivitas metode ini dievaluasi berdasarkan nilai recall. Precision, dan waktu eksekusi. Hasil penelitian menunjukkan bahwa metode frame differencing berhasil mendeteksi objek dengan nilai recall tertinggi sebesar 73% dan precision tertinggi sebesar 96% serta waktu eksekusi tercepat 0.36s.
Kata Kunci— Deteksi objek, frame differencing, action cam, recall, precision.
I. PENDAHULUAN Mata adalah indra terpenting yang dimiliki oleh
manusia. Citra yang ditangkap mata memberikan banyak informasi tentang keadaan sekitar. Sayangnya mata memiliki kelemahan yaitu tidak dapat melihat di semua tempat, misalnya di dalam air, tempat yang sempit, dan tempat-tempat yang tidak dapat didatangi manusia.
Pada beberapa kasus tertentu peran mata manusia ini dapat digantikan oleh kamera digital. Saat ini teknologi kamera digital telah maju sangat pesat terutama pada resolusinya yang semakin besar dan ukuran kamera semakin kecil. Citra yang ditangkap menggunakan kamera digital ini tidak akan berguna tanpa dilakukan analisis terhadap informasi yang terkandung di dalamnya melalui pengolahan citra.
Perkembangan kecepatan dan memori komputer sangat mendukung teknologi pengolahan citra. Semakin cepatnya pengolahan data dan besarnya memori RAM membuat pengolahan citra dapat dilakukan secara real time.
Penelitian mengenai deteksi objek bawah air menggunakan pengolahan citra telah banyak dilakukan sebelumnya. Salah satu penelitian sebelumnya mengenai deteksi objek adalah menggunakan metode pengurangan model latar belakang [1, 2, 3]. Perbedaan dengan metode yang diusulkan adalah pada penggunaan kamera digital. Pada penelitian sebelumnya menggunakan kamera tidak bergerak (statis) sedangkan pada penelitian ini menggunakan kamera bergerak. Pada penelitian menggunakan kamera bergerak, seluruh objek pada citra, baik objek dan latar belakangnya selalu berubah pada setiap frame, sedangkan pada kamera statis latar belakang tetap.
Penelitian yang lain menggunakan dua buah kamera untuk memantau populasi hewan laut [4]. Pada penelitian ini dua buah kamera diposisikan sebagai kamera stereo yang menirukan fungsi mata manusia, yaitu mata kanan dan kiri. Perbedaan dengan metode yang diusulkan adalah penggunaan dua buah kamera memerlukan proses kalibrasi antara kamera kanan dan kiri sedangkan penggunaan kamera tunggal tidak memerlukan penyesuaian antar kamera. Hal ini berpengaruh pada kecepatan pemrosesan data.
Penelitian lain yang berkaitan dengan video bawah air adalah pendeteksian dan pelacakan objek bawah air [5, 6]. Pada penelitian ini objek yang terdeteksi dilacak arah perpindahannya. Pada penelitian lainnya, pendeteksian dilakukan pada rangkaian frame berturutan pada video
Jurnal EECCIS Vol. 13, No. 3, Agustus 2019, p-101
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
untuk mendeteksi objek bawah air [7]. Penelitian ini mirip dengan penelitian menggunakan frame differencing. Perbedaannya adalah pada penelitian menggunakan metode frame differencing jarak frame yang dianggap sebagai latar belakang ditentukan. Penelitian yang dilakukan ini mengusulkan pendeteksian objek bawah air menggunakan metode frame differencing pada video bawah air yang diambil menggunakan kamera bergerak. Frame latar belakang dengan frame saat ini ditentukan dengan jarak antar frame 1, 3, dan 5 frame, seperti diperlihatkan pada Gambar 1. Efektivitas metode yang diusulkan diukur dengan parameter recall dan precision.
Gambar 1. Jarak antar runtunan frame
II. TINJAUAN PUSTAKA
A. Metode Frame Differencing Metode Frame Differencing merupakan metode
pembedaan frame dengan menghitung selisih antara frame saat ini dengan frame sebelumnya untuk menghasilkan objek yang diinginkan dalam suatu citra [8]. Selisih antar frame dapat dilakukan dengan mengurangkan frame saat ini dengan frame sebelumnya dengan jarak yang ditentukan. Pada penelitian ini digunakan jarak antar frame 1, 3, dan 5. Artinya pengurangan dilakukan antara frame saat ini dengan 1 frame sebelumnya, 3 frame sebelumnya, atau 5 frame sebelumnya. Gambar 1 memperlihatkan jarak runtunan frame pada video. Secara matematis dapat dituliskan dalam persamaan (1), (2), dan (3) berturut-turut untuk jarak 1, 3, dan 5 frame.
𝑓"(𝑥, 𝑦) = |𝑓*(𝑥, 𝑦) − 𝑓*,-(𝑥, 𝑦)| (1)
𝑓"(𝑥, 𝑦) = |𝑓*(𝑥, 𝑦) − 𝑓*,.(𝑥, 𝑦)| (2)
𝑓"(𝑥, 𝑦) = |𝑓*(𝑥, 𝑦) − 𝑓*,/(𝑥, 𝑦)| (3)
Dimana 𝑓"(𝑥, 𝑦)adalah frame hasil pembedaan frame, 𝑓*(𝑥, 𝑦)adalah frame saat ini, 𝑓*,-(𝑥, 𝑦) adalah jarak 1 frame sebelumnya, 𝑓*,.(𝑥, 𝑦) adalah jarak 3 frame sebelumnya, dan 𝑓*,/(𝑥, 𝑦) adalah jarak 5 frame sebelumnya. Pemberian tanda absolute untuk menghindari nilai negative dari hasil pengurangan.
Pemakaian metode ini didasarkan pada algoritma metode ini tidak begitu rumit, berkecepatan yang tinggi, serta kemampuan proses yang baik. Ini penting agar pemrosesan dapat dilakukan secara cepat sehingga dapat diterapkan secara real-time.
B. Pemrosesan Awal Pemrosesan awal diperlukan agar citra yang akan
diolah dapat memberikan informasi yang dibutuhkan
secara maksimal. Pada penelitian ini menggunakan kamera bergerak oleh karena itu maka latar belakang video selalu berubah tergantung pada gerak kamera. Supaya latar belakang terlihat seragam maka diperlukan pemrosesan awal berupa konversi dari citra warna ke aras kelabu. Proses pengubahan citra warna menjadi citra aras kelabu menggunakan persamaan (4) atau (5).
𝑓"(𝑥, 𝑦) = 12(3,4)516(3,4)517(3,4).
(4)
𝑓"(𝑥, 𝑦) = 0.2989𝑓=(𝑥, 𝑦) + 0.5870𝑓A(𝑥, 𝑦) + 0.1141𝑓D(𝑥, 𝑦) (5)
C. Binerisasi Binerisasi adalah proses pengubahan citra aras kelabu
menjadi citra hitam dan putih. Proses ini dilakukan menggunakan metode pengambangan (Thresholding). Tujuan dilakukannya proses binerisasi adalah untuk mengenali objek dan memberi tanda keberadan objek dengan tanda kotak. Proses binerisasi dilakukan menggunakan Persamaan (6) yang secara matematis dinyatakan dengan:
𝑓"(𝑥, 𝑦) = E1 𝑗𝑖𝑘𝑎𝑓(𝑥, 𝑦) ≥ 𝑇0 𝑗𝑖𝑘𝑎𝑓(𝑥, 𝑦) < 𝑇 (6)
Dimana 𝑓"(𝑥, 𝑦) adalah citra hasil proses binerisasi dan 𝑓 (𝑥, 𝑦) adalah citra hasil metode frame differencing.
D. Efektivitas Metode Hasil dari penelitian ini akan dievaluasi dengan cara
membandingkan antara hasil ekstraksi objek dengan frame aslinya. Parameter yang digunakan untuk menentukan efektivitas metode yang diusulkan adalah Recall, Precision, dan F-measure.
Recall= RSTRST5RUV
x100%(7)
Precision= 𝑁𝑇𝑃𝑁𝑇𝑃+𝑁𝐹𝑃
x100%(8)
F=2 𝑅𝑒𝑐𝑎𝑙𝑙𝑥𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛(𝑅𝑒𝑐𝑎𝑙𝑙+𝑃𝑟𝑒𝑐𝑖𝑠𝑖𝑜𝑛)(9)
Recall merupakan tingkat keberhasilan sistem dalam menemukan kembali sebuah informasi. Dalam hal ini maka recall merupakan tingkat keberhasilan mendeteksi objek yang dibuktikan dengan bounding box yang menujukkan sebuah objek. Precision merupakan tingkat ketepatan antara informasi yang diminta oleh pengguna dengan jawaban yang diberikan oleh sistem. Dalam hal ini maka precision adalah tingkat ketepatan lokasi bounding box pada sebuah objek [9].
Nlm adalah banyaknya ikan yang terdeteksi dengan bounding box pada frame hasil, Nno adalah banyaknya ikan yang tidak terdeteksi dengan bounding box pada frame hasil, serta Nnm adalah banyaknya bounding box yang berada pada daerah background.
III. METODE PENELITIAN
A. Pengambilan Data Video Data yang akan diolah pada penelitian ini diambil
menggunakan action cam pada sebuah kolam terpal buatan berdiameter 2m dan tinggi 1,2m. Kamera dipasang pada sebuah monopod lalu digerakkan secara vertikal. Dengan cara pengambilan data seperti itu, diharapkan data yang didapat menyerupai keadaan sebenarnya yaitu
Jurnal EECCIS Vol. 13, No. 3, Agustus 2019, p-102
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
ketika di laut. Ketika sebuah kapal diam, maka gerakkan yang ada adalah naik-turun karena adanya ombak sehingga pengambilan data dilakukan secara vertikal. Cara pengambilan data video diperlihatkan pada Gambar 2.
Gambar 2. Ilustrasi pengambilan data video
B. Konversi Warna ke Aras Kelabu Pengubahan citra warna menjadi aras kelabu
dilakukan pada setiap frame citra. Pengubahan dilakukan menggunakan Persamaan (5). Hasil pengubahan diperlihatkan pada Gambar 3 untuk satu frame dari video pagi, siang, dan malam. Setelah citra menjadi aras kelabu maka dilakukan proses frame differencing.
a) Frame ke 60 dari video pagi
b) Frame ke 40 dari video siang
c) Frame ke 50 dari video malam
Gambar 3. Proses pengubahan citra warna menjadi grayscale
C. Proses Frame Differencing Proses pembedaan frame dilakukan untuk semua
frame dari video. Gambar 4 memperlihatkan hasil frame differencing untuk jarak 1 frame, 3 frame, dan 5 frame. Setelah hasil pembedaan didapat maka dilakukan konversi ke citra biner untuk diproses lebih lanjut yaitu pemberian bounding box untuk menandai objek.
a) 1 frame
b) 3 frame
c) 5 frame Gambar 4. Hasil proses frame differencing untuk frame ke 67
Proses binerisasi dari hasil frame differencing
diperlihatkan pada Gambar 5. Proses binerisasi dilakukan menggunakan nilai threshold 15 karena hasil proses frame differencing menghasilkan citra yang sangat kecil.
a) 1 frame
b) 3 frame
c) 5 frame Gambar 5. Proses binerisasi
D. Proses Penentuan Objek Proses penentuan objek dilakukan dengan member
tanda berupa kotak pada objek yang telah dikenali pada proses binerisasi. Hasil penentuan objek diperlihatkan oleh Gambar 6 untuk masing-masing jarak frame 1, 3, dan 5.
Jurnal EECCIS Vol. 13, No. 3, Agustus 2019, p-103
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
a) 1 frame
b) 3 frame
c) 5 frame Gambar 5. Proses penentuan objek
IV. HASIL PENELITIAN Penelitian ini menggunakan 3 adegan video bawah air
yang masing-masing diambil saat pagi, siang, dan malam hari menggunakan action cam. Setiap video hanya 180 frame yang digunakan untuk penelitian ini. Ukuran masing-masing frame adalah 1280 x 720 piksel dengan frame rate 30 frame per second (fps). Lingkungan eksperimen adalah sebagai berikut: Sistem operasi adalah Windows 8, prosesor Intel® core ™ i5, RAM 4GB, dan perangkat lunak yang digunakan adalah Ms Visual Studio 2010 dan OpenCV 2.4.13.
Hasil evaluasi efektivitas metode yang diusulkan untuk video pagi, siang, dan malam diperlihatkan secara berturut-turut pada Tabel 1, Tabel 2, dan Tabel 3. Tampak bahwa metode yang diusulkan memiliki tingkat presisi yang tinggi tetapi masih belum optimal dalam menentukan objek yang terdapat pada video. Nilai recall dan precision tertinggi dicapai pada video malam hari. Untuk pagi dan siang nilai Recall tergolong rendah hal ini disebabkan banyaknya gangguan intensitas cahaya yang timbul karena sinar matahari. Sinar tersebut dapat dikenali sebagai objek sehingga mempengaruhi hasil deteksi objek.
TABLE I. PERHITUNGAN EFEKTIVITAS HASIL DATA PAGI
Selisih Frame
Hasil Evaluasi Data Pagi
Rata-rata Nilai Recall
Rata-rata Nilai Precision
Rata-rata Nilai F-Measure
1 Frame 46% 74% 53% 3 Frame 46% 74% 53% 5 Frame 48% 82% 57%
TABLE II. PERHITUNGAN EFEKTIVITAS HASIL DATA SIANG
Selisih Frame
Hasil Evaluasi Data Siang Rata-rata Nilai Recall
Rata-rata Nilai Precision
Rata-rata Nilai F-Measure
1 Frame 44% 82% 54% 3 Frame 44% 82% 54%
5 Frame 46% 86% 57%
TABLE III. PERHITUNGAN EFEKTIVITAS HASIL DATA SORE
Selisih Frame
Hasil Evaluasi Data Malam
Rata-rata Nilai Recall
Rata-rata Nilai Precision
Rata-rata Nilai F-Measure
1 Frame 51% 96% 65% 3 Frame 51% 96% 65% 5 Frame 73% 90% 76%
TABLE IV. WAKTU EKSEKUSI PENDETEKSIAN OBJEK
Selisih Frame
Waktu
Data Pagi Data Siang Data Malam
1 Frame 0,36s 0,71s 0,56s 3 Frame 0,36s 0,71s 0,56s 5 Frame 0,73s 1,23s 0,4s
Pada video malam hari diberikan tambahan cahaya dari lampu celup pemanggil ikan yang berada di dekat kamera sehingga cahaya yang ditimbulkan tidak terlalu mengganggu proses deteksi. Selain parameter Recall dan Precision, efektivitas metode juga diukur berdasarkan lamanya waktu proses pendeteksian. Hal ini dilakukan untuk mengetahui apakah proses pendeteksian dapat dilakukan secara real time. Lama waktu eksekusi proses deteksi diperlihatkan oleh Tabel IV. Waktu tercepat pendeteksian dicapai pada video pagi hari untuk jarak 1 dan 3 frame yaitu sebesar 0.36s.
V. KESIMPULAN Penelitian ini mengusulkan metode frame
differencing untuk mendeteksi objek bawah air dari video yang diambil menggunakan kamera bergerak. Metode ini paling optimal digunakan untuk kondisi malam hari dimana nilai recall yang didapat sebesar 73% untuk jarak 5 frame. Waktu yang dibutuhkan untuk proses deteksi adalah 0.4 detik. Perlu peningkatan nilai Recall dan Precision serta mereduksi waktu pendeteksian agar metode yang ditawarkan lebih efektif.
Perlu menggabungkan metode ini dengan metode lain agar hasilnya lebih efektif, misalnya dengan membuat model latar belakang agar pengurangan frame benar-benar menghasilkan objek yang dikehendaki. Perlu juga menambahkan proses morfologi agar pemberian tanda kotak benar-benar pada objek yang dikehendaki.
UCAPAN TERIMA KASIH Terima kasih kepada LPPM UNILA yang telah
memberikan bantuan dana penelitian melalui DIPA Penelitian Unggulan 2018 dengan nomor kontrak penelitian 1345/UN26.21/PN/2018.
DAFTAR PUSTAKA [1] Amandeep, E.M.Goyal, “Moving object detection using
background subtraction techniques,” International Journal Of Engineering Sciences & Research Technology, vol. 5, 2016, pp. 1-9.
Jurnal EECCIS Vol. 13, No. 3, Agustus 2019, p-104
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
[2] M. R. Prabowo, N. Hudayani, S. Purwiyanti, S. R. Sulistiyanti, F. X. A. Setyawan, "A Moving Objects Detection in Underwater Video Using Subtraction of The Background Model," Proc. EECSI 2017, Yogyakarta, Indonesia, 19-21 September 2017.
[3] Y. Yu, C. Zhou, L. Huang, Z. Yu, “A moving target detection algorithm based on the dynamic background,” International Conference on Computational Intelligence and Software Engineering, Wuhan – China, pp. 1-5, Dec. 2009.
[4] M. R. Shortis, E. S. Harvey, "Design and calibration of an underwater stereo-video system for the monitoring of marine fauna populations," International Archives Photogrammetry and Remote Sensing, Vol. 32, No. 5, pp. 792-799, 1998.
[5] M. S. Srividya, R. Hemavathy, G. Shobha, "Underwater video processing for detecting and tracking moving object," International Journal Of Engineering And Computer Science, Vol. 3, No. 5, Pp 5843-5847, May 2014.
[6] C. Spampinato, Y. H. Chen-Burger, G. Nadarajan, and R. Fisher, “Detecting, tracking and counting fish in low quality unconstrained underwater videos,” Proc. 3rd Int. Conf. on Computer Vision Theory and Applications (VISAPP), vol. 2, pp. 514-519, 2008.
[7] O. Ancha, "Speed algorithm for underwater moving objects detection based on image sequence," International Journal of Computer Science and Information Technologies, Vol. 7, No. 3, pp. 1032-1035, 2016.
[8] K.D. Irianto, G. Ariyanto, D. Ary, "Motion Detection Using Opencv With Background Subtraction And Frame Differencing Technique," Simposium Nasional RAPI VIII 2009, pp. 74-81
[9] F. X. A. Setyawan, J. K. Tan, H. Kim, S. Ishikawa, “Detecting Foreground Objects by Sequential Background Inference in a Video Captured by a Moving Camera,” Proceedings of the SICE Annual Conference, Nagoya - Japan, pp. 1699-1702, September 2013.
https://jurnaleeccis.ub.ac.id/
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
Jurnal EECCIS Vol. 13, No. 1, April 2019
pp 38-41
Manuscript submitted at 15-10-2018, accepted and published at 30-04-2019
Abstract— Indonesia is a country that rich in animal
diversity, but some animals fall into the category risk
of extinction. The government has made various
conservation efforts to protect its existence. One of
them is by observing the existence of these animals.
Direct observation is difficult because some species
are elusive. Because of these characteristics, these animals have a remote and difficult to access
territorial area which makes direct observation
difficult. Therefore a camera trap is designed that
records video automatically with real time display on
the video sender-based user interface. The camera
trap is also capable of sending videos to observers who
are not at the observation location. From the results
of the study it was found that on average the camera
trap was able to active for 20.8 hours, able to detect
objects up to 6 meters at angle of 0 degrees and a
maximum of 4 meters at 90 degrees angle coverage,
video sender sending distance no more than 300m, for
recording during 5 seconds the average data size is
505.54 kB, at night the object that can be seen clearly
is only up to a distance of 3 meters.
Index Terms— wildlife conservation, camera trap,
video sender, raspberry pi 2.
Abstrak— Indonesia merupakan negara yang kaya
akan satwa, namun diantara beberapa satwa masuk
dalam kategori terancam punah. Pemerintah telah
melakukan berbagai upaya konservasi untuk
melindungi keberadaannya. Salah satunya adalah
dengan melakukan pengamatan terhadap
keberadaan hewan tersebut. Pengamatan secara
langsung sulit dilakukan karena beberapa spesies
merupakan satwa elusif. Karena sifat tersebut maka
satwa-satwa ini memiliki daerah teritorial yang
terpencil dan sulit diakses yang menyebabkan
pengamatan secara langsung kurang memungkinkan. Oleh sebab itu dirancang sebuah
camera trap yang merekam video secara otomatis
dengan tampilan secara realtime pada user interface
berbasis video sender.Camera trap ini juga mampu
mengirimkan video ke pengamat yang tidak berada
pada lokasi pengamatan. Dari hasil penelitian
diperoleh bahwa rata-rata camera trap mampu aktif
selama 20,8 jam, mampu mendeteksi keberadaan
objek hingga 6 meter pada sudut 0 derajat dan
maksimal 4 meter pada sudut jangkauan 90 derajat,
jarak pengiriman video sender tidak lebih dari 300 m,
untuk rekaman selama 5 detik rata-rata ukuran data
sebesar 505.54 kB, saat malam hari objek yang dapat
terlihat dengan jelas hanya sampai jarak 3 meter.
Kata Kunci—konservasi satwa, camera trap, video sender,
raspberry pi 2.
I. PENDAHULUAN
Indonesia merupakan negara yang kaya akan satwa,
namun di antar beberapa satwa masuk dalam kategori
terancam punah. Pemerintah telah melakukan berbagai
upaya konservasi untuk melindungi keberadaannya.
Salah satunya adalah dengan pengamatan, namun
pengamatan secara langsung sulit dilakukan karena beberapa spesies merupakan satwa eksklusif. Karena
sifat tersebut maka satwa-satwa ini memiliki daerah
teritorial yang terpencil dan sulit diakses yang
menyebabkan pengamatan secara langsung kurang
memungkinkan. Oleh sebab itu pendekatan secaratidak
langsung menjadi salah satu pendekatan yang relevan
karena tidak melukai satwa saat melakukan pengamatan,
yaitu dengan menggunakan perangkat penelitian berupa
kamera jebak (camera trap)[1]. Dengan camera trap ini
juga dapat menekan biaya operasional penelitian satwa
liar.
Kamera jebak yang sudah ada, mengambil foto satwa
setiap saat. Pada penelitian ini dirancang camera trap
menggunakan komponen-komponen lokal, dengan
harapan akan terbangun kamera jebak dengan biaya yang
lebih murah (low cost). Selain itu, camera trap hasil
rancangan dapat mengirimkan gambar bergerak (format
video), yaitu dengan ditambahkan fitur berupa video
sender. Fitur ini memungkinkan camera trap dapat
melakukan pengamatan secara realtime dari jarak
tertentu, yaitu dengan mengirimkan visualisasi yang
ditangkap oleh camera trap melalui transmitter video
sender kemudian diterima oleh receiver video sender dan
ditampilkan pada monitor. Camera trap yang dibuat
dapat merekam video ke pengamat yang berada pada
jarak tertentu menggunakan video sender. File video ini
digunakan untuk konservasi satwa liar secara realtime.
II. TINJAUAN PUSTAKA
A. Camera Trap
Camera trap atau kamera jebak adalah sebuah
perangkat kamera yang dilengkapi dengan sensor sebagai
pemicu. Kamera perangkap adalah metode untuk
menangkap hewan liar di film dokmenter ketika para
peneliti tidak hadir, dan telah digunakan dalam penelitian
ekologi, deteksi spesies langka, estimasi ukuran populasi
Sri Ratna Sulistiyanti1, F.X. Arinto Setyawan2, Sri Purwiyanti3, Minhajjul Abidin Jaya4 1,2,3,4 Electrical Engineering Department, Universitas Lampung, Bandar Lampung, Indonesia
Email: [email protected], [email protected], [email protected],
minhajjulabidin.jaya06 @gmail.com
Rancang Bangun Camera Trap Pengirim Video
Real-time Berbasis Video Sender
Jurnal EECCIS Vol. 13, No. 1, April 2019, p-39
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
dan kekayaan spesies, serta penelitian tentang
penggunaan habitat selama beberapa dekade [2].
B. Sensor PIR
Sensor PIR merupakan sebuah sensor berbasis
inframerah. Akan tetapi, tidak seperti sensor inframerah
kebanyakan yang terdiri dari IR LED dan foto transistor.
PIR tidak memancarkan apapun seperti IR LED. Sesuai
namanya “Passive”, sensor ini hanya merespon energi
dari pancaran sinar inframerah pasif yang dimiliki oleh
setiap benda yang terdeteksi olehnya. Benda yang dapat
dideteksi oleh sensor ini biasanya adalah tubuh manusia
Jika ada sumber panas yang lewat di depan sensor
tersebut, maka sensor akan mengaktifkan sel pertama dan
sel kedua sehingga menghasilkan bentuk gelombang
seperti ditunjukkan dalam Gambar 2.3. Sinyal yang
dihasilkan sensor PIR mempunyai frekuensi yang rendah
yaitu 0,2 – 5 Hz[3].
C. Video Sender
Video Sender merupakan perangkat elektronik yang
dapat digunakan untuk mengirimkan sebuah data audio dan video tanpa kabel (nirkabel). Video sender memiliki
sisi pemancar (Transmitter/Tx) dan penerima
(Receiver/Rx). Pada pemancar, sumber informasi
gambar dan suara diolah menjadi sinyal listrik yang
diperoleh dari jalur transmisi. Tx yang digunakan
menggunakan gelombang radio VHF (very high
frequency) sebagai pembawa informasi. Bagian antena
pada Rx menangkap sinyal yang dikirim Tx dalam
bentuk sinyal RF (Radio Frequency) yang sudah
dimodulasi dengan sinyal video dan audio. Pada bagian
Rx diubah kembali menjadi informasi gambar dan suara
seperti semula [4].
Video sender memungkinkan untuk mengubah cctv
menjadi cctv nirkabel, sehingga pemantauan tidak
terbatas pada satu ruangan, namun juga dapat digunakan
untuk area yang luas seperti kantor/pabrik. Selain itu
video sender juga dapat dihubungkan dengan decoder TV satelit, TV kabel, DVD player atau semua gadget lain
yang memiliki AV output.
III. METODE PENELITIAN
A. Perancangan Model Sistem
Saat sensor PIR mendeteksi adanya radiasi infra
merah yang dipancarkan oleh objek maka akan
mengirimkan sinyal ke raspberry pi. Kemudian
raspberrypi memerintahkan kamera untuk merekam.
Selanjutnya jika kondisi lingkungan sekitar gelap, maka
LED IR aktif dan kamera menjadi modus malam. Saat
kamera aktif, maka transmitter dari video sender juga
aktif, sehingga akan mengirimkan data video ke transmitter pada bagian ground station dan menampilkan
video tersebut di LCD 7 inch secara realtime, apabila
kamera tidak lagi merekam, maka filevideo akan
disimpan kedalam flashdisk dalam format mp4,
diperlihatkan pada Gambar 1.
Sensor
PIR
Vidio
ReceiverVidio
Transmiter
Raspberry
Pi 2
AntenaAntena
LDRIR
Camera Trap
Flash disk
Gambar 1. Diagram blok sistem
B. Perancangan Perangkat Keras
Kotak camera trap dibuat menggunakan bahan
plastik. Untuk membuat box kedap air (waterproof)
maka diberikan seal karet di sekeliling tutup box.
deperlihatkan pada Gambar 2.
Raspberry pi 2 merupakan mikrokomputer yang
memiliki RAM sebesar 1 GB sehingga memungkinkan
mengolah data video dengan cepat. Sinyal masukan yang
diproses oleh mikrokomputer berasal dari kamera dan
Sensor PIR. Sensor PIR digunakan untuk
mengidentifikasi keberadaan panas tubuh satwa. Sensor
LDR dirancang untuk mengaktifkan LED IR saat
keadaan lingkungan di depan camera trap kurang cahaya.
Perancangan Telemetri dilakukan dengan
menghubungkan Tx Video Sender dengan perangkat
camera trap dan menghubungkan Rx video sender pada LCD monitor, rekaman video yang sedang direkam oleh
camera trap dapat ditampilkan secara real-timepada user
iterface.
(a) Tampak depan (b) Tampak dalam (c) Tampak belakang
(d) User interface
Gambar 2. Camera trap hasil rancangan
Jurnal EECCIS Vol. 13, No. 1, April 2019, p-40
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
Mulai
Int PIR = A0
Sensor PIR,
Kamera, Rangkaian
IR, Transmitter
Baca PIR
Ada Objek
Kamera Aktif,
Rangkaian IR Aktif
Selesai
Tidak
Ya
Merekam dan
Mengirimkan
Video
Gambar 3. Diagram alir program Raspberry Pi2
C. Perancangan Perangkat Lunak
Perangkat lunak yang digunakan pada camera trap
ini adalah software python 2. Software ini berfungsi
untuk menulis source code program yang akan diproses
oleh raspberry pi 2 sehingga dapat memberi masukan
pada sistem-sistem pendukungnya (Gambar 3).
IV. HASIL DAN PEMBAHASAN
A. Pengujian Sensor PIR
Pada pengujian sensor PIR antara jarak dan sudut yang
dilakukan di ruang terbuka diperoleh bahwa sesor PIR
efektif bekerja pada sudut 0° hingga 30° dengan
jangkauan jarak mencapai 6 meter. Saat jangkauan sudut
60°, jarak jangkauannya hanya mencapai 5 meter. Saat
jangkauan sudut 90°, jarak jangkauan sensor PIR hanya
sampai 4 meter. Kemudian pada sudut ≥120° sensor PIR
tidak dapat mendeteksi gelombang inframerah lagi,
diperlihatkan pada Gambar 4.
Gambar 4. Grafik Jangkauan Sensor PIR.
B. Pengujian Camera No IR
Camera no IR yang digunakan pada penelitian ini
memiliki sudut jangkauan 51,6° x 38,9° pada resolusi
640 x 480 pixel. Karena sudut jangkauan dari sensor PIR
mencapai 90°, maka objek tidak masuk frame secara
keseluruhan saat perekaman. Oleh karena itu, pada
kamera diberi tambahan lensa wide. Dengan demikian
sudut jangkauan kamera menjadi 88,1° x 63,9°,
diperlihatkan pada Gambar 5.
Gambar 5. Citra Kamera Dengan dan Tanpa Lensa Wide
C. Pengujian Video Sender
Pada pengujian ini catu daya Tx dihubungkan dengan rele 5 volt, dimana relay ini diatur oleh raspberry
pi 2 agar hanya berkondisi NC saat camera trap merekam
video. Pengujian jarak jangkauan pengiriman video
sender ini dilakukan dengan cara mengukur jarak
pengiriman secara Line of Sight dengan pengukuran jarak
menggunakan Google Maps yang dapat dilihat pada
Gambar 6. Pengujian ini dilakukan di depan gedung
Rektorat UNILA hingga Gedung Serba Guna UNILA
Receiver video sender memiliki frekuensi sebesar 5,8
Ghz dan transmitter video sender memiliki daya sebesar
350 mW dengan antenna jenis monopole. Hasil dari
pengujian video sender adalah video terkirim hingga
jarak 300 meter tanpa penghalang, lebih dari jarak
tersebut video tidak terkirim. .
Gambar 6. Pengukuran Jarak Menggunakan Google Maps
D. Pengujian Camera Trap
Pengujian camera trap dengan menggunakan Rusa
sebagai objek dari camera trap. Pengujian pertama
dilakukan di Kandang Rusa UNILA pada pukul 16:00
tanggal 27 Maret 2018 dalam keadaan cerah berawan.
Camera trap merekaman video karena adanya aktifitas
rusa yang sedang makan rumput yang berjarak sekitar
empat meter dari camera trap, diperlihatkan pada
Gambar 7.
6 65
4
0
0
2
4
6
8
0° 30° 60° 90° 120°
Jara
k (
met
er)
Sudut
Jangkauan Sensor PIR
Jurnal EECCIS Vol. 13, No. 1, April 2019, p-41
p-ISSN : 1978-3345, e-ISSN(Online): 2460-8122
Gambar 7. Hasil Screen Shoot dari Video di
Kandang Rusa Siang Hari
Pengujian pada malam hari dilakukan di Kandang
Rusa UNILA. Camera trap merekaman video karena
adanya aktifitas rusa yang mencoba meraih dedaunan,
diperlihatkan pada Gambar 8..
Gambar 8. Hasil Screen Shoot dari Video di
Kandang Rusa Malam Hari
E. Pengujian Daya Tahan Batere
Pengujian daya tahan batere dilakukan pada tanggal
lima hari dengan intensitas pengambilan data setiap 1 jam
dengan durasi video selama 5 detik. Terlihat bahwa rata-
rata catu daya mampu aktif hingga 20,8 jam,
diperlihatkan pada Gambar 9.
Gambar 9. Bar Daya Tahan Batere
F. Pembahasan
Kamera merekam video selama 5 detik untuk sekali
pendeteksian objek. Namun jika dalam 5 detik objek
melakukan pergerakan dalam jangkauan sensor PIR,
maka rekaman akan dilanjutkan selama 5 detik, dan begitu seterusnya hingga objek diluar jangkauan sensor
PIR atau tidak melakukan pergerakan.
Kualitas video pada siang dan malam hari sangat
berbeda, hal ini dikarenakan camera trap menggunakan
camera no IR yang artinya kamera tidak menahan sinar
infra merah yang dihasilkan oleh matahari. Sehingga
video yang dihasilkan terlihat berwarna kemerahan.
Namun karena kamera jenis ini tidak menahan sinar infra
merah yang masuk, maka pada saat keadaan gelap, hasil
rekaman terlihat baik ketika diberi sinar infra merah dari
LED IR dimana sinar tersebut tidak dapat dilihat oleh
manusia dengan mata biasa.
V. KESIMPULAN DAN SARAN
A. Kesimpulan
Telah terealisasi camera trap dengan pengiriman
video secara realtime berbasis video sender yang dapat
merekam dengan jelas dalam kondisi gelap hingga jarak
3 meter dan mendeteksi keberadaan objek hingga 6 meter
pada sudut 0O dan maksimal 4 meter pada sudut
jangkauan 90O.
Data hasil rekaman video dapat tersimpan pada
penyimpanan external dan dikirimkan secara realtime
dengan video sender ke user interface dengan jarak
maksimal 300 meter tanpa penghalang.
B. Saran
Pembuatan camera trap ini perlu ditambahkan
pengolahan citra agar objek dapat dikelompokkan
menurut jenisnya. Selain itu, perlu diperhatikan juga
sudut dn daya jangkau sensor PIR agar semua Objek
dapat terjangkau.
REFERENCES
[1] Team, T., 2015. WWF Indonesia. http://www.wwf.or.id/?40662/
KompetisiCameraTrap. Diakses pada 4 September 2015.
[2] Anon., 2015. Wikipedia. https://en.wikipedia.org/wiki
/Camera_trap. Diakses pada 4 September 2015.
[3] Prima, B., 2013,Perancangan Sistem Keamanan Rumah
Menggunakan Sensor PIR, p. 2.
[4] Alistia, R. B., 2010, Sistem Kendali Tele Robotik Berkamera
dengan Pemancar VHF Berbasiskan Mikrokontroller AVR
ATMEGA 8535, pp. 6-7.
20
20
21.5
21.5
21
20.8
19 19.5 20 20.5 21 21.5 22
Perc. 1
Perc. 2
Perc. 3
Perc. 4
Perc. 5
Rata-rata
Waktu Aktif (Jam)
ISBN 978-602-8692-34-2
296
Sistem Penghitung Jumlah Kendaraan Di Lintasan Dua Arah Menggunakan Library CVBlob
Sri Purwiyanti Jurusan Teknik Elektro Universitas Lampung
Bandar Lampung, Indonesia [email protected]
F.X. Arinto Setyawan Jurusan Teknik Elektro Universitas Lampung
Bandar Lampung, Indonesia [email protected]
M. Hafizulahudin Jurusan Teknik Elektro Universitas Lampung
Bandar Lampung, Indonesia [email protected]
Herlinawati Jurusan Teknik Elektro Universitas Lampung
Bandar Lampung, Indonesia [email protected]
Umi Murdika Jurusan Teknik Elektro Universitas Lampung
Bandar Lampung, Indonesia [email protected]
Abstrak—Meningkatnya jumlah kendaraan yang beroperasi
mengakibatkan masalah kemacetan di jalan raya, terutama di kota besar. Oleh karena itu, diperlukan pemantauan kepadatan lalulintas yang dapat mengetahui jumlah kendaraan yang melintas pada jalan raya, agar pihak yang berkepentingan dapat membuat kebijakan untuk mengatasi permasalahan transportasi tersebut. Penelitian ini bertujuan untuk merancang sistem pemantau dan penghitung jumlah kendaraan yang melintas di dua jalur jalan raya. Metode yang digunakan adalah berdasarkan pengolahan citra menggunakan microsoft visual studio 2013 dengan bahasa c++ dan dilengkapi dengan sebuah library dari open cv. Hasil pengujian yang diperoleh memperlihatkan bahwa sistem ini berhasil melakukan pendeteksian dan penghitungan jumlah kendaraan yang melintas di jalan dua jalur dengan tingkat error sekitar 10 %. Namun sistem ini belum berhasil diterapkan pada jalan yang padat sehingga masih diperlukan perbaikan lebih lanjut.
Kata Kunci— CvBlob, Open cv ,Visual Studio, Pengolahan citra
I. PENDAHULUAN Untuk menentukan kepadatan rata-rata lalu lintas
diperlukan adanya survey penghitungan jumlah kendaraan yang melintas di jalan raya. Pelaksanaan survey tersebut biasanya dilakukan oleh seorang pengamat sehingga dimungkinkan terjadinya human error dalam proses penghitungannya. Selain itu, penghitungan yang dilakukan oleh manusia memerlukan biaya tersendiri untuk setiap pelaksanaannya sehingga kurang efisien [1].
Berdasarkan pada permasalahan yang ada maka telah dilakukan penelitian untuk membuat sistem penghitung jumlah kendaraan di jalan raya. Pada penelitian sebelumnya dilakukan penghitungan hanya untuk jalan satu jalur [2]. Untuk itu maka penelitian ini bertujuan untuk membuat suatu sistem penghitung jumlah kendaraan di lintasan jalan raya dua jalur dengan menggunakan bahasa pemrograman C++ dengan library OpenCV. OpenCV digunakan karena memiliki banyak subprogram atau library yang dapat dikombinasikan sehingga memiliki berbagai fungsi dalam pemrograman yang berkaitan dengan pengolahan citra digital [3].
.
II. DETEKSI OBYEK Pada pengolah citra, proses pendeteksian obyek dapat
dilakukan dengan memisahkan citra foreground dengan background-nya. Terdapat metode-metode dalam pendeteksian obyek bergerak, beberapa diantaranya adalah background substraction dan haar-like feature [4]. Disimpulkan bahwa metode background substraction memiliki keunggulan, karena lebih peka terhadap perubahan suatu obyek ataupun perubahan lingkungan di sekitar obyek. Selain itu metode background substraction dapat bekerja secara optimal dalam berbagai kondisi, seperti perubahan warna obyek, perubahan background, kecepatan obyek, serta perubahan intensitas cahaya di lingkungan sekitar obyek.
Prinsip kerja dari metode background substraction ini adalah dengan cara substraksi, frame saat ini dengan frame sebelumnya, kemudian hasil substraksi ini akan dianalisa untuk menemukan pergerakan obyek pada citra video. Kelemahan dalam metode ini, banyaknya derau yang ditimbulkan akibat terlalu sensitifnya sistem, sehingga obyek menjadi sulit untuk dikenali. Oleh karena itu biasanya background substraction ditambah dengan metode Morphological Image Processing.
A. Background Substraction Background Subtraction adalah proses untuk
menemukan obyek pada gambar dengan cara membandingkan gambar yang ada dengan sebuah model latar belakang. Prosedur Background Subtraction terdiri dari 3 tahap, yaitu pre-processing, background modeling, dan foreground detection [5,6].
Pada tahap pre-processing data mentah dari kamera (atau input lainnya) diproses menjadi bentuk yang dapat dimengerti oleh bagian program lain. Pada tahap ini akan dilakukan eliminasi obyek kecil seperti peningkatan kualitas pada citra (kecerahan, kontras, dsb). Perbaikan citra juga dilakukan sesuai kebutuhan seperti resize (mengubah resolusi atau ukuran suatu citra) dan cropping (penghapusan bagian sudut dari citra.
Tahap background modeling bertujuan untuk membentuk model background yang konsisten, namun
ISBN 978-602-8692-34-2
297
tetap dapat beradaptasi dengan perubahan lingkungan yang ada. Algoritma background modelling sendiri sangat banyak, namun pada penelitian ini dipakai Approximated Filter yaitu hanya pendekatan batas atas dan batas bawah berdasarkan piksel yang didapat, karena proses komputasinya cepat dan hasilnya cukup memuaskan.
Pada tahap foreground detection, dilakukan proses ekstraksi foreground dari background. Secara sederhana hal ini dilakukan dengan persamaan berikut [5]:
R(r,c) = I(r,c) - B(r,c) (1) dengan R = hasil foreground
I = citra saat ini B = background model r = baris c = kolom
Nilai R lalu dibandingkan dengan nilai threshold yang
telah ditentukan. Jika lebih besar dari nilai threshold maka piksel di I(r,c) dapat dianggap berbeda dengan piksel di B (r,c). Nilai threshold adalah suatu nilai untuk mentolerasi error yang mungkin terjadi dan threshold memang biasanya dipakai untuk mengurangi error yang disebabkan oleh suatu derau.
B. Morphological Image Processing(MIP)
MIP merupakan teknik pengolahan citra dengan menggunakan bentuk (shape) sebagai bentuk acuan. Operasi morphologi tergantung pada suatu urutan kemunculan dari piksel tanpa memperhatikan nilai numerik dari piksel tersebut. Dengan demikian teknik ini sangat baik apabila digunakan untuk melakukan pengolahan citra biner dan citra dalam bentuk grayscale. Operasi morphologi standar yang dilakukan adalah proses erosi dan dilatasi [7].
Proses Dilatasi merupakan suatu proses atau teknik untuk memperbesar segmen suatu obyek dalam bentuk citra biner dengan menambahkan suatu lapisan sekeliling obyek tersebut dengan menggunkan persamaan sebagai berikut, dengan A adalah sebuah citra awal dan B adalah structuring atau suatu lapisan dari sekeliling obyek citra tersebut.
A + B = C (2)
Operasi erosi yaitu suatu proses pemindahan atau pengurangan titik piksel pada batas suatu obyek citra digital. Operasi erosi dilakukan menggunakan persamaan
A – B = C (3)
Proses dilatasi dan operasi erosi merupakan suatu teknik penambahan dan pengurang pada titik piksel. Jumlah piksel yang ditambahkan atau yang dikurangkan dari batas obyek pada citra digital masukan tergantung pada ukuran dan bentuk dari structuring element yang digunakan.
C. CvBlob CvBlob merupakan sebuah library tambahan pada OpenCv yang berisi algoritma dan dapat digunakan untuk menentukan suatu grup dari piksel yang saling terhubung.
Metode ini sangat berguna untuk mengidentifikasi obyek yang terpisah-pisah pada suatu citra, atau dapat digunakan sebagi penghitung jumlah dari suatu obyek pada citra.
Metodenya disebut blob detection, yaitu suatu algoritma yang mendeteksi kumpulan titik-titik piksel yang memiliki warna berbeda (terang atau gelap) dari latar belakang dan menyatukannya dalam suatu region. Dalam deteksi blob, algoritma yang di pakai adalah algoritma growing ragions. Algoritma ini digunakan untuk menemukan blob di dalam gambar dan bisa diaplikasikan di squence image. Konsep dari algoritma ini adalah menampilkan sebuah citra sebagai matriks piksel dan nilai garis yang sudah pasti [8].
D. Garis Deteksi Garis deteksi merupakan sebuah garis hitung yang
dilalui oleh obyek yang melintas di jalan raya. Garis deteksi pada penelitian ini terdiri dari dua garis yaitu garis kiri dan garis kanan. Prinsip kerja dari garis deteksi yaitu apabila sebuah obyek yang ter-boundingbox bergerak melalui garis deteksi, maka garis deteksi tersebut akan berganti warna yaitu menjadi berwarna putih untuk garis deteksi sebelah kiri dan hijau untuk sebelah kanan dengan notasi sebagai berikut [8,9]:
const cv::Scalar WARNA_PUTIH = cv::Scalar(255.0, 255.0, 255.0); const cv::Scalar WARNA_KUNING = cv::Scalar(0.0, 255.0, 255.0); const cv::Scalar WARNA_HIJAU = cv::Scalar(0.0, 200.0, 0.0); const cv::Scalar WARNA_MERAH = cv::Scalar(0.0, 0.0, 255.0);
setelah dilakukan persamaan maka garis deteksi akan ditentukan penempatannya dengan notasi:
int posisiGarisHorizontal = (int)std::round((double)frameImage_ke1.rows * 0.35);
posisiGarisHorizontal = posisiGarisHorizontal * 1.40; PosisiGarisVertikal =
Agar obyek terdeteksi dan garis dapat berubah warna atau garis deteksi dapat berfungsi menjadi line counting maka digunakan notasi:
line kanan lewatiGaris[0].x = 400; lewatiGaris[0].y = posisiGarisHorizontal;
lewatiGaris[1].x = frameImage_ke1.cols - 1; lewatiGaris[1].y = posisiGarisHorizontal;
line kiri lewatiGarisKiri[0].x = 0; lewatiGarisKiri[0].y = posisiGarisHorizontal;
lewatiGarisKiri[1].x = 300; lewatiGarisKiri[1].y = posisiGarisHorizontal; lewatiGarisKiri[1].y = posisiGarisHorizontal;
III. METODE
ISBN 978-602-8692-34-2
298
Gambar 1 memperlihatkan diagram alir dari metode yang digunakan. Proses yang dilakukan terbagi menjadi empat bagian, yaitu inisialisasi masukan video, Background Subtraction, deteksi blob, dan algoritma penghitung jumlah kendaraan yang melintas di dua jalur jalan raya. Dalam perancangan ini data untuk input berupa video dari hasil perekaman kamera yaitu berisi kumpulan informasi citra biner yang memuat intensitas piksel yang terdapat di dalamnya. Sedangkan keluaran dari hasil Background Subtraction berupa gambar Foreground yang akan diproses dalam suatu blobtracking.
Gambar 1. Diagram alir metode yang digunakan
Pada perancangan ini pustaka CvBlob digunakan untuk mempermudah pembuat program dalam memisahkan tiap-tiap gumpalan yang terdapat dalam suatu gambar dan kemudian melabelinya sehingga antara gumpalan yang satu dengan gumpalan yang lainnya dapat dibedakan dengan identitas yang berbeda. Proses penghitungan jumlah kendaraan yang melintas di jalan raya terbagi menjadi empat bagian yaitu, pengaturan metode penghitungan, pengaturan garis hitung, proses penghitungan dan proses penandaan jalur (track). Pengaturan garis hitung dilakukan untuk mendapatkan garis hitung yang paling sesuai dengan kondisi jalan yang akan diamati.
IV. HASIL DAN PEMBAHASAN Setelah pembuatan program selesai dilakukan, contoh
hasil eksekusi sistem dapat dilihat pada Gambar 2. Bagian atas adalah hasil dari blob detection, dimana obyek terdeteksi dan dipisahkan dari background-nya. Setelah itu dilakukan blob tracking, yaitu memberikan tanda kotak pada obyek hasil blob detection. Selanjutnya dihitung berapa banyak kotak yang melintasi garis deteksi, dan hasil perhitungan lalu ditampilkan di layar komputer.
Pengujian lalu dilakukan untuk mengetahui performa dari sistem yang dihasilkan. Penghitungan dilakukan secara terpisah antara jalur kiri dan kanan, kemudian hasilnya dibandingkan dengan hasil penghitungan secara manual. Tingkat kesalahan (error) lalu dihitung menggunakan rumus:
%𝑒𝑟𝑟𝑜𝑟 = '()*+,-.)*/)0,0-(12'()*+,-.)*/)1/)./3
'()*+,-.)*/)1/)./3𝑥100%
Gambar 2. Hasil dari proses: (a) blob detection, (b) line counting, dan (c) tampilan jumlah obyek
TABLE I. HASIL PENGHITUNGAN JUMLAH KENDARAAN PADA JALUR KANAN
Frame Jumlah Kendaraan
error (%) Sistem Manual
50 2 2 0
100 3 3 0
150 4 4 0
200 5 5 0
250 6 6 0
300 6 6 0
350 7 7 0
400 8 8 0
450 12 8 50
500 12 9 33
550 12 10 20
600 12 11 9
650 13 13 0
700 15 17 12
750 16 19 16
800 17 20 15
850 18 21 14
900 19 23 17
Rata-rata error 10,3
Tabel I memperlihatkan hasil pengujian untuk area jalur kanan, dengan jumlah frame sebanyak 900 frame. Dapat terlihat bahwa persentase error sebesar 0 % untuk frame 50 sampai 400 atau dengan kata lain sistem telah melakukan pendeteksian dengan benar. Namun untuk frame ke 450 jumlah error mulai berubah. Hal ini mungkin disebabkan faktor penghitungan obyek yang berkelipatan. Artinya satu obyek dapat terhitung lebih daripada satu saat nilai framerate tinggi. Fenomena ini sesuai dengan teori yang
ISBN 978-602-8692-34-2
299
menyatakan bahwa semakin detail sebuah video memberikan frame gambarnya maka semakin mudah sistem pengolahan citra mengolah data koordinatnya [7].
Gambar 3. Citra awal lokasi pengujian di : (a) Jl. Zainal Abidin dan (b). Jl. Pramuka, Bandarlampung
Selanjutnya pengujian dilakukan untuk membandingkan kinerja sistem pada dua jalan yang memiliki kepadatan berbeda. Pengujian dilakukan di Jln. Zainal Abidin, Bandarlampung dan Jl. Pramuka, Bandarlampung. Citra awal kedua gambar diperlihatkan pada Gambar.3.
TABLE II. PERBANDINGAN HASIL PENGHITUNGAN PADA JALAN YANG BERBEDA HANYA PADA JALUR KANAN
Frame
Jumlah Kendaraan error (%)
Sistem Manual
Jalan 1 Jalan 2 Jalan 1 Jalan 2 Jalan 1 Jalan 2
50 2 3 2 3 0 0
100 3 3 3 3 0 0
150 4 3 4 3 0 0
200 5 5 5 3 0 67
250 6 5 6 4 0 25
300 6 5 6 5 0 0
350 7 6 7 5 0 20
400 8 6 8 5 0 20
450 12 6 8 6 50 0
500 12 6 9 6 33 0
550 12 7 10 7 20 0
600 12 7 11 7 9 0
650 13 7 13 7 0 0
700 15 8 17 8 12 0
750 16 8 19 9 16 11
800 17 9 20 9 15 0
850 18 9 21 9 14 0
900 19 10 23 10 17 0
Hasil pengujian sampai frame ke-900, beserta prosentase error diperlihatkan pada Tabel II. Bila dilakukan pembandingan pada framerate yang tinggi pada kedua jalan, dapat terihat bahwa pada jalan yang lengang tingkat error ternyata lebih rendah daripada jalan yang padat. Hal ini terjadi mungkin karena terjadi kegagalan pada proses
pengenalan citra pada obyek yang berhimpit di jalan yang padat. Solusi dari permasalahan ini adalah dengan mengembangkan metode blob tracking yang lebih baik agar dapat menghitung jumlah obyek secara real time.
KESIMPULAN Sistem yang dibuat telah berhasil melakukan
menghitungan jumlah kendaraan pada dua jalur di jalan taya yang padat dan lenggang dengan rata-rata error sebesar 10,3 %. Hasil yang didapat menyatakan bahwa tingkat error yang besar biasanya terjadi pada framerate yang tinggi dengan kondisi jalan yang padat. Untuk mengatasi permasalahan tersebut untuk pengembangan selanjutnya diperlukan metode blob tracking yang lebih baik. Walaupun demikian, hasil yang didapat merupakan studi awal yang baik bagi mengembangan teknologi di bidang transportasi.
UCAPAN TERIMA KASIH Penulis mengucapkan terimakasih kepada Universitas
Lampung atas support pembiayaan bagi riset ini melalui jalur DIPA FT UNILA.
REFFERENSI [1] WidiyardiniS.T.,"Implementasi Deteksi Gerakan untuk sistem
pemantauan ruangan menggunakan webcam", Malang, 2010 [2] Cahaya, Fajar Mit. 2014. Perancangan Program Penghitung Jumlah
kendaraan di Lintasan Satu Arah Menggunakan Bahasa Pemrograman C++ dengan Pustaka OpenCv. Skripsi. Universitas brawijaya.
[3] Stackoverflow, http://stackoverflow.com/review/suggested-edits/8575035 (diakses 22April 2017)
[4] Febriyanto, A. 2013. Analisis Kinerja Background Substraction dan Haar-Like Feature Untuk Monitoring Pejalan Kaki Menggunakan Kamera Webcam, Laporan Tugas Akhir. Fakultas Sains dan Teknologi. Universitas Islam Negeri Sunan Kalijaga
[5] Amaluddin, F., dkk. 2015. Klasifikasi Kendaraan Menggunakan Gaussian Mixture Model (GMM) dan Fuzzy Cluster Means (FCM), Jurnal EECCIS Volume 9 No.1, pp. 19-24. Program Studi Magister Teknik Elektro. Universitas Brawijaya
[6] Solichin, Achmad. Harjoko, Agus. 2013. Metode Background Substraction untuk Deteksi Obyek Pejalan Kaki pada Lingkungan Statis. Fakultas Teknologi Informasi. Universitas Budi Luhur.
[7] Kadir, Abdul. Susanto, Adhi. 2012. Pengolahan Citra Teori dan Aplikasi. Yogyakarta
[8] Fadliasyah, S.si (2007). Computer vision dan pengolahancitra Yogyakarta: Andi
[9] Barandiaran, J., Cortez, A., Nieto, M., Otaegui, O., Sanchez, P., Unzueta, L., 2011. Adaptive Multi-Cue Background Subtraction for Robust Vehicle Counting and Classification. IEEE Transactions on Intelligent Transportation System Journal.
Journal of Physics: Conference Series
PAPER • OPEN ACCESS
The Use of Background Subtraction Method in Model Design of TrafficLight Timer Control SystemTo cite this article: S Purwiyanti et al 2019 J. Phys.: Conf. Ser. 1376 012020
View the article online for updates and enhancements.
This content was downloaded from IP address 175.158.50.160 on 13/11/2019 at 02:01
Content from this work may be used under the terms of the Creative Commons Attribution 3.0 licence. Any further distributionof this work must maintain attribution to the author(s) and the title of the work, journal citation and DOI.
Published under licence by IOP Publishing Ltd
ICETsAS 2018
Journal of Physics: Conference Series 1376 (2019) 012020
IOP Publishing
doi:10.1088/1742-6596/1376/1/012020
1
The Use of Background Subtraction Method in Model Design
of Traffic Light Timer Control System
S Purwiyanti, RP Farisi, F A Setyawan, S R Sulistyanti, Y Yuniati, U Murdika
Dept. Electrical Engineering, Universitas Lampung, Bandar Lampung, Indonesia
E-mail: [email protected]
Abstract. Traffic jam caused many problems, one of which, causing time wasting and
increasing fuel consumption of user’s vehicle. One of the solutions offered to solve traffic jam
is a control system named traffic light timer. It is a traffic management system in each spot of
the road done by minimizing the waiting time of the rider during the jam. This research built
traffic light timer controller model based on image processing by using Background
Subtraction method. The object captured on the road will be processed using Background
Subtraction method, the results then show the situation of the road as the parameters of quiet,
medium, and heavy roads. The images are then forwarded to the traffic light timer control
system to be processed using the hardware and software used in the research. The results show
that the Traffic light timer control system is able to classify the heaviness of vehicles queue, to
control the timer, and the lights of the traffic light automatically based on the queue of the
vehicles with time processing around 2 seconds.
1. Introduction
One of problem in modern cities is a traffic jam. In fact, traffic jam causes several problems, like to
increase fuel consumption and time wasting. To overcome the problem, one of solution is to build a
system that could control a timer of the traffic light, so it can minimizing the waiting time of the rider
during the jam.
Some publications have been report researches about smart system of timer traffic jam by using
different method [1-7]. However the system was not optimal yet. One of method used is image
processing method [8] by using edge detection method. However, the result shows that the system
needs delay time about 4 s. In this research, we used image processing with different method, i.e.
Background Subtraction method, to build the controlling system of traffic light timer.
2. Methods
The Image processing is a general term used to manipulate and modify images using various methods
[9]. Generally, image processing is a process of improving image quality so that it is more easily
interpreted by humans or computers [10].
The color image consists of 3 matrix layers, i.e. R-layer, G-layer and B-layer. The initial process in
image processing is to change the color image into a grayscale, it is used to simplify the image model.
The 3 layers are converted to 1 layer of grayscale matrix and the result is grayscale image. In this
image there are no more colors anymore except a degree of grayness [2]. Then the Background
Subtraction process is carried out, that is the process for finding objects in the image by comparing the
ICETsAS 2018
Journal of Physics: Conference Series 1376 (2019) 012020
IOP Publishing
doi:10.1088/1742-6596/1376/1/012020
2
existing images with a background model. The purpose of Background Subtraction is to know or
distinguish the background and objects in an image [11].
In this research, capturing image has been done by using one camera installed on each of road. In
this model only two road segments is used because it has presented a system for the type of traffic
light at a crossroads. Diagram block of the system is seen in Figure 1. The image of the object will be
captured by the camera. Raspberry Pi 3 will process the information and then adjust the length of time
the green light based on the number of cars caught by the camera. Then, display will show the length
of time that is generated. The control program is created by using Library Open CV in Python
Programming Languages.
Figure 1. Diagram Block of the system
After the image is taken by using camera automatically, then the image is repaired in order to
produce the desired image quality, for example by increasing brightness. The next step is to determine
Background. The background model used is the image of the road in empty condition. Next is an
example of the process of calculating the background image to be grayscale using a 10x5 pixel image
sample with a matrix as shown in Figure 2.
(a) (b) (c)
Figure 2. Matrix composition for a) Red, b) Green, and c) Blue Backgrounds
To change the image into grayscale, the following calculation is done:
Y(0,0) = (0,299*50) + (0,587*54) + (0,114*39) = 51,094 ~ 51 (1)
Y(1,0) = (0,299*21) + (0,587*25) + (0,114*15) = 21,664 ~ 21 (2)
Y(2,0) = (0,299*5) + (0,587*6) + (0,114*8) = 7,664 ~ 8 (3)
Y(3,0) = (0,299*0) + (0,587*0) + (0,114*4) = 0,456 ~ 0 (4)
The process is carried out on all pixels. After calculating the conversion from RGB to grayscale,
the grayscale image is obtained in the background. Then the analysis is done to get the best threshold
value to be use. In this study, the selected threshold value is T = 50. Pixels whose intensity values are
below 50 are then changed into black (intensity value = 0), while pixels whose intensity values above
50 are converted to white (intensity value = 1). The initial image, the image in grayscale, and the
binary image are shown in Figure 3.
ICETsAS 2018
Journal of Physics: Conference Series 1376 (2019) 012020
IOP Publishing
doi:10.1088/1742-6596/1376/1/012020
3
Then, the foreground extraction process is carried out from the background. The process of
determining the foreground is to reduce the current image with the background image. In simple terms
this is done with the following equation:
R_((r,c) )= I_((r,c) )- B_((r,c) ) (5)
The value of R is then compared to the predetermined threshold value, if it is greater than the
threshold value then the pixels in I (r, c) can be considered different from the pixels in B (r, c) [7]. If
the result of the reduction is 1, then the pixel 1 will be formed in the foreground, which it is mean
white color. Calculation is done for all pixel values in the matrix.
(a) (b) (c)
Figure 3. Background images: a) original, b) grayscale, and c) after binaryzation
3. Results and Discussions
After the program is successfully formed, an experiment is carried out using a traffic light system
model for three road conditions, i.e. quiet, medium, and heavy.
To determine the quiet parameter, the number of pixels in the white image is calculated (value = 1)
in the foreground result of the image. In this process, images with 3 vehicles are used [Figure 4(a)],
which in this case is the upper limit of the estimated number of vehicles in a quiet road condition. The
process found that WHITE PIXEL = 81,899 pixels of TOTAL PIXEL = 921,600 pixels. So, the empty
parameter can be determined 90,000 pixels.
(a) (b) (c)
Figure 4. Foreground images under: a) quiet, b) moderate, and c) heavy road conditions.
Experiments to find out the parameters have been done by using 6 miniature vehicles [Figure 4(b)],
which in this case is the upper limit of the estimated number of vehicles in a state of moderate road.
Based on the number of white pixels, it can be determined that the empty parameter is 90,000 pixels -
140,000 pixels. The same procedure has been done to determine heavy parameters, which is by using
9 miniature vehicles [Figure 4 (c)]. Thus it can be determined that the heavy parameter is > 140,000
pixels. Hardware model are shown in Figure 5.
ICETsAS 2018
Journal of Physics: Conference Series 1376 (2019) 012020
IOP Publishing
doi:10.1088/1742-6596/1376/1/012020
4
Figure 5. Hardware model
The next experiment is to test how long the light traffic lights up according to the number of
vehicles in the queue. If the number of white pixels is less than 90000 pixels, (quiet condition) the
results of the program are counter down from 10 to 0, so that it is displayed on the LCD for 10
seconds. The counter calculates the duration of the green light, which is 10 s. The green light only
lights up for 10 s because the maximum number of waiting vehicles is only 3. The more the number of
vehicles waiting in line, the longer the green light will light up [Figure 6].
Figure 6. Traffic light timer display under a) quiet, b) moderate, and c) heavy road conditions
The next experiment is to find out the time needed to process the data, from the program running
until the model produces output. The time calculation has been done using a stopwatch. The
experimental results are shown in Table 1. It can be seen that the number of vehicles affects the time
taken by the processor to process the image into an output. Even so, this process only requires a
maximum of 2 seconds to process under heavy road condition.
Table 1. Process time depends on road condition
No. Road Condition Process Time
1. Quiet 00:01.78
2. Quiet 00:01.81
3. Quiet 00:01.85
4. Moderate 00:01:88
5. Moderate 00:01:88
6. Moderate 00:01:93
7. Heavy 00:01:97
8. Heavy 00:01:99
9. Heavy 00:02:01
ICETsAS 2018
Journal of Physics: Conference Series 1376 (2019) 012020
IOP Publishing
doi:10.1088/1742-6596/1376/1/012020
5
4. Conclusions
Background subtraction model has been used to build traffic light timer control system based on image
processing method. The system able to classify the heaviness of vehicles queue, to control traffic light
timer automatically based on the queue of the vehicles with time processing around 2 seconds. This
result may contribute in order to build a smart traffic light system.
Acknowledgments We thanks to Lampung University for funding support through Dipa FT Unila Program.
References
[1] Sudarono 2011 Pengendalian Blok Sistem Traffic Light dengan Pengaturan Rush Hour yang
dapat Diatur Secara Terjadwal Universitas Muhammadiyah Surakarta
[2] Khoswanto, H. Lim, and R. Liong 2005 Traffic Light Controller Menggunakan Media RF
Universitas Kristen Petra
[3] Manto 2011 Perangkat Pengatur Timer Lampu Lalu Lintas Berdasarkan Antrian Kendaraan
Universitas Indonesia
[4] A. Bhalearo 2015 IOSR Journal of Electronics and Communication Engineering (IOSR-JECE)
10 53
[5] N. Bhasi and Chithra 2017 International Research Journal of Engineering and Technology
(IRJET) 4 321
[6] L. Singh, S. Tripathi, H. Arora 2009 International Journal of Recent Trends in Engineering 2 2
[7] V. Parthasarathi, M. Surya, B. Akshay, K. M. Siva and S. K. Vasudevan 2015 Indian Journal of
Science and Technology 8(16) 1
[8] Sonia, et al 2015 Smart Traffic Light using Image Processing and Fuzzy Logic Method Bachelor
Telkom University
[9] N. Efford 2000 Digital Image Processing: A Practical Introduction Using Java University of
Michigan: Addison-Wesley
[10] Poerwadarminta W.J.S 1990 Kamus Besar Bahasa Indonesia Balai Pustaka, Jakarta p.1158.
[11] M. Nixon, S. Aguado, and Alberto S 2002 Feature Extraction and Image Processing Linacre
House, Jordan Hill, Oxford