<?xml version='1.0' encoding='UTF-8'?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1d1 20130915//EN" "JATS-journalpublishing1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta id="journal-meta-1">
      <journal-id journal-id-type="nlm-ta">Universitas Muhammadiyah Sidoarjo</journal-id>
      <journal-id journal-id-type="publisher-id">Universitas Muhammadiyah Sidoarjo</journal-id>
      <journal-id journal-id-type="journal_submission_guidelines">http://ojs.umsida.ac.id/index.php/rechtsidee/about/submissions#authorGuidelines</journal-id>
      <journal-title-group>
        <journal-title>UMSIDA Article Template 2 (Indonesian)</journal-title>
      </journal-title-group>
      <issn publication-format="print"/>
    </journal-meta>
    <article-meta id="article-meta-1">
      <article-id pub-id-type="publisher-id">2</article-id>
      <article-id pub-id-type="doi">10.21070/jicte.v4i2.971</article-id>
      <article-categories>
        <subj-group>
          <subject>Research Paper</subject>
        </subj-group>
      </article-categories>
      <title-group>
        <article-title id="at-aee4101430cf">The Determination of River Cleanness Level Based on the Number of Waste Based of Digital Image Tabulation using Deep Convolutional Neural Network</article-title>
        <trans-title-group>
          <trans-title>Penentuan Tingkat Kebersihan Sungai Berdasarkan Banyak Sampah Berbasis Pengolahan Citra Digital Menggunakan Deep Convolutional Neural Network</trans-title>
        </trans-title-group>
        <alt-title alt-title-type="right-running-head">Determination of River Cleanness</alt-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <name id="n-269ad798aff5">
            <surname>Setyawan</surname>
            <given-names>Aditya Yuli</given-names>
          </name>
          <email>adityasetya88@gmail.com</email>
          <xref id="x-8cf33f31d796" rid="a-7106c28c7feb" ref-type="aff">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <name id="n-de3f9e74f23a">
            <surname>Kristian</surname>
            <given-names>Yosi</given-names>
          </name>
          <email>yosi@stts.edu</email>
          <xref id="x-df68dfadb8b1" rid="a-7106c28c7feb" ref-type="aff">1</xref>
        </contrib>
        <aff id="a-7106c28c7feb">
          <institution>Institut Sains dan Teknologi Terpadu Surabaya, Department of Informatics</institution>
        </aff>
      </contrib-group>
      <volume>4</volume>
      <fpage>21</fpage>
      <permissions>
        <copyright-year>2020</copyright-year>
      </permissions>
      <abstract id="abstract-6ef9d0012412">
        <title id="abstract-title-d2375846ecb4">Abstract</title>
        <p id="paragraph-e863e147bf86"><italic id="emphasis-1">The river environment pollution due to the industrial and house hold waste are widely happening nowadays. River functions as the ecosystem for many creatures including human beings who often utilize it as a support for their daily life. As the development of technology in which many things are set automatically, there are many technology discoveries used to overcome the problems of waste in the river. This research discusses on how to get river cleanness level using Deep Convolutional Neural Network based on digital image tabulation as a method to detecting waste based on the number of waste in the river. To achieve the purpose, there are many steps done. First step is processing, namely process to construct data learning which produces two categories, waste and non-waste. The second step is the process of object detection to a computer functions as program dataset. The third step is the making of selection area on the river surface which is called ROI (Region of Interest). The next step is the counting of detected waste average in the pixel unit in the video. The result of pixel average can be used as a reference to determine the river cleanness level. In this research, the river cleanness level modeled uniformly into four classes, they are: very dirty in which the percentage of detected waste is 76%-100%, dirty in which the percentage of detected waste is 51%-75%, dirty enough in which the percentage of detected waste is 26%-50%, clean in which the percentage of detected waste is 0%-25%. After that the tabulation was simulated with desktop-based application using python programming. </italic> </p>
      </abstract>
      <abstract xml:lang="id-Latn" id="abstract-34073658fe8f">
        <title id="abstract-title-876b8c58213e">Abstrak</title>
        <p id="paragraph-2fb0b2d09bce" xml:lang="id-Latn"> Pencemaran lingkungan sungai oleh limbah industri dan sampah rumah tangga sudah umum terjadi saat ini. Dalam fungsinya sungai adalah ekosistem dari berbagai mahkluk hidup tidak terkecuali manusia yang sering memanfaatkan sungai sebagai penunjang kegiatan sehari – hari. Seiring perkembangan jaman yang serba otomatis maka banyak penemuan teknologi yang dimanfaatkan untuk menanggulangi masalah sampah di sungai. Penelitian ini membahas tentang bagaimana memperoleh tingkat kebersihan sungai menggunakan Deep Convolutional Neural Network berbasis pengolahan citra digital sebagai metode pendeteksian sampah berdasarkan banyaknya sampah di sungai. Untuk mencapai tujuan tersebut diperlukan beberapa tahap. Tahap pertama dimulai dari preprocessing yaitu proses pembuatan data learning yang menghasilkan dua kategori yaitu sampah dan non sampah. Tahap kedua proses pengenalan objek pada sebuah komputer yang berfungsi sebagai dataset program. Tahapan ketiga pembuatan area seleksi pada permukaan sungai yang diberikan istilah ROI ( Region Of Intereset ). Tahapan selanjutnya adalah penghitungan rata – rata sampah yang terdeteksi dalam satuan piksel pada video dari hasil rata-rata piksel didapat dijadikan salah acuan untuk menentukan tingkat kebersihan sungai. Pada penelitian ini tingkat kebersihan sungai dimodelkan secara uniform menjadi empat kelas, meliputi kategori sangat kotor dengan prosentase sampah terdeteksi 76%-100%, kotor dengan prosesntase sampah terdeteksi 51%-75%, cukup kotor dengan prosentase sampah terdeteksi 26%-50%, bersih dengan prosentase sampah terdeteksi 0%-25%. Selanjutnya perhitungan tersebut disimulasikan dengan aplikasi berbasis desktop dengan bahasa pemrograman python. </p>
        <p id="p-eeca75db84fe" xml:lang="id-Latn"/>
      </abstract>
      <kwd-group id="kwd-group-1">
        <title>Keywords</title>
        <kwd>waste</kwd>
        <kwd>ROI</kwd>
        <kwd>python</kwd>
        <kwd>digital image tabulation</kwd>
        <kwd>Deep Convulutional Neural Network</kwd>
        <kwd>ROI</kwd>
        <kwd>python</kwd>
        <kwd>pengolahan citra</kwd>
        <kwd>Deep Convolutional Neural Network</kwd>
      </kwd-group>
      <kwd-group id="kg-a1a2f95de06d" xml:lang="id-Latn">
        <title>Keywords</title>
        <kwd>sampah</kwd>
        <kwd>ROI</kwd>
        <kwd>python</kwd>
        <kwd>pengolahan citra</kwd>
        <kwd>Deep Convolutional Neural Network</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec xml:lang="id-Latn">
      <title id="t-310ba65d642c">Pendahuluan</title>
      <p id="p-e039462f84d9" xml:lang="id-Latn"> Secara visual tingkat pencemaran sungai dapat deteksi dan dinilai dari banyaknya sampah pada sungai tersebut. Sampah dan limbah industri secara visual juga dapat dikenali oleh mata manusia tanpa bantuan peralatan tambahan, baik dalam segi bentuk objek sampah yang beraneka macam maupun warna objek sampah yang beraneka ragam. Tampilan visual tersebut dapat dilihat seperti<xref id="x-d0fe011b7f50" rid="f-9718eb41f357" ref-type="fig">Figure 1</xref></p>
      <fig id="f-9718eb41f357" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 1 </label>
        <caption id="c-631829c44d7f">
          <title id="t-6dc99ae55183">Sungai dengan sampah yang terbawa aliran air</title>
        </caption>
        <graphic id="g-e034b213c314" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/7a3c8446-ec1b-4b24-92e7-e6328e716a22-uadit1.png"/>
      </fig>
      <p id="p-38da60c1bb17" xml:lang="id-Latn">Dengan mengetahui informasi dasar seperti tingkat kebersihan sungai berdasarkan banyaknya sampah di sungai, dinas terkait dapat dengan sigap sehingga tidak sampai berakibat bencana dan menimbulkan kerugian. Dengan adanya karakteristik visual tersebut maka memungkinkan proses tersebut dapat dikenali oleh komputer, dengan menggunakan pengolahan citra digital. </p>
      <p id="paragraph-2" xml:lang="id-Latn">Proses pengenalan objek termasuk dalam ilmu klasifikasi, yang mana dalam klasifikasi objek akan dapat dikenali dengan menggunakan pengetahuan ( data ) yang telah dikenalkan sebelumnya pada sebuah komputer. Pengetahuan (data) tersebut dikenal dengan istilah data learning. Pada permasalahan ini data learning yang digunakan adalah beberapa jenis sampah yang meliputi sampah rumah tangga maupun sampah yang lainnya, sehingga diharapkan dengan menggunakan data learning ini objek akan dapat dikenali serta dapat dikelompokkan sebagai sampah atau objek bukan sampah. <italic id="e-0c5a76e73214">Deep Learning</italic> adalah salah satu contoh bidang <italic id="emphasis-2">Machine Learning</italic> yang menggunakan jaringan syaraf tiruan pada penerapan permasalahan dengan dataset yang besar<xref rid="R90823220543083" ref-type="bibr">1</xref>, <xref rid="R90823220543088" ref-type="bibr">2</xref>. Teknik <italic id="emphasis-3">Deep Learning</italic> sangat mendukung proses <italic id="emphasis-4">Supervised Learning</italic> pada komputer dikarenakan pengenalan data set yang sangat kuat sehingga mampu menjadi pondasi dalam proses klasifikasi<xref rid="R90823220543082" ref-type="bibr">3</xref>, <xref rid="R90823220543087" ref-type="bibr">4</xref>. <italic id="emphasis-5">Convolutional Neural Network</italic> merupakan salah satu jenis <italic id="emphasis-6">neural network</italic> yang juga merupakan bagian dari <italic id="emphasis-7">Deep Learning<xref rid="R90823220543089" ref-type="bibr">5</xref>, <xref rid="R90823220543094" ref-type="bibr">6</xref> .</italic> Pada umumnya <italic id="emphasis-8">Convolutional Neural Network</italic> digunakan pada pengolahan data yang berupa image atau data lainnya<xref rid="R90823220543084" ref-type="bibr">7</xref>, <xref rid="R90823220543092" ref-type="bibr">8</xref>, <xref rid="R90823220543093" ref-type="bibr">9</xref> . Convolutional neural network ini juga diklaim sebagai algoritma terbaik dan paling banyak digunakan untuk mendeteksi objek dari data citra digital<xref id="x-6fccbabe717b" rid="R90823220543086" ref-type="bibr">10</xref>. Dari uraian permasalahan tersebut di dalam jurnal ini membahas tentang bagaimana cara menghitung tingkat kebersihan dengan menggunakan <italic id="emphasis-9">Deep Convolutional Neural Network</italic> berbasis pengolahan citra digital dengan tahap awal adalah menentukan objek dengan kategori sampah dan objek kategori non sampah, diteruskan oleh tahap kedua berupa penentuan ROI (<italic id="emphasis-10">Region Of Interest</italic>) dan selanjutnya tahap ketiga adalah deteksi sampah yang terbawa arus air sungai yang mengalir. Terakhir adalah penghitungan tingkat kebersihan sungai berdasarkan prosentase sampah dengan sungai pada ROI (<italic id="emphasis-11">Region of Interest</italic>).</p>
    </sec>
    <sec>
      <title id="t-176a0863a57d">Metodologi Penelitian</title>
      <sec>
        <title id="t-5db4069dac30">Arsitektur Sistem</title>
        <p id="t-51fb792f9e91">Secara garis besar sistem penelitian menggunakan 2 tahapan yaitu dengan pemodelan data learning untuk mendapatkan output data learning sampah maupun non sampah dan tahap berikutnya yaitu penentuan tingkat kebersihan sungai.</p>
        <p id="p-6372063c133c">Penentuan data learning dimulai dengan membuat potongan gambar dari beberapa frame video dan gambar dari media lain. Potongan – potongan gambar dengan berbagai kondisi tersebut selanjutnya dilakukan proses seleksi dengan metode CNN untuk disamakan ukuran pixelnya sehingga didapatkan data yang homogen dengan ukuran 64 X 64. Untuk lebih jelasnya disajikan dalam bentuk diagram pada <xref id="x-971080eb9967" rid="f-1e7964d4c0f5" ref-type="fig">Figure 2</xref>  :</p>
        <fig id="f-1e7964d4c0f5" orientation="portrait" fig-type="graphic" position="anchor">
          <label>Figure 2 </label>
          <caption id="c-47caee094e05">
            <title id="t-e8bc9fd341c2">Membuat 2 kategori sampah dan non sampah yangdigunakan untuk data learning.</title>
          </caption>
          <graphic id="g-c0407bf016f4" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/9fc72924-7ebd-4c79-93ca-bb6d4c3c2190-uadit2.png"/>
        </fig>
        <p id="p-9496cf84de44">untuk menentukan besaran objek sampah yang terbawa aliran air sungai. Proses pendeteksian tersebut diawali dengan memasukkan video dengan durasi waktu yang telah ditentukan. Dilanjutkan dengan penentuan luas area ROI ( Region Of Interest ) yang digunakan sebagai parameter pembanding untuk menentukan tingkat kebersihan sungai. Luas area ROI diberikan satuan hitung berupa piksel. Tahapan berikutnya adalah melakukan deteksi dengan sliding window meliputi penyesuaian warna dan ukuran objek. Dilanjtukan kembali dengan proses prediksi oleh CNN yang berfungsi menentukan objek sampah dan non sampah dengan memanfaatkan data learning yang telah terbentuk pada proses sebelumnya. Hasil prediksi diakumulasikan sehingga terbentuk kumpulan piksel sampah terdeteksi. Langkah terakhir adalah proses penghitungan sampah yaitu dengan membandingkan sampah yang terdeteksi dengan luas area ROI yang terbentuk. Dari perbandingan akumulasi jumlah piksel sampah terdeteksi dengan jumlah piksel luas area ROI maka didapatkan prosentase volume kebersihan sungai.yang terdeteksi. Untuk lebih jelasnya disajikan dalam bentuk arsitektur pada <xref id="x-7cea960737a0" rid="f-98a1174823ae" ref-type="fig">Figure 3</xref>. </p>
        <fig id="f-98a1174823ae" orientation="portrait" fig-type="graphic" position="anchor">
          <label>Figure 3 </label>
          <caption id="c-1fc646ae53df">
            <title id="t-0642757df0f3">Arsitektur Sistem Penghitung Volume Sampah</title>
          </caption>
          <graphic id="g-482614292bf3" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/d4fa49dd-cad4-4ec0-941e-443066375cce-uadit3.png"/>
        </fig>
      </sec>
      <sec>
        <title id="t-7200bc0df85f">Pengumpulan Data</title>
        <p id="t-17763481b0a7">Data diambil dari beberapa sumber yang meliputi video dan gambar – gambar yang terdapat pada media online. Setelah itu dilakukan proses pemotongan gambar secara random baik itu gambar sampah dan non sampah dengan ukuran piksel yang berbeda. Data uji yang berupa video diambil dengan menggunakan batasan durasi 1-2 menit.</p>
        <p id="p-a812c08dfd9a"/>
      </sec>
    </sec>
    <sec>
      <title id="t-fca00982692c">Hasil dan Pembahasan </title>
      <p id="t-eb798df7756e">Hasill pengujian data learning didapatkan angka f1-score yang baik. Dapat dilihat pada <xref id="x-39350b34571c" rid="f-7f2c43e64498" ref-type="fig">Figure 4</xref> yang menunjukkan nilai 0,83 untuk f1-score.</p>
      <fig id="f-7f2c43e64498" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 4 </label>
        <caption id="c-3c3bc2e2f8a7">
          <title id="t-08240efe6bef">Akurasi CNN</title>
        </caption>
        <graphic id="g-46c6c03169ae" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/692aaf50-f5b7-4bd5-8cee-629964c0b9c0-uadit4.png"/>
      </fig>
      <p id="p-a8abac2dae0c">Dari data hasil F1-score tersebut dapat disimpulkan jika metode CNN baik untuk digunakan sebagai deteksi objek. Berikut contoh gambar hasil pengujian data training yang dapat menunjukkan klasifikasi objek sampah dan objek bukan sampah seperti ditunjukkan<xref id="x-72f325c90b7b" rid="f-b6c430a4fa39" ref-type="fig">Figure 5</xref></p>
      <fig id="f-b6c430a4fa39" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 5 </label>
        <caption id="c-00e3d5563fda">
          <title id="t-0d49af217a14">Hasil Uji Data Training</title>
        </caption>
        <graphic id="g-c27409958bc2" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/83226d17-9444-43f4-82b1-a1430db80a72-uadit5.png"/>
      </fig>
      <p id="p-d246de1dfb65">Setelah mendapatkan data pada proses awal maka dilanjutkan pada langkah berikutnya yaitu melakukan uji coba data sample yang telah direkam oleh peneliti. Pada penelitian ini uji coba dilakukan dengan menggunakan 4 sample video sungai berbeda dengan durasi 1-2 menit. Untuk masing – masing kondisi sungai dapat dilihat pada <xref id="x-e4d8062eb891" rid="f-e94cc70f2a20" ref-type="fig">Figure 6</xref> yang merupakan frame awal dari setiap video sample.</p>
      <fig id="f-e94cc70f2a20" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 6 </label>
        <caption id="c-8be37a4b8fb8">
          <title id="t-50208d9b6ead">Potongan Frame Awal Video</title>
        </caption>
        <graphic id="g-c4c1101b3a99" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/86db78d9-beb3-477c-a111-9a8b3578fb4e-uadit6.png"/>
      </fig>
      <p id="p-97dabaa740eb">Proses dimulai dengan menginputkan salah satu dari keempat video tersebut. Dari masing- masing frame akan dilakukan pendeteksian oleh CNN untuk mengenali objek sampah dan bukan sampah. Proses ini akan terus berulang hingga durasi video habis. Dari proses pendeteksian ini didapatkan angka f1-score untuk sistem sebesar 0,82. f1-score didapatkan dari penghitungan confusion matrix, yaitu suatu cara untuk mengevaluasi performance algoritma. Dengan confusion matrix dapat menentukan accuracy, precission, recall, dan specificity. Untuk confusin matrix dapat dilihat pada <xref id="x-6af6f6172945" rid="f-085c0235454a" ref-type="fig">Figure 7</xref></p>
      <fig id="f-085c0235454a" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 7 </label>
        <caption id="c-22c23b5732ac">
          <title id="t-149fc9bfc45e">Confusion Matrix</title>
        </caption>
        <graphic id="g-cf67ad076d19" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/e3c6cd81-ce99-4ad2-889e-87d8c6e4c4f1-uadit7.png"/>
      </fig>
      <p id="p-70c9baf64ea9">Angka – angka yang terdeteksi diambil dari penghitungan manual frame sebanyak 100 frame dan ditentukan berapa besaran dari masing – masing muatan confusion matrix tersebut yang digunakan sebagai pencari f1-score untuk uji performance algoritma. Untuk alur perhitungan dapat di tuliskan pada <xref id="x-bf7450f786d8" rid="tw-2c0418a1bd79" ref-type="table">Table 1</xref> </p>
      <table-wrap id="tw-2c0418a1bd79" orientation="portrait">
        <label>Table 1</label>
        <caption id="c-f9de71b2dacf">
          <title id="t-ada06cf2323d">uji performance algoritma</title>
        </caption>
        <table id="table-1" rules="rows">
          <colgroup>
            <col width="49.81"/>
            <col width="50.19"/>
          </colgroup>
          <tbody id="table-section-1">
            <tr id="table-row-1">
              <td id="table-cell-1" align="left">
                <p id="paragraph-1">Accuracy</p>
              </td>
              <td id="table-cell-2" align="left">
                <p id="p-99af3fa7d1f7">: ( TP + TN ) / (TP+FP+FN+TN)</p>
              </td>
            </tr>
            <tr id="table-row-2">
              <td id="table-cell-3" align="left">
                <p id="paragraph-56a9b3576d0e"/>
              </td>
              <td id="table-cell-4" align="left">
                <p id="paragraph-3">: ( 328 + 0 ) / (328+73+69+0)</p>
              </td>
            </tr>
            <tr id="table-row-3">
              <td id="table-cell-5" align="left">
                <p id="paragraph-5fbd91363b01"/>
              </td>
              <td id="table-cell-6" align="left">
                <p id="paragraph-4">: 328/470</p>
              </td>
            </tr>
            <tr id="table-row-4">
              <td id="table-cell-7" align="left">
                <p id="paragraph-e4908b795081"/>
              </td>
              <td id="table-cell-8" align="left">
                <p id="paragraph-5">: 0,689 ---- dalam persen X100% = 68,9%</p>
              </td>
            </tr>
            <tr id="table-row-5">
              <td id="table-cell-9" align="left">
                <p id="paragraph-6">Precission </p>
              </td>
              <td id="table-cell-10" align="left">
                <p id="paragraph-7">: TP/(TP+FP)</p>
              </td>
            </tr>
            <tr id="table-row-6">
              <td id="table-cell-11" align="left">
                <p id="paragraph-6a01182fe5f6"/>
              </td>
              <td id="table-cell-12" align="left">
                <p id="paragraph-8">: 328 / (328+73)</p>
              </td>
            </tr>
            <tr id="table-row-7">
              <td id="table-cell-13" align="left">
                <p id="paragraph-400b97a4afbd"/>
              </td>
              <td id="table-cell-14" align="left">
                <p id="paragraph-9">: 328 / 401</p>
              </td>
            </tr>
            <tr id="table-row-8">
              <td id="table-cell-15" align="left">
                <p id="paragraph-23e11ae8d1c0"/>
              </td>
              <td id="table-cell-16" align="left">
                <p id="paragraph-10">: 0,817 ---- dalam persen X100% = 81,7%</p>
              </td>
            </tr>
            <tr id="table-row-9">
              <td id="table-cell-17" align="left">
                <p id="paragraph-11">Recall</p>
              </td>
              <td id="table-cell-18" align="left">
                <p id="paragraph-12">: TP/(TP+FN)</p>
              </td>
            </tr>
            <tr id="table-row-10">
              <td id="table-cell-19" align="left">
                <p id="paragraph-3a3469abe5d5"/>
              </td>
              <td id="table-cell-20" align="left">
                <p id="paragraph-13">: 328/(328+69)</p>
              </td>
            </tr>
            <tr id="table-row-11">
              <td id="table-cell-21" align="left">
                <p id="paragraph-ffa358776f0e"/>
              </td>
              <td id="table-cell-22" align="left">
                <p id="paragraph-14">: 328 / 397</p>
              </td>
            </tr>
            <tr id="table-row-12">
              <td id="table-cell-23" align="left">
                <p id="paragraph-b2b7d8abbc0e"/>
              </td>
              <td id="table-cell-24" align="left">
                <p id="paragraph-15">: 0,826 ---- dalam persen X100% = 82,6%</p>
              </td>
            </tr>
            <tr id="table-row-13">
              <td id="table-cell-25" align="left">
                <p id="paragraph-16">Specification</p>
              </td>
              <td id="table-cell-26" align="left">
                <p id="paragraph-17">: 0/(0+FP)</p>
              </td>
            </tr>
            <tr id="table-row-14">
              <td id="table-cell-27" align="left">
                <p id="paragraph-852ccd1a8136"/>
              </td>
              <td id="table-cell-28" align="left">
                <p id="paragraph-18">: 0/(0+73)</p>
              </td>
            </tr>
            <tr id="table-row-15">
              <td id="table-cell-29" align="left">
                <p id="paragraph-5d5d3185c1be"/>
              </td>
              <td id="table-cell-30" align="left">
                <p id="paragraph-19">: 0 / 73</p>
              </td>
            </tr>
            <tr id="table-row-16">
              <td id="table-cell-31" align="left">
                <p id="paragraph-4a2126197256"/>
              </td>
              <td id="table-cell-32" align="left">
                <p id="paragraph-20">: 0 ---- dalam persen X100% = 0%</p>
              </td>
            </tr>
            <tr id="table-row-17">
              <td id="table-cell-33" align="left">
                <p id="paragraph-21">F1-Score</p>
              </td>
              <td id="table-cell-34" align="left">
                <p id="paragraph-22">: (2 X ( recall X precission )) / (recall+precission)</p>
              </td>
            </tr>
            <tr id="table-row-18">
              <td id="table-cell-35" align="left">
                <p id="paragraph-330c7b5dd214"/>
              </td>
              <td id="table-cell-36" align="left">
                <p id="paragraph-23">: (2 X (82,6% X 81,7%))/(82,6% + 81,7%)</p>
              </td>
            </tr>
            <tr id="table-row-19">
              <td id="table-cell-37" align="left">
                <p id="paragraph-b990a4b7e300"/>
              </td>
              <td id="table-cell-38" align="left">
                <p id="paragraph-24">: (2 X 6.748,42% ) / 164,3%</p>
              </td>
            </tr>
            <tr id="table-row-20">
              <td id="table-cell-39" align="left">
                <p id="paragraph-dfb7309b78b8"/>
              </td>
              <td id="table-cell-40" align="left">
                <p id="paragraph-25">: 13.496,84% / 164,3%</p>
              </td>
            </tr>
            <tr id="table-row-21">
              <td id="table-cell-41" align="left">
                <p id="paragraph-1462d1b2005f"/>
              </td>
              <td id="table-cell-42" align="left">
                <p id="paragraph-26">: 82,147 % ( dalam persen )</p>
              </td>
            </tr>
          </tbody>
        </table>
      </table-wrap>
      <p id="p-705a34fdfb16">Proses berikutnya adalah perhitungan tingkat kebersihan sungai tiap frame diperoleh dengan menggunakan persamaan (6). Sedangkan tingkat kebersihan keseluruhan diperoleh dari kondisi 100% bersih dikurangi rata-rata tingkat kekotoran seluruh frame dari video input.</p>
      <p id="p-dbd71658f5ce">  <inline-formula id="if-dc6c31a5a539"> <mml:math xmlns:mml="http://www.w3.org/1998/Math/MathML"><mml:mi>T</mml:mi><mml:mi>i</mml:mi><mml:mi>n</mml:mi><mml:mi>g</mml:mi><mml:mi>k</mml:mi><mml:mi>a</mml:mi><mml:mi>t</mml:mi><mml:mo> </mml:mo><mml:mi>k</mml:mi><mml:mi>e</mml:mi><mml:mi>b</mml:mi><mml:mi>e</mml:mi><mml:mi>r</mml:mi><mml:mi>s</mml:mi><mml:mi>i</mml:mi><mml:mi>h</mml:mi><mml:mi>a</mml:mi><mml:mi>n</mml:mi><mml:mo> </mml:mo><mml:mi>s</mml:mi><mml:mi>u</mml:mi><mml:mi>n</mml:mi><mml:mi>g</mml:mi><mml:mi>a</mml:mi><mml:mi>i</mml:mi><mml:mo> </mml:mo><mml:mo>=</mml:mo><mml:mo> </mml:mo><mml:mn>100</mml:mn><mml:mo> </mml:mo><mml:mo>%</mml:mo><mml:mo> </mml:mo><mml:mo>-</mml:mo><mml:mo> </mml:mo><mml:mfrac><mml:mrow><mml:mi>j</mml:mi><mml:mi>u</mml:mi><mml:mi>m</mml:mi><mml:mi>l</mml:mi><mml:mi>a</mml:mi><mml:mi>h</mml:mi><mml:mo> </mml:mo><mml:mi>p</mml:mi><mml:mi>i</mml:mi><mml:mi>k</mml:mi><mml:mi>s</mml:mi><mml:mi>e</mml:mi><mml:mi>l</mml:mi><mml:mo> </mml:mo><mml:mi>s</mml:mi><mml:mi>a</mml:mi><mml:mi>m</mml:mi><mml:mi>p</mml:mi><mml:mi>a</mml:mi><mml:mi>h</mml:mi></mml:mrow><mml:mrow><mml:mi>j</mml:mi><mml:mi>u</mml:mi><mml:mi>m</mml:mi><mml:mi>l</mml:mi><mml:mi>a</mml:mi><mml:mi>h</mml:mi><mml:mo> </mml:mo><mml:mi>p</mml:mi><mml:mi>i</mml:mi><mml:mi>k</mml:mi><mml:mi>s</mml:mi><mml:mi>e</mml:mi><mml:mi>l</mml:mi><mml:mo> </mml:mo><mml:mi>R</mml:mi><mml:mi>O</mml:mi><mml:mi>I</mml:mi></mml:mrow></mml:mfrac></mml:math></inline-formula></p>
      <p id="p-ec4064a62a21">Dari proses penghitungan diperoleh kondisi sungai sangat bersih dengan tingkat prosentase kebersihan sungai mencapai 88,636 %. Dengan hasil output video yang dapat dilihat pada <xref id="x-261f92ff757d" rid="f-1337dd2f477a" ref-type="fig">Figure 8</xref></p>
      <fig id="f-1337dd2f477a" orientation="portrait" fig-type="graphic" position="anchor">
        <label>Figure 8 </label>
        <caption id="c-ca3c9aae651e">
          <title id="t-d925162af109">Hasil Output Video</title>
        </caption>
        <graphic id="g-6901371422b7" xlink:href="https://typeset-prod-media-server.s3.amazonaws.com/article_uploads/87a3edc1-499b-4560-a583-094368a7cc35/image/457ac5f9-1f35-426c-adc2-5a96d7338c5f-uadit8.png"/>
      </fig>
      <p id="p-692a022b70f9">Hal yang sama dilakukan pada tiga sample video sungai yang lain. Didapatkan hasil akhir dari ke empat video sample dapat dilihat pada <xref id="x-d96c3516837e" rid="tw-64523d5904ef" ref-type="table">Table 2</xref>  </p>
      <table-wrap id="tw-64523d5904ef" orientation="portrait">
        <label>Table 2</label>
        <caption id="c-d05874bcf327">
          <title id="t-cc3ea76a914c">Hasil Uji coba</title>
        </caption>
        <table id="t-5364823929fc" rules="rows">
          <colgroup/>
          <tbody id="ts-37a49180ba6d">
            <tr id="tr-d1e57bd73ac6">
              <td id="tc-246e85b9b605" align="left">
                <p id="p-4e47537df89b">NO</p>
              </td>
              <td id="tc-e9e829b8a61b" align="left">
                <p id="p-80672de2109b">Nama Sungai</p>
              </td>
              <td id="tc-7d5fd83dd66b" align="left">
                <p id="p-80af7ffc64d5">Tingkat Kebersihan Sungai</p>
              </td>
            </tr>
            <tr id="tr-9ca0f5ab6168">
              <td id="tc-405ddb793773" align="left">
                <p id="p-e7e3c62983fe">1</p>
              </td>
              <td id="tc-0b213361afb1" align="left">
                <p id="p-2894b367adaf">Sungai Sembung</p>
              </td>
              <td id="tc-57a6177d7e47" align="left">
                <p id="p-60c05536eaec">97,697 %</p>
              </td>
            </tr>
            <tr id="tr-c9a9124e7e14">
              <td id="tc-ccb721de8bb5" align="left">
                <p id="p-45911f1640e9">2</p>
              </td>
              <td id="tc-af01a275d215" align="left">
                <p id="p-30b6ed32c2cf">Sungai Mbrambang</p>
              </td>
              <td id="tc-5e7005d156aa" align="left">
                <p id="p-b590baa23fae">94,697 %</p>
              </td>
            </tr>
            <tr id="tr-13f1bb955960">
              <td id="tc-505b44e5db78" align="left">
                <p id="p-646014f03908">3</p>
              </td>
              <td id="tc-c385b1fe83f3" align="left">
                <p id="p-630d2820fdc4">Sungai Cukir</p>
              </td>
              <td id="tc-465289848948" align="left">
                <p id="p-6ef1ba3441c8">93,697 %</p>
              </td>
            </tr>
            <tr id="tr-af014020b1cc">
              <td id="tc-126d01f526e4" align="left">
                <p id="p-a7c7025813c2">4</p>
              </td>
              <td id="tc-ffe8edf5ddf3" align="left">
                <p id="p-b5e896921455">Sungai Perak</p>
              </td>
              <td id="tc-ce936fd9fab1" align="left">
                <p id="p-58d0bcda92e9">88,636 %</p>
              </td>
            </tr>
          </tbody>
        </table>
      </table-wrap>
      <p id="p-c6ec0493bd1a"> </p>
    </sec>
    <sec>
      <title id="t-c4c730f7df2b">Kesimpulan</title>
      <p id="p-496b8c71dde7">Dari uji coba tersebut diperoleh hasil keadaan sungai sungai yang berbeda – beda yang bergantung pada banyak sampah yang terdeteksi. Penelitian ini masih mungkin untuk dikembangkan lagi menjadi lebih kompleks, karena masih banyak kekurangan dibeberapa hal.</p>
      <p id="p-ce1a08e4f637"> </p>
      <p id="p-912ef45383d4"/>
      <p id="p-717ff2c590aa"/>
      <p id="p-76955d543612"/>
      <p id="p-7be8f9e201f6"/>
      <p id="p-68849c1f5284"/>
      <p id="p-769f59fcdc9e"/>
      <p id="t-c35335a6133b"/>
      <p id="p-4b7ed432b832"/>
    </sec>
  </body>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="R90823220543083">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Panella</surname>
              <given-names>F.</given-names>
            </name>
            <name>
              <surname>Boehm</surname>
              <given-names>J.</given-names>
            </name>
            <name>
              <surname>Loo</surname>
              <given-names>Y.</given-names>
            </name>
            <name>
              <surname>Kaushik</surname>
              <given-names>A.</given-names>
            </name>
            <name>
              <surname>Gonzalez</surname>
              <given-names>D.</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>DEEP LEARNING AND IMAGE PROCESSING FOR AUTOMATED CRACK DETECTION AND DEFECT MEASUREMENT IN UNDERGROUND STRUCTURES</article-title>
          <source>ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences</source>
          <year>2018</year>
          <volume>XLII-2</volume>
          <fpage>829</fpage>
          <lpage>835</lpage>
          <issn>2194-9034</issn>
          <object-id pub-id-type="doi">10.5194/isprs-archives-xlii-2-829-2018</object-id>
          <publisher-name>Copernicus GmbH</publisher-name>
          <uri>https://dx.doi.org/10.5194/isprs-archives-xlii-2-829-2018</uri>
        </element-citation>
      </ref>
      <ref id="R90823220543088">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Zhang</surname>
              <given-names>Lu</given-names>
            </name>
            <name>
              <surname>Tan</surname>
              <given-names>Jianjun</given-names>
            </name>
            <name>
              <surname>Han</surname>
              <given-names>Dan</given-names>
            </name>
            <name>
              <surname>Zhu</surname>
              <given-names>Hao</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>From machine learning to deep learning: progress in machine intelligence for rational drug discovery</article-title>
          <source>Drug Discovery Today</source>
          <year>2017</year>
          <volume>22</volume>
          <issue>11</issue>
          <fpage>1680</fpage>
          <lpage>1685</lpage>
          <issn>1359-6446</issn>
          <object-id pub-id-type="doi">10.1016/j.drudis.2017.08.010</object-id>
          <publisher-name>Elsevier BV</publisher-name>
          <uri>https://dx.doi.org/10.1016/j.drudis.2017.08.010</uri>
        </element-citation>
      </ref>
      <ref id="R90823220543082">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Socher</surname>
              <given-names>R</given-names>
            </name>
            <name>
              <surname>Huval</surname>
              <given-names>B</given-names>
            </name>
            <name>
              <surname>Bath</surname>
              <given-names>B</given-names>
            </name>
            <name>
              <surname>Manning</surname>
              <given-names>C D</given-names>
            </name>
            <name>
              <surname>Ng</surname>
              <given-names>A Y</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Convolutional-Recursive Deep Learning for 3D Object Classification</article-title>
          <source>Advances in Neural Information Processing Systems</source>
          <year>2012</year>
          <fpage>656</fpage>
          <lpage>664</lpage>
        </element-citation>
      </ref>
      <ref id="R90823220543087">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Xin</surname>
              <given-names>Y</given-names>
            </name>
            <name>
              <surname>Kong</surname>
              <given-names>L</given-names>
            </name>
            <name>
              <surname>Liu</surname>
              <given-names>Z</given-names>
            </name>
            <name>
              <surname>Chen</surname>
              <given-names>Y</given-names>
            </name>
            <name>
              <surname>Li</surname>
              <given-names>Y</given-names>
            </name>
            <name>
              <surname>Zhu</surname>
              <given-names>H</given-names>
            </name>
            <name>
              <surname>Wang</surname>
              <given-names>. .</given-names>
            </name>
            <name>
              <given-names>C</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Machine learning and deep learning methods for cybersecurity</article-title>
          <source>IEEE Access</source>
          <year>2018</year>
          <volume>6</volume>
          <fpage>35365</fpage>
          <lpage>35381</lpage>
        </element-citation>
      </ref>
      <ref id="R90823220543089">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Zhang</surname>
              <given-names>X</given-names>
            </name>
            <name>
              <surname>Zhou</surname>
              <given-names>X</given-names>
            </name>
            <name>
              <surname>Lin</surname>
              <given-names>M</given-names>
            </name>
            <name>
              <surname>Sun</surname>
              <given-names>J</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Shufflenet: An extremely efficient convolutional neural network for mobile devices</article-title>
          <source>Proceedings of the IEEE conference on computer vision and pattern recognition</source>
          <year>2018</year>
          <fpage>6848</fpage>
          <lpage>6856</lpage>
        </element-citation>
      </ref>
      <ref id="R90823220543094">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Sharma</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Liu</surname>
              <given-names>X</given-names>
            </name>
            <name>
              <surname>Yang</surname>
              <given-names>X</given-names>
            </name>
            <name>
              <surname>Shi</surname>
              <given-names>D</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>A patch-based convolutional neural network for remote sensing image classification</article-title>
          <source>Neural Networks</source>
          <year>2017</year>
          <volume>95</volume>
          <fpage>19</fpage>
          <lpage>28</lpage>
        </element-citation>
      </ref>
      <ref id="R90823220543084">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Krizhevsky</surname>
              <given-names>A</given-names>
            </name>
            <name>
              <surname>Sutskever</surname>
              <given-names>I</given-names>
            </name>
            <name>
              <surname>Hinton</surname>
              <given-names>G E</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Imagenet Classification With Deep Convolutional Neural Networks</article-title>
          <source>Advances in neural information processing systems</source>
          <year>2012</year>
          <fpage>1097</fpage>
          <lpage>1105</lpage>
        </element-citation>
      </ref>
      <ref id="R90823220543092">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Marifatul Azizah</surname>
              <given-names>Laila</given-names>
            </name>
            <name>
              <surname>Fadillah Umayah</surname>
              <given-names>Sitti</given-names>
            </name>
            <name>
              <surname>Fajar</surname>
              <given-names>Febriyana</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Deteksi Kecacatan Permukaan Buah Manggis Menggunakan Metode Deep Learning dengan Konvolusi Multilayer</article-title>
          <source>Semesta Teknika</source>
          <year>2018</year>
          <volume>21</volume>
          <issue>2</issue>
          <fpage>230</fpage>
          <lpage>236</lpage>
          <issn>1411-061X, 2502-5481</issn>
          <object-id pub-id-type="doi">10.18196/st.212229</object-id>
          <publisher-name>Universitas Muhammadiyah Yogyakarta</publisher-name>
          <uri>https://dx.doi.org/10.18196/st.212229</uri>
        </element-citation>
      </ref>
      <ref id="R90823220543093">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Darmanto</surname>
              <given-names>H</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Pengenalan Spesies Ikan Berdasarkan Kontur Otolith Menggunakan Convolutional Neural Network</article-title>
          <source>Joined Journal (Journal of Informatics Education)</source>
          <year>2019</year>
          <volume>2</volume>
          <issue>1</issue>
          <fpage>41</fpage>
          <lpage>59</lpage>
        </element-citation>
      </ref>
      <ref id="R90823220543086">
        <element-citation publication-type="journal">
          <person-group person-group-type="author">
            <name>
              <surname>Eka Putra</surname>
              <given-names>Wayan Suartika</given-names>
            </name>
            <collab/>
          </person-group>
          <article-title>Klasifikasi Citra Menggunakan Convolutional Neural Network (CNN) pada Caltech 101</article-title>
          <source>Jurnal Teknik ITS</source>
          <year>2016</year>
          <volume>5</volume>
          <issue>1</issue>
          <fpage>65</fpage>
          <lpage>69</lpage>
          <issn>2301-9271, 2337-3539</issn>
          <object-id pub-id-type="doi">10.12962/j23373539.v5i1.15696</object-id>
          <publisher-name>Lembaga Penelitian dan Pengabdian kepada Masyarakat ITS</publisher-name>
          <uri>https://dx.doi.org/10.12962/j23373539.v5i1.15696</uri>
        </element-citation>
      </ref>
    </ref-list>
  </back>
</article>
