Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 74 dokumen yang sesuai dengan query
cover
Dewi Wulandari
Abstrak :
Mata merupakan salah satu indera terpenting bagi kehidupan manusia. Umumnya, banyak manusia yang mengabaikan gangguan fungsi penglihatan, dimana gangguan fungsi penglihatan ini mengindikasikan awal mula penyakit mata. Penyakit mata adalah gangguan fungsi penglihatan berkisar dari gangguan fungsi penglihatan ringan hingga gangguan fungsi penglihatan berat yang dapat menyebabkan kebutaan. Dalam melakukan diagnosa terhadap pasien gangguan fungsi penglihatan memiliki jenis penyakit mata yang diderita, diperlukan tahapan pemeriksaan retina dengan ophthalmoscopy atau fotografi fundus. Setelah itu, seorang dokter spesialis mata menganalisis jenis penyakit mata yang diderita pasien tersebut. Namun, karena terbatasnya sarana fasilitas kesehatan dan dokter spesialis mata yang memeriksa dan mengoperasi. Oleh karena itu, dibutuhkan alat deteksi dini dengan menggunakan data citra agar pasien gangguan penglihatan dapat ditangani sebelum pasien menderita gangguan fungsi penglihatan berat atau dapat mengalami kebutaan. Pada penelitian ini, diusulkan oleh peneliti model klasifikasi citra fundus ke dalam kelas normal, katarak, glaukoma, dan retina disease menggunakan Convolutional Neural Network (CNN) dengan arsitektur AlexNet. Data citra yang digunakan merupakan data fundus image retina yang berasal dari website kaggle. Sebelum data citra fundus image masuk ke dalam proses training model, dilakukan tahapan preprocessing pada data citra fundus image. Pada tahapan proses training dalam CNN digunakan fungsi optimasi untuk meminimalkan fungsi loss. Adapun fungsi optimasi yang digunakan dalam penelitian ini adalah Adam dan diffGrad. Hasil penelitian ini menunjukkan bahwa kedua fungsi optimasi tersebut memiliki hasil evaluasi training yang tidak jauh berbeda pada kedua fungsi optimasi. Keunggulan menggunakan kedua fungsi optimasi ini adalah mudah diterapkan. Pada penelitian ini didapatkan training loss terkecil sebesar 0,4838, validation loss terkecil sebesar 0,6658, dan training accuracy terbaik sebesar 0,8570 yang dimiliki oleh fungsi optimasi Adam. Sedangkan untuk validation accuracy terbaik sebesar 0,7189 yang dimiliki oleh fungsi optimasi diffGrad. Sedangkan running time tercepat pada proses training model sebesar 2840,9 detik yang dimiliki oleh fungsi optimasi diffGrad. Setelah tahapan proses training, dilakukan evaluasi dengan data testing. Secara keseluruhan, apabila dilihat dari hasil testing yang terbaik dimiliki oleh fungsi optimasi Adam dengan nilai accuracy sebesar 63%, recall sebesar 63%, dan precision sebesar 63%. Sedangkan running time tercepat pada proses testing model adalah 5,4 detik yang dimiliki oleh fungsi diffGrad. Dapat disimpulkan bahwa metode CNN menggunakan Arsitektur AlexNet dan fungsi optimasi Adam memberikan performa terbaik dalam mendeteksi penyakit mata pada data fundus image. ......The eyes are one of the most important senses for human life. Generally, many people ignore visual impairment, where this visual impairment indicates the onset of eye disease. Eye disease is a visual impairment ranging from mild visual impairment to severe visual impairment which can lead to blindness. In diagnosing patients with visual impairment who have the type of eye disease they suffer, it is necessary to carry out a retinal examination with ophthalmoscopy or fundus photography. After that, an ophthalmologist analyzes the type of eye disease the patient is suffering from. However, due to limited medical facilities and ophthalmologists who examine and operate. Therefore, an early detection tool is needed using image data so that visually impaired patients can be treated before the patient suffers from severe visual impairment or can go blind. In this study, researchers proposed a model for classifying fundus images into normal, cataract, glaucoma, and retinal disease classes using Convolutional Neural Network (CNN) with AlexNet architecture. The image data used is retinal fundus image data from the Kaggle website. Before the fundus image data enters the training model process, a preprocessing stage is carried out on the fundus image data. At this stage of the training process in CNN, an optimization function is used to minimize the loss function. The optimization functions used in this study are Adam and differed. The results of this study indicate that the two optimization functions have training evaluation results that are not much different from the two optimization functions. The advantage of using these two optimization functions is that they are easy to implement. In this research, the smallest training loss is 0.4838, the smallest validation loss is 0.6658, and the best training accuracy is 0.8570 which is owned by the Adam optimization function. As for the best validation accuracy of 0.7189 which is owned by the diffGrad optimization function. Meanwhile, the fastest running time in the model training process is 2840.9 seconds, which is owned by the diffGrad optimization function. After the stages of the training process, evaluation is carried out with data testing. Overall, when viewed from the testing results, Adam's optimization function is the best with an accuracy value of 63%, recall of 63%, and precision of 63%. Meanwhile, the fastest running time in the model testing process is 5.4 seconds, which is owned by the diffGrad function. It can be concluded that the CNN method using AlexNet Architecture and Adam's optimization function provides the best performance in detecting eye diseases in fundus image data.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Oki Saputra Jaya
Abstrak :
ABSTRAK
Analisis sentimen adalah kegiatan untuk mengklasifikasikan opini publik tentang entitas dalam data tekstual menjadi positif atau negatif. Salah satu metode otomatis untuk analisis sentimen adalah convolution neural network CNN. CNN terdiri dari banyak lapisan dengan banyak parameter yang dapat disesuaikan sesuai kebutuhan untuk membentuk arsitektur tertentu. CNN terbukti efektif untuk penggunaan satu domain data. Namun, CNN kurang akurat jika digunakan dalam domain yang berbeda. Oleh karena itu, digunakan transfer learning untuk mentransfer pengetahuan dari source domain ke target domain yang berbeda namun terkait. Dalam penelitian ini, diuji sensitivitas parameter dan akurasi CNN untuk transfer learning pada analisis sentimen tweet berbahasa Indonesia. Simulasi pada penelitian ini menunjukkan bahwa parameter CNN sangat sensitif dan akurasi transfer learning mendapatkan hasil yang berbeda tergantung pada skenario transfer learning yang digunakan.
ABSTRACT
Sentiment analysis is an activity to classify public opinion about entities in textual data into positive or negative. One of the automatic methods for sentiment analysis is convolution neural network CNN. CNN consists of many layers with many parameters that can be adjusted as needed to form a specific architecture. CNN works well for the use of a single data domain. However, CNN is less accurate if used in different domains. Therefore, transfer learning is used to transfers knowledge from source domains to different but related target domains. In this reserach, examined parameter sensitivity and accuracy of CNN for transfer learning of sentiment analysis in Indonesian tweets. Simulations in this paper show that CNN parameters are very sensitive and the accuracy of learning transfer gets different results depending on the scenario of transfer learning.
2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rehan Hawari
Abstrak :
Jatuh merupakan penyebab utama kedua cedera dan kematian yang tidak disengaja di seluruh dunia. Kejadian ini sering terjadi pada lansia dan frekuensinya meningkat setiap tahun. Sistem pendeteksi aktivitas jatuh yang reliabel dapat mengurangi risiko cedera yang dialami. Mengingat jatuh adalah kejadian yang tidak dikehendaki atau terjadi secara tiba-tiba, sulit untuk mengumpulkan data jatuh yang sebenarnya. Deteksi jatuh juga sulit karena kemiripannya dengan beberapa aktivitas seperti jongkok, dan mengambil objek dari lantai. Selain itu, beberapa tahun belakangan dataset mengenai aktivitas jatuh yang tersedia secara publik juga terbatas. Oleh karena itu, di tahun 2019, beberapa peneliti mencoba membuat dataset jatuh yang komprehensif yang mensimulasikan kejadian yang sebenarnya dengan menggunakan perangkat kamera dan sensor. Dataset yang dihasilkan dataset multimodal bernama UP-Fall. Menggunakan dataset tersebut, penelitian ini mencoba mendeteksi aktivitas jatuh dengan pendekatan Convolutional Neural Network (CNN) dan Long Short Term Memory (LSTM). CNN digunakan untuk mendeteksi informasi spasial dari data citra, sedangakan LSTM digunakan untuk mengeksploitasi informasi temporal dari data sinyal. Kemudian, hasil dari kedua model digabungkan dengan strategi majority voting. Berdasarkan hasil evaluasi, CNN memperoleh akurasi sebesar 98,49% dan LSTM 98,88%. Kedua model berkontribusi kepada performa strategi majority voting sehingga mendapatkan akurasi (98,31%) yang melebihi akurasi baseline (96,4%). Metrik evaluasi lain juga meningkat seperti precision naik 11%, recall 14%, dan F1-score 12% jika dibandingan dengan baseline .......Fall is the second leading cause of accidental injury and death worldwide. This event often occurs in the elderly and the frequency is increasing every year. Reliable fall activity detection system can reduce the risk of injuries suffered. Since falls are unwanted events or occur suddenly, it is difficult to collect actual fall data. It is also difficult because of the similarity to some activities such as squatting, and picking up objects from the floor. In addition, in recent years the fall dataset that is publicly available is limited. Therefore, in 2019, some researchers tried to create a comprehensive fall dataset that simulates the actual events using camera and sensor devices. The experiment produced a multimodal dataset UP-Fall. Using this dataset, this study tries to detect falling activity using Convolutional Neural Network and Long Short Term Memory approaches. CNN is used to detect spatial information from image data, while LSTM is used to exploit temporal information from signal data. Then, the results of the two models are combined with the majority voting strategy. Based on the evaluation results, CNN obtained an accuracy of 98.49% and LSTM 98.88%. Both models contribute to the performance of the majority voting strategy with the result that the accuracy (98.31%) exceeds baseline accuracy (96.4%). Other evaluation metrics also improved such as precision goes up to 11%, recall 14%, and F1-score 12% in comparison with baseline.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Amin Nur Ambarwati
Abstrak :
Katarak merupakan keadaan di mana lensa mata yang biasanya terlihat jernih dan bening menjadi keruh yang disebabkan oleh sebuah kumpulan protein yang terletak di depan retina. Hal ini menyebabkan jaringan lensa mata mulai rusak dan menggumpal, sehingga berkurangnya cahaya yang masuk ke retina dan pandangan akan terlihat buram, kurang berwarna, serta dapat menyebabkan kebutaan yang permanen. Mendiagnosis penyakit katarak pada seseorang dapat menggunakan proses pemeriksaan citra fundus, hasil dari citra fundus kemudian dideteksi menggunakan salah satu pendekatan deep learning. Dalam penelitian ini, digunakan pendekatan deep learning yaitu metode Convolutional Neural Networks (CNN) classic dan CNN LeNet-5 pada fungsi aktivasi ReLU dan Mish dalam mendeteksi katarak. Data yang digunakan dalam penelitian ini yaitu data ODR yang merupakan online database yang berisi citra fundus dengan bervariasi ukuran citra. Dataset kemudian memasuki tahap preprocessing dalam meningkatkan performa model seperti mengkonversikan citra RGB menjadi grayscale dari intensitas green channel, kemudian menerapkan proses binerisasi citra menggunakan thresholding untuk menyesuaikan target atau label berdasarkan diagnosis dokter dan mengetahui tingkat kerusakan bagian mata dalam mendeteksi mata mengalami katarak atau tidak. Hasil performa pada penelitian ini menunjukkan bahwa model CNN LeNet-5 dengan fungsi aktivasi Mish lebih baik dibandingkan model CNN clasic dengan fungsi aktivasi Mish dalam mendeteksi penyakit katarak. Hasil performa keseluruhan yang optimal pada penelitian ini berdasarkan nilai accuracy, precision, recall, dan F1- score secara berturutturut yaitu 87%, 87,5%, 89,3%, 86,7%, dengan running time yang dibutuhkan pada training 95,67 detik dan testing 0,1859 detik. ......Cataract is a condition in which the normally clear lens of the eye becomes cloudy due to a collection of proteins located in front of the retina. This causes the tissue of the eye's lens to begin to break down and clot, resulting in less light entering the retina and blurred vision, lack of color, and can lead to permanent blindness. Diagnosing cataracts in a person can use the process of examining the fundus image, the results of the fundus image are then detected using one of the deep learning approaches. In this study, a deep learning approach was used, namely Convolutional Neural Networks (CNN) classic and CNN LeNet-5 method on the ReLU and Mish activation functions in detecting cataracts. The data used in this study is ODR data which is an online database containing fundus images with varying image sizes. The dataset then enters the preprocessing stage to improve model performance, such as converting the RGB image to grayscale from the intensity of the green channel, then applying a binary image process using thresholding to adjust the target or label based on the doctor's diagnosis and determine the level of eye damage to detect cataracts or not. The performance results in this study indicate that the CNN LeNet- 5 model with Mish activation function is better than the CNN classic model with Mish activation function in detecting cataract disease. Optimal overall performance results in this study are based on the values of accuracy, precision, recall, and F1-score, respectively, namely 87%, 87,5%, 89,3%, 86,7%, with the running time required for training 95,67 seconds and testing 0,1859 seconds.
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mega Fransiska
Abstrak :
Digitalisasi proses pengisian data Kartu Tanda Penduduk (KTP) memerlukan proses otomatisasi dan otentikasi, yang dapat dilakukan dengan proses pembacaan teks pada gambar KTP oleh komputer secara otomatis serta mengevaluasi kemiripan wajah pada foto KTP dan swafoto pendaftar. Proses pembacaan data pada KTP secara otomatis disebut juga secagai proses Optical Character Recognition (OCR), sedangkan pengevaluasian kemiripan wajah dapat dilakukan dengan model Siamese Network. Baik Siamese Network maupun model untuk OCR merupakan model yang pada dasarnya digunakan untuk mengolah gambar. Oleh karena itu digunakan Convolutional Neural Network (CNN) sebagai model dasar pada penelitian ini. Pada proses OCR dan evaluasi kemiripan wajah dibutuhkan model yang mampu mendeteksi lokasi teks dan wajah yang akan diekstrak dari gambar, model tersebut merupakan model text detection dan face detection. Model text detection dan face detection merupakan aplikasi dari model object detection. Pada model object detection terbaru, dikembangkan model modifikasi CNN yang mampu mendeteksi obek yang berukuran sangat kecil dan sangat besar, model tersebut dinamakan Bidirectional Feature Pyramid Network (BiFPN). Setelah mengekstrak lokasi teks, langkah dari proses OCR selanjutnya adalah mengenali setiap karakter dalam teks (text recognition), yang dapat dilakukan dengan model Bidirectional Long Short-Term Memory (BiLSTM). Sedangkan dari wajah yang diekstrak selanjutnya ditentukan apakah berasal dari orang yang sama atau tidak oleh model Siamese Network. Pada penelitian ini akan dibangun arsitektur CNN Effiception, yang digabungkan menjadi CNN-BiFPN untuk proses object detection, CNN-BiLSTM, untuk proses text recognition, dan CNN dalam bentuk Siamese Network untuk mengevaluasi kemiripan wajah ......Digitization of ID card applications requires automation and an authentication process, which can be done by computerized ID card information reading and face's similarity evaluating on ID card's photo and applicant selfie. The computerized ID card information reading is named Optical Character Recognition (OCR). While the face's similarity authentication is done by the Siamese Network model. Both the Siamese Network and OCR model basically used to process images. Therefore, the Convolutional Neural Network (CNN) became the base model for this study. Each of OCR and face's similarity authentication required a model that can detect the location of text and face to be extracted from the image. They are text detection and face detection model, which are the applications of object detection. The latest object detection model, EfficientDet, used CNN modification that capable to detect a tiny and huge object at the same time, is called Bidirectional Feature Pyramid Network (BiFPN). After extracting the location of the text, the next step of the OCR process is to recognize each character in the text (text recognition), which can be done with the Bidirectional Long Short-Term Memory (BiLSTM). Meanwhile, the extracted face, from the selfie and ID card's photo, then be determined either from the same person or not, by the Siamese Network. The product of this study is the CNN architecture, Effiception, which is combined into CNN-BiFPN for object detection process, CNNBiLSTM, for text recognition process, and its modification into Siamese Network architecture to evaluate the face's similarity
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Clark, Frank J.
Jakarta: Erlangga, 1985
519.7 CLA m
Buku Teks  Universitas Indonesia Library
cover
Kahaner, David
Englewood Cliffs, NJ: Prentice-Hall, 1989
620. 004 2 KAH n
Buku Teks  Universitas Indonesia Library
cover
Kho Hong Geh
Jakarta : Elex Media Komputindo, 1989
510 KHO s (1)
Buku Teks  Universitas Indonesia Library
cover
Massachusetts : Math Soft, 1987
510 MAT (1)
Buku Teks  Universitas Indonesia Library
cover
Rodiatul Adawiyah
Abstrak :
Mengenali burung hanya dengan suara mereka mungkin merupakan tugas yang sulit tetapi tidak berarti itu tidak mungkin. Convolutional Neural Network (CNN) saat ini sangat populer sebagai pendekatan untuk menyelesaikan tugas ini. Kesenjangan antara model berbasis CNN dan pendekatan berbasis fitur cukup jauh. Meskipun banyak dari rekaman itu cukup berisik, CNN bekerja dengan baik tanpa ada penghilangan bising tambahan. Kami mengembangkan aplikasi berbasis mobile bagi pengguna untuk merekam suara burung melalui perekam suara dalam aplikasi, kemudian rekaman tersebut akan dikirim ke back-end dan akan diklasifikasikan menggunakan model CNN untuk menentukan spesies burung tersebut. Dataset yang digunakan untuk penelitian ini dikumpulkan dari basis data kolaboratif Xeno-Canto pada 4 Juni 2020 dengan total 1.163 rekaman suara dari 60 spesies burung berasal dari Taiwan dan beberapa daerah lain. Hasil membuktikan bahwa pengenalan suara burung kami dapat mencapai kinerja yang memuaskan dan stabil. Aplikasi kami membutuhkan sekitar 10 detik untuk keseluruhan proses, termasuk transmisi dari front-end ke back-end, dan sekitar 6 detik untuk proses pengenalan dengan tingkat akurasi mencapai 96,85%. Selain itu, pengenalan suara burung kami mampu mengenali suara burung secara akurat dari rekaman berdurasi minimal 3 detik. ......Recognizing birds just by their sound might be a difficult task but it does not mean it is not possible. Convolutional Neural Networks (CNNs) nowadays is really popular as an approach to complete the task. The gap between CNN-based models and shallow, featurebased approaches remained considerably high. Even though many of the recordings were quite noisy, the CNNs worked well without any additional noise removal. We develop a mobile-based application for users to capture a bird sound by the voice recorder in the application, then the input record will be sent to the back-end and will be classified to determine the species of the bird using a CNN model. The dataset used for this research is collected from Xeno-Canto collaborative database on June, 4th 2020 with a total of 1163 sound recordings from 60 species of bird is from Taiwan and some other regions. Results testify that our bird sound recognition can achieve a remarkable and steady performance. It took approximately 10-seconds for the whole process, including transmission between the front-end and the back-end, and about 6-seconds for the recognition process with the accuracy rate being 96.85%. In addition, our bird sound recognition is able to recognize the bird sound accurately from a minimum of 3-seconds length recording.

Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8   >>