Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 2 dokumen yang sesuai dengan query
cover
Sinaga, Marshal Arijona
Abstrak :
Jaringan saraf konvolusi telah terbukti bekerja dengan baik pada tugas klasifikasi citra. Hasil tersebut didukung oleh sifat transformasi-ekuivarian yang merupakan salah satu karakteristik jaringan saraf konvolusi. Namun, sifat tersebut hanya terbatas pada transformasi translasi. Penelitian ini memperkenalkan transformasi-ekuivarian variasional (TEV), suatu model representasi tidak terawasi yang bersifat transformasi-ekuivarian terhadap transformasi yang lebih general. Pada pengimplementasiannya, TEV memanfaatkan predictive-transformation, suatu model pemelajaran terawasi sendiri yang berperan sebagai bias induktif. Proses optimisasi TEV melibatkan 2 estimasi batas bawah informasi timbal balik: metode estimasi Barber-Agakov (selanjutnya dinamakan model TEVBA) dan information noise contrastive (selanjutnya dinamakan model TEVInfoNCE). Model representasi TEV diuji berdasarkan rata-rata rasio kesalahan pada serangkaian tugas klasifikasi citra. Pada penelitian ini, perseptron lapis banyak, K-nearest neighbor, dan multinomial logistic regression dipilih sebagai classifier untuk tugas klasifikasi citra menggunakan dataset CIFAR-10 dan STL-10. Hasil menunjukkan TEVBA dan TEVInfoNCE mengungguli model baseline untuk masing-masing classifier pada kedua dataset. Secara spesifik, TEVBA secara konsisten menghasilkan rata-rata rasio kesalahan terendah untuk klasifikasi pada kedua dataset. ......Convolution neural network (CNN) has shown promising results on various image classification tasks. One of the reasons due to the ability of CNN to extract representation that is equivariant to transformations. However, the notion only holds for the translation transformation. This research introduces variational transformation equivariant (VTE), a more general unsupervised transformation-equivariant representation model. During the implementation, VTE utilizes the Predictive-transformation, a self-supervised learning model that acts as inductive bias. The optimization of VTE involves two lower bound mutual information methods: Barber-Agakov and information noise contrastive (InfoNCE). The VTE models are evaluated based on the average error rate on image classification tasks on CIFAR-10 and STL-10 datasets. We utilize multi-layer perceptron, K-nearest neighbor, and multinomial logistic regression as the classifiers. Results show VTE with Barber-Agakov and VTE with InfoNCE outperform the baseline model for each classifier on both datasets. Specifically, VTEBA consistently achieves the lowest average error rate for both datasets.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Sinaga, Marshal Arijona
Abstrak :
Tugas Akhir ini menelaah least square adversarial autoencoder yang menggunakan least square generative adversarial network sebagai diskriminatornya. Diskriminator tersebut meminimalkan fungsi Pearson χ 2 divergence antara distribusi variabel laten dan suatu distribusi apriori. Adanya diskriminator memungkinkan autoencoder untuk membangkitkan data yang memiliki karakteristik yang menyerupai sampel pembelajarannya. Penelitian ini dilakukan dengan membuat program yang memodelkan least square adversarial autoencoder. Program memodelkan dua jenis autoencoder yaitu unsupervised least square adversarial autoencoder dan supervised least square adversarial autoencoder dengan memanfaatkan dataset MNIST dan FashionMNIST. Unsupervised least square adversarial autoencoder menggunakan variabel laten berdimensi 20 sementara supervised least square adversarial autoencoder menggunakan variabel laten masing-masing berdimensi 2, 3, 4, dan 5. Program diimplementasikan menggunakan framework PyTorch dan dieksekusi menggunakan Jupyter Notebook. Seluruh aktivitas pemrograman dilakukan pada environment cloud yang disediakan oleh Floydhub dan Tokopedia-UI AI Center yang masing-masing menggunakan GPU NVIDIA Tesla K80 dan NVIDIA Tesla V100 sebagai perangkat komputasinya. Proses pembelajaran pada unsupervised least square adversarial autoencoder berlangsung selama dua jam sementara pada supervised least square adversarial autoencoder berlangsung selama enam jam. Berdasarkan hasil eksperimen, nilai mean squared error unsupervised least square adversarial autoencoder untuk masing-masing dataset MNIST dan FashionMNIST adalah 0.0063 dan 0.0094. Sementara itu, nilai mean squared error supervised least square adversarial autoencoder pada dataset MNIST sebesar 0.0033. Selanjutnya, nilai Frechet Inception Distance unsupervised least square adversarial autoencoder untuk masing-masing dataset MNIST dan FashionMNIST adalah 15.7182 dan 38.6967. Sementara itu, nilai Frechet Inception Distance supervised least square adversarial autoencoder pada dataset MNIST sebesar 62.512. Hasil tersebut menunjukkan bahwa least square adversarial autoencoder mampu merekonstruksi citra dengan baik, namun kurang mampu membangkitkan citra dengan kualitas sebaik sampel pembelajarannya. ......This Final Project (Tugas Akhir) investigates the least square adversarial autoencoder that uses least square generative adversarial network as its discriminator. The discriminator minimizes the Pearson χ 2 divergence between the latent variable distribution and the prior distribution. The presence of discriminator allows the autoencoder to generate data that has characteristics that resemble the original data. Python programs were developed to model the least square adversarial autoencoder. This programs try to model two types of autoencoder namely unsupervised least square adversarial autoencoder and supervised least square adversarial autoencoder by utilizing MNIST dataset and FashionMNIST dataset. The unsupervised least square adversarial autoencoder uses latent variables of dimension 20 while the supervised least square adversarial autoencoder uses latent variables with dimensions of 2, 3, 4, and 5, respectively. This programs were implemented using PyTorch and executed using Jupyter Notebook. All of the programming activities are carried out in the cloud environment provided by Floydhub and Tokopedia-UI AI Center, respectively using NVIDIA Tesla K80 GPU and NVIDIA Tesla V100 GPU as their computing resource. Training time in unsupervised least square adversarial autoencoder lasts for two hours while in supervised least square adversarial autoencoder lasts for six hours. The Results of experiments show that the mean squared error of unsupervised least square adversarial autoencoder for MNIST dataset and FashionMNIST dataset are 0.0063 and 0.0094, respectively. Meanwhile, the mean squared error of supervised least square adversarial autoencoder for MNIST dataset is 0.0033. Furthermore, the Frechet Inception Distance scores of unsupervised least square adversarial autoencoder for MNIST dataset and FashionMNIST dataset are 15.7182 and 38.6967, respectively. Meanwhile, the value of Frechet Inception Distance score of supervised least square adversarial autoencoder in MNIST dataset is 62.512. These results indicate that the least square adversarial autoencoder is able to reconstruct the image properly, but is less able to generate images with the same quality as the learning sample.
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library