Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 145265 dokumen yang sesuai dengan query
cover
Theresia Veronika Rampisela
"

Penelitian ini mencari dosen pakar di Fakultas Ilmu Komputer Universitas Indonesia (Fasilkom UI) dengan menggunakan data abstrak dan metadata tugas akhir mahasiswa Fasilkom UI menggunakan teknik information retrieval. Pencarian pakar dilakukan tanpa query expansion dan dengan query expansion. Metode yang digunakan untuk mencari dosen pakar adalah metode berbasis BM25 serta kombinasi antara word2vec dan doc2vec, yang merupakan word embedding dan document embedding. Teknik yang digunakan untuk mengatasi masalah vocabulary mismatch adalah teknik query expansion dengan pendekatan statistik, semantik, serta hybrid. Kontribusi penelitian ini adalah 2 metode baru untuk pencarian pakar tanpa query expansion, 6 jenis kombinasi relasi ontologi berdasarkan concept hierarchy ACM CCS 2012 untuk mengekspansi kueri, serta 14 jenis kombinasi antara metode query expansion berbasis embedding dan ontologi. Evaluasi dari hasil pencarian pakar dilakukan dengan menghitung binary relevance berdasarkan human judgment. Pada penelitian ini, metode pencarian pakar tanpa query expansion dengan hasil yang paling baik adalah metode BM25-sum dengan nilai AP@5 sebesar 0.648. Pencarian pakar dengan berbagai macam jenis query expansion tidak dapat meningkatkan performa retrieval tanpa query expansion secara signifikan, tetapi pencarian dengan query expansion menggunakan metode berbasis embedding, yaitu w2v-w2v memiliki nilai AP@5 sebesar 0.696, yang lebih tinggi dari skor AP@5 dari BM25-sum tanpa query expansion. Pencarian pakar dengan query expansion berbasis ontologi serta hybrid mampu menghasilkan skor AP@5 setinggi 0.664. Skor tersebut tidak setinggi pencarian dengan query expansion dengan w2v-w2v, namun hasilnya lebih baik dari pencarian tanpa query expansion.


This research searches for expert lecturers in the Faculty of Computer Science, Universitas Indonesia (Fasilkom UI) with information retrieval techniques using students’ thesis abstract and metadata. The retrieval process is done without and with query expansion. The methods used to find expert lecturers are BM25-based methods as well as combinations between word2vec and doc2vec, which are word embedding and document embedding. We performed query expansion using statistical, semantic, and hybrid approaches to solve vocabulary mismatch problems. This research’s contributions are 2 new methods to retrieve experts without query expansion, 6 types of ontological relations based on the ACM CCS 2012 concept hierarchy to expand queries, and 14 types of combinations between embedding-based and ontology-based query expansion methods. The expert retrieval result is evaluated by calculating binary relevance based on human judgment. Expert search method without query expansion that produces the best result in this research is the BM25-sum method, with an AP@5 score of 0.648. Even though expert retrieval with various query expansion methods does not increase the performance of retrieval without query expansion significantly, the expert search method with embedding-based query expansion method, i.e. w2v-w2v, achieved an AP@5 score of 0.696, which is higher than that of BM25-sum without query expansion. Ontology-based and hybrid query expansion expert search methods managed to score 0.664 for AP@5. This score is not as high as that of w2v-w2v, but the result is still better than that of retrieval without query expansion.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Tsarina Dwi Putri
"ABSTRAK
Penggunaan word embedding sebagai pemodelan topik telah banyak dilakukan. Hasil dari pemodelan topik tersebut turut membantu dalam mengubah pola pikir para peneliti tentang teks sebagai suatu nilai. Menurut studi yang dilakukan oleh Mikolov et al. (2013) mengenai word embedding, mereka mengubah teks-teks tersebut menjadi suatu vektor yang dapat divisualisasikan dalam ruang vektor kontinu yang secara fleksibel dapat dihitung jarak kedekatannya dan dapat diolah lebih lanjut dengan menggabungkannya dengan metode yang lain seperti LSTM (Long Short Term Memory), CNN (Convolutional Neural Network), dll untuk berbagai keperluan penelitian. Beragam penelitian berkembang menggunakan hasil dari nilai embedding tersebut untuk tujuan yang lebih kompleks, mendorong penulis untuk kembali mengkaji manfaat dasar dari hal tersebut kemudian menggalinya untuk tujuan akhir lain yang belum pernah dilakukan penelitian lain sebelumnya.
Penelitian ini menggunakan nilai akhir embedding secara sederhana sebagai sistem rekomendasi berbasis konten yang kemudian berkembang dengan kebaruan untuk digunakan sebagai alat bantu untuk melakukan tinjauan sistematis. Hasil penelitian ini menunjukkan bahwa kebaikan penggunaan metode word embedding sangat bervariasi tergantung dari dataset dan hyperparameter yang digunakan.

ABSTRACT
The utilization of word embedding as topic modeling has been widely carried out. The results helped to change the researchers' mindset regarding text as a value. According to a study conducted by Mikolov et al. (2013) regarding word embedding, they convert these texts into vectors that can be visualized in a continuous vector space which can be flexibly calculated of its proximity and can be further processed by combining it with other methods such as LSTM (Long Short Term Memory), CNN (Convolutional Neural Network), etc. for various research purposes. Various studies have been developing by using the embedding value for more complex purposes, thus encouraging the author to re-examine the basic benefits of it then explore it for other purposes that have never been done by other studies before.
This study simply used embedding value as a content-based recommendation system which then it developed with novelty to be used as a tool to conduct systematic review. The results of this study indicate that the merits of using word embedding method vary greatly depending on the dataset and hyperparameters used."
Depok: Fakultas Teknik Universitas Indonesia , 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Piawai Said Umbara
"Penelitian ini bertujuan untuk mengevaluasi efektivitas kombinasi metode TextRank dengan word embedding pada dataset IndoSum. Dua skenario eksperimen diterapkan: unweighted dan weighted. Hasil eksperimen menunjukkan bahwa penggunaan model word embedding pada algoritma TextRank terbukti meningkatkan performa sistem peringkasan. Skenario unweighted menguji perbandingan performa antara sistem baseline (kombinasi dari TextRank dengan Word2Vec dan pembobotan TF-IDF yang dilatih menggunakan dataset Liputan6) dengan beberapa sistem lainnya yang memadukan algoritma TextRank dengan model word embedding tanpa pembobotan TF-IDF. Skenario weighted menguji perbandingan sistem yang memadukan algoritma TextRank dengan model word embedding tanpa pembobotan TF-IDF dengan counterpart-nya yang memadukan algoritma TextRank dengan model word embedding ditambah pembobotan TF-IDF. Pada skenario unweighted, kombinasi TextRank dan fastText yang dilatih dengan dataset IndoSum menunjukkan peningkatan performa tertinggi untuk skor ROUGE-1 dan ROUGE-2 masing-masing sebesar 7,51% dan 4,24%. Sedangkan pada skenario weighted, pembobotan TF-IDF pada word embedding menunjukkan peningkatan performa sebagian besar sistem peringkasan dibandingkan penggunaan word embedding tanpa pembobotan TF-IDF, dengan rata-rata peningkatan performa sistem sebesar 5,55% pada ROUGE-1 dan 9,95% pada ROUGE-2.

This research evaluates the effectiveness of combining the TextRank method with word embedding on the IndoSum dataset. Two experimental scenarios were applied: unweighted and weighted. The experimental results show that using word embedding models in the TextRank algorithm significantly improves the summarization system's performance. The unweighted scenario tested the performance comparison between the baseline system (a combination of TextRank with Word2Vec and TF-IDF weighting trained using the Liputan6 dataset) and several other systems combining the TextRank algorithm with word embedding models without TF-IDF weighting. The weighted scenario compared systems that combined the TextRank algorithm with word embedding models without TF-IDF weighting to their counterparts that included TF-IDF weighting. In the unweighted scenario, the combination of TextRank and fastText trained with the IndoSum dataset demonstrated the highest performance improvement, with ROUGE-1 and ROUGE-2 scores increasing by 7.51% and 4.24%, respectively. Meanwhile, in the weighted scenario, applying TF-IDF weighting to word embedding showed performance improvement in most summarization systems compared to using word embedding without TF-IDF weighting, with an average performance increase of 5.55% in ROUGE-1 and 9.95% in ROUGE-2."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nicholas Pangestu
"Panjangnya suatu berita terkadang mengurangi minat seseorang untuk membaca berita, hal ini dapat kita lihat dari banyaknya istilah “tl:dr” pada thread di internet. Peringkasan dokumen dapat menciptkan ringkasan berita dan mengurangi waktu yang dibutuhkan untuk membaca. Salah satu cara yang dapat digunakan untuk melakukan peringkasan dokumen adalah menggunakan algoritma Textrank. Pada penelitian ini akan diimplementasikan word embedding untuk membantu algoritma Textrank memahami makna suatu kata dengan lebih baik. Hasil yang didapatkan menunjukkan bahwa penggunaan word embedding meningkatkan performa dari algoritma Textrank hingga 13% pada ROUGE-1 dan hingga 21% pada ROUGE-2. Model word embedding BERT memiliki performa tertinggi jika dibandingkan dengan word2vec (3% lebih tinggi pada ROUGE-1 dan 7% lebih tinggi pada ROUGE-2) dan fasttext (5% lebih tinggi pada ROUGE-1 dan 10% lebih tinggi pada ROUGE-2). Pada penelitian ini juga mengimplementasikan pembobotan TF-IDF dalam membuat sebuah representasi suatu kata. Hasil yang didapatkan menunjukkan bahwa pembobotan TF-IDF dapat meningkatkan performa dari tiap model word embedding yang digunakan hingga 11% pada ROUGE-1 dan hingga 19% pada ROUGE-2 dibandingkan performa tanpa pembobotan TF-IDF.

The length of article news sometimes reduces one's interest in reading the news, we can see this from the many terms "tl:dr" in threads on the internet. Document summarization can create news summaries and reduce the time it takes to read. One way to do document summarization is to use the Textrank algorithm. In this research, word embedding will be implemented to help the Textrank algorithm understand the meaning of a word better. The results show that the use of word embedding improves the performance of the Textrank algorithm up to 13% in ROUGE-1 and up to 21% in ROUGE-2. BERT word embedding model has the highest performance when compared to word2vec (3% higher in ROUGE-1 and 7% higher in ROUGE-2) and fasttext (5% higher in ROUGE-1 and 10% higher in ROUGE-2). This study also implements TF-IDF weighting to make a word representation. The results show that TF-IDF weighting can improve the performance of each word embedding model used up to 11% in ROUGE-1 and 19% in ROUGE-2 compared to the performance without using TF-IDF."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mohammad Darrel Tristan Budiroso
"Penelitian ini menangani masalah pengenalan emosi dalam percakapan berbahasa Indonesia, yang penting untuk aplikasi seperti pengenalan ucapan, interaksi manusiamesin, dan analisis sentimen. Untuk mengatasi kompleksitas data suara dan teks, penelitian ini menggabungkan Word Embedding (Word2Vec) dan spektrum suara (MFCC) menggunakan Convolutional Neural Network (CNN). Word2Vec mengubah dataset suara menjadi representasi teks vektor, sementara MFCC digunakan untuk ekstraksi fitur dari spektrum suara. Model yang dikembangkan dievaluasi dengan dataset percobaan berbahasa Indonesia, dan pendekatan Weighted Average Ensemble yang mengintegrasikan kedua metode ini mencapai akurasi 70%. Hasil ini menunjukkan bahwa integrasi teknologi Word Embedding dan analisis spektrum suara dapat meningkatkan akurasi pengenalan emosi dalam bahasa Indonesia. Penelitian ini berkontribusi signifikan terhadap teknologi pengenalan emosi dan berpotensi meningkatkan interaksi manusia dengan teknologi serta aplikasi dalam analisis sentimen dan pengolahan bahasa alami.

This research addresses the issue of emotion recognition in Indonesian language conversations, which is crucial for applications such as speech recognition, humanmachine interaction, and sentiment analysis. To tackle the complexity of voice and text data, this study combines Word Embedding (Word2Vec) and sound spectrum analysis (MFCC) using Convolutional Neural Network (CNN). Word2Vec is used to convert voice datasets into vector text representations, while MFCC is employed for feature extraction from the sound spectrum. The developed models were evaluated using an experimental dataset in Indonesian, and the Weighted Average Ensemble approach, which integrates both methods, achieved an accuracy of 70%. These results indicate that integrating Word Embedding technology and sound spectrum analysis can significantly enhance the accuracy of emotion recognition in Indonesian conversations. This research contributes significantly to the development of emotion recognition technology and has the potential to improve human interaction with technology, as well as applications in sentiment analysis and natural language processing."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Henry Artajaya
"Metode spektral Laplacian Eigenmaps Embedding (LEM) dapat memelihara kemiripan dokumen dengan baik dibandingkan dengan metode reduksi dimensi lainnya. Hal ini terlihat dari unjuk kerja sistem berbasis GLSALEM yang lebih baik jika dibandingkan dengan sistem lainnya pada percobaan. Peningkatan unjuk kerja tidak hanya ditunjukkan dengan berkurangnya rata-rata selisih nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater tetapi juga jumlah percobaan dimana GLSA-LEM menghasilkan nilai yang paling mendekati dengan nilai yang dihasilkan oleh human rater. Kekurangan dari implementasi metode LEM adalah bahwa LEM hanya dapat diterapkan pada matriks jawaban referensi dan mahasiswa dengan dimensi yang lebih besar atau sama dengan enam. Oleh karena itu jawaban referensi dan jawaban mahasiswa yang terlalu pendek tidak akan dapat diproses oleh LEM. Hal ini dapat ditanggulangi dengan mengimplementasikan batas minimal kata jawab pada sistem berbasis GLSA-LEM sehingga semua jawaban dapat diproses oleh LEM. Pada percobaan ini didapatkan rata-rata selisih antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater pada sistem berbasis LSA adalah 44,49; pada sistem berbasis GLSA adalah 23,41; dan pada sistem berbasis GLSA-LEM adalah 11,67.
Hasil tersebut menunjukkan bahwa GLSA-LEM paling unggul karena menghasilkan rata-rata selisih yang paling kecil antara nilai yang dihasilkan oleh sistem dengan nilai yang dihasilkan oleh human rater. Hal ini didukung oleh jumlah percobaan dimana sistem berbasis GLSA-LEM bekerja paling baik yakni dari sejumlah 245 percobaan yang dapat diterapkan LEM didapatkan bahwa pada 82 percobaan sistem GLSA-LEM menghasilkan selisih nilai yang paling kecil dibandingkan dengan sistem GLSA yang unggul pada 40 percobaan dan sistem LSA yang unggul pada 10 percobaan saja. Dengan demikian hipotesis yang diajukan terbukti benar bahwa implementasi LEM pada sistem GLSA akan meningkatkan akurasi sistem. Selisih nilai yang lebih kecil menandakan sistem dapat menghasilkan nilai yang lebih mendekati nilai yang dihasilkan oleh human rater. Hal ini sesuai dengan tujuan dari sistem penilai esai otomatis yang diciptakan untuk menggantikan kerja human rater dimana nilai yang dihasilkan harus dapat mendekati nilai yang dihasilkan oleh human rater. Rata-rata waktu proses LSA adalah 0,164 detik, GLSA sebesar 0,521 detik, dan GLSA-LEM sebesar 4,982 detik.

Laplacian Eigenmaps Embedding preserve semantic proximity better than other dimension reduction methods. GLSA performance may be improved further by implementing LEM. Experiment conducted has shown that GLSA-LEM based system has outperform on this experiment. Performance improvement not only shown from average delta between the grades calculated using the system and the grades resulted from human rater but also the number of the tests that outperformed by GLSA-LEM. The disadvantage of LEM implementation is that LEM only can be applied to answer matrices with minimum dimension of six. Therefore answers that are too short may not be processed using LEM. This can be mitigated by implementing minimum threshold to the answers so it can't be submitted if less than required length. This experiment show that LSA average delta between grades resulted from the system and grades resulted from human rater is 44,49; GLSA?s average delta is 23,41 and GLSA-LEM?s average delta is 11,67.
These results show GLSA-LEM is the best because generate grades with the least average delta between the grades calculated using the system and the grades resulted from human rater. These results also supported by the number of essays from total of 245 essays that can be applied GLSA-LEM graded best with least delta by GLSA-LEM that is 82; compared to GLSA that is 40; and LSA that is 10. Therefore the hypotesis is proven to be correct that LEM implementation on GLSA based system improves system's accuracy. Least delta indicates system generate better grades that is closer to human rater. These results is in accordance with the purpose of automated essay grading system that created to replace human raters in which the grades resulted by the system should be close to the grade generated by human raters. LSA's average processing time is 0,164 seconds, GLSA's is 0,521 seconds, and GLSA-LEM?s is 4,982 seconds.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35051
UI - Tesis Membership  Universitas Indonesia Library
cover
Ade Azurat
"HOL is a theorem prover based on a higher order logic. Its expressive logic makes it suitable for embedding programming logics. Compared to other theorem provers, HOL is attractive because of its familiar and intuitive logic and because it is highly programmable. In this paper we will compare a number of commonly used embedding approaches in HOL and outline their strength and weakness. We will also outline a new alternative called hybrid embedding that combines the strength of other approaches, though some price will have to be paid. "
2002
JIKT-2-1-Mei2002-18
Artikel Jurnal  Universitas Indonesia Library
cover
Abdul Rahman
"Website Helpdesk PDDikti memiliki sekumpulan knowledge yang belum didukung oleh sistem pencarian yang efektif. Penelitian ini bertujuan untuk membangun system temu-balik informasi yang efektif dengan skor metrik yang tinggi terhadap knowledge Helpdesk PDDikti. Metode yang digunakan dalam penelitian ini adalah penerapan model temu-balik informasi berbasis text matching pada berbagai model, yang kemudian disempurnakan dengan dua metode perbaikan ranking dokumen: (1) metode eskpansi istilah pada dokumen menggunakan prediksi kueri dari model doc2query, dan (2) metode reranking dokumen menggunakan model LambdaMART. Hasil penelitian menunjukkan bahwa di antara beberapa model temu-balik informasi berbasis text matching, model BM25 memberikan kinerja terbaik dengan skor MRR 0,781. Selanjutnya, hasil ranking dokumen dari model BM25 dapat ditingkatkan akurasinya melalui metode ekspansi istilah dengan lima kueri menggunakan pemilihan kandidat random sampling, yang meningkatkan skor MRR menjadi 0,799. Namun, penggunaan metode reranking dengan model LambdaMART untuk meningkatkan akurasi hasil ranking dokumen belum memberikan hasil yang lebih baik dibandingkan metode ekspansi istilah. Meskipun demikian, terdapat varian model reranking LambdaMART yang menggunakan fitur semantic similarity dan fitur skor agregat, yang mampu mengalahkan model BM25 tanpa ekspansi istilah, dengan skor MRR terbaik masing-masing 0,782 dan 0,787. Meskipun begitu, peningkatan ini masih belum cukup signifikan.

The PDDikti Helpdesk website has a collection of knowledge that is not yet supported by an effective search system. This study aims to develop an effective information retrieval system with high metric scores for the PDDikti Helpdesk knowledge base. The method used in this research involves applying text matching-based information retrieval models across various models, which are then refined using two document ranking improvement methods: (1) term expansion in documents using query predictions from the doc2query model, and (2) document reranking using the LambdaMART model.The research results indicate that among several text matching-based information retrieval models, the BM25 model provides the best performance with an MRR score of 0.781. Furthermore, the document ranking results from the BM25 model can be improved in accuracy through the term expansion method with five queries using random sampling for candidate selection, which increases the MRR score to 0.799.However, the use of the reranking method with the LambdaMART model to improve document ranking accuracy did not yield better results compared to the term expansion method. Nevertheless, there are variants of the LambdaMART reranking model that use semantic similarity features and aggregate score features, which managed to outperform the BM25 model without term expansion, with the best MRR scores of 0.782 and 0.787, respectively. However, these improvements are still not significant enough."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rafly Yanuar
"Dalam ranah pengamanan citra digital, permutasi Josephus telah banyak digunakan dalam kriptografi. Namun, masih belum ada metode yang menggunakan permutasi Josephus secara optimal dalam steganografi. Tidak seperti kriptografi yang biasanya menimbulkan kecurigaan dan penyelidikan sesaat setelah melihat citra tersandikan, steganografi menyembunyikan citra tanpa menarik perhatian pihak lain. Beberapa teknik sudah pernah dibuat, tetapi melibatkan kompleksitas tambahan pada algoritma steganografi. Dalam penelitian ini, diusulkan pendekatan baru dengan memadukan permutasi Josephus, fungsi chaos logistic map, dan penyisipan LSB 3-3-2. Permutasi Josephus ditunjukkan dapat meningkatkan keacakan lokasi distribusi piksel. Fungsi chaos logistic map juga ditunjukkan dapat membangkitkan suatu barisan kunci yang acak dan bersifat chaos. Perbandingan efektivitas penyisipan citra dengan teknik LSB lain juga telah dilakukan, dan menunjukkan bahwa LSB 3-3-2 memiliki payload yang lebih tinggi sambil menjaga kualitas citra. Untuk melawan steganalisis, permutasi Josephus dimodifikasi untuk memiliki langkah yang dinamis. Pendekatan baru ini diharapkan akan membuka peluang penggunaan permutasi Josephus dalam steganografi citra secara lebih luas dan menjadikan citra stego yang dihasilkan lebih efisien dan bermutu.

In the realm of digital image security, the Josephus permutation has been widely utilized in cryptography. However, there has yet to be an optimal method for employing the Josephus permutation in steganography. Unlike cryptography, which often raises suspicion and prompts investigation shortly after viewing the encoded image, steganography conceals images without drawing the attention of others. Several techniques have been developed previously, but they involve additional complexities in steganography algorithms. In this research, a new approach is proposed by combining the Josephus permutation, the chaotic logistic map function, and LSB 3-3-2 embedding. The Josephus permutation can enhance the randomness of pixel distribution locations, and the chaotic logistic map function can generate a random and chaotic keystream. A comparative analysis of image embedding effectiveness with other LSB techniques has shown that LSB 3-3-2 offers a higher payload while maintaining image quality. To counter steganalysis, the Josephus permutation has also been modified to have dynamic steps. The aim for this new approach is to open up opportunities for the broader utilization of the Josephus permutation in image steganography, leading to more efficient and high-quality steganographic images."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Azzam Hadidulqawi
"Skripsi ini membahas tentang implementasi fungsi Gauss-Circle Map (GCM) dalam proses kriptografi dan steganografi secara simultan. Kriptografi ini berguna untuk menjaga kerahasiaan data, sedangkan steganografi berguna untuk menjaga keberadaan data. Objek yang digunakan pada proses kriptografi dan steganografi secara simultan ini adalah teks dan citra digital. Penelitian ini dilakukan dengan merancang algoritma untuk enkripsi dan embedding secara simultan, serta ekstraksi dan dekripsi secara simultan kemudian diimplementasikan pada pemrograman python. Hasil penelitian menunjukkan bahwa fungsi GCM memiliki tingkat keacakan sebesar 95% menggunakan National Institute of Standards and Technology (NIST) Test. Algoritma yang telah dirancang memiliki tingkat sensitivitas kunci yang beragam sesuai parameternya, secara umum sensitivitas kunci algoritma telah yang dirancang lebih kecil dari. Analisis histogram menunjukkan penyebaran piksel warna pada hasil enkripsi citra tersebar secara merata. Selain itu, kualitas stego image yang dihasilkan memiliki Mean Squared Error (MSE) mendekati nol dan Peak Signal to Noise Ratio (PSNR) di atas 39 dB. Untuk kualitas citra dan teks hasil ekstraksi-dekripsi diukur dari MSE-nya terhadap citra dan teks asli memiliki MSE sebesar 0. Hal ini menandakan teks hasil ekstraksi-dekripsi sama dengan teks asli, dan citra hasil ekstraksi-dekripsi sama dengan citra asli.

This thesis discusses the implementation of GCM function in cryptography and steganography process simultaneously. Cryptography is useful for securing data confidentiality, while steganography is useful to protect the existence of data. The objects used in the cryptographic and steganographic processes simultaneously are digital text and digital images. This research was conducted by designing algorithms for encryption and embedding simultaneously, as well as decryption and extraction simultaneously then implemented in python programming. The results showed that GCM had a randomness level of 95% using the NIST Test. Algorithms that have been designed have varying degrees of sensitivity according to the parameters, and general sensitivity levels that have been designed smaller than . Histogram analysis shows the spread of color pixels in the encryption of the image are evenly distributed. In addition, the resulting quality of stego image has MSE close to zero and PSNR above 39 dB. For the quality of extracted images and text measured from the MSE against the original image and text, it has zero MSE. This indicates that the extracted text is the same as the original text, and the extracted image is the same as the original image."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>