Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 20 dokumen yang sesuai dengan query
cover
Akmal
"Dalam perkembangan teknologi saat ini, perlindungan jaringan komputer sangat diperlukan, maka kita membutuhkan sebuah sistem untuk melindunginya jaringan dari serangan, salah satu serangan paling sering di jaringan Komputer adalah DDoS. Proteksi DDoS ini dapat dilakukan dengan cara: menggunakan Supervised Learning atau Unsupervised Learning. Diawasi Pembelajaran adalah suatu metode dimana sistem diberi label data sehingga mampu mengklasifikasikan data uji yang diberikan, dan pembelajaran tanpa pengawasan maka jika data tidak berlabel diberikan, maka sistem harus klasifikasi tanpa bantuan label, keuntungan dari sistem tanpa label apakah sistem mampu mengidentifikasi serangan yang tidak sistem pembelajaran yang aktif. Sistem untuk mendeteksi ini membutuhkan efisiensi
agar dapat merespon dengan cepat terhadap serangan yang dilakukan.
Maka dimungkinkan untuk membuat suatu sistem yang dapat menghilangkan data tersebut tidak ada kemampuan serangan, sistem ini dapat dikonfigurasi dengan menggunakan LSTM. Studi ini mencoba keefektifan Sistem pembelajaran tanpa pengawasan melalui implementasi sistem penghapusan data, eksperimen pada sistem kepunahan data untuk menentukan arsitektur terbaik, dan melakukan modifikasi pada sistem pembelajaran tanpa pengawasan. Hasil penelitian ini menunjukkan efek sistem data terhadap sistem deteksi DDoS dan
potensi keuntungan dan kerugian dari penerapan sistem dilakukan pada kemampuan deteksi sistem DDoS

In today's technological developments, computer network protection
indispensable, then we need a system to protect it network from attacks, one of the most frequent attacks on the network Computers are DDoS. This DDoS protection can be done by: using Supervised Learning or Unsupervised Learning. Supervised Learning is a method in which the system is labeled data so that able to classify the test data given, and unsupervised learning then if unlabeled data is given, then the system must labelless classification, the advantages of the labelless system whether the system is able to identify attacks that are not active learning system. The system to detect this requires efficiency in order to be able to respond quickly to attacks carried out.Then it is possible to create a system that can eliminate data no attack capability, this system can be configured with using LSTM. This study tested the effectiveness Unsupervised learning system through system implementation data deletion, experiment on extinction system data to determine the best architecture, and make modifications to unsupervised learning system. The results of this study indicate the effect of data system against DDoS detection system and potential advantages and disadvantages of implementing the system performed on the DDoS detection capability. system
"
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yusuf Nauval Fadhlurahman
"Pulau Derawan terkenal akan kejernihan dan keindahan perairan laut dangkalnya membuatnya memiliki daya tarik tersendiri yang memikat para wisatawan. Kegiatan pembangunan penginapan dan dermaga di Pulau Derawan dilakukan sebagai akomodasi dan kemudahan aksesibilitas. Namun pengaruh dari pembangunan fasilitas penginapan dan dermaga berdampak pada terjadinya perubahan luas padang lamun di sekitar perairan laut dangkal Pulau Derawan. Hal ini dapat mempengaruhi pada ekosistem laut lainnya. Penelitian ini dilakukan habitat bentik untuk melihat perubahan distribusi padang lamun baik dilihat dari luas dan kerapatannya dari tahun 2003, 2011, dan 2021, serta melihat pengaruh pembangunan fasilitas penginapan dan dermaga terhadap distribusi padang lamunnya. Pengambilan data menggunakan survei lapang dengan metode foto transek, kemudian peta habitat bentik diolah di Google Earth Engine menggunakan algoritma koreksi kolom air Lyzenga serta memanfaatkan metode klasifikasi unsupervised. Algoritma NDBI (Normalized Different Building Index) dan digitasi lahan digunakan utk melihat perkembangan penginapan dan dermaga. Hasil menunjukkan terjadi degradasi padang lamun selama tahun 2003, 2011, dan terjadi penurunan tingkat kerapatannya, terlebih bila mendekati garis pantai di wilayah selatan. Kegiatan pembangunan fasilitas penginapan dan dermaga tahun 2003, 2011, 2021 menunjukkan perkembangan yang pesat dan merata di seluruh wilayah selatan pulau. Hasil analisis menunjukkan adanya keterkaitan antara pembangunan wisata dengan distribusi padang lamun yaitu terjadinya degradasi.

Derawan Island is famous for the clarity and beauty of its shallow sea waters, making it a special attraction that attracts tourists. The construction of inns and docks on Derawan Island is carried out as accommodation and ease of accessibility. However, the influence of the construction of lodging facilities and docks has an impact on changes in the area of seagrass beds around the shallow sea waters. This can affect other marine ecosystems. The research was carried out in benthic habitats to see changes in the distribution of seagrass beds in terms of area and the density from 2003, 2011, and 2021, as well as to see the effect of the construction of lodging facilities and docks on the distribution of seagrass beds. Data were collected using a field survey using the photo transect method, then the benthic habitat map was processed in Google Earth Engine using the Lyzenga water column correction algorithm and using the unsupervised classification method. The Normalized Different Building Index algorithm and land digitization are used to see the development of lodging and piers. The results showed that there was a degradation of seagrass beds during 2003 until 2021 and also decrease in the density level, especially when approaching the coastline in the southern region. The construction activities of lodging and dock facilities in 2003, 2011, 2021 showed rapid and evenly distributed development throughout the southern region of the island. The results of the analysis show that there is a link between tourism development and the distribution of seagrass beds, namely the occurrence of degradation."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kerenza Doxolodeo
"Konstruksi dataset QA membutuhkan akses ke sumber daya dan finansial yang tidak kecil, sehingga dataset untuk bahasa-bahasa yang kurang dipelajari seperti Ba- hasa Indonesia minim. Studi ini mengkonstruksi dataset QA Indonesia yang dibuat secara otomatis dari awal hingga akhir. Proses dimulai dengan mengambil tripel dari Wikidata dan mengkonversikan tripel tersebut menjadi pertanyaan menggu- nakan CFG. Teks konteks dicari dari korpus Wikipedia Bahasa Indonesia dengan heuristik untuk mencari teks yang sesuai. Pertanyaan-pertanyaan tersebut dival- idasi dengan model M-BERT yang fungsinya sebagai proxy model yang menilai kelayakan pertanyaan. Dataset terdiri dari 134 ribu baris pertanyaan simpel dan 60 ribu pertanyaan kompleks yang menggandung dua buah fakta dalam satu per- tanyaan. Untuk pertanyaan simpel dataset mendapatkan evaluasi yang mirip oleh manusia (72% AC-IQuAD vs 67% SQuAD terjemahan) dan model QA Indonesia yang terbaik adalah yang menggabungkan dataset SQuAD Inggris dan AC-IQuAD (F1 57.03 terhadap dataset TydiQA).

Construction of QA datasets requires access to considerable resources and fi- nance, so datasets for less-learned languages such as Indonesian are scarce. This study constructs an Indonesian QA dataset that is generated automatically end- to-end. The process begins by taking triples from Wikidata and converting those triples into questions using CFG. The context text is searched from the Indonesian Wikipedia corpus with heuristics to find the appropriate text. These questions were validated with the M-BERT model which functions as a proxy model that assesses the feasibility of questions. The dataset consists of 134 thousand lines of simple questions and 60 thousand complex questions containing two facts in one ques- tion. For simple queries the datasets received similar evaluations by humans (72% AC-IQuAD vs 67% translated SQuAD) and the best Indonesian QA model was the one combining English SQuAD and AC-IQuAD datasets (F1 57.03 against TydiQA dataset)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Darell Hendry
"Chatbot sebagai asisten virtual yang digunakan oleh suatu instansi dapat memberikan manfaat bagi penggunanya. Dengan adanya chatbot, pengguna dapat berbicara langsung kepada chatbot melalui pesan singkat, yang kemudian sistem secara spontan mengidentifikasi intent pesan tersebut dan merespons dengan tindakan yang relevan. Sayangnya, cakupan pengetahuan chatbot terbatas dalam menangani pesan oleh pengguna yang semakin bervariasi. Dampak utama dari adanya variasi tersebut adalah adanya perubahan pada komposisi label intent. Untuk itu, penelitian ini berfokus pada dua hal. Pertama, pemodelan topik untuk menemukan intent dari pesan pengguna yang belum teridentifikasi intent-nya. Kedua, pemodelan topik digunakan untuk mengorganisasi intent yang sudah ada dengan menganalisis hasil keluaran model topik. Setelah dianalisis, terdapat dua kemungkinan fenomena perubahan komposisi intent yaitu: penggabungan dan pemecahan intent, dikarenakan terdapat noise saat proses anotasi dataset orisinal. Pemodelan topik yang digunakan terdiri dari Latent Dirichlet Allocation (LDA) sebagai model baseline dan dengan model state-of-the-art Top2Vec dan BERTopic. Penelitian dilakukan terhadap dataset salah satu e-commerce di Indonesia dan empat dataset publik. Untuk mengevaluasi model topik digunakan metrik evaluasi coherence, topic diversity dan topic quality. Hasil penelitian menunjukkan model topik BERTopic dan Top2Vec menghasilkan nilai topic quality 0.036 yang lebih baik dibandingkan model topik LDA yaitu -0.014. Terdapat pula pemecahan intent dan penggabungan intent yang ditemukan dengan analisis threshold proporsi.

Chatbot, as a virtual assistant used by an institution, can provide benefits for its users. With a chatbot, users can speak directly to the chatbot via a short message, which then the system spontaneously identifies the intent of the message and responds with the relevant action. Unfortunately, the scope of chatbot knowledge is limited in handling messages by an increasingly varied user. The main impact of this variation is a change in the composition of the intent label. For this reason, this research focuses on two things. First, topic modeling to find intents from user messages whose intents have not been identified. Second, topic modeling is used to organize existing intents by analyzing the output of the topic model. After being analyzed, there are two possible phenomena of changing intent composition: merging and splitting intents because there is noise during the annotation process of the original dataset. The topic modeling used consists of Latent Dirichlet Allocation (LDA) as the baseline model and the state-of-the-art Top2Vec and BERTopic models. The research was conducted on one dataset of e-commerce in Indonesia and four public datasets. The evaluation metrics of coherence, topic diversity, and topic quality were used to evaluate the topic model. The results showed that the BERTopic and Top2Vec topic models produced a topic quality value of 0.036, better than the LDA topic model, which was -0.014. There are also intent splitting and intent merging found by proportion threshold analysis."
Depok: Fakultas Ilmu Komputer Universita Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ibnu Santoso
"Interviewer falsifications are relevant problem faced by institutions conducting census and surveys around the world, including BPS-Statistics Indonesia. Falsified data may cause serious impact to generated statistics even though the proportion of falsified data is very small. Usage of Computer Assisted Personal Interviewing (CAPI) in field data collection has proven to improve efficiency and effectiveness. In addition, the use of CAPI is believed to be able to detect data falsification better. This is because CAPI devices can produce a variety of metadata that can not be obtained when using paper questionnaires. This study discusses relevant features to detect interviewer falsification in CAPI-based surveys, validates them, and uses them to identify interviewer falsification automatically using data mining techniques so that human supervisors can take further actions. After analyzing relevant features and conducting experiment, the result showed that unsupervised classification algorithm using simple 2-means clustering could have up to 70,5% accuracy, while supervised classification using logistic regression could have up to 88,5% accuracy."
Jakarta: Sekolah Tinggi Ilmu Statistik (STIS-Statistics Institute Jakarta, 2014
JASKS 6:2 (2014)
Artikel Jurnal  Universitas Indonesia Library
cover
Darell Hendry
"Chatbot sebagai asisten virtual yang digunakan oleh suatu instansi dapat memberikan manfaat bagi penggunanya. Dengan adanya chatbot, pengguna dapat berbicara langsung kepada chatbot melalui pesan singkat, yang kemudian sistem secara spontan mengidentifikasi intent pesan tersebut dan merespons dengan tindakan yang relevan. Sayangnya, cakupan pengetahuan chatbot terbatas dalam menangani pesan oleh pengguna yang semakin bervariasi. Dampak utama dari adanya variasi tersebut adalah adanya perubahan pada komposisi label intent. Untuk itu, penelitian ini berfokus pada dua hal. Pertama, pemodelan topik untuk menemukan intent dari pesan pengguna yang belum teridentifikasi intent-nya. Kedua, pemodelan topik digunakan untuk mengorganisasi intent yang sudah ada dengan menganalisis hasil keluaran model topik. Setelah dianalisis, terdapat dua kemungkinan fenomena perubahan komposisi intent yaitu: penggabungan dan pemecahan intent, dikarenakan terdapat noise saat proses anotasi dataset orisinal. Pemodelan topik yang digunakan terdiri dari Latent Dirichlet Allocation (LDA) sebagai model baseline dan dengan model state-of-the-art Top2Vec dan BERTopic. Penelitian dilakukan terhadap dataset salah satu e-commerce di Indonesia dan empat dataset publik. Untuk mengevaluasi model topik digunakan metrik evaluasi coherence, topic diversity dan topic quality. Hasil penelitian menunjukkan model topik BERTopic dan Top2Vec menghasilkan nilai topic quality 0.036 yang lebih baik dibandingkan model topik LDA yaitu -0.014. Terdapat pula pemecahan intent dan penggabungan intent yang ditemukan dengan analisis threshold proporsi.

Chatbot, as a virtual assistant used by an institution, can provide benefits for its users. With a chatbot, users can speak directly to the chatbot via a short message, which then the system spontaneously identifies the intent of the message and responds with the relevant action. Unfortunately, the scope of chatbot knowledge is limited in handling messages by an increasingly varied user. The main impact of this variation is a change in the composition of the intent label. For this reason, this research focuses on two things. First, topic modeling to find intents from user messages whose intents have not been identified. Second, topic modeling is used to organize existing intents by analyzing the output of the topic model. After being analyzed, there are two possible phenomena of changing intent composition: merging and splitting intents because there is noise during the annotation process of the original dataset. The topic modeling used consists of Latent Dirichlet Allocation (LDA) as the baseline model and the state-of-the-art Top2Vec and BERTopic models. The research was conducted on one dataset of e-commerce in Indonesia and four public datasets. The evaluation metrics of coherence, topic diversity, and topic quality were used to evaluate the topic model. The results showed that the BERTopic and Top2Vec topic models produced a topic quality value of 0.036, better than the LDA topic model, which was -0.014. There are also intent splitting and intent merging found by proportion threshold analysis."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2021
S-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Agus Zainal Arifin
"Klasifikasi citra penginderaan jauh (inderaja) bertujuan untuk menghasilkan peta tematik, dimana tiap warna mewakili sebuah objek, misalkan hutan laut, sungai, sawah dan lain-lain. Makalah ini mempresentasikan disain dan implementasi perangkat lunak untuk mengklasifikasi citra inderaja multispektral. Metode berbasis unsupervised yang diusulkan ini adalah integrasi dari metode feature extraction, hierarchical (hirarki) clustering dan partitional (partisi) clustering. Feature extraction dimaksudkan untuk mendapatkan komponen utama citra multispektral tersebut sekaligus mengeliminir komponen yang redundan, sehingga akan mengurangi kompleksitas komputasi. Histogram komponen utama ini dianalisa untuk lemlah terkonsentrasinya pixel dalam feature space, sehingga proses split dapat menghasilkan cluster dengan cepat.
Beberapa cluster yang sangat mirip akan digabungkan oleh proses merge. Pada tahap akhir proses partisi akan mendeteksi prototype tiap cluster dengan Fuzzy C-Mean (FCM). Uji coba perangkat lunak ini dilakukan pada citra Landsat TM dan GOES-8. Hasilnya diukur berdasarkan homogenitas eksekusi dan nilai label contingency. Tabel ini akan membuktikan keberhasilan klasifikasi terhadap 800 sampel dari Jawa Timur yang sebelumnya telah dikenali. Untuk bahan perbandingan sampel diuji coba dengan algortima ISMC (Improve Split and Merge Classification), yang berdasarkan penelitian sebelumnya telah telah terbukti lebih baik dari pada ISODATA. Secara umum, uji coba menunjukkan keunggulannya dibandingkan ISMC."
2002
JIKT-2-1-Mei2002-49
Artikel Jurnal  Universitas Indonesia Library
cover
Ashari Nurhidayat
"Ekstraksi topik adalah kegiatan untuk mendapatkan topik dalam kumpulan dokumen berita. Ekstraksi topik memiliki peran yang penting untuk mendapatkan maksud dari keseluruhan dokumen teks tersebut. Metode yang umum digunakan dalam machine learning untuk pencarian topik utama adalah unsupervised learning, dimana topik diekstraksi dari kumpulan dokumen tanpa bergantung pada label dokumen. Salah satu metode yang dapat digunakan untuk mengekstraksi topik dari kumpulan dokumen berita yaitu latent semantic analysis (LSA). LSA mengaplikasikan teknik singular value decomposition (SVD) untuk mendapatkan hubungan kata dengan topik dalam kumpulan dokumen berita. Pada skripsi ini, dibahas mengenai implementasi metode LSA pada kumpulan dokumen dari portal berita online berbahasa Indonesia. Selanjutnya, keluaran metode LSA dibandingkan dengan hasil ekstraksi topik secara manual untuk menunjukkan keberhasilan metode LSA.

Topic extraction is an activity to get a topic from text document collection. Topic extraction is very important in order to find out the meaning of those whole text document. The general method used in machine learning for finding the main topic is unsupervised learning, where a topic is extracted from the document collection without depending on document labels. One of Methods which can be used for extracting a topic from text document collection is latent semantic analysis (LSA). Furthermore, LSA using LSA to show a relation between words and topic in their organizer document collection. In this skripsi, the implementation of LSA method in documents collection from Indonesian online news portal discussed. Furthermore, LSA method output compared with manual extraction to demonstrate the success of LSA."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2012
S42092
UI - Skripsi Open  Universitas Indonesia Library
cover
Shafira Nur Amalia
"Dalam suatu penelitian, dibutuhkan data yang dikumpulkan dan diolah untuk memecahkan permasalahan dan membuktikan hipotesis dalam penelitian. Namun, seringkali data yang diperoleh tidak menyimpan nilai untuk suatu variabel pada observasi yang diharapkan. Data yang tidak tersimpan menyebabkan data penelitian kosong dan berdampak pada penelitian. Jika peristiwa ini terjadi, maka penelitian terindikasi memiliki missing data atau missing values. Salah satu cara untuk mengatasi missing values yaitu dengan imputasi. Imputasi bekerja dengan mengisi nilai pada missing values dengan suatu nilai estimasi yang telah dianalisis dan diputuskan untuk membuat suatu dataset lengkap. Dalam proses imputasi, seringkali ditemukan bahwa data yang digunakan untuk imputasi terkadang memiliki karakteristik yang tidak jelas atau tidak konsisten, maka salah satu solusinya adalah dengan menggunakan metode Fuzzy C-Means (FCM). Estimasi nilai-nilai missing values menggunakan model FCM menghasilkan model prediksi dengan variasi parameter yang beragam sehingga dibutuhkan pendekatan lain untuk menghasilkan model terbaik dengan parameter yang optimal. Hal inilah yang mendasari diperlukannya suatu pendekatan hybrid, yaitu dengan menggabungkan beberapa model machine learning untuk memperoleh hasil estimasi missing values terbaik. Pada penelitian ini, dilakukan implementasi Hybrid Fuzzy C-Means dan Majority Vote (Hybrid FCMMV) pada data Penyakit Paru Obstruktif Kronik (PPOK) tahun 2012-2017 yang diperoleh dari Rumah Sakit Cipto Mangunkusumo (RSCM) untuk memberikan performa imputasi yang lebih baik berdasarkan akurasi, presisi, recall, dan F-Score melalui klasifikasi metode ensemble Random Forest.

In a research study, collected and processed data are needed to solve problems and prove hypotheses. However, the obtained data often do not store the value for a variable in the expected observation. Data that are not stored contribute to the emptying of research data which has an impact on the research itself. If the phenomenon occurs, it indicates that the research has missing data or missing values. One way to overcome missing values ​​is using imputation techniques. The technique works by filling in the missing values with an estimated value that has been analyzed and decided to create a complete dataset. In the process, it is often found that the data being used for imputation have unclear or inconsistent characteristics, which can be solved by implementing Fuzzy C-Means (FCM) method. The estimation of missing values ​​using the FCM model produces predictive models with a variety of parameters, hence another approach to produce the best model with optimal parameters is needed. This underlies the need for a hybrid approach, which is acquired through combining or integrating different machine learning models to earn the best estimation result of missing values. In this study, the implementation of Hybrid Fuzzy C-Means and Majority Vote (Hybrid FCMMV) was conducted on Chronic Obstructive Pulmonary Disease (COPD) data in 2012-2017 from Cipto Mangunkusumo Hospital (RSCM) ) to provide better imputation performance based on accuracy, precision, recall, and F-Score through the classification of the Random Forest ensemble method."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Rafi Andhika Pratama
"Ekosistem terumbu karang yang baik dapat bermanfaat bagi keberlangsungan hidup habitat ikan serta ekosistem perairan. Pada penelitian kali ini bertujuan untuk melakukan analisis pengaruh aktivitas manusia terhadap persebaran terumbu karang di Wilayah Perairan Pulau Samatellu Lompo, Kabupaten Pangkajene Kepulauan, Sulawesi Selatan pata tahun 2000, 2014, 2018, serta 2021. Persebaran terumbu karang didapatkan melalui survei lapang dengan menggunakan metode foto transek bawah air, serta melakukan pengolahan data citra menggunakan algoritma Lyzenga untuk koreksi kolom air, setelah itu dilakukan proses klasifikan objek perairan dengan klasifikasi unsupervised. Terkait aktivitas manusia yang mempengaruhi kerusakan terumbu karang didapatkan melalui wawancara terhadap informan serta mencari studi literatur terkait. Hasil penelitian menunjukan bahwa Terumbu karang di Perairan Samatellu lompo semakin menurun dari tahun 2000-2021. Pada tahun 2000 luas karang hidup yaitu sebesar 13,53 ha, sedangkan tahun 2021 karang hidup menurun dengan luas sebesar 8,031 ha. Kegiatan destructive fishing, yakni kegiatan penangkapan ikan dengan cara yang merusak seperti pemboman serta pembiusan manusia menjadi faktor utama dalam kerusakan terumbu karang. Berdasarkan pengalaman serta pengetahuan informan, diketahui bahwa wilayah yang biasa dijadikan sebagai kegiatan destructive fishing adalah di bagian barat serta utara perairan Samatellu Lompo. Dengan menggunakan pemboman dapat mengakibatkan karang berubah menjadi pecahan karang atau rubble.

Good coral reef ecosystem can be beneficial for the survival of fish habitats and aquatic ecosystems. This study aims to analyze the influence of human activities on the distribution of coral reefs in the waters of Samatellu Lompo Island, Pangkajene Islands Regency, South Sulawesi in 2000, 2014, 2018, and 2021. Distribution of coral reefs was obtained through a field survey using the photo method. underwater transects, like processing image data using the Lyzenga algorithm for air column correction, after the process of classifying aquatic objects with unsupervised classification. Human activities that affect coral reef damage obtained through interviews with informants and looking for related literature studies. The results showed that the coral reefs in the Samatellu Lompo waters decreased from 2000-2021. In 2000, area of live coral was 13.53 ha, while in 2021, decreased by 8,031 ha. Destructive fishing activities, namely fishing activities in destructive ways such as bombing and anesthesia are the main factors in the destruction of coral reefs. Based on the experience and knowledge from informants, it’s known that the areas commonly used as destructive fishing activities are in the western and northern waters of Samatellu Lompo that causing coral to turn into dead coral or rubble."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2   >>