Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 158480 dokumen yang sesuai dengan query
cover
cover
Isfan Hany Yaman
"Cluster analisis dari atribut seismik merupakan suatu metode yang digunakan untuk mengelompokkan litologi dari data seismik yang telah direkam dan diproses. Secara prinsip, cluster analisis memproyeksikan N atribut seismik ke sistem koordinat dengan N-dimensi yang menghasilkan K cluster yang merepresentasikan litologi yang berbeda. Penentuan center dari data dapat dilakukan melalui proses iterasi yang centernya tidak ditentukan (unsupervised), atau dengan menentukan posisi awal center dari informasi yang diketahui yang kemudian berubah-rubah karena proses iterasi (semi-supervised). Informasi yang diketahui ini misalnya dapat berasal dari atribut yang diekstrak pada posisi sumur.
Ada banyak atribut-atribut yang dapat diekstrak dari data seismik dan pemilihan atribut yang hanya dapat mempengaruhi distribusi litologi ini secara dominan bukan merupakan hal yang mudah karena pada kenyataannya beberapa atribut tidak memberikan kontribusi dalam pengelompokkan litologi. Untuk mengurangi hal itu, penulis menggunakan generalized principal component analysis pada atribut seismik. Metode ini terdiri dari dua langkah; Pertama, meningkatkan variasi data dengan menggunakan metode principal komponen sehingga pemisahan data yang lebih baik bisa didapatkan, dan kedua, memilih atribut yang telah terotasi yang memberikan kontribusi untuk clustering berdasarkan urutan nilai eigen valuenya. Dalam penelitian ini penulis menggunakan metode semi-supervised.
Alasan penggunaan metode tersebut adalah posisi sumur-sumur yang di bor mungkin saja berada pada tepi reservoar yang tidak mencerminkan sifat fisis batuan secara ratarata pada daerah reservoir tersebut. Kemudian jika posisi center dibuat tetap dapat mengakibatkan distorsi informasi secara umum mengenai sifat fisis batuan. Data sesimik full stack dengan beberapa sumur yang ada diproses untuk menghasilkan litologi map dari area tersebut. Hasil yang didapatkan menunjukkan konsistensi dengan peta litologi yang sudah ada yang di intrepetasi dari korelasi data sumur.

Cluster analysis of seismic attributes is a tool to classify lithologies brought by recorded and processed seismic data. In principal, cluster analysis projects N seismic attributes into N-dimension coordinate system resulting with K groups of clouds representing different lithologies. Identification of the center of the clouds and its related samples can be done differently by iterative process (unsupervised), or by defining initial centers from known information and then updating them through iterative process (semi-supervised). The information may come, for example, from attributes at well locations.
There are a lot of seismic attributes that can be generated from seismic data and choosing attributes that mainly affect the distribution of the lithology clouds is not a simple task to do due to the fact that some attributes may not contribute to the separation of the clusters. To reduce that difficulty, the authors implemented a generalized principal components analysis of seismic attributes. This method consists of two steps : First, increasing the variation of data points using the principal component method such that better cluster separation can be obtained, and second, selecting contributing rotated attributes based on the rank of previously calculated eigen values.
In this work, the authors using the semi-supervised methods. The reason to use those methods is that wells may be drilled at the edge of the reservoir where the rock property at that location shows deviation from the average rock property of the reservoir. Hence, fixing the center may distort the general information of rock property of the reservoir. Full stack seismic data from Boonsville area with some existing wells were processed to generate lithology map of that area. Results show consistency with existing lithology map interpreted from well correlation."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2005
S28859
UI - Skripsi Membership  Universitas Indonesia Library
cover
Joko Ariyanto
"Ada banyak attributattribut yang dapat diekstrak dari data seismik dan pemilihan attribut yang hanya dapat mempengaruhi distribusi litologi ini secara dominan bukan merupakan hal yang mudah karena pada kenyataannya beberapa attribut tidak memberikan kontribusi dalam pengelompokan litologi. Untuk mengurangi hal itu, penulis menggunakan Principal Component Analysis (PCA) pada data seismik dan generalized principal component analysis (GPCA) pada attribut seismik. Analisis GPCA terdiri dari dua langkah: Pertama, meningkatkan variasi data dengan menggunakan principal component analysis sehingga pemisahan data yang lebih baik bisa didapatkan, dan kedua, memilih attribut yang telah terotasi berdasarkan urutan nilai eigen valuenya yang dihitung sebelumnya. Tujuan analisis PCA adalah untuk menghilangkan komponen bising yang bersifat acak yang terdapat di dalam data seismik sedangkan tujuan analisis GPCA adalah untuk menghasilkan atribut seismik yang mampu memberikan kontribusi untuk clustering.
Cluster analisis dari attribut seismik merupakan suatu metode yang digunakan untuk mengelompokkan litologi dari data seismic yang telah direkam dan diproses. Secara prinsip, cluster analisis memproyeksikan N attribut seismik ke sistem koordinat dengan N-dimensi yang menghasilkan K cluster yang merepresentasikan litologi yang berbeda. Penentuan pusat awan data (centroid) dapat dilakukan melalui proses yang iteratif (unsupervised). Algoritma clustering yang dipakai adalah Kmeans clustering. Hasil clustering yang didapat menunjukkan konsistensi dengan peta litologi yang sudah ada yang di intrepetasi dari korelasi data sumur.

There are a lot of seismic attributes that can be generated from seismic data and choosing attributes that mainly affect the distribution of the lithology clouds is not a simple task to do due to the fact that some attributes may not contribute to the separation of the clusters. To reduce that difficulty, the authors implemented a principal component analysis (PCA) of seismic data and a generalized principal components analysis (GPCA) of seismic attributes. This GPCA analyisis consists of two steps : First, increasing the variation of data points using the principal component method such that better cluster separation can be obtained, and second, selecting contributing rotated attributes based on the rank of previously calculated eigen values. The aim of PCA analysis is to reduce noise effect which random in seismic data while the aim of GPCA analysis is to result seismic attributes which give contribution to clustering.
Cluster analysis of seismic attributes is a tool to classify lithologies brought by recorded and processed seismic data. In principal, cluster analysis projects N seismic attributes into Ndimension coordinate system resulting with K groups of clouds representing different lithologies. Identification of the center of the clouds and its related samples can be done differently by iterative process (unsupervised). Clustering algorithm is Kmeans clustering. The results of clustering show consistency with existing lithology map interpreted from well correlation."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2005
S28860
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ahmad Fahrezi
"Kanker prostat merupakan salah satu penyakit yang menjadi penyebab kematian utama di kalangan pria. Deteksi dini melalui pemindaian medis dapat membantu dalam pengobatan dan penanganan yang efektif. Namun, interpretasi dari pemindaian ini seringkali sulit dan memerlukan keahlian klinis yang tinggi oleh para ahli patologi. Selain itu keterbatasan dataset publik dengan bentuk biopsi H&E dengan anotasi level biopsy hinggal level patch yang tersedia terbatas jumlahnya sehingga menyebabkan pelatihan machine learning menjadi lebih sulit. Oleh karena itu, penelitian ini bertujuan untuk mengembangkan dataset dengan model machine learning yang dapat membantu mengimprove model machine learning pengklasifikasi kanker prostat. Model machine learning yang digunakan untuk mengembangkan dataset dalam penelitian ini adalah conditional Progressive Growing GAN (ProGleason-GAN), sebuah jenis jaringan saraf tiruan yang dapat digunakan untuk mempelajari dan menghasilkan gambar sintetis dari pemindaian prostat yang telah menunjukkan hasil yang menjanjikan dalam generasi gambar sintetis beresolusi tinggi. Dataset yang ditambahkan dengan hasil gambar sintesis ProGleason-GAN digunakan untuk melatih model klasifikasi kanker prostat yaitu Semi Supervised Learning yang di gabungkan dengan Multiple Instance Learning. Dataset yang yang berisikan dataset SICAPv2 yang ditambahkan dengan hasil augmentasi ProGleason-GAN dinamakan SICAPv2 augmented. Penulis juga mengembangkan model klasifikasi dengan penambahan batch normalization yang dimana memungkinkan setiap batch data yang diberikan ke jaringan untuk dinormalisasi terlebih dahulu sebelum diolah lebih lanjut oleh jaringan. Ketika model klasifikasi ditambahkan dengan batch normalization serta dilatih dengan SICAPv2 augmented , maka nilai accuracy yang dihasilkan sebesar 76% lebih tinggi 4% model acuan.

Prostate cancer is a disease that is the main cause of death among men. Early detection through medical scanning can help in effective treatment and management. However, interpretation of these scans is often difficult and requires a high degree of clinical skill by pathologists. In addition, the limited number of available public datasets in the form of H&E biopsies with biopsy level to patch level annotations makes machine learning training more difficult. Therefore, this research aims to develop a dataset with a machine learning model that can help improve machine learning models for prostate cancer classification. The machine learning model used to develop the dataset in this research is Conditional Progressive Growing GAN (ProGleason-GAN), a type of artificial neural network that can be used to learn and generate synthetic images from prostate scans which has shown promising results in the generation of high-resolution synthetic images. tall. The dataset added with the ProGleason-GAN synthetic image results is used to train a prostate cancer classification model, namely Semi Supervised Learning combined with Multiple Instance Learning. The dataset containing the SICAPv2 dataset added with the results of ProGleason-GAN augmentation is called SICAPv2 augmented. The author also developed a classification model with the addition of batch normalization, which allows each batch of data given to the network to be normalized first before being further processed by the network. When the classification model was added with batch normalization and trained with augmented SICAPv2, the resulting accuracy value was 76%, 4% higher than the reference model."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ardibian Krismanti
Depok: Universitas Indonesia, 2010
S27787
UI - Skripsi Open  Universitas Indonesia Library
cover
Ardibian Krismanti
"Dari pemeriksaan MRI, diperoleh gambar jaringan otak, yang akan digunakan oleh proton MRS untuk menentukan konsentrasi metabolit otak pada jaringan yang didiagnosa astrocytoma, seperti metabolit NAA, choline, creatine, Lipid, Lactate, Myoinositol, dan Glutamine-glutamate. Dari hasil MRS ini, astrocytoma dapat diklasifikasi berdasarkan derajat keganasannya (grade), yaitu high grade dan low grade. Proses klasifikasi astrocytoma, biasa dilakukan secara manual oleh ahli patologi atau secara statistik. Dalam skripsi ini, akan dibahas proses klasifikasi astrocytoma menjadi tiga kelas derajat keganasan dengan menggunakan metode Principal Component Analysis (PCA) dan Spherical K-Means terhadap data MRS. Algoritma Spherical K-Means merupakan algoritma K- Means dengan cosine similarity. Sedangkan PCA merupakan teknik yang digunakan untuk mencari vektor-vektor basis subruang tiap kelas (grade). Vektor-vektor basis ini akan membangun Principal Component yang akan digunakan dalam pengidentifikasian grade suatu data MRS. Data yang digunakan dalam skripsi ini adalah data yang berasal dari laboratorium radiologi Rumah Sakit Cipto Mangunkusumo (RSCM), Jakarta. Hasil penelitian yang dilakukan pada skripsi ini, diketahui bahwa PCA dapat mengklasifikasi astrocytoma dengan akurasi tertinggi, yaitu 85%. Selain itu, dari penelitian ini dihasilkan perangkat lunak yang dapat digunakan untuk membantu pengambilan keputusan yang terkait dengan klasifikasi astrocytoma menjadi high grade, low grade, dan normal.

MRI gives information in form of brain tissue image, which will be used by MRS proton to determine the concentration of brain metabolites on the astrocytoma diagnosed tissue, such as NAA, choline (Cho), creatine (Cr), Lipid (Lip), Lactate (Lac), Myoinositol (MI), and Glutamine-glutamate (Glx). From that result, astrocytoma could be classified to high grade and low grade. This classifying could be processed manually by pathologist, or be processed statistically. On this essay, astrocytoma would be classified into three class of astrocytoma grades with the Principal Component Analysis (PCA) and Spherical K-Means of the MRS data. Spherical K-Means algorithm is a K-Means algorithm with cosine similarity. At the same time, PCA is a technique which used to find the basis vectors of each class (grade) subspace. These basis vectors would build Principal Component which would be used in identifying a grade of a MRS data. The data used in this essay is resourced from radiology laboratory of Rumah Sakit Cipto Mangunkusumo (RSCM), Jakarta. From this research, note that PCA can classify astrocytoma with the highest accuracy, ie 85%. In addition, this research produce software that can be used to assist decision making related to the classification of astrocytoma to high grade, low grade, and normal"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2010
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nur Fitriani
"Kinerja mahasiswa adalah bagian penting dari suatu perguruan tinggi. Hal ini dikarenakan salah satu kriteria  perguruan tinggi yang berkualitas didasarkan pada  prestasi akademik yang baik. Tahun pertama perkuliahan adalah periode mahasiswa untuk meletakkan dasar atau fondasi yang selanjutnya akan mempengaruhi keberhasilan akademik karena tahun pertama memainkan peran penting dalam membentuk sikap dan kinerja siswa di tahun-tahun berikutnya. Pada Penelitian ini, pendekatan Semi-supevised Learning digunakan dalam mengklasifikasi kinerja mahasiswa tahun pertama di Departemen Matematika, Universitas Indonesia. Kinerja Mahasiswa dibagi menjadi dua kategori, yaitu sedang dan tinggi. Sampel pada penelitian ini adalah 140 mahasiswa tahun pertama dengan menggunakan 27 fitur. Ada dua proses yang digunakan, yaitu proses clustering dan klasifiksi. Pada proses clustering, mahasiswa dibagi menjadi tiga cluster/kelompok menggunakan K-Means Clustering. Sedangkan dalam proses klasifikasinya menggunakan Naïve Bayes Classifier. Kinerja algoritma yang diusulkan menghasilkan nilai akurasi 96.67% dan sensitifitas 94.44%.

Students performance is an essential part of a higher learning institution because one of the criteria for a high-quality university is based on its excellent record of academic achievements. The first- year of the lecture is the student period in laying the foundation that will affect academic success because first-year plays an important role in shaping the attitudes and performance of students in the following years. In this study, a semi-supervised learning approach is used to classify the performance of first-year students in the Department of Mathematics, Universitas Indonesia. Student performance will be divided into two categories, namely medium and high. The sample in this study consist of 140 first-year students with 27 features. There are two processes used i.e. clustering and the classification process. In the clustering process, the data is divided into three clusters using K-Means Clustering and the Naïve Bayes Classifier is chosen to classify it. The performance of the proposed algorithms is stated by accuracy and sensitivity value i.e. 96.67% and 94.44% respectively."
Depok: Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Iswan
"Kebutuhan listrik yang senantiasa meningkat setiap tahunnya, wilayah yang sangat luas dan jumlah penduduk yang besar, maka harus mampu membangun dan melayani seluruh kebutuhan listrik masyarakat. Sebagai rangkaian menyeluruh terhadap seluruh kebutuhan energi dan daya listrik tersebut, maka perlu adanya perencanaan yang saling berkait dan terus-menerus. Dengan demikian perlu adanya peramalan terhadap perkembangan dan kebutuhan dimasa depan.
Terbatasanya data yang tersedia juga menjadi kendala dalam membuat peramalan yang akurat. Oleh karena itu penelitian memiliki tujuan untuk memperbaiki metode peramalan beban listrik sehingga menjadi sederhana dan akurat dengan optimalisasi data, kemudian memodifikasi peramalan beban listrik berbasis spasial yang sesuai ciri wilayah dengan jumlah data dan variabel yang terbatas. Penelitian ini berbasis spasial dengan mengembangkan metode Analisis Klastering untuk memperoleh beberapa sel kecil yang disebut klaster. Klaster ini terbentuk berdasarkan kemiripan data yang dimiliki sesuai dengan variabel yang telah ditentukan. Kemudian untuk memperoleh hasil yang akurat, maka dilakukan peramalan menggunakan metode regresi linear dan menggabungkannya dengan metode Principal Component Analysis (PCA). PCA ini mampu memberikan hasil galat yang kecil pada tiap perhitungannnya.
Struktur penyelesaian masalah dalam penelitian ini dengan membuat peramalan berdasarkan jumlah variabel dengan tetap mengacu pada jumlah klaster yang terbentuk. Setiap jumlah variabel juga akan dibedakan jenis variabelnya agar terlihat ciri yang dimiliki oleh tiap klaster tersebut.
Berdasarkan hasil yang diperoleh, nilai MAPE pada setiap perhitungan umumnya bernilai sangat baik. Nilai MAPE terendah untuk daya terpasang berada pada nilai 0,397% dan hampir seluruh klaster nilai MAPE berada dibawah 1%. Sedangkan pada peramalan energi terjual, nilai MAPE masih berada di atas 1%. Jumlah variabel yang banyak umumnya memiliki nilai MAPE yang kecil, walaupun dibeberapa kejadian variabel yang sedikit nilai MAPE juga rendah.

The need for electricity that continues to increase every year, a very large area, and a large population make a government must be able to build and serve all the electricity needs of the community. As a comprehensive series of all these energy and electrical power needs, interrelated and continuous planning is needed. Thus, it is necessary to forecast the development and demand for electricity in the future.
However, the limited data available is an obstacle in making accurate forecasts. Therefore, this study aims to improve the electrical load forecasting method so that it becomes simpler and its accuracy increases with data optimization. Then, modification of the electrical load forecasting method using a spatial basis is carried out according to the characteristics of the area with a limited amount of data and variables. This research is spatially based by developing a clustering analysis method to obtain several small cells called clusters. This cluster is formed based on the similarity of the data held in accordance with the predetermined variables. Then to obtain more accurate results, forecasting is done using the linear regression method and combining it with the Principal Component Analysis (PCA) method. This PCA is able to provide results with small errors in each calculation.
The structure of problem solving in this study is to make forecasts based on the number of variables while still referring to the number of clusters formed. Each number of variables is distinguished by the type of variable so that the characteristics possessed by each cluster can be seen.
Based on the results obtained, the MAPE value in each calculation is generally very good. The lowest MAPE value for installed power is 0.397% and almost all clusters the MAPE value is below 1%. Then, in the forecast of energy sold, the MAPE value is still above 1%. A large number of variables, in general, has a small MAPE value, although in some cases, a small number of variables has a low MAPE value.
"
Depok: Fakultas Teknik Universitas Indonesia, 2021
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Bella Septina Ika Hartanti
"Bencana banjir merupakan salah satu peristiwa alam yang sering terjadi di dunia, termasuk Indonesia, dan terjadi ketika aliran air yang berlebihan menggenangi daratan dalam jangka waktu tertentu. Perubahan iklim, cuaca ekstrem, urbanisasi yang tidak terkendali, dan kondisi geografis yang kompleks telah berkontribusi terhadap peningkatan frekuensi dan intensitas banjir, terutama di daerah perkotaan. Analisis banjir otomatis dan deteksi citra dapat memberikan panduan dan informasi yang berguna dalam membuat keputusan untuk mengurangi dampak destruktif seperti korban jiwa dan ekonomi, salah satunya dengan melakukan segmentasi untuk membantu proses pembuatan peta kerawanan banjir. Namun, sejumlah kecil data beresolusi tinggi dan berlabel yang tersedia membuat proses segmentasi sulit untuk dilakukan. Oleh karena itu, penulis mengusulkan pendekatan semi-supervised yaitu mean teacher dengan memanfaatkan teknik deep learning. Adapun dataset yang digunakan adalah citra SAR Sentinel-1 C-band yang telah diolah sebelumnya. Hasil penelitian menunjukkan bahwa model usulan memberikan kenaikan performa yang cukup signifikan pada metrik IoU sebesar 5% terhadap baseline yang mengimplementasikan teknik pseudo-labeling.

Floods are one of the natural disaster events that occur in the world. Floods happen when excessive water flows and submerges land for a certain period of time. Climate change, extreme weather, uncontrolled urbanization, and complex geographical conditions have contributed to the increase in the frequency and intensity of floods, especially in urban areas. Automatic flood analysis and detection of imagery can provide useful guidance and information in making decisions to reduce destructive impacts such as loss of life and economy. However, the small amount of high-resolution and labeled data available makes the segmentation process difficult for flood detection. Therefore, the author proposes a semi-supervised approach, namely mean teacher by utilizing the deep learning architecture. The dataset used is the SAR image of Sentinel-1 C-band which has been processed. The results show that the proposed model provides a significant increase in performance on the IoU metric by 5% against the baseline that implements the pseudo-labeling technique."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Inry Raudiatul Fauzi
"Kanker merupakan penyakit penyebab kematian terbesar kedua di dunia. Menurut prediksi WHO 2015 kasus kematian akibat kanker akan meningkat menjadi 21,6 juta kasus pada tahun 2030. Salah satu usaha untuk mengurangi penyebaran kanker dengan menggunakan machine learning adalah melakukan pendeteksian jenis kanker dengan memanfaatkan microarray data. Pada umumnya, microarray data kanker terdiri dari banyak fitur. Namun, tidak semua fitur yang ada pada data kanker memiliki informasi penting. Oleh karena itu, fitur-fitur tersebut akan diekstraksi menggunakan metode Principal Component Analysis PCA. Kemudian dipilih fitur-fitur yang paling informatif dari data hasil ekstraksi PCA. Fitur-fitur terpilih dari data hasil ekstraksi akan dibentuk dalam data baru. Data sebelum dan data setelah dilakukan pemilihan fitur akan diklasifikasi menggunakan metode Fuzzy Support Vector Machines FSVM. Akurasi dari proses klasifikasi dua tahap tersebut akan dibandingkan. Pendekatan one versus one akan digunakan pada masalah klasifikasi multikelas data kanker leukemia. Dengan pendekatan tersebut akan terbentuk sebanyak k k-1 /2 masalah dua kelas, di mana k menunjukkan jumlah kelas. Hasilnya, tanpa melakukan pemilihan fitur, diperoleh akurasi tertinggi sebesar 87.69. Setelah dilakukan pemilihan fitur, diperoleh akurasi terbaik dengan menggunakan 60 fitur dengan akurasi sebesar 96,92.

Cancer is the second leading cause of death globally. According to WHO prediction 2015 cases of cancer deaths will increase become 21.6 million cases by 2030. One of the effort to reduce the spread of cancer by using machine learning is to detect the types of cancer. We can use microarray data to detect the types of cancer. In general, microarray cancer data consist of many features. However, not all features in cancer data have important information. Therefore, these features will be extracted by using Principal Component Analysis PCA method. Then, we select the most features who have important information of data extraction. The selected features of extracted data will be formed in the new data. Data, before and after selection will be classified using Fuzzy Support Vector Machines FSVM method. The accuracy of the classification process will be compared. The one versus one approach will be used on multiclass leukemia cancer data. This approach will formed the multiclass problem into k k 1 2 binary class problems, where k denotes the number of classes. The results, without doing feature selection, the highest accuracy is 87.69. After doing feature selection, the best accuracy is obtained by using 60 features with the accuracy is 96.92.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>