Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 192119 dokumen yang sesuai dengan query
cover
Agung Wahyudi
"Content Based Image Retrieval (CBIR) adalah teknik mencari gambar yang mempunyai kemiripan dengan informasi gambar tertentu dari sekumpulan gambar dengan melakukan perbandingan antara gambar query dengan gambar yang berada pada database berdasarkan informasi yang ada pada gambar tersebut. Untuk menentukan ciri warna dari suatu citra ikan digunakan perhitungan histogram warna dengan tipe Global Color Histogram (GCH) dilanjutkan dengan histogram intersection dan untuk mengenali pola bentuk menggunakan Back Propagation Neural Network (BPNN) dengan setting parameter terdiri dari hidden layer 20, fungsi aktivasi yang digunakan adalah sigmoid biner, metode pelatihan yang digunakan traingdx, jumlah error minimum 0,1 dan jumlah epoch 5000. pengujian image retrieval menggunakan jumlah gambar database sebanyak 100 gambar, hasil proses pencarian yang ditampilkan pada user interface maksimal sebanyak 10 gambar query. Berdasarkan hasil uji coba dengan menggunakan kedua teknik yang penulis usulkan ini yaitu histogram intersection dan Back Propagation Neural Network (BPNN) didapat rata-rata prosentase keakuratan mendekati 100%.

Content-Based Image Retrieval (CBIR) is a technique to find a picture which has some similarities with the specific image information from a collection of pictures by making comparisons between a query image with images that are in the database based on existing information on these images. To determine the color features of an image of fish used in the calculation of color histogram with the type Global Color Histogram (GCH) followed by histogram intersection and to recognize patterns of shapes using the Back Propagation Neural Network (BPNN), with the parameter settings consist of : number of hidden layers are 20, activation function used binary sigmoid, training methods used traingdx, the amount of the minimum error of 0.1 and the number of epoch 5000. test image retrieval using database files as much as 100 images, the results of the process of searching the user interface displayed on a maximum of 10 image queries. Based on trial results using these two authors propose that this technique is histogram intersection and Back Propagation Neural Network (BPNN) obtained an average percentage of accuracy approaching 100%."
Depok: Fakultas Teknik Universitas Indonesia, 2010
T27914
UI - Tesis Open  Universitas Indonesia Library
cover
cover
Satrya N. Ardhytia
"Kompresi citra adalah proses mengurangi ukuran dari citra dengan mengurangi kualitas dari citra tersebut. Metode Fraktal yang digunakan bekerja dengan mencari kemiripan pada piksel-piksel citra dan mengelompokkannya dalam beberapa cluster. Semakin tinggi tingkat kemiripan pada citra, rasio kompresi akan semakin baik. Pada citra berwarna (RGB) metode tersebut diulang sebanyak tiga kali, masing-masing untuk satu elemen warna. Hasil akhir dari proses kompresi adalah tiga virtual codebook, masing-masing untuk satu elemen warna, yang menyimpan nilai dari brightness, contrast, dan tipe transformasi affine yang digunakan untuk tiap cluster. Proses dekompresi dari metode ini adalah dengan membentuk citra kosong dengan resolusi yang sama dengan citra asli dan mengisikan nilai RGB pada tiap piksel yang bersangkutan dengan menghitung nilai yang tersimpan pada virtual codebook. Dengan menggunakan nilai Coefficient of Variation (CV) sebagai penyesuaian nilai standar deviasi dan 57 citra BMP24-bit, hasil pengujian menunjukkan rasio kompresi rata-rata sebesar 41.79%. Dengan metode paralel yang digunakan, proses kompresi citra berwarna menunjukkan rata-rata nilai speed-up sebesar 1.69 dan nilai efisiensi prosesor sebesar 56.34%.
Image compression is a process of reducing the size of the image by reducing the quality of the image. Fractal method is used to work by searching for similarities in the image pixels, and group them in clusters. The higher the degree of resemblance to the image, the better the compression ratio. In the color image (RGB) the method is repeated three times, each for one color element.The end result of the compression process is a three virtual codebook, each for one color element, which stores the value of the brightness, contrast, and the type of affine transformation are used for each cluster. Decompression process of this method is to form a blank image with the same resolution with the original image and fill in the RGB values at each pixel corresponding to the count value stored in the virtual codebook.By using the Coefficient of Variation (CV) as an adjustment value and standard deviation of 57 pieces of 24-bit BMP images, test results showed an average compression ratio of 41.79%. With the parallel method is used, the compression process of color image shows the average speed-up values of 1.69 and the processor efficiency of 56.34%."
Jakarta: Fakultas Teknologi Informasi Universitas Tarumanegara, 2010
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Dhini Radityastuti
"Abstrak Treveling Salesman Problem (TSP) adalah masalah menemukan rute perjalanan (Tur) Ke Sejumlah berhingga kota yang diberikan dengan syarat setiap kota dikunjungi tepat satu kaili, tur berawal dan berakhir di kota yang sama. TSP euclidean adalah TSP dengan simpul yang diberikan dalam bentuk titik koordinat dan bobot busur ditentukan berdasarkan jarak euclid antar simpul. TSP Asimetri adalah TSP dengan bobot busur bergantung arah pembusuran. Tujuan TSP adalam minimumkan total bobot dariperjalanan..."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2007
S27723
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ridwan Gunawan
Depok: Fakultas Teknik Universitas Indonesia, 1999
LP-pdf
UI - Laporan Penelitian  Universitas Indonesia Library
cover
Bethany Elvira
"Economic Lot Scheduling Problem (ELSP) merupakan masalah penjadwalan produksi beberapa item pada mesin tunggal sehingga tingkat permintaan dapat tercapai tanpa adanya backorder dan total biaya (jumlah dari biaya penyimpanan inventori dan biaya setup) dapat diminimumkan. Tujuan dari penyelesaian ELSP adalah menentukan lamanya pemrosesan item yang sejenis yang disebut dengan panjang run atau ukuran lot dan menentukan urutan lot (sekuens produksi) yang meminimumkan total biaya. Salah satu jenis pendekatan ELSP adalah Time-varying Lot Sizes Approach, yaitu pendekatan yang memungkinkan ukuran lot yang berbeda bagi setiap item yang berbeda. Time-varying Lot Sizes ELSP dikenal sebagai masalah NP-hard sehingga banyak dilakukan penelitian menggunakan metode heuristik untuk menyelesaikan masalah ini. Pada skripsi ini, digunakan Algoritma Genetika Hibrida (Algoritma Genetika yang digabungkan dengan algoritma lain) untuk menyelesaikan Time-varying Lot Sizes ELSP sehingga diperoleh sekuens produksi yang meminimumkan total biaya.

Economic Lot Scheduling Problem (ELSP) is a problem of scheduling several items on a single machine in order to meet the demand without any backorder, so as to minimize the total cost (sum of inventory holding cost and setup cost). The purpose of solving ELSP is to determine the duration of processing the same item (called as run length or lot size) and determine the sequence of the lots (called as production sequence) that can minimize the total cost. One of the ELSP approaches is Time-varying Lot Sizes Approach, that is an approach which different lot sizes is possible to be produced for any item in the production sequence. Time-varying Lot Sizes ELSP is known as NP-hard problem and there are numerous research on heuristic algorithms to solve this problem. In this skripsi, Hybrid Genetic Algorithm (combination of Genetic Algorithm with another algorithm) is used to solve Time-varying Lot Sizes ELSP in order to get the production sequence which minimizes the total cost."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2014
S55283
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tampubolon, Patuan Pangihutan
"Kebutuhan untuk mendapatkan pola yang terbentuk dari matriks biner pada masa ini dan mendatang, meningkat dengan pesat. Data dari 'clickstream' pengguna internet, 'face-recognition', matriks setelah dilakukan prapengolahan dari data kategorik, interaksi protein-protein dan masih banyak daftar lainnya yang menghasilkan matriks biner. Salah satu pola yang dapat dibentuk dari matriks biner merupakan satu himpunan submatriks yang semua entrinya bernilai 1. Submatrik tersebut disebut dengan 'bicluste''r' dengan jenis nilai konstan. Permasalahan dari pembentukan 'bicluster' disebut dengan 'biclustering'. Permasalahan tersebut tergolong dalam permasalahan 'NP-complete'. Meskipun demikian, hasil yang suboptimal mampu didapatkan dengan membuat algoritma 'biclustering'.
Penelitian ini mengusulkan suatu algoritma 'biclustering' baru dengan menggunakan jarak 'Hamming' antara satu kolom dengan kolom yang lainnya pada matriks biner. Algoritma yang diberi nama 'bicHPT' ('biclustering based on Hamming distance Pattern Table') ini, mampu membuat satu himpunan 'bicluster' dengan lima langkah, yaitu mereduksi kolom matriks, membuat tabel jarak 'Hamming', mencari kandidat 'bicluster', menyaring kandidat 'bicluster', dan membentuk 'bicluster'. Setelah uji coba performa, algoritma 'bicHPT' mampu menghasilkan satu himpunan 'bicluster', bahkan mampu mengungguli algoritma lain dalam hal jumlah 'bicluster' yang dibentuk. Algoritma ini juga mampu untuk diaplikasikan sebagai salah satu unsur yang digunakan untuk memprediksi interaksi protein-protein baru, antara protein 'Human Immunodeficiency Virus type' 1 (HIV-1) dan protein manusia. Total interaksi baru yang didapatkan dengan menggunakan algoritma ini ada sebanyak 482 interaksi.

The demand to obtain patterns from a binary matrix today and in the future is rapidly increasing. Data from internet users clickstreams, face-recognition, the matrix after preprocessing categorical data, protein-protein interactions, and so on that will produce a binary matrix. One kind of pattern that might be obtained from a binary matrix is a set of submatrices which all their entries have the value of 1. A submatrix is called with bicluster with constant values. The problem to make biclusters is called with biclustering. This problem is NP-complete. Although, the suboptimal solution might be obtained with constructing a biclustering algorithm.
This research proposes a novel biclustering algorithm based on Hamming distance among each column in a binary matrix. The algorithm which called with \pt (biclustering based on Hamming distance Pattern Table) can produce biclusters in 5 steps, which are, the column reduction of the matrix, constructing Hamming distance table, finding bicluster candidate, filtering bicluster candidate and forming the biclusters. After testing the performance, this algorithm can produce biclusters. Moreover, it can outperform another algorithm in numbers of biclusters. This algorithm is also succeeded to be applied as one of the elements to predict protein-protein interaction between Human Immunodeficiency Virus type 1 protein (HIV-1) and human protein. The total new interactions which using this algorithm are 482 interaction.
"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T52670
UI - Tesis Membership  Universitas Indonesia Library
cover
Rendi Kurniawan
"Pada mode infrastruktur, ketika setiap kali node wired dan node wireless hendak mengirimkan paket data ke node wireless lainnya, data harus dulu dikirimkan ke access point (AP). Kemudian access point (AP) akan memforward paket data ke node coresponden. Oleh karena itu AP adalah tempat yang bagus untuk menambahkan mekanisme FEC untuk improve delivery video yang berkualitas. Jumlah redundant data yang ada pada mekanisme FEC statis adalah tetap.
Dalam Mekanisme EAFEC redundant data ditentukan oleh access point (AP) berdasarkan beban traffic jaringan dan wireless channel state. Algoritma EAFEC menentukan berapa jumlah paket redundant yang harus di-generate berdasarkan panjang antrian yang mengindikasikan beban traffic jaringan dan times retransmisi paket yang mengindikasikan wireless channel state. Layanan video streaming tidak pernah lepas dari throughput, delay, jitter dan packet loss.
Pada penelitian ini penulis membangun simulasi optimalisasi streaming video pada jaringan wireless. Penulis juga melakukan studi literatur dalam merancang simulasi ini. Dalam membangun simulasi penulis menggunakan aplikasi NS2 (network simulator) versi 2.28 yang berjalan diatas sistem operasi Microsoft Windows Xp Sp2 dengan aplikasi Cygwin.
Hasil output akhir pada NS-2 divisualisasikan berupa grafik dan tabel yang kemudian dianalisa lebih lanjut yaitu berupa pengukuran throughput, delay, jitter, packet error dan dengan menggunakan script AWK beserta beberapa tambahan modifikasinya. Dari thesis ini diperoleh performance dari penggunaan mekanisme EAFEC dapat mengurangi kemacetan pada jaringan (congestion) sehingga berdampak pula berkurangnya jumlah packet loss.

In the infrastructure mode, when a wired and wireless node wants to send data packets to other wireless nodes, data must first be sent to the Access Point (AP). The AP then forwards packets to the corresponding node. Therefore, AP is a good place for adding the FEC mechanism for improving video delivery quality. The number of redundant FEC data in a fixed number.
EAFEC redundant data is determined by AP which is based on both network traffic load and wireless channel state. EAFEC Algorithm determines number FEC redundant generated based on queue length indicating network traffic load and packet retransmisi times indicating wireless channel state. Streaming video services are usually related to throughput, delay, jitter and packet loss.
In this thesis, the author develops a simulation study of streaming video service on wireless network. The research method is performed studying and developing simulation using Network simulator (NS-2) application version 2.28. The application running at Microsoft Windows Xp SP2 operating sistem, with CYGWIN aplication.
The result of simulation are graphics and measurement such us throughput, delay, jitter and packet error. The measurements are conducted using AWK script with some modifications. From this thesis obtained performance usage of mechanism EAFEC can lessen traffic jam on network ( congestion ) also causing affects the lessen amounts of packet loss.
"
Depok: Fakultas Teknik Universitas Indonesia, 2009
T26920
UI - Tesis Open  Universitas Indonesia Library
cover
Hanun Hanifah
"Pandemi COVID-19 di kuartal awal 2020 mendorong Universitas Indonesia untuk menetapkan sistem pembelajaran daring dalam menjalankan aktivitas perkuliahan. Prediksi keberhasilan mahasiswa pada masa pembelajaran daring perlu dilakukan sebagai bahan evaluasi pemanfaatan sistem pembelajaran daring selanjutnya. Machine learning merupakan tools untuk melakukan prediksi. Terdapat berbagai model dalam machine learning, salah satu model yang sering digunakan adalah neural network. Multilayer Perceptron (MLP) merupakan salah satu model dari neural network. MLP terdiri dari input layer, hidden layer dan output layer. Nilai pada input layer diproses pada hidden layer dan hasil akhir dihasilkan di output layer. MLP bekerja dengan pembaruan bobot yang membutuhkan 2 fase yaitu forward pass dan backward pass. MLP dengan algoritma optimasi Levenberg-Marquardt digunakan untuk memprediksi keberhasilan akademis mahasiswa. Prediksi yang dilakukan berupa klasifikasi mahasiswa lulus dan tidak lulus. Data yang digunakan merupakan data rekapitulasi aktivitas perkuliahan mahasiswa Departemen Matematika FMIPA UI pada mata kuliah X. Terdapat 2 data yang digunakan untuk memprediksi keberhasilan akademis mahasiswa, yaitu data rekapitulasi aktivitas perkuliahan mahasiswa dari minggu ke-1 hingga ke-4 (periode 1) dan minggu ke-1 hingga ke-8 (periode 2). Hyperparameter yang digunakan adalah 8 buah input neuron, 30 buah hidden neuron untuk hidden layer pertama, 30 buah hidden neuron untuk hidden layer kedua, 1 buah output neuron, 2 buah fungsi aktivasi (tanh dan linear), dan damping factor dengan nilai 3. Evaluasi MLP dalam memprediksi keberhasilan akademis mahasiswa dilakukan dengan menentukan nilai G-mean terbaik. Nilai G-mean menunjukkan kemampuan model dalam mengklasifikasi kelas lulus maupun tidak lulus. Prediksi MLP dengan algoritma optimasi Levenberg-Marquardt menghasilkan G-mean terbesar untuk periode 1 sebesar 0,72 dan periode 2 sebesar 0,86 pada data training dan testing 90:10. Hasil perbandingan prediksi keberhasilan mahasiswa data periode 1 dan periode 2 menunjukkan periode 2 lebih baik digunakan untuk memprediksi keberhasilan akademis mahasiswa.

COVID-19 pandemic on first quarter of 2020 urged Universitas Indonesia to distanced learning in doing lecture activities. Distance learning system may cause bad health to students, to such extent that student academic success may be affected. Student academic success prediction on distance learning need to be done as evaluation for future distance learning system. Machine learning is one of solution to perform prediction. There are many methods in machine learning, one of common used methods is neural network. There are many kinds of machine learning, one of the kinds is multilayer perceptron (MLP). MLP is consists of input layer, hidden layer and output layer. Values from input layer are processed in hidden layer and final output are yielded in output layer. MLP has 2 processing phase, which are forward pass and backward pass to do weight updating. MLP with Levenberg-Marquardt optimization algorithm is used for predicting student academic success. Performed prediction is classification of students who passed and failed. The data that is recapitulation of students course activity. Data consists of 2 sub- datas, which are recapitulation of course activity student from week 1 to week 4 (first period) and from week 1 to week 8 (second period). Hyperparameter that are used to bulid MLP are 2 hidden layer, 8 input neuron, 30 hidden neuron for each hidden layer, 1 output neuron, 2 activation function (tanh and linear), damping factor values 3. MLP evaluation of predicting student academic success is based on best G-mean result. G-Mean value shows how model performs in classifying passed students class and failed students class. MLP with Levenberg-Marquardt optimization algorithm implementation yields highest G-mean value, 0,72 and 0,86 from both periods, respectively, on 90:10 training and testing data split. Comparison between results of student academic success prediction with first period and second period indicate that second period is better to be used for predicting student academic success."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Daniel Baktiar
"Algoritma Lempel-Ziv adalah algoritma yang digunakan luas pada domain kompresi data secara umum. Salah satu algoritma yang diusulkan oleh Lempel-Ziv dikenal dengan LZ77. Aplikasi algoritma ini sangat menarik untuk kompresi teks, tetapi apakah pengembangan modifikasinya untuk melakukan kompresi citra secara lossy juga menjanjikan. Pada modifikasi lossy LZ77 kompresi dilakukan dengan pencarian string yang memiliki ?kemiripan?, dan perulangannya dikodekan. Tantangan yang dihadapi adalah efisiensi waktu dan kompresi. Melalui penelitian secara empiris penulis mencoba untuk menguji kebenaran pendapat yang dikemukakan oleh Atallah et al. mengenai efisiensi yang dapat dilakukan terhadap modifikasi lossy dari LZ77. Sensitivitas terhadap input masih dirasakan pada saat menggunakan kompresi ini."
Depok: Universitas Indonesia, 2001
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>