Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 13 dokumen yang sesuai dengan query
cover
Gianinna Ardaneswari
"Dalam bioinformatika penelusuran basis data sekuens digunakan untuk mencari kemiripan antara sebuah sekuens dengan sekuens lainnya pada suatu basis data sekuens Salah satu algoritma untuk menghitung skor kemiripan yang optimal adalah algoritma Smith Waterman yang menggunakan pemrograman dinamik Algoritma ini memiliki kompleksitas waktu kuadratik yaitu O n2 sehingga untuk data yang berukuran besar membutuhkan waktu komputasi yang lama Komputasi paralel diperlukan dalam penelusuran basis data sekuens ini agar waktu yang dibutuhkan lebih cepat dan memiliki kinerja yang baik Dalam skripsi ini akan dibahas implementasi paralel untuk algoritma Smith Waterman menggunakan bahasa pemrograman CUDA C pada GPU dengan NVCC compiler pada Linux Selanjutnya dilakukan analisis kinerja untuk beberapa model paralelisasi tersebut yaitu Inter task Parallelization Intra task Parallelization dan gabungan keduanya Berdasarkan hasil simulasi yang dilakukan paralelisasi dengan gabungan kedua model menghasilkan kinerja yang lebih baik dari model lainnya Paralelisasi dengan model gabungan menghasilkan rata rata speed up sebesar 313x dan rata rata efisiensi sebesar 0 93

In bioinformatics sequence database searches are applied to find the similarity between a sequence with other sequences in a sequence database One of the algorithms to compute the optimal similarity score is Smith Waterman algorithm that uses dynamic programming This algorithm has a quadratic time complexity O n2 which requires a long computation time for large sized data In this occasion parallel computing is essential to solve this sequence database searches in order to reduce the running time and to increase the performance In this mini thesis we discuss the parallel implementation of Smith Waterman algorithm using CUDA C programming language with NVCC compiler on Linux Furthermore we run the performance analysis using three parallelization models including Inter task Parallelization Intra task Parallelization and a combination of both models Based on the simulation results a combination of both models has better performance than the others In addition parallelization using combination of both models achieves an average speed up of 313x and an average efficiency with a factor of 0 93"
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2013
S52395
UI - Skripsi Membership  Universitas Indonesia Library
cover
Adam Liwo
Gdansk : TASK , 2018
600 SBAG 22:4 (2018)
Artikel Jurnal  Universitas Indonesia Library
cover
Bangun, Kristofer Jehezkiel
"Tingginya tingkat kompleksitas program menyebabkan program memiliki waktu eksekusi yang lama jikalau tidak dijalankan pada mesin berkomputasi tinggi. Masalah ini dapat diatasi salah satunya dengan cara menjalankan berbagai proses pada program tersebut secara simultan sehingga program dapat semakin cepat tereksekusi. Metode ini dikenal dengan istilah parallel computing. Untuk lebih mempercepat waktu eksekusi program, parallel computing tersebut dapat diimplementasikan pada arsitektur High Performance Computing HPC. Metode parallel computing dalam HPC tersebut diimplementasikan ke dalam program Sistem Penilaian Esai Otomatis Simple-O. Simple-O merupakan program penilai esai otomatis yang merupakan pengembangan dari Departemen Teknik Elektro. Dengan menerapkan parallel computing dan menjalankan program pada HPC, eksekusi yang dibutuhkan untuk memeriksa jawaban esai dapat semakin cepat. Parallel computing atau parallelism akan diterapkan pada salah satu bagian dari Simple-O yaitu pada algoritma pembelajaran dalam Simple-O, lebih tepatnya pada Self Organizing Map SOM atau Learning Vector Quantization LVQ. Parallelism dalam SOM dan LVQ diterapkan dengan metode network partition dimana node komputasi Euclidean distance dilakukan secara parallel. Pada penelitian ini didapatkan bahwa kecepatan program serial 1,28 kali lebih cepat dibandingkan program parallel.

The escalation of program complexity nowadays means slower run time when it is not executed in high performance machine. One way to address this issue is to execute the processes in the program simultaneously so the program may be executed quicker, known as parallel computing. To further accelerate the program parallel computing can be implemented in High Performance Computing HPC architecture. This method of applicating parallel computing with HPC is implemented in Automatic Essay Grading System, known as Simple O. Simple O is an automatic essay grading system developed by Department of Electrical Engineering Universitas Indonesia. The purpose of applicating the aforementioned method to Simple O is to accelerate the speed of essay grading execution. Parallel computing will be implemented to one of Simple O rsquo s part of program, which is in the learning algorithm. The learning algorithm applied in Simple O is Self Organizing Map SOM and Learning Vector Quantization LVQ. The implementation of parallelism in the learning algorithm uses network partition method, where the calculation of Euclidean distance is done in parallel. Through this research, it can be concluded that the the speed of serial program is 1.28 times quicker than the parallelized program."
Depok: Fakultas Teknik Universitas Indonesia, 2018
Spdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Yosua Krisnando Bagaskara
"Live blog merupakan suatu media dari situs berita yang menyajikan update-update tentang suatu topik yang sedang terjadi. Update-update tersebut disampaikan secara rutin setiap hari. Suatu artikel live blog bisa berhalaman-halaman. Metode live blog summarization sudah pernah dilakukan, dan menghasilkan summary yang layak. Namun, metode tersebut belum layak dijadikan aplikasi berskala besar. Ini dikarenakan metode tersebut dirancang untuk sistem tersentralisasi, sehingga tidak ada distribusi terhadap data-data tersebut. Ini berpengaruh pada performa sistem. Penelitian ini bertujuan untuk mengembangkan konsep summarization platform yang terdistribusi bernama ReBlogSum, mulai dari merancang arsitektur terdistribusi, sampai tes dan simulasi pada arsitektur tersebut dibandingkan dengan arsitektur tersentralisasi. Penelitian ini diharapkan dapat memberikan gambaran mengenai ReBlogSum dan sistem terdistribusi pada proses live blog summarization.

Live blog is a kind of media from a news site which serves updates about an ongoing topic. Those updates are delivered routinely every day. A live blog article can have many pages. The live blog summarization method has been provided, an produced a decent summary. However, the method is not feasible to be made a large-scale application. It is because the method was designed to run on centralized system. Therefore, it lacks the distribution towards the data. It affects the system performance. This research aims to develop the novel distributed summarization platform called ReBlogSum, beginning from designing the distributed architecture, until the testing and simulation to the system compared to the centralized system. This research is expected to give the insight about ReBlogSum and distributed system onto the live blog summarization process."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ammarul Haq
"HTML5 merupakan versi terbaru dari HTML. Pada HTML5 terdapat fitur web workers yang bisa bekerja dibalik layar tanpa mengganggu tampilan antarmuka user. Dengan web workers, memungkinkan untuk dilakukan komputasi paralel. Dari hal tersebut, penulis membuat rancangan sistem perhitungan parallel terdistribusi berbasis web menggunakan web workers pada HTML5. Terobosan ide ini bisa menjadikan HTML5 bekerja layaknya komputer virtual yang bisa dimanfaatkan untuk melakukan perhitungan paralel terdistribusi. Penulis juga menggunakan Hukum Amdahl dalam menganalisis banyaknya web workers terhadap waktu yang dibutuhkan dalam menyelesaikan algoritma yang diberikan.

HTML5 is the latest version of the HTML. On HTML5 web workers, there are features that can work behind the scenes without interrupting user interface. The existence of web workers makes it possible to do parallel computing. This particular breakthrough enables HTML5 to perform like a virtual computer mdash which can be used to perform calculations without any physical treatment or maintenance costs. The writer also uses Amdahl Law to analyse the amount of web workers needed against the time needed to complete the given algorithm."
Depok: Fakultas Teknik Universitas Indonesia, 2017
S69451
UI - Skripsi Membership  Universitas Indonesia Library
cover
Donato Pera
"ABSTRACT
In this paper after a short theoretical introduction about modern techniques used in
parallel computing, we report a case study related to the design and development of the Caliban
Linux High Performance Computing cluster, carried out by the author in the High Performance
Computing Laboratory of the University of L Aquila. Finally we report some performance
evaluation tests related to the Caliban cluster performed using HPL (High Performance Linpack)
benchmarks."
Gdansk: TASK, 2018
600 SBAG 22:2 (2018)
Artikel Jurnal  Universitas Indonesia Library
cover
Robertus Hudi
"Improvement in this experiment are done for 3 following factors: running time, memory efficiency, and speedup. The speedup result achieved is as close as 100× increase. Naïve parallelization is used on mapping each matrices data to CUDA memories, for each major operation is done in parallel behavior via self-made CUDA kernels to suits the data dimensions. This make up the improvement of 2nd factor, which is memory efficiency. Results for kernels are captured with NVIDIA profiling tools for the increasing number of random targets on 4 transmitter-receiver (PV) combinations (without any knowledge about the approximation of targets direction). All results are taken according to the average running time of kernel calls and speed up for each size of the input, compared with serial and CPU parallel version data of the previous work. Among advanced techniques for the passive radar system’s target association, several experiments have been done based on Probability Hypothetic Density (PHD) function. The complex calculation makes the computation processes a very demanding task to be done, thus, this paper is focused on PHD function performance comparison between preceding attempts to the implementation using a pure C programming language with CUDA library. A further improvement is highly possible within algorithm optimization itself or applying more advanced parallelization technique.

Peningkatan yang dilakukan pada eksperimen ini meliputi 3 faktor: running time, memory efficiency, dan speedup. Hasil pengujian speedup yang diperoleh mencapai setidaknya 100x peningkatan daripada algoritma semula. Paralelisasi naif yang digunakan untuk memetakan setiap matriks data ke dalam memori CUDA, untuk setiap operasi major dilakukan secara paralel dengan CUDA kernel yang didesain mandiri sehingga dapat menyesuaikan secara otomatis dengan dimensi data yang digunakan. Hal ini memungkinkan peningkatan pada faktor yang kedua yaitu memory efficiency. Hasil dari masing-masing kernel diukur menggunakan data yang diambil dari NVIDIA profiling tools untuk data acak yang meningkat dari segi ukuran, dan diimplementasikan pada 4 kombinasi transmitter-reveiver (PV) tanpa mengetahui aproksimasi arah target. Seluruh hasil pengujian kernel diambil berdasarkan rata-rata running time dari pemanggilan kernel dan speed up dari setiap ukuran masukan, dibandingkan dengan implementasi asosiasi target secara serial dan versi paralel pada CPU dari penelitian terdahulu. Diantara teknik tingkat lanjut yang digunakan untuk menentukan asosiasi target pada sistem radar pasif, beberapa percobaan telah dilakukan berdasarkan fungsi Probability Hypothetic Density (PHD). Kalkulasi yang kompleks menghasilkan proses komputasi yang terlalu berat untuk dilakukan, maka dari itu, percobaan ini fokus kepada komparasi performa fungsi PHD antara penelitian-penelitian terdahulu dengan impleentasi fungsi tersebut pada pustaka CUDA menggunakan bahasa pemrograman C. Peningkatan lebih lanjut sangat dimungkinkan melalui optimisasi algoritma PHD sendiri atau menggunakan teknik paralelisasi yang lebih baik.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
"A new interative non-overlapping domain decomposition method is proposed for solving the one-and two-dimensional helmholtz equation on parallel computers...."
TAQUART
Artikel Jurnal  Universitas Indonesia Library
cover
Nanda Girindratama
"Pada penelitian ini, dikembangkan HPC yang menerapkan multicore processing pada program Sistem Pendeteksi Plagiarisme dengan memanfaatkan infrastruktur komputasi awan berbasis OpenStack. Sistem Pendeteksi Plagiarisme merupakan program yang dikembangkan untuk mendeteksi tingkat plagiarisme dari suatu karya ilmiah. Algoritma program yang digunakan untuk penelitian kali ini adalah latent semantic analysis (LSA). Implementasi HPC dilakukan dengan bantuan library OpenMP yang didesain untuk bahasa pemrograman C. Diterapkan dua jenis paralelisme pada program, yaitu paralelisme fungsi dan paralelisme data. Setelah dilakukan pengujian, didapati hasil bahwa kedua metode paralelisme ini mempercepat eksekusi program. Paralelisme fungsi mempercepat waktu eksekusi hingga sebesar 1,03 kali waktu eksekusi serial dan paralelisme data mempercepat waktu eksekusi hingga 1,34 kali waktu eksekusi serial.

In this research, HPC with multicore processing is developed on Plagiarism Detection System using OpenStack based cloud computing infrastructure. Plagiarism Detection System is a software developed to detect plagiarism level of a scientific papers. The algorithm used in this program is latent semantic analysis (LSA). HPC implementation is done using OpenMP library which is designed to be used in C programming language. There are two types of paralelism in this program, which are function paralelism and data paralelism, both accelerate the execution time. Function paralelism accelerates program by up to 1,03 times of serial execution while data paralelism decreases the execution time by up to 1,34 times serial execution time."
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
"This is the Proceedings of the IUTAM Symposium on Solver Coupling and Co-Simulation that was held in Darmstadt, Germany, September 18-20, 2017. The symposium focused on recent advances in the development of numerical methods for solver coupling, like new explicit, implicit and semi-implicit co-simulation methods, new approaches for realizing variable communication-time grids, and advances in the stability and convergence analysis of solver coupling methods.
Recent developments in the practical application of co-simulation methods, for instance new fields of application for solver coupling approaches, new developments in the parallelization of dynamic models with co-simulation techniques, and standardization of co-simulation interfaces, i.e. standardization of data and model exchange were also discussed.
The book brings together the research results of leading scientists in applied mathematics, mechanics, and engineering science, thus contributing to further develop numerical methods for coupled simulations. "
Switzerland: Springer Nature, 2019
e20509135
eBooks  Universitas Indonesia Library
<<   1 2   >>