Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 108925 dokumen yang sesuai dengan query
cover
Priagung Khusumanegara
"Komputasi terdistribusi merupakan salah satu kemajuan teknologi dalam mengolah data. Penggunaan komputasi terdistribusi memudahkan user untuk mengolah data menggunakan beberapa komputer yang secara fisik terpisah atau terdistribusi. Salah satu teknologi yang menggunakan konsep komputasi terditribusi adalah Hadoop. Hadoop merupakan framework software berbasis Java dan open source yang berfungsi untuk mengolah data yang memiliki ukuran yang besar secara terdistribusi. Hadoop menggunakan sebuah framework untuk aplikasi dan programming yang disebut dengan MapReduce. Enam skenario diimplementasikan untuk menganalisa performa kecepatan MapReduce pada Hadoop. Berdasarkan hasil pengujian yang dilakukan diketahui penambahan jumlah physical machine dari satu menjadi dua physical machine dengan spesifikasi physical machine yang sesuai perancangan dapat mempercepat kecepatan rata-rata MapReduce. Pada ukuran file 512 MB, 1 GB, 1.5 GB, dan 2 GB, penambahan physical machine dapat mempercepat kecepatan rata-rata MapReduce pada masing-masing ukuran file sebesar 161.34, 328.00, 460.20, dan 525.80 detik. Sedangkan, penambahan jumlah virtual machine dari satu menjadi dua virtual machine dengan spesifikasi virtual machine yang sesuai perancangan dapat memperlambat kecepatan rata-rata MapReduce. Pada ukuran file 512 MB, 1 GB, 1.5 GB, dan 2 GB, penambahan virtual machine dapat memperlambat kecepatan rata-rata MapReduce pada masing-masing ukuran file sebesar 164.00, 504.34, 781.27, dan 1070.46 detik. Berdasarkan hasil pengukuran juga diketahui bahwa block size dan jumlah slot map pada Hadoop dapat mempengaruhi kecepatan MapReduce.

Distributed computing is one of the advance technology in data processing. The use of distributed computing allows users to process data using multiple computers that are separated or distributed physically. One of technology that uses the concept of distributed computing is Hadoop. Hadoop is a Java-based software framework and open source which is used to process the data that have a large size in a distributed manner. Hadoop uses a framework for application and programing which called MapReduce. Six scenarios are implemented to analyze the speed performance of Hadoop MapReduce. Based on the study, known that the additional the number of physical machines from one to two physical machines with suitable specifications design can speed up the average speed of MapReduce. On file 512 MB, 1 GB, 1.5 GB, and 2 GB size additional the number of physical machines can accelerate MapReduce average speed on each file size for 161.34, 328.00, 460.20, and 525.80 seconds. Meanwhile, additional the number of virtual machines from one to two virtual machines with suitable specifications design can slow down the average speed of MapReduce. On file 512 MB, 1 GB, 1.5 GB, and 2 GB size, additional the number of virtual machines can slow down the average speed of each MapReduce on a file size for 164.00, 504.34, 781.27, and 1070.46 seconds. Based on the measurement result is also known that the block size and number of slot maps in Hadoop MapReduce can affect speed.
"
Depok: Fakultas Teknik Universitas Indonesia, 2014
S55394
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fakhrul Arifin
"Diawali dengan Google File System dan MapReduce dari Google, Apache mengenalkan Hadoop sebagai teknologi pengolah data yang berukuran sangat besar. Karena tujuan awal Hadoop hanya untuk mengolah data yang berukuran besar, masalah keamanan data belum diantisipasi pada Hadoop versi 1.2.1. Pada skripsi ini membahas tentang program enkripsi yang dijalankan pada Hadoop versi 1.2.1. Program mengenkripsi file teks yang ada pada Hadoop Distributed File System(HDFS) dengan cara mengenkripsi setiap kata yang ada pada file. Program menggunakan algoritma enkripsi AES dan DES. Skripsi ini juga membandingkan program enkripsi yang berjalan tanpa Hadoop, Hadoop Standalone, dan Hadoop Distributed. Pada Hadoop Distributed menggunakan dua komputer dan satu virtual komputer. Melalui percobaan, terlihat bahwa program yang berjalan tanpa Hadoop memiliki troughput 0.99 MB/s sedangkan program yang berjalan pada Hadoop Standalone dan Hadoop Distributed masing-masing sebesar 0.53 MB/s dan 0.65 MB/s.

Beginning with the Google File System and MapReduce from Google, Apache introduce Hadoop as large data processing technology. Since the initial purpose of Hadoop for large data processing, data security issues have not been anticipated in the Hadoop version 1.2.1. In this final project discusses encryption programs that run on Hadoop version 1.2.1. The program encrypts text files that exist on the Hadoop Distributed File System (HDFS) by means of encrypting every word in the file. The program uses AES and DES encryption algorithm. This final project also compare the encryption program that runs without Hadoop, Hadoop Standalone, and Distributed Hadoop. Through experiments, it appears that the program is running without Hadoop having throughput 0.99 MB/s while the program is running on Hadoop Standalone and the Hadoop Distributed respectively 0.53 MB/s and 0.65 MB/s."
Depok: Fakultas Teknik Universitas Indonesia, 2014
S56276
UI - Skripsi Membership  Universitas Indonesia Library
cover
White, Tom
"Get ready to unlock the power of your data. With the fourth edition of this comprehensive guide, you'll learn how to build and maintain reliable, scalable, distributed systems with Apache Hadoop. This book is ideal for programmers looking to analyze datasets of any size, and for administrators who want to set up and run Hadoop clusters.Using Hadoop 2 exclusively, author Tom White presents new chapters on YARN and several Hadoop-related projects such as Parquet, Flume, Crunch, and Spark. You'll learn about recent changes to Hadoop, and explore new case studies on Hadoop's role in healthcare systems and genomics data processing.Learn fundamental components such as MapReduce, HDFS, and YARNExplore MapReduce in depth, including steps for developing applications with itSet up and maintain a Hadoop cluster running HDFS and MapReduce on YARNLearn two data formats: Avro for data serialization and Parquet for nested dataUse data ingestion tools such as Flume (for streaming data) and Sqoop (for bulk data transfer)Understand how high-level data processing tools like Pig, Hive, Crunch, and Spark work with HadoopLearn the HBase distributed database and the ZooKeeper distributed configuration service."
Sebastopol, CA : O'Reilly Media , 2015
005.74 WHI h
Buku Teks  Universitas Indonesia Library
cover
Diyanatul Husna
"ABSTRAK
Apache Hadoop merupakan framework open source yang mengimplementasikan MapReduce yang memiliki sifat scalable, reliable, dan fault tolerant. Scheduling merupakan proses penting dalam Hadoop MapReduce. Hal ini dikarenakan scheduler bertanggung jawab untuk mengalokasikan sumber daya untuk berbagai aplikasi yang berjalan berdasarkan kapasitas sumber daya, antrian, pekerjaan yang dijalankan, dan banyaknya pengguna. Pada penelitian ini dilakukan analisis terhadapap Capacity Scheduler dan Fair Scheduler. Pada saat Hadoop framework diberikan 1 pekerjaan dengan ukuran data set 1,03 GB dalam satu waktu. Waiting time yang dibutuhkan Capacity Scheduler dan Fair Scheduler adalah sama. Run time yang dibutuhkan Capacity Scheduler lebih cepat 6% dibandingkan Fair Scheduler pada single node. Sedangkan pada multi node Fair Scheduler lebih cepat 11% dibandingkan Capacity Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set (1,03 GB ) yang sama dalam satu waktu. Waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 87% lebih cepat pada single node dan 177% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 55% lebih cepat pada single node dan 212% lebih cepat pada multi node. Turnaround time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 4% lebih cepat pada single node, sedangkan pada multi node Capacity Scheduler lebih cepat 58% dibandingkan Fair Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set yang berbeda dalam satu waktu yaitu data set 1 (456 MB), data set 2 (726 MB), dan data set 3 (1,03 GB) dijalankan secara bersamaan. Pada data set 3 (1,03 GB), waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 44% lebih cepat pada single node dan 1150% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 56% lebih cepat pada single node dan 38% lebih cepat pada multi node. Turnaround time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 12% lebih cepat pada single node, sedangkan pada multi node Fair Scheduler lebih cepat 25,5% dibandingkan Capacity Scheduler

ABSTRACT
Apache Hadoop is an open source framework that implements MapReduce. It is scalable, reliable, and fault tolerant. Scheduling is an essential process in Hadoop MapReduce. It is because scheduling has responsibility to allocate resources for running applications based on resource capacity, queue, running tasks, and the number of user. This research will focus on analyzing Capacity Scheduler and Fair Scheduler. When hadoop framework is running single task. Capacity Scheduler and Fair Scheduler have the same waiting time. In data set 3 (1,03 GB), Capacity Scheduler needs faster run time than Fair Scheduler which is 6% faster in single node. While in multi node, Fair Scheduler is 11% faster than Capacity Scheduler. When hadoop framework is running 3 tasks simultaneously with the same data set (1,03 GB) at one time. Fair Scheduler needs faster waiting time than Capacity Scheduler which is 87% faster in single node and 177% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 55% faster in single node and 212% faster in multi node. Fair Scheduler needs faster turnaround time than Capacity Scheduler which is 4% faster in single node, while in multi node Capacity Scheduler is 58% faster than Fair Scheduler. When hadoop framework is running 3 tasks simultaneously with different data set, which is data set 1 (456 MB), data set 2 (726 MB), and data set 3 (1,03 GB) in one time. In data set 3 (1,03 GB), Fair Scheduler needs faster waiting time than Capacity Scheduler which is 44% faster in single node and 1150% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 56% faster in single node and 38% faster in multi node. Capacity Scheduler needs faster turnaround time than Fair Scheduler which is 12% faster in single node, while in multi node Fair Scheduler is 25,5% faster than Capacity Scheduler"
2016
T45854
UI - Tesis Membership  Universitas Indonesia Library
cover
M. Adhika Putra
"Sebagian besar informasi yang beredar di internet merupakan konten video. Informasi video ini perlu dianalisis karena tidak semuanya yang beredar adalah video dengan konten yang baik. Banyak video dengan konten yang buruk beredar luas di internet dan dapat diakses oleh siapapun yang mengakses internet. Pada penelitian ini, dibuat sistem klasifikasi video pada Youtube dengan metode Symbolic Distance dan Focal Point menggunakan model pemrograman MapReduce pada Hadoop. Sistem klasifikasi ini mengidentifikasi tag yang tersemat pada setiap video di Youtube kemudian dibandingkan dengan matriks co-occurrence untuk mencari nilai symbolic distance pada sebuah video. Penggunaan metode Focal Point pada sistem klasifikasi bertujuan untuk meningkatkan akurasi dan focus untuk klasifikasi video.
Dalam penelitian ini diukur juga kecepatan pemrosesan sistem klasifikasi dengan menggunakan Hadoop serta dicari faktor-faktor yang dapat mempengaruhi kecepatan pemrosesan. Untuk itu dilakukan 3 skenario pengujian berdasarkan ukuran InputSplit yang digunakan, jumlah node, serta konfigurasi pada YARN masing-masing dengan 3 ukuran file (500 MB, 1 GB, 1,5 GB) dengan masing-masing jumlah tag sebesar 58718, 119697, dan 160395 tag. Pada file berukuran 500 MB, 1 GB, 1,5 GB, penambahan jumlah node dapat mempercepat kecepatan rata-rata pemrosesan sebesar 0,2 detik, 5 detik, dan 16,3 detik. Kemudian dengan melakukan konfigurasi pada YARN, kecepatan pemrosesan dapat dipercepat hingga 47 detik, 277,1 detik, dan 354,3 detik pada file berukuran 500 MB, 1 GB, 1,5 GB. Dari pengujian juga diketahui semakin kecil InputSplit maka semakin tinggi kecepatan pemrosesan MapReduce. Namun jika mapper tidak dapat menangani jumlah split yang ada, maka kecepatan pemrosesan data akan menjadi lebih lambat dari sebelumnya.

Most information that widely spread on the internet is video. This video information needs to be analyze because not all of the information have a good content. There are many video with bad content widely spread on the internet and anyone can access that video easily. In this research, Youtube Video Classification System with Symbolic Distance and Focal Point Method is made using a MapReduce from Hadoop framework. This system identifying the tag that assign in every Youtube video and then compare the tag with co-occurrence matrix to find the symbolic distance value for a single video. Focal Point in this system is useful to improve accuracy and focus of video classification.
This research will measure the processing speed of this classification system and then search the factor that can affect processing speed. For that, three skenarios are implemented based on InputSplit size, amount of node, and YARN configuration with three file size (500 MB, 1 GB, 1,5 GB) with the number of each tag are 58718, 119697, and 160395 tag. For file with 500 MB, 1 GB, and 1,5 GB size, increasing the amount of node from two to three can speed up the process for 0,2 second, 5 second, and 16,3 second. Optimize the YARN configuration can speed up the process for 47 second, 277, 1 second, and 354,3 second for file with size of 500 MB, 1 GB, and 1,5 GB. This Reasearch also discover that if the size of InputSplit is small, then the speed of data processing is faster. But if the mapper can?t handle the amount of the split, it can make the processing speed slower than before.
"
Depok: Fakultas Teknik Universitas Indonesia, 2016
S63260
UI - Skripsi Membership  Universitas Indonesia Library
cover
David Kurniawan
"Permintaan kebutuhan energi di Indonesia terus meningkat dari tahun ke tahun, dan diprediksikan pada 10 tahun ke depan, kenaikan permintaan energi akan menjadi 9% per tahunnya, sementara sumber energi penghasil listrik utama di Indonesia adalah bahan bakar fosil yang ketersediaannya semakin menipis. Oleh karena itu, diperlukan suatu sumber energi baru dan terbarukan untuk menghasilkan energi listrik.
Indonesia adalah Negara kepulauan yang 2 per 3 luas wilayahnya adalah lautan. Akan tetapi, potensi energi yang tersimpan di laut ini belum dimanfaatkan semaksimal mungkin. Padahal, salah satu selat di Indonesia memiliki potensi untuk menghasilkan listrik sebesar 330-640 GW per tahun. Karena laut memiliki potensi energi listrik yang begitu besar, namun belum sepenuhnya dimanfaatkan, maka penulis memilih untuk melakukan penelitian terhadap cara ekstraksi energi yang terkandung dalam laut ini.
Penelitian dilakukan dengan melakukan analisa terhadap jenis turbin yang sesuai serta optimasinya menggunakan pendekatan CFD dengan bantuan software Solidworks 2012. Dari hasil penelitian, ekstraksi dapat dilakukan dengan menggunakan sebuah turbin jenis vertical axis model turbin Gorlov. Profil sayap yang paling optimal untuk diaplikasikan pada turbin adalah NACA 0016, dan untuk lebih memaksimalkan hasil ekstraksi energi, dapat dilakukan dengan cara memasang profil NACA 0016 pada posisi sudut serang 18°.

The energy demands in Indonesia keep growing every year, and it is predicted that in the next 10 years, there will be 9% of annual energy demand, while the main source of electricity generating system in Indonesia is fossil fuel which has limited availability. Therefore, a new and renewable source of energy for generating electricity is absolutely required.
Indonesia is a country in which two third of its area is the sea. However, the energy potency contained in the sea has not been used effectively yet. In fact, one of the strait in Indonesia has the potency to generate 330-640 GW of electricity every year. Because of the very big electricity potency of the sea, the author choose to do a research on how to extract the energy.
The research is conducted by analyzing the appropriate turbine type and the possible optimization using CFD method with the help of Solidworks 2012. From the research, it is known that extraction can be done by using the vertical-axis Gorlov turbine. The optimum blade profile to be applied on the turbine is NACA 0016, and to make the turbine even generate more electricity, the NACA profile can be put in the angle of attack of 18°.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
S46262
UI - Skripsi Membership  Universitas Indonesia Library
cover
Evan Benedict Zaluchu
"ABSTRAK
Big Data adalah salah satu fenomena yang sudah tidak jarang terjadi di berbagai aspek-aspek kehidupan, baik di bidang industri, keuangan, sosial, dan sebagainya. Dari segi sosial, penggunaan media sosial seperti Twitter merupakan salah satu aplikasi nyata dari teknologi Big Data. Melalui opini-opini yang disampaikan pada Twitter, kita dapat mengetahui hal-hal apa saja yang menjadi topik terkini. Dengan besarnya jumlah tweet yang dipublikasikan tiap hari, atau tiap jam, membuat analisis terhadap Twitter ini hampir mustahil dilakukan tanpa menggunakan teknologi komputasi. Environment seperti Hadoop, Flume, dan Hive merupakan salah satu teknologi dapat digunakan untuk menganalisis jumlah data yang besar, yang mengalir di dalam Twitter.

ABSTRACT
Big Data is one of the global phenomenon that has become broad thing in the various aspects of the daily life, such as in industry sector, finance sector, social sector, etc. From the social aspect, the usage of the social media such as Twitter is one of the real application of the Big Data technology. Through the opinions that expressed on Twitter, we can find out about the things that become the current trending topic. With the numbers of the tweets that published every day, or every hour, making it impossible to do the Twitter analyzing without the use of the computational technology. The environment such as Hadoop, Flume, dan Hive is one of the technologies that can be use to analyze the enormous size of data, that flows around Twitter. "
2017
S67967
UI - Skripsi Membership  Universitas Indonesia Library
cover
Mohamad Abu Bakar Salam
"Kestabilan sistem tanaga listrik adalah kemampuan dari suatu sistem tenaga untuk mencapai kondisi kesetimbangan kembali setelah terjadi gangguan. Salah satu parameter yang sangat penting untuk dipertahankan dan diusahakan agar selalu dalam rentang normal adalah frekuensi. Lepasnya saluran interbus dan beberapa pembangkit tidak beroperasi, menyebabkan sistem kekurangan pasokan daya sehingga terjadi penurunan frekuensi. Pengembalian nilai frekuensi ke nilai yang diizinkan dapat dicapai dengan skema pelepasan beban dengan UFR laju penurunan frekuensi, dengan berbantuan perangkat lunak DIgSILENT 15.1.7.
Pada skripsi ini dibuat pelepasan beban secara bertahap, dengan jumlah tahapan yakni 7. Skema pelepasan beban dengan metode UFLS Under Frequency Load Shedding menggunakan rele under frequency relay laju penurunan frekuensi dapat menjaga kestabilan nilai frekuensi dan kesimbangan daya. Dari simulasi yang dilakukan didapat kondisi terbaik dicapai pada skenario 1 saat PLTGU GT2 dan PLTGU ST1 tidak beroperasi, dengan steady state frekuensi 49,994Hz.

The stability of electrical power system is the ability of a system to reach back its equilibrium condition after a experiencing a disturbance. One of the most important parameters for a system to maintain and cultivate in its normal range is frequency. The loose of interbus channel in Cilegon subsystem and an out of service generator led to a decrease in frequency because the system lacks of sufficient power. Recovering the frequency back to its permitted value can be attained by load shedding with UFR frequency decrease speed scheme and with the help of DIgSILENT 15.1.7 software.
In this bachelor thesis, a seven step gradual load shedding scheme is designed. Load shedding scheme with UFLS method using relay under frequency decrease speed is able to maintain the power balance and the frequency stability. From the simulation conducted, the best condition is achieved in the first scenario when PLTGU GT2 and PLTGU ST1 out of service, with the steady state frequency value of 49.994Hz.
"
Depok: Fakultas Teknik Universitas Indonesia, 2017
S67827
UI - Skripsi Membership  Universitas Indonesia Library
cover
Waskitho Wibisono
"The integration of transportation systems is a very important issue within our society. In order to realize more secure and efficient systems, an integrated system needs to be developed that is decentralized, stable and highly automated. In previous papers we have proposed a three layer object model (3LOM) as the base architecture for the integration of transportation systems. This a per describes the design of the physical input/output sub-system in the bottom layer of the architecture and how to implement this layer from the technical perspective. This layer is primarily responsible for data acquisition, filtering and transmission of data to the middle layer and related control centers. Local knowledge is organized to be used to perform controlling functions within a localized environment. This paper is an important contribution to design the logical view of the bottom layer as an important step to develop the proposed integrated transportation system as our ultimate aim."
2004
JIKT-4-1-Mei2004-1
Artikel Jurnal  Universitas Indonesia Library
cover
Prio Handoko
"Perkembangan teknologi informasi (TI) setiap tahunnya terus mengalami peningkatan yang cukup signifikan. Kemajuan TI ini tentunya tidak teriepas dari peran individu yang mengembangkannya, yaitu para pelaku industri TI. Dilema yang muncul kini adalah, ternyata kemajuan TI ini tidak terlepas dari pemborosan energi, khususnya energi listrik, karena pemanfaatan TI tidak mungkin terlepas dari kebutuhannya akan energi ini. Oleh karena itu, para pelaku industri TI dituntut untuk dapat memberikan kontribusinya dalam pengembangan TI yang sekaligus dapat mendukung penghematan energi listrik ini. Sistem pengendalian lampu otomatis selain dtkembangkan untuk dapat memberikan manfaat bagi manusia, sistem ini juga untuk dapat menjadi salah satu solusi alternatif dalam penghematan energi listrik dan diharapkan pada akhirnya dapat membantu dalam melakukan efisiensi biaya pemakaian energi listrik. Sistern ini berfungsi melakukan pengendalian terhadap banyaknya lampu yang akan dihidupkan atau dimatikan berdasarkan jumlah orang dalam ruangan. Pengendalian ini dilakukan dengan cara mendeteksi banyaknya orang yang keluar dari dan masuk ke dalam ruangan yang dilakukan oleh dua buah sensor infra merah dan diproses oleh papan sirkuit Arduino UNO R3. Berdasarkan hasil percobaan terhadap sistem yang dilakukan dan penghitungan secara kasar besarnya biaya yang digunakan terhadap pemakaian energi listrik sebelum dan sesudah sistem ini diimplementasikan, didapatkan bahwa sistem ini sangat mungkin diimplementasikan."
Universitas Pembangunan Jaya, 2016
384 JPPKI 7:1 (2016)
Artikel Jurnal  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>