Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 102615 dokumen yang sesuai dengan query
cover
Ari Prionggo
"ABSTRAK
Pada tahun 2010, seluruh data di dunia mencapai 1 ZB (Zetabyte), dan pada tahun 2014, diprediksi akan mencapai 72 ZB. Sebagian besar dari data-data tersebut seringkali ditemukan dalam bentuk tidak teratur, berukuran besar dan mengalir dengan cepat. Data dengan karakteristik tersebut dikenal dengan sebutan Big Data. PT Indosat melihat potensi yang ada dalam Big Data untuk mendukung pengembangan bisnis yang ada. Penelitian ini melakukan justifikasi rencana investasi Big Data dengan melakukan identifikasi manfaat investasi menggunakan Tabel Manfaat Bisnis SI/TI Generik.
System Dynamics digunakan untuk menyederhanakan manfaat dan mensimulasikan model. Identifikasi perubahan proses bisnis dilakukan menggunakan pendekatan perubahan arsitektur bisnis, data/informasi dan aplikasi menggunakan TOGAF ADM, Frameworx dan Benefit Dependency Network. Manfaat bisnis yang diperoleh akan dikuantifikasi untuk mencari nilai finansialnya serta diidentifikasi potensi dan indikator risikonya. Potensi risiko dan indikatornya diidentifikasi menggunakan kerangka COSO ERM.
Hasil dari penelitian ini didapat manfaat bisnis yang dapat diraih melalui investasi Big Data. Manfaat tersebut adalah peningkatan pendapatan dari kepercayaan pelanggan (IRE-03) dan pengurangan risiko biaya kehilangan (ACO-03). Potensi risiko dan indikator risiko yang teridentifikasi dapat dikelompokkan pada area teknologi, sumber daya manusia, dan pelayanan pelanggan. Perubahan bisnis proses digambarkan melalui diagram Benefit Dependency Network.

ABSTRACT
In year 2010, data volume around the world reached 1 zetabyte and in 2014, predicted will increase to 72 zetabyte. Most of the data are in unstructured format, huge volume and high velocity in streaming. Data with these characteristics are known as Big Data. PT Indosat see the potential of Big Data to support their business growth. In this research, business benefit identification will be performed using Ranti?s Generic IS/IT Business Benefit Table.
System dynamics will be used to simplify identified business benefits and to run simulation on the model. Business process changes identification will be performed by analyzing changes on business, data/information and application architecture using TOGAF ADM, Frameworx and Benefit Dependency Network. Identified business benefits will be quantified for financial value. Potential risks and its indicators will also be identified using COSO ERM framework.
From this research, can be concluded that business benefits from investment plan on Big Data are increase revenue from customer trust (IRE-03) and avoiding cost of lost and delay cost (ACO-03). Identified potential risks and its indicators are group into several area, which are technology, human resources and customer service. Bussines process changes is depicted using Benefit Dependency Network diagram.
"
2016
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Chanintorn Jittawiriyanukoon
"Time series big data dynamically changes the size, and, unfortunately, it may be difficult to curate the enormous amount of data due to the processing capacity and storage size. This big data allows researcher to iterate on the model millions of times over. To execute a regression on several billion rows of data on a distributed network, the resource capacity regarding large volumes of data and its distributed environment must be considered. Algorithms must be real-time based data awareness. Moreover, analyzing big data sources requires the data to be pre-processed rather than immediately collected and analyzed. This pre-processing approach for the big data sources helps minimize the amount of collected data by extracting insights. It analyzes big data quicker and is cost-effective for storage space. Hence, in this research, an approximation method for analyzing regression problems in a big data stream with parallelism is proposed. The partitioning method for huge data stream helps reduce the computing time and required space, and the speed-up can improve the processing time. The performance evaluation of concurrent regression model is first executed by massive online analysis (MOA) simulation. Then, to validate the approximation method, the results performed by our proposed method are compared to those results collected from the simulation. The comparisons show evenly between the two methods."
Depok: Faculty of Engineering, Universitas Indonesia, 2018
UI-IJTECH 9:1 (2018)
Artikel Jurnal  Universitas Indonesia Library
cover
cover
Aman Subanjar
"Integrasi Big Data oleh sebuah organisasi mempengaruhi bagaimana mengolah data mulai dari proses mining sampai dengan tmg. Proses tersebut mempengaruhi semua komponen organisasi sehingga dibutuhkan sebuah tata kelola. COBIT 5 merupakan tu kerangka kerja yang menyediakan tujuh pengungkit yang diperlukan agar tata kelola sebuah organisasi dapat optimal. Penelitian jelaskan tentang cara pandang organisasi terhadap Big Data dilihat dari risiko. Pendekatan dilakukan dengan bantuan skenario genenk yang sudah dikeluarkan oleh COBIT 5 dan disesuaikan dengan kontek integrasi Big Data. Skenario tersebut menghasilkan rapa proses yang menunjang integrasi Big Data. Sesuai dengan kontek organisasi, terpilih lima belasan generik skenario risiko erhubungan dengan kebutuhan integrasi Big Data. Skenario risiko tersebut selanjutnya diturunkan menjadi pengungkit proses. -proses tersebut diukur tingkat kematangannya dengan menggunakan Process Assesment Model (PAM) sehingga menunjukkan nilai tangan proses yang bersangkutan. Objek dari penelitian ini adalah Pusat Pelaporan dan Analisis Transaksi Keuangan. Pendekatan dilakukan adalah kualitatif untuk proses tata kelola dan pengumpulan informasi dan kuantitatif untuk hasil pengukuran kematangan Hasil penelitian berupa nilai kematangan proses yang mendukung untuk dilakukan integrasi Big Data. Secara umum manfaat nehtian ini adalah memberikan gambaran yang utuh ten tang bagaimana Big Data harus disikapi oleh pengambil keputusan dalam organisasi dan bagaimana memetakan proses-proses pengungkit yang dianggap perlu agar Big Data dapat diterapkan dan dipetik atnya."
Pusat Pelaporan dan Analisis Transaksi Keuangan, 2016
384 JPPKI 7:2 (2016)
Artikel Jurnal  Universitas Indonesia Library
cover
Jo, Taeho
"This book discusses text mining and different ways this type of data mining can be used to find implicit knowledge from text collections. The author provides the guidelines for implementing text mining systems in Java, as well as concepts and approaches. The book starts by providing detailed text preprocessing techniques and then goes on to provide concepts, the techniques, the implementation, and the evaluation of text categorization. It then goes into more advanced topics including text summarization, text segmentation, topic mapping, and automatic text management."
Switzerland: Springer Cham, 2019
e20501288
eBooks  Universitas Indonesia Library
cover
Haura Syarafa
"ABSTRAK
PT. Citilink Indonesia Citilink adalah maskapai penerbangan yang menerapkan konsep penerbangan berbiaya murah atau Low Cost Carrier LCC . Dalam menjalankan proses operasionalnya, Citilink memiliki masalah terkait efisiensi bahan bakar. Salah satu penyebab bahan bakar tidak efisien adalah tidak teridentifikasinya komponen mesin pesawat yang kinerjanya sudah tidak maksimal. Komponen pesawat yang tidak bekerja maksimal tidak dapat teridentifikasi dikarenakan data log pesawat yang terlalu banyak belum dapat diolah. Berangkat dari masalah tersebut, Citilink dituntut untuk dapat mengolah dan menganalisis data log pesawat tersebut beserta dengan data lainnya yang memiliki karakteristik Big Data Volume, Velocity, dan Variety . Namun agar penerapan Big Data berjalan dengan baik dan tepat sesuai dengan karakteristik perusahaan, maka diperlukan sebuah kerangka kerja penerapan Big Data serta memvalidasi kerangka kerja tersebut di Citilink. Metode yang dipakai untuk merancang rekomendasi kerangka kerja penerapan Big Data adalah metode penelitian Lakoju 2017 , Tianmei dan Baowen 2007 , dan Kitsios dan Kamariotou 2016 yang terdiri dari tahap rencana pemetaan, penilaian framework Big Data, perancangan framework Big Data, dan uji validasi. Hasil penelitian menunjukkan lima fase kerangka kerja penerapan Big Data Big Data Strategic Alignment, Team, Project Plan, Data Analytics, dan Implementation yang dikelilingi oleh tahap proses manajemen kinerja serta adanya keterlibatan proses manajemen perubahan. Setelah itu, kerangka kerja tersebut divalidasi kepada dua responden dari Citilink dan dilakukan enam perbaikan, yaitu penambahan cara menganalisis kondisi internal organisasi, pengkategorian posisi tim, penambahan rekomendasi data processing architecture, penambahan aktivitas pemeliharaan aplikasi Big Data, penambahan bagaimana cara menganalisis perubahan, dan penambahan aktivitas kontrol proyek.

ABSTRACT
PT. Citilink Indonesia Citilink is airline that implements Low Cost Carrier LCC . To perform its operational processes, Citilink has problems related to fuel efficiency. One of the causes inefficient fuel is unidentified damaged aircraft engine components. An unidentified damaged aircraft components because the data log plane is too much and can not be processed. From these problems Citilink also required to be able to process and analyze the log data of the aircraft and other data that has characteristics of Big Data Volume, Velocity, and Variety . But in order for Big Data implementation to run properly and appropriatley in accordance with the characteristics of the company, it would require a framework for implementation of Big Data and validate that framework in Citilink. The method used to design the recommendation of framework for implementation of Big Data is Lakoju 2017 , Tianmei and Baowen 2007 , and Kitsios and Kamariotou 2016 research method begins with the mapping plan stage, the Big Data framework assessment, the Big Data framework design, and the validation test. The results is the five phases in framework for implementation of Big Data Big Data Strategy Alignment, Team, Project Plan, Data Analytics and Implementation surrounded by performance management processes and the involvement of the change management process. After that, the framework has been validated to two respondents from Citilink and has been improvements with adding of how to analyze an organization 39;s internal conditions, categorizing position of the team, addition of a data processing architecture recommendations, additional Big Data maintenance aspects, addition of how to analyze changes, and addition of project control aspects."
2018
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Mohammad Riswanda Alifarahman
"Tingginya jumlah kendaraan bermotor di Indonesia memiliki dampak kepada kualitas udara. Aplikasi Mahoni merupakan upaya solusi dari permasalahan tersebut dengan membawa konsep kota cerdas. Penulis melakukan pengembangan arsitektur microservice yang melayani fitur pada aplikasi Mahoni yaitu servis kualitas udara, perjalanan, dan penukaran poin menjadi kupon sesuai dengan kebutuhan pengguna. Aplikasi Mahoni dikembangkan dengan menggunakan arsitektur event-driven agar dapat mencatat beragam data yang berasal dari sensor udara dan aktivitas pengguna secara real-time. Digunakan message broker untuk mendapatkan throughput yang tinggi dan mempermudah integrasi dengan komponen big data yang memerlukan data stream untuk melakukan stream processing dan real-time analytics melalui change data capture. Data stream diolah menjadi keluaran yang dibutuhkan seperti visualisasi data menggunakan dashboard. Untuk mencapai hal tersebut, arsitektur Kappa diimplementasikan untuk membangun arsitektur big data yang scalable dan reliable. Keterhubungan implementasi keseluruhan arsitektur pada penelitian ini diuji dengan melakukan end-to-end testing. Hasil pengujian menunjukkan bahwa keseluruhan komponen sistem aplikasi Mahoni terhubung dengan baik dalam memenuhi kebutuhan pengguna. Komponen arsitektur event-driven terbukti dapat mengatasi data stream dengan throughput tinggi dan bersifat loosely-coupled sehingga integrasi komponen baru pada sistem lebih mudah. Komponen arsitektur big data juga terbukti dapat mengatasi pertumbuhan data dengan melakukan scaling sehingga menghasilkan sistem yang reliable.

The high number of motorized vehicles in Indonesia is causing air quality issues. To combat this problem, the Mahoni application introduces a smart city concept. It employs a microservice architecture, offering features such as air quality monitoring, travel assistance, and point redemption for coupons according to user needs. Event-driven architecture is utilized for real-time data collection from air sensors and user interactions. Message broker is used to get high throughput and facilitate integration with big data components that require data streams to perform stream processing and real-time analytics through change data capture. Stream data is processed into the required output such as data visualization using dashboards. To achieve this, Kappa architecture is implemented to build a scalable and reliable big data architecture. The connectedness of the implementation of the entire architecture in this study was tested by conducting end-to-end testing. The results of the test show that all components of the Mahoni application system are well connected in meeting user needs. The event-driven architecture component is proven to cope with high-throughput data streams and is loosely-coupled, allowing easy integration of new components. The big data architecture component is also proven to accommodate data growth by scaling, ensuring a reliable system."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fathan Muthahhari
"Tingginya jumlah kendaraan bermotor di Indonesia memiliki dampak kepada kualitas udara. Aplikasi Mahoni merupakan upaya solusi dari permasalahan tersebut dengan membawa konsep kota cerdas. Penulis melakukan pengembangan arsitektur microservice yang melayani fitur pada aplikasi Mahoni yaitu servis kualitas udara, perjalanan, dan penukaran poin menjadi kupon sesuai dengan kebutuhan pengguna. Aplikasi Mahoni dikembangkan dengan menggunakan arsitektur event-driven agar dapat mencatat beragam data yang berasal dari sensor udara dan aktivitas pengguna secara real-time. Digunakan message broker untuk mendapatkan throughput yang tinggi dan mempermudah integrasi dengan komponen big data yang memerlukan data stream untuk melakukan stream processing dan real-time analytics melalui change data capture. Data stream diolah menjadi keluaran yang dibutuhkan seperti visualisasi data menggunakan dashboard. Untuk mencapai hal tersebut, arsitektur Kappa diimplementasikan untuk membangun arsitektur big data yang scalable dan reliable. Keterhubungan implementasi keseluruhan arsitektur pada penelitian ini diuji dengan melakukan end-to-end testing. Hasil pengujian menunjukkan bahwa keseluruhan komponen sistem aplikasi Mahoni terhubung dengan baik dalam memenuhi kebutuhan pengguna. Komponen arsitektur event-driven terbukti dapat mengatasi data stream dengan throughput tinggi dan bersifat loosely-coupled sehingga integrasi komponen baru pada sistem lebih mudah. Komponen arsitektur big data juga terbukti dapat mengatasi pertumbuhan data dengan melakukan scaling sehingga menghasilkan sistem yang reliable.

The high number of motorized vehicles in Indonesia is causing air quality issues. To combat this problem, the Mahoni application introduces a smart city concept. It employs a microservice architecture, offering features such as air quality monitoring, travel assistance, and point redemption for coupons according to user needs. Event-driven architecture is utilized for real-time data collection from air sensors and user interactions. Message broker is used to get high throughput and facilitate integration with big data components that require data streams to perform stream processing and real-time analytics through change data capture. Stream data is processed into the required output such as data visualization using dashboards. To achieve this, Kappa architecture is implemented to build a scalable and reliable big data architecture. The connectedness of the implementation of the entire architecture in this study was tested by conducting end-to-end testing. The results of the test show that all components of the Mahoni application system are well connected in meeting user needs. The event-driven architecture component is proven to cope with high-throughput data streams and is loosely-coupled, allowing easy integration of new components. The big data architecture component is also proven to accommodate data growth by scaling, ensuring a reliable system."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Febtriany
"Saat ini kompetisi di industri telekomunikasi semakin ketat. Perusahaan telekomunikasi yang dapat tetap menghasilkan banyak keuntungan yaitu perusahaan yang mampu menarik dan mempertahankan pelanggan di pasar yang sangat kompetitif dan semakin jenuh. Hal ini menyebabkan perubahan strategi banyak perusahaan telekomunikasi dari strategi 'growth '(ekspansi) menjadi 'value added services'. Oleh karena itu, program mempertahankan pelanggan ('customer retention') saat ini menjadi bagian penting dari strategi perusahaan telekomunikasi. Program tersebut diharapkan dapat menekan 'churn' 'rate 'atau tingkat perpindahan pelanggan ke layanan/produk yang disediakan oleh perusahaan kompetitor.
Program mempertahankan pelanggan ('customer retention') tersebut tentunya juga diimplementasikan oleh PT Telekomunikasi Indonesia, Tbk (Telkom) sebagai perusahaan telekomunikasi terbesar di Indonesia. Program tersebut diterapkan pada berbagai produk Telkom, salah satunya Indihome yang merupakan 'home services' berbasis 'subscriber' berupa layanan internet, telepon, dan TV interaktif. Melalui kajian ini, penulis akan menganalisa penyebab 'churn' pelanggan potensial produk Indihome tersebut, sehingga Telkom dapat meminimalisir angka 'churn' dengan melakukan program 'customer retention' melalui 'caring' yang tepat.
Mengingat ukuran 'database' pelanggan Indihome yang sangat besar, penulis akan menganalisis data pelanggan tersebut menggunakan metoda 'Big Data Analytics'. 'Big Data' merupakan salah satu metode pengelolaan data yang sangat besar dengan pemetaan dan 'processing' data. Melalui berbagai bentuk 'output', implementasi 'big data' pada perusahaan akan memberikan 'value' yang lebih baik dalam pengambilan keputusan berbasis data.

Nowadays, telecommunication industry is very competitive. Telecommunication companies that can make a lot of profit is the one who can attract and retain customers in this highly competitive and increasingly saturated market. This causes change of the strategy of telecommunication companies from growth strategy toward value added services. Therefore, customer retention program is becoming very important in telecommunication companies strategy. This program hopefully can reduce churn rate or loss of potential customers due to the shift of customers to other similar products.
Customer retention program also implemented by PT Telekomunikasi Indonesia, Tbk (Telkom) as the leading telecommunication company in Indonesia. Customer retention program implemented for many Telkom products, including Indihome, a home services based on subscriber which provide internet, phone, and interactive TV. Through this study, the authors will analyze the cause of churn potential customers Indihome product, so that Telkom can minimize the churn number by doing customer retention program through the efficient caring.
Given by huge customer database the author will analyze using Big Data analytics method. Big Data is one method in data management that contain huge data, by mapping and data processing. Through various forms of output, big data implementation on the organization will provide better value in data-based decision making.
"
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2018
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Diyanatul Husna
"ABSTRAK
Apache Hadoop merupakan framework open source yang mengimplementasikan MapReduce yang memiliki sifat scalable, reliable, dan fault tolerant. Scheduling merupakan proses penting dalam Hadoop MapReduce. Hal ini dikarenakan scheduler bertanggung jawab untuk mengalokasikan sumber daya untuk berbagai aplikasi yang berjalan berdasarkan kapasitas sumber daya, antrian, pekerjaan yang dijalankan, dan banyaknya pengguna. Pada penelitian ini dilakukan analisis terhadapap Capacity Scheduler dan Fair Scheduler. Pada saat Hadoop framework diberikan 1 pekerjaan dengan ukuran data set 1,03 GB dalam satu waktu. Waiting time yang dibutuhkan Capacity Scheduler dan Fair Scheduler adalah sama. Run time yang dibutuhkan Capacity Scheduler lebih cepat 6% dibandingkan Fair Scheduler pada single node. Sedangkan pada multi node Fair Scheduler lebih cepat 11% dibandingkan Capacity Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set (1,03 GB ) yang sama dalam satu waktu. Waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 87% lebih cepat pada single node dan 177% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 55% lebih cepat pada single node dan 212% lebih cepat pada multi node. Turnaround time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 4% lebih cepat pada single node, sedangkan pada multi node Capacity Scheduler lebih cepat 58% dibandingkan Fair Scheduler. Pada saat Hadoop framework diberikan 3 pekerjaan secara bersamaan dengan ukuran data set yang berbeda dalam satu waktu yaitu data set 1 (456 MB), data set 2 (726 MB), dan data set 3 (1,03 GB) dijalankan secara bersamaan. Pada data set 3 (1,03 GB), waiting time yang dibutuhkan Fair Scheduler lebih cepat dibandingkan Capacity Scheduler yaitu 44% lebih cepat pada single node dan 1150% lebih cepat pada multi node. Run time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 56% lebih cepat pada single node dan 38% lebih cepat pada multi node. Turnaround time yang dibutuhkan Capacity Scheduler lebih cepat dibandingkan Fair Scheduler yaitu 12% lebih cepat pada single node, sedangkan pada multi node Fair Scheduler lebih cepat 25,5% dibandingkan Capacity Scheduler

ABSTRACT
Apache Hadoop is an open source framework that implements MapReduce. It is scalable, reliable, and fault tolerant. Scheduling is an essential process in Hadoop MapReduce. It is because scheduling has responsibility to allocate resources for running applications based on resource capacity, queue, running tasks, and the number of user. This research will focus on analyzing Capacity Scheduler and Fair Scheduler. When hadoop framework is running single task. Capacity Scheduler and Fair Scheduler have the same waiting time. In data set 3 (1,03 GB), Capacity Scheduler needs faster run time than Fair Scheduler which is 6% faster in single node. While in multi node, Fair Scheduler is 11% faster than Capacity Scheduler. When hadoop framework is running 3 tasks simultaneously with the same data set (1,03 GB) at one time. Fair Scheduler needs faster waiting time than Capacity Scheduler which is 87% faster in single node and 177% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 55% faster in single node and 212% faster in multi node. Fair Scheduler needs faster turnaround time than Capacity Scheduler which is 4% faster in single node, while in multi node Capacity Scheduler is 58% faster than Fair Scheduler. When hadoop framework is running 3 tasks simultaneously with different data set, which is data set 1 (456 MB), data set 2 (726 MB), and data set 3 (1,03 GB) in one time. In data set 3 (1,03 GB), Fair Scheduler needs faster waiting time than Capacity Scheduler which is 44% faster in single node and 1150% faster in muliti node. Capacity Scheduler needs faster run time than Fair Scheduler which is 56% faster in single node and 38% faster in multi node. Capacity Scheduler needs faster turnaround time than Fair Scheduler which is 12% faster in single node, while in multi node Fair Scheduler is 25,5% faster than Capacity Scheduler"
2016
T45854
UI - Tesis Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>