Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 182380 dokumen yang sesuai dengan query
cover
Ferry Astika Saputra
"

Ancaman keamanan cyber berupa aktivitas Botnet merupakan salah satu ancaman berbahaya yang dihadapi oleh komunitas internet. Para peneliti telah mengusulkan sistem deteksi intrusi (IDS) yang bekerja dengan menggunakan algoritma machine learning sebagai solusi alternatif dari IDS yang menggunakan metode signature dan metode anomali untuk mendeteksi aktivitas Botnet.

Permasalahan yang dihadapi adalah sulitnya membedakan antara trafik normal dengan trafik Botnet. Perlu adanya pemilihan fitur dari data set jaringan sehingga trafik Botnet dapat dideteksi dengan akurat. Dalam penelitian ini diusulkan metode baru yang meningkatkan kinerja IDS dalam mendeteksi Botnet. Metode yang diusulkan adalah dengan menggabungkan dua metode statistik yaitu low variance filter yang dikombinasikan dengan Pearson Correlation Filter yang selanjutnya disebut dengan  Hybrid Pearson Correlation Filter (HPCF) untuk diterapkan dalam tahap  pemilihan fitur. Pemilihan fitur dengan metode yang diajukan yaitu HPCF (Hybrid Pearson Correlation Filter) terbukti dapat meningkatkan efektifitas dan efisiensi dari IDS. Efektivitas diukur dengan menggunakan metrik performasi. Dari hasil eksperimen offline maupun reatime detection, DT lebih unggul dari tujuh model ML lainnya. Model DT-15 merupakan kombinasi terbaik dengan performasi diatas 95% untuk offline detection, 99% untuk Real-time detection.

Pemilihan fitur juga berpengaruh terhadap efisiensi yang diukur dari waktu komputasi pembelajaran mode dan waktu komputasi deteksi di jaringan sebenarnya. Model DT-15 merupakan kombinasi terbaik dengan rata-rata waktu 6,3 detik untuk pembelajaran model (offline detection) and 350 detik untuk waktu deteksi di jaringan sebenarnya (Real-time detection).

Tantangan untuk membuat arsitektur IDS yang dapat beradaptasi dengan  tekonologi komputasi awan juga menjadi topik dalam penelitian ini. Perubahan dinamis dalam arsitektur komputasi awan membutuhkan kemudahan dan fleksibilitas didistribusikan dan dikonfigurasi, dan sarana transportasi data yang paling andal ke defense center. Selain itu teknologi komputasi awan secara signifikan meningkatkan volume, kecepatan, dan variasi data yang harus diproses di pusat pertahanan. Ini berarti bahwa defense center membutuhkan teknologi big data. Snort adalah sistem deteksi dan pencegahan intrusi jaringan berbasis signature yang populer dan berpengaruh di komunitas Internet. Kekurangan dari Snort adalah keterbatasannya dalam menempatkan sensor dengan defense center yang harus terhubung dalam satau sama lain dalam satu jaringan. Hal ini bertolak belangkang dengan kebutuhan dari teknologi komputasi awan. Pada penelitian ini digunakan referensi arsitektur lambda. Dalam pengembangannya arsitektur terbagi menjadi tiga bagian: data source, data collecting dan data serving. Untuk data source dikembangkan aplikasi docker yang didalamnya terdapat aplikasi Snort IDS. Sedangkan untuk collecting data ddigunakan protokol MQTT sebagai saluran pengirimannya. MQTT lebih unggul dalam kemampuan pengirimanya dengan message rate 12 kali lebih besar dan latensi 62 kali lebih rendah dibandingkan dengan protokol Kafka Pub/Sub. Secara keseluruhan penelitian menghasilkan arsitektur baru big data penerapan sistem deteksi intrusi jaringan berbasis Snort di lingkungan komputasi awan.  Aplikasi NIDS Snort yang dibangun dengan merujuk dari arsitektur yang telah dibangun dapat diakses di https://github.com/Mata-Elang-Stable/MataElang-Platform/wiki.


Cyber security threats in the form of botnet activities are one of the dangerous threats faced by the internet community. Researchers have proposed an intrusion detection system (IDS) that works using machine learning algorithms as an alternative solution to IDS that uses signature and anomaly methods to detect botnet activity.

The problem faced is the difficulty of distinguishing between normal traffic and Botnet traffic. There needs to be a selection feature from the network data set to detect Botnet traffic accurately. This study proposes a new method to improve IDS performance in detecting botnets. The proposed method combines two statistical methods, namely the low variance filter and the Pearson Correlation Filter, referred to as the Hybrid Pearson Correlation Filter (HPCF), to be applied in the feature selection stage. Feature selection with the proposed method, namely HPCF (Hybrid Pearson Correlation Filter), is proven to increase the effectiveness and efficiency of IDS. Effectiveness is measured using performance metrics. From the results of offline and real-time detection experiments, DT is superior to the other seven ML models. The DT-15 model is the best combination, with over 95% performance for offline detection and 99% for real-time detection.

The selection of features also affects the efficiency measured by the computational time of mode learning and the computational time of detection in the real network. The DT-15 model is the best combination, with an average time of 6.3 seconds for the learning model (offline detection) and 350 seconds for detecting in the real network (real-time detection).

Developing an IDS architecture that can adapt to cloud computing technology is also a topic in this research. Dynamic changes in cloud architecture require the flexibility of configuring and the most reliable means of data transportation for the defense center. In addition, cloud computing significantly increases the volume, speed, and variety of data that must be centralized in the defense center. So this means that the defense center needs big data technology. Snort is a signature-based network intrusion detection and prevention system that is popular and influential in the Internet community. The drawback of Snort is its limitation in placing sensors with central defenses that must be connected to a single network, which is contrary to the needs of cloud computing technology.

In this study,  we refer to lambda architecture, which consists of three parts: data source, data collecting and serving. A docker application for the data source is developed, including the Snort IDS application. Meanwhile, the MQTT protocol is used as the delivery channel for collecting data. MQTT is superior in its delivery capabilities, with a message rate of 12 times more significant and latency 62 times lower than the Kafka Pub/Sub protocol. Overall, the research resulted in a new big data architecture for implementing a Snort-based network intrusion detection system in a cloud computing environment. Our proposed design and implementation can be accessed at https://github.com/Mata-Elang-Stable/MataElang-Platform/wiki.

"
Depok: Fakultas Teknik Universitas Indonesia, 2022
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Nico Juanto
"E-commerce dan big data merupakan bukti dari kemajuan teknologi yang sangat pesat. Big data berperan cukup penting dalam perusahaan e-commerce untuk menangani perkembangan semua data, mengolah setiap data tersebut dan menjadi competitive advantage bagi perusahaan. Perusahaan XYZ.com mengalami kesulitan dalam menganalisis stok dan tren dari produk yang dijual. Jika hal ini tidak ditanggulangi, maka perusahaan XYZ.com akan kehilangan opportunity gain. Untuk menentukan tren dan stok produk secara cepat dengan akurat, dibutuhkan big data predictive analysis. Penelitian ini mengolah data transaksi menjadi data yang dapat dianalisis untuk menentukan tren dan prediksi tren produk berdasarkan kategorinya dengan menggunakan big data predictive analysis. Hasil dari penelitian ini akan memberikan informasi kepada pihak manajemen kategori apa yang berpotensi menjadi tren dan jumlah minimal stok yang harus disediakan dari kategori produk tersebut.

E commerce and big data are evidence of rapid technological advances. Big data plays an important role in e commerce companies to handle and analyze all data changes, and become a competitive advantage for the company. XYZ.com experience a difficulty in analyzing stocks and commerce product trend. If this issue not addressed, XYZ.com company will lose an opportunity gain. To determine trends and stock accurately, XYZ.com can use big data predictive analysis. This study processes transaction data into data that can be analyzed to determine trends and predictions of product trends based on its categories using big data predictive analysis. The results of this study give massive informations to management about what categories will potential become trends and minimum stock required to be provided."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2017
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Alexander
"Penggunaan energi secara efisien merupakan hal yang penting untuk mengatasi peningkatan permintaan terhadap energi pada masa kini. Penelitian ini bertujuan untuk mengoptimasi penggunaan energi terutama pada kereta dengan menerapkan algoritma Deep Deterministic Policy Gradient secara Multi Agent. Algoritma ini telah terbukti pada literatur akan kemampuannya dalam menangani permasalahan dengan aksi yang besifat kontinuu. Akan tetapi DDPG terkenal sensitif terhadap variasi \textit{hyperparameter} dan sumber daya komputasi yang besar untuk menemukan strategi optimal. Penelitian ini bertujuan untuk mempelajari dampak dari variasi \textit{hyperparameter} dan memilih nilai yang tepat pada penerapan Multi-Agent DDPG untuk mengoptimasi sistem penggerak kereta.

Efficient usage of energy is necessary to cope with the increasing demand of modern society. This research aims to fulfill this goal by implements Deep Deterministic Policy Gradient (DDPG) as its DRL algorithm. DDPG has been proven in literature for its ability in controlling continuous action space. But DDPG is known to be brittle to hyperparameter and need a lot of time and computational resource to find optimal policy. This research aims to learn the effect of different value of hyperparameter in the implementation of Multi Agent DDPG to optimize the energy usage of train driving system."
Depok: Fakultas Teknik Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Panji Winata
"[ABSTRAK
PT. XYZ merupakan perusahaan telekomunikasi di Indonesia yang sedang
berusaha mentransformasikan bisnisnya menuju layanan broadband dan bisnis
digital. Banyak peluang bisnis di layanan broadband dan bisnis digital yang dapat
diidentifikasi dengan memproses dan menganalisis data dengan cepat, tepat, dan
menyeluruh. Saat ini PT. XYZ telah memiliki kemampuan dalam mengolah
beberapa sumber data yang terstruktur dengan ukuran data yang terbatas. Untuk
membuat perhitungan dan keputusan yang jitu, terutama di layanan broadband dan
bisnis digital, PT. XYZ dituntut juga untuk bisa memproses dan menganalisis data
yang memiliki karakteristik 3V (Velocity, Volume, Variety) atau dikenal dengan big
data. Penelitian ini bertujuan untuk merancang arsitektur sistem pemrosesan big
data di PT. XYZ. Kerangka arsitektur (framework) enteprise yang digunakan dalam
penelitian ini adalah TOGAF. Hasil yang diperoleh dari penelitian ini adalah
rancangan arsitektur sistem pemrosesan big data yang mampu mengolah data yang
memiliki karakteristik 3V, yaitu aliran data yang cepat, berukuran masiv, dan
beranekaragam (terstruktur maupun tidak terstruktur) dengan biaya lebih rendah
dari sistem pemrosesan data yang dimiliki PT. XYZ saat ini. Saran untuk penelitian
ini kedepannya adalah sistem pemrosesan big data di PT. XYZ dapat
diimplementasikan dengan baik jika mendapat dukungan penuh dari manajemen
perusahaan, dimulai dengan kasus bisnis yang spesifik (specific business case) yang
ingin disasar. Hasil yang maksimal dari kasus bisnis tersebut dapat dijadikan
landasan untuk investasi sistem pemrosesan big data yang lebih menyeluruh dalam
mendukung transformasi bisnis menuju layanan broadband dan bisnis digital.

ABSTRACT
PT. XYZ is a telecommunication company in Indonesia which is transforming it's business to broadband services & digital business. Many business opportunities in broadband services & digital business can be identified by processing and analyzing data quickly, accurately, and completely. Right now PT. XYZ has the capability in processing some structured data sources with limited data size. To make accurate calculations and decisions, especially in broadband services and digital business, PT. XYZ also required to be able to process and analyze the data that has the characteristics of 3V (Velocity, Volume, Variety) or known as big data. This research aims to design the architecture of big data processing system. The enterprise architecture framework used in this study is TOGAF. The results obtained from this study is the design of big data processing system architecture that is capable of processing data which has the characteristics of 3V (the fast data
flow, massive data size, and diverse structured or unstructured data sources) at a lower cost than the current data processing system in PT. XYZ. The suggestion about this study is the big data processing system can be implemented properly in PT. XYZ with the full support of the PT. XYZ management, started with a specific business use case that want targeted. The maximum results from the business use case can be used as a piloting for big data processing system investments more
thorough in supporting business transformation toward broadband services and digital business. ;PT. XYZ is a telecommunication company in Indonesia which is transforming it?s
business to broadband services & digital business. Many business opportunities in
broadband services & digital business can be identified by processing and analyzing
data quickly, accurately, and completely. Right now PT. XYZ has the capability in
processing some structured data sources with limited data size. To make accurate
calculations and decisions, especially in broadband services and digital business,
PT. XYZ also required to be able to process and analyze the data that has the
characteristics of 3V (Velocity, Volume, Variety) or known as big data. This
research aims to design the architecture of big data processing system. The
enterprise architecture framework used in this study is TOGAF. The results
obtained from this study is the design of big data processing system architecture
that is capable of processing data which has the characteristics of 3V (the fast data
flow, massive data size, and diverse structured or unstructured data sources) at a
lower cost than the current data processing system in PT. XYZ. The suggestion
about this study is the big data processing system can be implemented properly in
PT. XYZ with the full support of the PT. XYZ management, started with a specific
business use case that want targeted. The maximum results from the business use
case can be used as a piloting for big data processing system investments more
thorough in supporting business transformation toward broadband services and
digital business. , PT. XYZ is a telecommunication company in Indonesia which is transforming it’s
business to broadband services & digital business. Many business opportunities in
broadband services & digital business can be identified by processing and analyzing
data quickly, accurately, and completely. Right now PT. XYZ has the capability in
processing some structured data sources with limited data size. To make accurate
calculations and decisions, especially in broadband services and digital business,
PT. XYZ also required to be able to process and analyze the data that has the
characteristics of 3V (Velocity, Volume, Variety) or known as big data. This
research aims to design the architecture of big data processing system. The
enterprise architecture framework used in this study is TOGAF. The results
obtained from this study is the design of big data processing system architecture
that is capable of processing data which has the characteristics of 3V (the fast data
flow, massive data size, and diverse structured or unstructured data sources) at a
lower cost than the current data processing system in PT. XYZ. The suggestion
about this study is the big data processing system can be implemented properly in
PT. XYZ with the full support of the PT. XYZ management, started with a specific
business use case that want targeted. The maximum results from the business use
case can be used as a piloting for big data processing system investments more
thorough in supporting business transformation toward broadband services and
digital business. ]"
2015
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Nur Afifa Kamal Azzahra Chaniago
"Pandemi COVID-19 memengaruhi kegiatan kapal dan penting untuk dievaluasi manajemen pelabuhannya. Tak hanya itu, adanya pandemi COVID 19 berdampak pada aksesibilitas, mobilitas, serta kinerja dari sebuah pelabuhan dalam melakukan proses pengerjaan pelabuhan. Pengaruh lainnya juga berdampak pada trend peningkatan angkutan barang serta pelayanan kapal. Untuk mengevaluasi kinerja pelayanan operasional pelabuhan yang terkhususkan terkait pelayanan kapal dibutuhkan metode untuk mengevaluasi kinerja pelayanan operasional pelabuhan dalam pelayanan kapal. Salah satu cakupan dalam proses mengevaluasi kinerja pelayanan operasional perlabuhan dalam pelayanan kapal, dibutuhkan juga beberapa indikator standar kinerja operasional pelayanan pelabuhan waktu pelabuhan seperti Waktu Tunggu Kapal (Waiting Time/WT), Waktu Pelayanan Pemanduan (Approach TimeI/AT), Waktu Kapal di Tambatan Berthing Time serta Tingkat Penggunaan Dermaga (Berth Occupacy Ratio/BOR) dan juga nilai Turn Around Time yang dapat memberikan infromasi terkait sebaran nilai Turn Aound Time pada kapal. Penelitian kali ini nantinya diperlukan untuk mengevaluasi serta mengetahui kinerja operasional pelayanan kapal di pelabuhan pada saat setelah pandemi (post pandemic) pandemi untuk mengevaluasi serta mengetahui kinerja operasional pelayanan kapal di pelabuhan setelah pandemi (post pandemic) berbasis big data AIS (Automatic Identification System) sehingga dapat membantu pihak pelabuhan seperti direktur pelabuhan hingga otoritas pelabuhan dalam melakukan perbaikan terhadap kinerja operasional pelayanan kapal di pelabuhan setelah pandemi (post pandemic).

The COVID-19 pandemic has affected ship activities and it is important to evaluate port management. Not only that, the existence of the COVID 19 pandemic has had an impact on the accessibility, mobility, and performance of a port in carrying out port construction processes. Other influences also have an impact on the trend of increasing freight transport and ship services. To evaluate the performance of port operational services specifically related to ship services, a method is needed to evaluate the performance of port operational services in ship services. One of the scopes in the process of evaluating the performance of port operational services in ship services, requires several standard indicators of port service operational performance at port time such as Ship Waiting Time (WT), Guided Service Time (Approach TimeI/AT), Ship Time at Berths. Berthing Time and Berth Occupancy Ratio (BOR) as well as Turn Around Time values which can provide information regarding the distribution of Turn Aound Time values on ships. This research is later needed to evaluate and find out the operational performance of ship services at ports after a pandemic (post-pandemic) pandemic to evaluate and find out the operational performance of ship services at ports after a pandemic (post-pandemic) based on big data AIS (Automatic Identification System) so that can assist port parties such as port directors to port authorities in making improvements to the operational performance of ship services at ports after a pandemic (post-pandemic)."
Depok: Fakultas Teknik Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Xenia Selma Odella Veryano
"ABSTRAK
Revolusi digital telah meluncurkan era baru pemberdayaan dan keterlibatan manusia di seluruh bisnis, masyarakat, dan dalam setiap aspek kehidupan kita. Big data akan menjadi sumber nilai dan inovasi ekonomi baru. Pengaruh big data mewakili tiga pergeseran dalam cara kami menganalisis informasi yang mengubah cara untuk memahami dan mengatur masyarakat. Makalah ini akan memeriksa seberapa besar big data dapat digunakan dalam membantu usaha kecil dan menengah UKM untuk tumbuh dan menyelidiki seberapa besar data telah berkontribusi untuk membantu UKM dan perusahaan baru dalam bersaing dengan perusahaan yang lebih besar dan lebih mapan. Menurut definisi, usaha kecil dan menengah UKM adalah non-subsidiari, perusahaan independen yang mempekerjakan lebih sedikit dari jumlah karyawan yang diberikan OECD 2001 . UKM dalam konteks ini termasuk toko individu di platform besar seperti Tokopedia, Bukalapak, dll atau usaha kecil yang menjual langsung ke pelanggan.
The digital revolution has launched a new era of human empowerment and engagement across business, society and in every aspect of our lives. Big data will be the source of a new economic value and innovation. Big data rsquo;s ascendency represents three shifts in the way we analyze information that transform how we understand and organize society. This paper will examine how big data can be used in helping small and medium enterprises SMEs to grow and investigate how big data have contributed to help SMEs and startups in competing with bigger and more established companies. By definition, small and medium-sized enterprises SMEs are non-subsidiary, independent firms which employ fewer than a given number of employees OECD 2001 . SME in this context includes individual stores on big platforms such as Tokopedia, Bukalapak, etc or small businesses that sell directly to customers."
2018
MK-pdf
UI - Makalah dan Kertas Kerja  Universitas Indonesia Library
cover
Luluk Tri Wulandari
Depok: Perpustakaan Universitas Indonesia, 2016
MK-Pdf
UI - Makalah dan Kertas Kerja  Universitas Indonesia Library
cover
Karina Chandra Dewi
"Klaim asuransi merupakan salah satu elemen penting dalam bidang jasa asuransi. Klaim severity mengacu pada besarnya dana yang harus dikeluarkan untuk memperbaiki kerusakan yang terjadi. Besarnya klaim asuransi dipengaruhi oleh banyak faktor. Hal ini menyebabkan volume data menjadi sangat besar. Sehingga diperlukan suatu metode yang tepat dalam memprediksi besarnya klaim severity untuk data besar. Salah satu metode yang dapat digunakan untuk menyelesaikan permasalahan tersebut yaitu Random Forest yang merupakan salah satu metode machine learning. Tesis ini mengaplikasikan model Random Forest untuk menyelesaikan masalah prediksi besarnya klaim severity pada asuransi mobil serta menganalisis pengaruh jumlah fitur yang digunakan pada model Random Forest terhadap akurasi model sebagai alternatif solusi terkait Big Data. Hasil simulasi menunjukkan bahwa model Random Forest dapat diterapkan pada kasus prediksi klaim severity yang merupakan kasus regresi dalam konteks machine learning. Dengan menggunakan 1⁄3 dari keseluruhan fitur yang ada, model Random Forest dapat menghasilkan akurasi yang setara dengan akurasi yang diperoleh ketika menggunakan seluruh fitur dalam membangun model, yaitu sekitar 99%. Hasil ini menunjukkan skalabilitas yang baik dari Random Forest terutama ditinjau dari jumlah fitur. Sehingga, model Random Forest dapat digunakan sebagai solusi untuk masalah Big Data terkait volume data.

The insurance claim is one of the important elements in the field of insurance services. Claim severity refers to the amount of fund that must be spent to repair the damage. The amount of insurance claim is influenced by many factors. This causes the volume of data to be very large. Therefore, a suitable method is required. Random Forest, one of the machine learning methods can be implemented to handle this problem. This thesis applies the Random Forest model to predict the amount of this claim severity on car insurance. Furthermore, analysis on the effect of the number of features used on model accuracy is conducted. The simulation result show that the Random Forest model can be applied in cases of prediction of claim severity which is a case of regression in the context of machine learning. Only by using 1⁄3 of the overall features, the accuracy of Random Forest model can produce accuracy that is comparable to that obtained when using all features, which is around 99%. This result confirms the scalability of Random Forest, especially in terms of the number of features. Hence, Random Forest model can be used as a solution to Big Data problems related to data volume."
Depok: Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Indonesia, 2019
T54306
UI - Tesis Membership  Universitas Indonesia Library
cover
Balqis Az Zahra
"Memprediksi niat kunjungan kembali memainkan peran penting dalam kebangkitan kembali waktu pandemi yang akan menguntungkan keunggulan kompetitif jangka pendek dan jangka panjang. Penelitian ini mengkaji faktor-faktor penentu niat berkunjung kembali dari analisis sentimen berbasis aspek dan pembelajaran mesin. Pendekatan big data diterapkan pada empat set data atraksi, hotel bintang 4&5, hotel bintang 3, dan motel dengan 49.399 ulasan dari TripAdvisor. Kami menerapkan metode pemodelan topik untuk mengekstrak aspek dan atribut, menghasilkan 10 aspek untuk kategorisasi hotel 4&5 dan kumpulan data atraksi, 6 aspek pada kumpulan data hotel bintang 3 dan Motel. Hasil analisis sentimen menunjukkan bahwa sentimen wisatawan secara positif dan negatif juga mempengaruhi kemungkinan niat berkunjung kembali. Peneliti menerapkan metode Logistic Regression, Random Forest Classifier, Decision Tree, k-NN, dan XGBoost untuk memprediksi niat berkunjung kembali yang menghasilkan tiga topik utama yang mendominasi probabilitas niat berkunjung kembali untuk masing-masing dataset. Aspek Properti pada hotel bintang 4&5 dan hotel bintang 3 mengindikasikan memiliki kemungkinan tinggi untuk niat berkunjung kembali. Sedangkan aspek Motels pada Atmosfir, Aktivitas Wisata, dan Durasi cenderung memiliki probabilitas niat berkunjung kembali. Aspek atraksi pada Harga, Layanan, Suasana meningkatkan kemungkinan niat berkunjung kembali. Studi ini berkontribusi pada pemanfaatan data besar dan pembelajaran mesin di industri pariwisata dan perhotelan dengan berfokus pada strategi inovatif sebagai pengurangan biaya untuk mempertahankan niat kunjungan kembali di kebangkitan kembali dari pandemi.

Predicting revisit intention plays a crucial role in the reawakening time of pandemic that will benefit short-term and long-term competitive advantage. This study examines the determiner factors of revisit intention from aspect-based sentiment analysis and machine learning. A big data approach was applied on four datasets of attractions, hotel 4&5 stars, hotel 3 stars, and motels with 49,399 reviews from TripAdvisor. We applied a topic modeling method to extract aspects and attributes, resulting in 10 aspects for hotel 4&5 categorization and attractions dataset, 6 aspects on hotel 3 stars and Motels dataset. Results on sentiment analysis show that tourists’ sentiment in positives and negatives also affect probability of revisit intention. Researchers applied methods of Logistic Regression, Random Forest Classifier, Decision Tree, k-NN, andXGBoost to predict revisit intention resulting in three main topics that have dominated probability on revisit intention for each dataset respectively. Aspect Properties on hotels 4&5 stars and hotel 3 stars indicate to have a high probability of revisit intention. Meanwhile, Motels' aspects on Atmosphere, Tourist Activities, and Duration tend to have a probability of revisit intention. Attraction’s aspects on Price, Services, Ambience increase probability of revisit intention. This study contributes to the utilization of big data and machine learning in tourism and hospitality industry by focusing on an innovative strategy as cost reduction to maintain revisit intention in the reawakening from pandemic."
Depok: Fakultas Ekonomi dan Bisnis Universitas Indonesia, 2022
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
"Informasi telah menjadi komoditas berharga yang membawa pada perubahan pada kehidupan manusia. Salah satu perubahan adalah bagaimana manusia memperoleh informasi tersebut dari kepingan data yang sangat banyak. Kepingan data yang banyak tersebut merupakan big data membutuhkan tempat untuk disimpan di organisasi dan di analisa. Perpustakaan memiliki sejarah panjang sebagai tempat penyimpanan, pengorganisasian dan analisa informasi. Artikel ini berusaha memberikan gambaran umum tentang big data dan pengaruhnya terhadap dunia perpustakaan. Big data membawa pengaruh besar dalam dunia perpustakaan khususnya pada aspek layanan perpustakaan, kompetensi pustakawan."
MPMKAP 22:4 (2015)
Artikel Jurnal  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>