Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 4 dokumen yang sesuai dengan query
cover
Gita Permatasari Sujatmiko
"Penggunaan container pada arsitektur microservice merupakan sebuah pendekatan yang dapat digunakan untuk mempermudah proses delivery sistem. Container dalam sistem pun lebih mudah diatur dengan Kubernetes sehingga sistem dapat berjalan secara
seamless. Hal tersebut memungkinkan deployment sistem yang cepat dan portable. Salah satu strategi deployment yang dapat digunakan untuk men-deploy sistem yang menggunakan container pada arsitektur microservice adalah canary deployment, dimana sebagian traffic diarahkan ke sekelompok kecil pengguna terlebih dahulu untuk menguji aplikasi di production. Pada dasarnya, canary deployment dapat dilakukan secara native dengan Kubernetes, namun cara ini masih memiliki masalah, yaitu traffic distribution dan replica deployment yang tidak independen. Salah satu solusi yang dapat dilakukan
untuk memecahkan masalah tersebut adalah dengan menggunakan service mesh. Hal ini dikarenakan service mesh memiliki fitur traffic management yang dapat melakukan intelligent routing untuk melakukan canary deployment. Isu independensi ini memengaruhi proses deployment dan kebutuhan bisnis, dimana dengan menggunakan service mesh, jumlah replika pods yang digunakan untuk men-deploy aplikasi tidak
berubah bagaimanapun aturan traffic routing-nya. Hal ini berbeda dengan sistem yang tidak menggunakan service mesh, dimana jumlah replika pods-nya berubah-ubah menyesuaikan aturan traffic routing yang telah ditentukan. Tanpa service mesh, rasio replika pods perlu diatur secara manual dengan konfigurasi yang redundan. Di sisi lain, konfigurasi sistem dengan service mesh mudah diatur dengan memanfaatkan fitur-fitur yang disediakan oleh service mesh itu sendiri, khususnya fitur traffic management. Selain itu, penggunaan service mesh dalam proses canary deployment pada aplikasi
berbasis Kubernetes juga dapat membuat proses deployment menjadi lebih efisien dalam jumlah resource (pods).

The use of containers in the microservice architecture is an approach that can be used to
simplify the system delivery process. Containers in the system are also easier to manage with Kubernetes so that the system can run seamlessly. This allows for fast and portable system deployment. One deployment strategy that can be used to deploy systems that use containers on a microservices architecture is canary deployment, where some traffic is directed to a small group of users first to test the application in production. Basically, canary deployment can be done with Kubernetes natively, but this method still has
problems, namely traffic distribution and replica deployment which are not independent. One solution that can be done to solve this problem is to use a service mesh. This is because the service mesh has a traffic management feature that can perform intelligent routing to perform canary deployments. This independence issue affects the deployment
process and business needs, where by using a service mesh, the number of replica pods used to deploy applications does not change regardless of the traffic routing rules. This is different from a system that does not use a service mesh, where the number of replica pods varies according to predetermined traffic routing rules. Without a service mesh, the ratio of pod replicas needs to be set manually with redundant configurations. On the
other hand, system configuration with service mesh is easy to manage by utilizing the features provided by the service mesh itself, especially the traffic management feature. In addition, the use of service mesh in the canary deployment process for
Kubernetes-based applications can also make the deployment process more efficient in terms of the number of resources (pods).
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dipta Laksmana Baswara Dwiyantoro
"Pada saat ini, pengadaan suatu event untuk menarik pengguna dilakukan oleh perusahaan. Namun, hal tersebut menyebabkan lonjakan HTTP Request pada pod yang ada pada kluster. Peristiwa tersebut menyebabkan thundering herd yang berdampak ke response time yang meningkat. Pada umumnya, terdapat Horizontal Pod Autoscaler (HPA) yang digunakan untuk mengatur jumlah pod berdasarkan kebutuhan namun waktu yang dibutuhkan cukup lama. Waktu yang lama disebabkan oleh adanya pengecekan yang dilakukan oleh Readiness dan Liveness Probe. Untuk dapat membuat kluster lebih siap menghadapi suatu event, pengembang melakukan kon gurasi ulang pada HPA sebelum event dimulai. Namun, selain diperlukan pengkon gurasian pada HPA diperlukan juga pengkon gurasian terhadap Cluster Autoscaler (CA) dikarenakan pod yang dibuat HPA memiliki kemungkinan tidak aktif jika tidak terdapat node yang tersedia untuk digunakan. Karena pengkon gurasian dilakukan dengan campur tangan manusia, maka peluang human error seperti lupa atau salah hitung dapat terjadi. Maka dari itu, dalam penelitian ini akan dikembangkan sebuah aplikasi KubeEP yang dapat melakukan penjadwalan kon gurasi HPA dan pengkalkulasian banyaknya node yang dibutuhkan oleh suatu kluster pada saat event terjadi. Dampak dari aplikasi KubeEP akan diuji dengan memberikan pengujian beban kepada kluster yang telah dijadwalkan kon gurasi HPA-nya dan telah dikalkulasikan banyak node yang dibutuhkan. Pengujian dilakukan dengan membuat lonjakan HTTP Request pada saat event mulai. Hasil pengujian didapati bahwa kluster yang dilakukan penjadwalan kon gurasi serta pengkalkulasian jumlah maksimum node memiliki performa yang lebih baik. Sementara itu, kluster yang dilakukan penjadwalan kon gurasi namun jumlah maksimum nodenya hanya 2 kali lipat dari sebelumnya memiliki performa yang lebih rendah namun masih bisa memproses HTTP Request. Pada kluster yang dilakukan penjadwalan namun jumlah maksimum node nya tidak disesuaikan lagi memiliki performa yang cukup buruk, banyak sekali HTTP Request yang gagal dan memiliki response time yang tinggi. Performa yang lebih buruk didapati pada saat kluster tidak dilakukan penjadwalan dan pengkalku- lasian jumlah maksimum node yang dibutuhkan. Berdasarkan pengujian tersebut dilakukan analisis dan didapati bahwa dampak dari penjadwalan dan pengkalkulasian yang dilakukan oleh aplikasi KubeEP memberikan efek yang signi kan pada performa dan ketersediaan kluster.

Currently, a company creates an event to attract many users. However, it causes HTTP Request spikes to cluster pods. HTTP Request spikes cause thundering herd and the result is an increase in response time. In general, there is a Horizontal Pod Autoscaler (HPA) used for managing pod count according to the needs but it takes quite a long time. The long time is due to a check carried out by Readiness and Liveness Probe. To make kluster more ready to handle the event, developer recon gures the HPA before the event starts. However, besides that con guration on HPA is also required con guration of Cluster Autoscaler (CA) because the pod that HPA creates might had a chance to not active if there are no nodes available to be used. Because the con guration is done by human intervention, the possibility of human error such as forgetting or miscalculation can occur. Therefore, in this research, a KubeEP application will be developed that can perform HPA con guration scheduling and calculating the number of nodes required by a cluster when the event occurs. The impact of KubeEP application will be tested by providing load testing to a cluster that had scheduled HPA con guration and calculated the required number of nodes. Testing is done by making HTTP Request spikes when event starts. The test results found that the cluster which had scheduled con guration and calculated the required maximum number of nodes had better performance. Meanwhile, cluster which had scheduled con guration but the maximum number of nodes is doubled the amount from before had a lower performance but it still can process the HTTP Request. In cluster which had scheduled con guration but the maximum number of nodes is not changed had a bad performance, many HTTP Requests had failed and they had high response time. Worst performance found in kluster which had no scheduling and calculation of the required amount of maximum nodes. Based on the tests, an analysis was carried out and it was found that the impact of scheduling and calculations performed by the KubeEP application had a signi cant effect on the performance and availability of the cluster"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Joshevan
"User Plane Function (UPF) adalah salah satu komponen utama dalam jaringan inti 5G. Komponen ini berfungsi untuk menangani data plane processing, seperti packet routing, forwarding, quality of service (QoS), dan mengirimkan data pengguna antara control plane dan user plane. UPF merupakan Network Function (NF) yang memiliki beban kerja paling berat dalam jaringan 5G karena harus menangani data pengguna dalam jumlah yang sangat banyak setiap detiknya. Oleh karena itu, improvisasi dari UPF sangatlah penting untuk meningkatkan jumlah data yang dapat ditangani oleh UPF. Salah satu cara untuk meningkatkannya adalah dengan Kubernetes. Kubernetes adalah open-source platform untuk mengelola aplikasi dan layanan dalam container. Dengan menggunakan kubernetes, jaringan 5G dapat menerapkan strategi Multi UPF, yaitu penggunaan lebih dari satu UPF dalam satu machine yang sama. Pada skripsi ini, strategi penerapan tersebut akan dibandingkan dengan penggunaan UPF secara konvensional untuk mengetahui seberapa besar peningkatkan jumlah data pengguna yang tertangani. Hasil percobaan menunjukkan bawha pada User Datagram Protocol (UDP) traffic, penggunaan Kubernetes untuk menerapkan Multi UPF dapat meningkatkan throughput hingga 7.37%, serta mencapai response time yang lebih rendah, meskipun menggunakan resource yang lebih besar, yaitu peningkatan CPU utilization hingga 44.91% dan peningkatan memory utilization hingga 14%. Sebaliknya, pada Transmission Control Protocol (TCP) traffic, hasil yang didapatkan adalah throughput dan response time yang hampir sama antara kedua metode, meskipun resouce utilization juga lebih besar. Hal ini disebabkan oleh adanya mekanisme reliability pada TCP yang membuat adanya bottleneck pada kernel saat pemrosesan paket.

User Plane Function (UPF) is one of the key component in the 5G core network. This component responsible for data plane processing, such as packet routing, forwarding, quality of service (QoS), and transmitting user data between the control plane and user plane. UPF is a Network Function (NF) with the heaviest workload in the 5G network as it has to handle a significant amount of user data every second. Therefore, improving UPF performance is crucial to enhance the amount of data that can be handled by UPF. One way to improve UPF performance is by using Kubernetes. Kubernetes is an open-source platform for managing applications and services in containers. By utilizing Kubernetes, the 5G network can implement Multi UPF strategy, which involves using more than one UPF within the same machine. In this thesis, this implementation strategy will be compared with the conventional use of UPF to determine the extent of the increase in the amount of user data that can be handled. The experimental results show that for User Datagram Protocol (UDP) traffic, using Kubernetes to implement Multi-UPF can increase throughput by up to 7.37% and achieve lower response time, although it uses more resources, specifically an increase in CPU utilization by up to 44.91% and an increase in memory utilization by up to 14%. Conversely, for Transmission Control Protocol (TCP) traffic, the results show that the throughput and response time are almost the same between the two methods, even though resource utilization is also higher. This is due to the reliability mechanism in TCP that causes a bottleneck in the kernel during packet processing."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Vincent Suryakim
"Di era perdagangan elektronik yang berkembang pesat, mengoptimalkan infrastruktur untuk skalabilitas dan efisiensi menjadi hal yang sangat penting. Untuk memenuhi kebutuhan ini, sebuah sistem yang disebut Kubernetes diperkenalkan dan menjadi standar de facto untuk manajemen dan penskalaan aplikasi yang efisien karena dapat memfasilitasi orkestrasi aplikasi terkontainerisasi dengan baik. Termotivasi oleh faktor-faktor ini, serta diciptakannya model arsitektur baru — Virtual Cluster (VC) — penelitian ini mengeksplorasi dan menganalisis efeknya dengan membandingkannya dengan model namespace-based (NS) untuk mengimplementasikan multi-tenancy di Kubernetes. Secara khusus, penelitian ini berfokus pada perbandingan kedua model tersebut untuk menentukan mana yang lebih tepat digunakan dalam konteks aplikasi e-commerce. Penelitian ini menemukan bahwa model NS yang diterapkan pada Google Compute Engine (GCE) melalui K3s memiliki kinerja yang lebih baik dibandingkan dengan model VC, yang juga diterapkan pada GCE, dan model NS yang diterapkan pada Google Kubernetes Engine (GKE). Selain itu, ditemukan juga bahwa pada tenant yang diuji coba dengan load reguler, terdapat tren penurunan throughput seiring meningkatnya jumlah pengguna pada tenant yang memonopoli resources, yang diamati bersamaan dengan penurunan response time. Oleh karena itu, disarankan bagi penyedia layanan e-commerce yang ingin mengimplementasikan aplikasi single cluster multi-tenant untuk menggunakan model NS di GCE. Temuan dan hasil yang dipaparkan dalam penelitian ini diharapkan dapat digunakan sebagai panduan dalam mengimplementasikan arsitektur multi-tenant Kubernetes untuk aplikasi e-commerce.

In an era where electronic commerce is rapidly growing, optimizing infrastructure for scalability and efficiency has become paramount. To meet this need, a system called Kubernetes was introduced and has become the de facto standard for efficient management and scaling of applications as it facilitates seamless orchestration of containerized applications. Motivated by these factors, combined with the introduction of a new architectural model — the Virtual Cluster (VC) model — this study intends to explore and analyze its effects by comparing it with another model to implement multi-tenancy in Kubernetes: the namespace-based (NS) model. Specifically, this research focuses on comparing both models to determine which is more appropriate in the context of e-commerce. This study found that the NS architecture deployed on Google Compute Engine (GCE) using K3s performed better than the VC architecture, also deployed on GCE, and the NS architecture deployed on Google Kubernetes Engine (GKE). However, as for the perceivable impacts on its partnering tenant, this study found that there is a decreasing trend in throughput as the peak number of concurrent users in the monopolizing tenant increases, which is observed alongside a decrease in response time. Therefore, it is recommended for e-commerce providers looking to implement a single cluster multi-tenant application to use the NS architecture in GCE. The findings and results presented in this study are expected to be used as guidelines in implementing Kubernetes multi-tenant architectures for e-commerce applications."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library