Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 109822 dokumen yang sesuai dengan query
cover
Gita Permatasari Sujatmiko
"Penggunaan container pada arsitektur microservice merupakan sebuah pendekatan yang dapat digunakan untuk mempermudah proses delivery sistem. Container dalam sistem pun lebih mudah diatur dengan Kubernetes sehingga sistem dapat berjalan secara
seamless. Hal tersebut memungkinkan deployment sistem yang cepat dan portable. Salah satu strategi deployment yang dapat digunakan untuk men-deploy sistem yang menggunakan container pada arsitektur microservice adalah canary deployment, dimana sebagian traffic diarahkan ke sekelompok kecil pengguna terlebih dahulu untuk menguji aplikasi di production. Pada dasarnya, canary deployment dapat dilakukan secara native dengan Kubernetes, namun cara ini masih memiliki masalah, yaitu traffic distribution dan replica deployment yang tidak independen. Salah satu solusi yang dapat dilakukan
untuk memecahkan masalah tersebut adalah dengan menggunakan service mesh. Hal ini dikarenakan service mesh memiliki fitur traffic management yang dapat melakukan intelligent routing untuk melakukan canary deployment. Isu independensi ini memengaruhi proses deployment dan kebutuhan bisnis, dimana dengan menggunakan service mesh, jumlah replika pods yang digunakan untuk men-deploy aplikasi tidak
berubah bagaimanapun aturan traffic routing-nya. Hal ini berbeda dengan sistem yang tidak menggunakan service mesh, dimana jumlah replika pods-nya berubah-ubah menyesuaikan aturan traffic routing yang telah ditentukan. Tanpa service mesh, rasio replika pods perlu diatur secara manual dengan konfigurasi yang redundan. Di sisi lain, konfigurasi sistem dengan service mesh mudah diatur dengan memanfaatkan fitur-fitur yang disediakan oleh service mesh itu sendiri, khususnya fitur traffic management. Selain itu, penggunaan service mesh dalam proses canary deployment pada aplikasi
berbasis Kubernetes juga dapat membuat proses deployment menjadi lebih efisien dalam jumlah resource (pods).

The use of containers in the microservice architecture is an approach that can be used to
simplify the system delivery process. Containers in the system are also easier to manage with Kubernetes so that the system can run seamlessly. This allows for fast and portable system deployment. One deployment strategy that can be used to deploy systems that use containers on a microservices architecture is canary deployment, where some traffic is directed to a small group of users first to test the application in production. Basically, canary deployment can be done with Kubernetes natively, but this method still has
problems, namely traffic distribution and replica deployment which are not independent. One solution that can be done to solve this problem is to use a service mesh. This is because the service mesh has a traffic management feature that can perform intelligent routing to perform canary deployments. This independence issue affects the deployment
process and business needs, where by using a service mesh, the number of replica pods used to deploy applications does not change regardless of the traffic routing rules. This is different from a system that does not use a service mesh, where the number of replica pods varies according to predetermined traffic routing rules. Without a service mesh, the ratio of pod replicas needs to be set manually with redundant configurations. On the
other hand, system configuration with service mesh is easy to manage by utilizing the features provided by the service mesh itself, especially the traffic management feature. In addition, the use of service mesh in the canary deployment process for
Kubernetes-based applications can also make the deployment process more efficient in terms of the number of resources (pods).
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Gita Permatasari Sujatmiko
"Penggunaan container pada arsitektur microservice merupakan sebuah pendekatan yang dapat digunakan untuk mempermudah proses delivery sistem. Container dalam sistem pun lebih mudah diatur dengan Kubernetes sehingga sistem dapat berjalan secara seamless. Hal tersebut memungkinkan deployment sistem yang cepat dan portable. Salah satu strategi deployment yang dapat digunakan untuk men-deploy sistem yang menggunakan container pada arsitektur microservice adalah canary deployment, dimana sebagian traffic diarahkan ke sekelompok kecil pengguna terlebih dahulu untuk menguji aplikasi di production. Pada dasarnya, canary deployment dapat dilakukan secara native dengan Kubernetes, namun cara ini masih memiliki masalah, yaitu traffic distribution dan replica deployment yang tidak independen. Salah satu solusi yang dapat dilakukan untuk memecahkan masalah tersebut adalah dengan menggunakan service mesh. Hal ini dikarenakan service mesh memiliki fitur traffic management yang dapat melakukan intelligent routing untuk melakukan canary deployment. Isu independensi ini memengaruhi proses deployment dan kebutuhan bisnis, dimana dengan menggunakan service mesh, jumlah replika pods yang digunakan untuk men-deploy aplikasi tidak berubah bagaimanapun aturan traffic routing-nya. Hal ini berbeda dengan sistem yang tidak menggunakan service mesh, dimana jumlah replika pods-nya berubah-ubah menyesuaikan aturan traffic routing yang telah ditentukan. Tanpa service mesh, rasio replika pods perlu diatur secara manual dengan konfigurasi yang redundan. Di sisi lain, konfigurasi sistem dengan service mesh mudah diatur dengan memanfaatkan fitur-fitur yang disediakan oleh service mesh itu sendiri, khususnya fitur traffic management. Selain itu, penggunaan service mesh dalam proses canary deployment pada aplikasi berbasis Kubernetes juga dapat membuat proses deployment menjadi lebih efisien dalam jumlah resource (pods).

The use of containers in the microservice architecture is an approach that can be used to simplify the system delivery process. Containers in the system are also easier to manage with Kubernetes so that the system can run seamlessly. This allows for fast and portable system deployment. One deployment strategy that can be used to deploy systems that use containers on a microservices architecture is canary deployment, where some traffic is directed to a small group of users first to test the application in production. Basically, canary deployment can be done with Kubernetes natively, but this method still has problems, namely traffic distribution and replica deployment which are not independent. One solution that can be done to solve this problem is to use a service mesh. This is because the service mesh has a traffic management feature that can perform intelligent routing to perform canary deployments. This independence issue affects the deployment process and business needs, where by using a service mesh, the number of replica pods used to deploy applications does not change regardless of the traffic routing rules. This is different from a system that does not use a service mesh, where the number of replica pods varies according to predetermined traffic routing rules. Without a service mesh, the ratio of pod replicas needs to be set manually with redundant configurations. On the other hand, system configuration with service mesh is easy to manage by utilizing the features provided by the service mesh itself, especially the traffic management feature. In addition, the use of service mesh in the canary deployment process for Kubernetes-based applications can also make the deployment process more efficient in terms of the number of resources (pods)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Annisa Dian Nugrahani
"Penggunaan container pada arsitektur microservice merupakan sebuah pendekatan yang dapat digunakan untuk mempermudah proses delivery sistem. Container dalam sistem pun lebih mudah diatur dengan Kubernetes sehingga sistem dapat berjalan secara seamless. Hal tersebut memungkinkan deployment sistem yang cepat dan portable. Salah satu strategi deployment yang dapat digunakan untuk men-deploy sistem yang menggunakan container pada arsitektur microservice adalah canary deployment, dimana sebagian traffic diarahkan ke sekelompok kecil pengguna terlebih dahulu untuk menguji aplikasi di production. Pada dasarnya, canary deployment dapat dilakukan secara native dengan Kubernetes, namun cara ini masih memiliki masalah, yaitu traffic distribution dan replica deployment yang tidak independen. Salah satu solusi yang dapat dilakukan untuk memecahkan masalah tersebut adalah dengan menggunakan service mesh. Hal ini dikarenakan service mesh memiliki fitur traffic management yang dapat melakukan intelligent routing untuk melakukan canary deployment. Isu independensi ini memengaruhi proses deployment dan kebutuhan bisnis, dimana dengan menggunakan service mesh, jumlah replika pods yang digunakan untuk men-deploy aplikasi tidak berubah bagaimanapun aturan traffic routing-nya. Hal ini berbeda dengan sistem yang tidak menggunakan service mesh, dimana jumlah replika pods-nya berubah-ubah menyesuaikan aturan traffic routing yang telah ditentukan. Tanpa service mesh, rasio replika pods perlu diatur secara manual dengan konfigurasi yang redundan. Di sisi lain, konfigurasi sistem dengan service mesh mudah diatur dengan memanfaatkan fitur-fitur yang disediakan oleh service mesh itu sendiri, khususnya fitur traffic management. Selain itu, penggunaan service mesh dalam proses canary deployment pada aplikasi berbasis Kubernetes juga dapat membuat proses deployment menjadi lebih efisien dalam jumlah resource (pods).

The use of containers in the microservice architecture is an approach that can be used to simplify the system delivery process. Containers in the system are also easier to manage with Kubernetes so that the system can run seamlessly. This allows for fast and portable system deployment. One deployment strategy that can be used to deploy systems that use containers on a microservices architecture is canary deployment, where some traffic is directed to a small group of users first to test the application in production. Basically, canary deployment can be done with Kubernetes natively, but this method still has problems, namely traffic distribution and replica deployment which are not independent. One solution that can be done to solve this problem is to use a service mesh. This is because the service mesh has a traffic management feature that can perform intelligent routing to perform canary deployments. This independence issue affects the deployment process and business needs, where by using a service mesh, the number of replica pods used to deploy applications does not change regardless of the traffic routing rules. This is different from a system that does not use a service mesh, where the number of replica pods varies according to predetermined traffic routing rules. Without a service mesh, the ratio of pod replicas needs to be set manually with redundant configurations. On the other hand, system configuration with service mesh is easy to manage by utilizing the features provided by the service mesh itself, especially the traffic management feature. In addition, the use of service mesh in the canary deployment process for Kubernetes-based applications can also make the deployment process more efficient in terms of the number of resources (pods)."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Dipta Laksmana Baswara Dwiyantoro
"Pada saat ini, pengadaan suatu event untuk menarik pengguna dilakukan oleh perusahaan. Namun, hal tersebut menyebabkan lonjakan HTTP Request pada pod yang ada pada kluster. Peristiwa tersebut menyebabkan thundering herd yang berdampak ke response time yang meningkat. Pada umumnya, terdapat Horizontal Pod Autoscaler (HPA) yang digunakan untuk mengatur jumlah pod berdasarkan kebutuhan namun waktu yang dibutuhkan cukup lama. Waktu yang lama disebabkan oleh adanya pengecekan yang dilakukan oleh Readiness dan Liveness Probe. Untuk dapat membuat kluster lebih siap menghadapi suatu event, pengembang melakukan kon gurasi ulang pada HPA sebelum event dimulai. Namun, selain diperlukan pengkon gurasian pada HPA diperlukan juga pengkon gurasian terhadap Cluster Autoscaler (CA) dikarenakan pod yang dibuat HPA memiliki kemungkinan tidak aktif jika tidak terdapat node yang tersedia untuk digunakan. Karena pengkon gurasian dilakukan dengan campur tangan manusia, maka peluang human error seperti lupa atau salah hitung dapat terjadi. Maka dari itu, dalam penelitian ini akan dikembangkan sebuah aplikasi KubeEP yang dapat melakukan penjadwalan kon gurasi HPA dan pengkalkulasian banyaknya node yang dibutuhkan oleh suatu kluster pada saat event terjadi. Dampak dari aplikasi KubeEP akan diuji dengan memberikan pengujian beban kepada kluster yang telah dijadwalkan kon gurasi HPA-nya dan telah dikalkulasikan banyak node yang dibutuhkan. Pengujian dilakukan dengan membuat lonjakan HTTP Request pada saat event mulai. Hasil pengujian didapati bahwa kluster yang dilakukan penjadwalan kon gurasi serta pengkalkulasian jumlah maksimum node memiliki performa yang lebih baik. Sementara itu, kluster yang dilakukan penjadwalan kon gurasi namun jumlah maksimum nodenya hanya 2 kali lipat dari sebelumnya memiliki performa yang lebih rendah namun masih bisa memproses HTTP Request. Pada kluster yang dilakukan penjadwalan namun jumlah maksimum node nya tidak disesuaikan lagi memiliki performa yang cukup buruk, banyak sekali HTTP Request yang gagal dan memiliki response time yang tinggi. Performa yang lebih buruk didapati pada saat kluster tidak dilakukan penjadwalan dan pengkalku- lasian jumlah maksimum node yang dibutuhkan. Berdasarkan pengujian tersebut dilakukan analisis dan didapati bahwa dampak dari penjadwalan dan pengkalkulasian yang dilakukan oleh aplikasi KubeEP memberikan efek yang signi kan pada performa dan ketersediaan kluster.

Currently, a company creates an event to attract many users. However, it causes HTTP Request spikes to cluster pods. HTTP Request spikes cause thundering herd and the result is an increase in response time. In general, there is a Horizontal Pod Autoscaler (HPA) used for managing pod count according to the needs but it takes quite a long time. The long time is due to a check carried out by Readiness and Liveness Probe. To make kluster more ready to handle the event, developer recon gures the HPA before the event starts. However, besides that con guration on HPA is also required con guration of Cluster Autoscaler (CA) because the pod that HPA creates might had a chance to not active if there are no nodes available to be used. Because the con guration is done by human intervention, the possibility of human error such as forgetting or miscalculation can occur. Therefore, in this research, a KubeEP application will be developed that can perform HPA con guration scheduling and calculating the number of nodes required by a cluster when the event occurs. The impact of KubeEP application will be tested by providing load testing to a cluster that had scheduled HPA con guration and calculated the required number of nodes. Testing is done by making HTTP Request spikes when event starts. The test results found that the cluster which had scheduled con guration and calculated the required maximum number of nodes had better performance. Meanwhile, cluster which had scheduled con guration but the maximum number of nodes is doubled the amount from before had a lower performance but it still can process the HTTP Request. In cluster which had scheduled con guration but the maximum number of nodes is not changed had a bad performance, many HTTP Requests had failed and they had high response time. Worst performance found in kluster which had no scheduling and calculation of the required amount of maximum nodes. Based on the tests, an analysis was carried out and it was found that the impact of scheduling and calculations performed by the KubeEP application had a signi cant effect on the performance and availability of the cluster"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Vincent Suryakim
"Di era perdagangan elektronik yang berkembang pesat, mengoptimalkan infrastruktur untuk skalabilitas dan efisiensi menjadi hal yang sangat penting. Untuk memenuhi kebutuhan ini, sebuah sistem yang disebut Kubernetes diperkenalkan dan menjadi standar de facto untuk manajemen dan penskalaan aplikasi yang efisien karena dapat memfasilitasi orkestrasi aplikasi terkontainerisasi dengan baik. Termotivasi oleh faktor-faktor ini, serta diciptakannya model arsitektur baru — Virtual Cluster (VC) — penelitian ini mengeksplorasi dan menganalisis efeknya dengan membandingkannya dengan model namespace-based (NS) untuk mengimplementasikan multi-tenancy di Kubernetes. Secara khusus, penelitian ini berfokus pada perbandingan kedua model tersebut untuk menentukan mana yang lebih tepat digunakan dalam konteks aplikasi e-commerce. Penelitian ini menemukan bahwa model NS yang diterapkan pada Google Compute Engine (GCE) melalui K3s memiliki kinerja yang lebih baik dibandingkan dengan model VC, yang juga diterapkan pada GCE, dan model NS yang diterapkan pada Google Kubernetes Engine (GKE). Selain itu, ditemukan juga bahwa pada tenant yang diuji coba dengan load reguler, terdapat tren penurunan throughput seiring meningkatnya jumlah pengguna pada tenant yang memonopoli resources, yang diamati bersamaan dengan penurunan response time. Oleh karena itu, disarankan bagi penyedia layanan e-commerce yang ingin mengimplementasikan aplikasi single cluster multi-tenant untuk menggunakan model NS di GCE. Temuan dan hasil yang dipaparkan dalam penelitian ini diharapkan dapat digunakan sebagai panduan dalam mengimplementasikan arsitektur multi-tenant Kubernetes untuk aplikasi e-commerce.

In an era where electronic commerce is rapidly growing, optimizing infrastructure for scalability and efficiency has become paramount. To meet this need, a system called Kubernetes was introduced and has become the de facto standard for efficient management and scaling of applications as it facilitates seamless orchestration of containerized applications. Motivated by these factors, combined with the introduction of a new architectural model — the Virtual Cluster (VC) model — this study intends to explore and analyze its effects by comparing it with another model to implement multi-tenancy in Kubernetes: the namespace-based (NS) model. Specifically, this research focuses on comparing both models to determine which is more appropriate in the context of e-commerce. This study found that the NS architecture deployed on Google Compute Engine (GCE) using K3s performed better than the VC architecture, also deployed on GCE, and the NS architecture deployed on Google Kubernetes Engine (GKE). However, as for the perceivable impacts on its partnering tenant, this study found that there is a decreasing trend in throughput as the peak number of concurrent users in the monopolizing tenant increases, which is observed alongside a decrease in response time. Therefore, it is recommended for e-commerce providers looking to implement a single cluster multi-tenant application to use the NS architecture in GCE. The findings and results presented in this study are expected to be used as guidelines in implementing Kubernetes multi-tenant architectures for e-commerce applications."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Joshevan
"User Plane Function (UPF) adalah salah satu komponen utama dalam jaringan inti 5G. Komponen ini berfungsi untuk menangani data plane processing, seperti packet routing, forwarding, quality of service (QoS), dan mengirimkan data pengguna antara control plane dan user plane. UPF merupakan Network Function (NF) yang memiliki beban kerja paling berat dalam jaringan 5G karena harus menangani data pengguna dalam jumlah yang sangat banyak setiap detiknya. Oleh karena itu, improvisasi dari UPF sangatlah penting untuk meningkatkan jumlah data yang dapat ditangani oleh UPF. Salah satu cara untuk meningkatkannya adalah dengan Kubernetes. Kubernetes adalah open-source platform untuk mengelola aplikasi dan layanan dalam container. Dengan menggunakan kubernetes, jaringan 5G dapat menerapkan strategi Multi UPF, yaitu penggunaan lebih dari satu UPF dalam satu machine yang sama. Pada skripsi ini, strategi penerapan tersebut akan dibandingkan dengan penggunaan UPF secara konvensional untuk mengetahui seberapa besar peningkatkan jumlah data pengguna yang tertangani. Hasil percobaan menunjukkan bawha pada User Datagram Protocol (UDP) traffic, penggunaan Kubernetes untuk menerapkan Multi UPF dapat meningkatkan throughput hingga 7.37%, serta mencapai response time yang lebih rendah, meskipun menggunakan resource yang lebih besar, yaitu peningkatan CPU utilization hingga 44.91% dan peningkatan memory utilization hingga 14%. Sebaliknya, pada Transmission Control Protocol (TCP) traffic, hasil yang didapatkan adalah throughput dan response time yang hampir sama antara kedua metode, meskipun resouce utilization juga lebih besar. Hal ini disebabkan oleh adanya mekanisme reliability pada TCP yang membuat adanya bottleneck pada kernel saat pemrosesan paket.

User Plane Function (UPF) is one of the key component in the 5G core network. This component responsible for data plane processing, such as packet routing, forwarding, quality of service (QoS), and transmitting user data between the control plane and user plane. UPF is a Network Function (NF) with the heaviest workload in the 5G network as it has to handle a significant amount of user data every second. Therefore, improving UPF performance is crucial to enhance the amount of data that can be handled by UPF. One way to improve UPF performance is by using Kubernetes. Kubernetes is an open-source platform for managing applications and services in containers. By utilizing Kubernetes, the 5G network can implement Multi UPF strategy, which involves using more than one UPF within the same machine. In this thesis, this implementation strategy will be compared with the conventional use of UPF to determine the extent of the increase in the amount of user data that can be handled. The experimental results show that for User Datagram Protocol (UDP) traffic, using Kubernetes to implement Multi-UPF can increase throughput by up to 7.37% and achieve lower response time, although it uses more resources, specifically an increase in CPU utilization by up to 44.91% and an increase in memory utilization by up to 14%. Conversely, for Transmission Control Protocol (TCP) traffic, the results show that the throughput and response time are almost the same between the two methods, even though resource utilization is also higher. This is due to the reliability mechanism in TCP that causes a bottleneck in the kernel during packet processing."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fairuza Raryasdya Ayunda
"Pengadopsian Kubernetes sebagai bagian dari sistem terdistribusi meningkatkan kompleksitas pengelolaan sistem sehingga dapat membuka peluang ancaman keamanan. Model keamanan Zero Trust pun dikembangkan untuk menangani masalah keamanan akibat peningkatan kompleksitas tersebut. Berfokus pada perlindungan resources, model keamanan ini membatasi kerusakan yang dapat ditimbulkan penyerang dengan memberikan akses terbatas ke setiap pengguna. Pada Kubernetes, penerapan Zero Trust Architecture dapat dibantu dengan memanfaatkan fitur-fitur keamanan milik service mesh. Namun, penerapan Zero Trust Architecture pada Kubernetes dengan menggunakan service mesh masih belum dapat menangani ancaman internal yang disebabkan oleh penyerang yang menyalahgunakan privileges-nya sebagai Cluster Administrator. Ancaman internal tersebut diidentifikasi dan kemudian direproduksi pada sistem acuan penelitian ini. Hasil reproduksi menunjukkan bahwa sistem acuan belum terlindungi dari ancaman internal. Oleh karena itu, penanganan terhadap ancaman internal tersebut dilakukan dengan mereproduksi sistem solusi berupa validasi signature terhadap konfigurasi manifest atas pembuatan dan modifikasi resources pada Kubernetes melalui admission controller. Sistem solusi kemudian diuji dengan dilakukannya reproduksi ancaman internal tersebut. Berdasarkan hasil pengujian, ancaman internal telah berhasil ditangani oleh sistem solusi.

The adoption of Kubernetes as part of a distributed system increases the complexity of managing the system, which can lead to security threats. The Zero Trust security model was developed to address the security concerns resulting from this increased complexity. Focusing on resource protection, this security model limits the damage an attacker can cause by granting limited access to each user. In Kubernetes, implementing Zero Trust Architecture can be aided by utilizing the security features of service mesh. However, the implementation of Zero Trust Architecture on Kubernetes using service mesh is still unable to handle internal threats caused by attackers who abuse their privileges as Cluster Administrators. These internal threats are identified and then reproduced on the baseline system of this research. The reproduction results show that the baseline system is not yet protected from the internal threats. Therefore, the internal threats are addressed by reproducing the solution system in the form of signature validation of the manifest configuration for the creation and modification of resources on Kubernetes through the admission controller. The solution system is then tested by reproducing the internal threats. Based on the test results, the internal threats have been successfully handled by the solution system.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Radhiansya Zain Antriksa Putra
"Pengadopsian Kubernetes sebagai bagian dari sistem terdistribusi meningkatkan kompleksitas pengelolaan sistem sehingga dapat membuka peluang ancaman keamanan. Model keamanan Zero Trust pun dikembangkan untuk menangani masalah keamanan akibat peningkatan kompleksitas tersebut. Berfokus pada perlindungan resources, model keamanan ini membatasi kerusakan yang dapat ditimbulkan penyerang dengan memberikan akses terbatas ke setiap pengguna. Pada Kubernetes, penerapan Zero Trust Architecture dapat dibantu dengan memanfaatkan fitur-fitur keamanan milik service mesh. Namun, penerapan Zero Trust Architecture pada Kubernetes dengan menggunakan service mesh masih belum dapat menangani ancaman internal yang disebabkan oleh penyerang yang menyalahgunakan privileges-nya sebagai Cluster Administrator. Ancaman internal tersebut diidentifikasi dan kemudian direproduksi pada sistem acuan penelitian ini. Hasil reproduksi menunjukkan bahwa sistem acuan belum terlindungi dari ancaman internal. Oleh karena itu, penanganan terhadap ancaman internal tersebut dilakukan dengan mereproduksi sistem solusi berupa validasi signature terhadap konfigurasi manifest atas pembuatan dan modifikasi resources pada Kubernetes melalui admission controller. Sistem solusi kemudian diuji dengan dilakukannya reproduksi ancaman internal tersebut. Berdasarkan hasil pengujian, ancaman internal telah berhasil ditangani oleh sistem solusi.

The adoption of Kubernetes as part of a distributed system increases the complexity of managing the system, which can lead to security threats. The Zero Trust security model was developed to address the security concerns resulting from this increased complexity. Focusing on resource protection, this security model limits the damage an attacker can cause by granting limited access to each user. In Kubernetes, implementing Zero Trust Architecture can be aided by utilizing the security features of service mesh. However, the implementation of Zero Trust Architecture on Kubernetes using service mesh is still unable to handle internal threats caused by attackers who abuse their privileges as Cluster Administrators. These internal threats are identified and then reproduced on the baseline system of this research. The reproduction results show that the baseline system is not yet protected from the internal threats. Therefore, the internal threats are addressed by reproducing the solution system in the form of signature validation of the manifest configuration for the creation and modification of resources on Kubernetes through the admission controller. The solution system is then tested by reproducing the internal threats. Based on the test results, the internal threats have been successfully handled by the solution system.
"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Andrew
"Dengan meningkatnya penerapan teknologi informasi dalam berbagai bidang di kehidupan sehari-hari membuat sistem komputer saat ini menjadi sebuah sistem yang vital. Untuk meningkatkan reliabilitas dari sistem komputer, salah satu metode yang dapat dilakukan adalah melakukan replikasi secara geografis. Namun pendekatan tersebut memiliki isu terkait masalah koneksi dan latensi yang tinggi. Termotivasi dari masalah tersebut, penelitian ini melakukan analisis lebih mendalam pada pengaruh penempatan lokasi server sebuah Kubernetes cluster terhadap aspek performa, reliabilitas dan fleksibilitas. Penelitian ini mendapatkan bahwa konfigurasi lokasi Kubernetes cluster tidak memberikan dampak yang signifikan pada aspek performa. Penerapan geo-distributed cluster terbukti dapat memberikan reliabilitas yang lebih baik ketimbang pendekatan single-zone maupun multi-zone. Sedangkan pemanfaatan Kubernetes dapat meningkatkan aspek fleksibilitas namun dengan adanya konsekuensi pada performa sistem. Pada penelitian ini, ditemukan juga bahwa Google Cloud Load Balancer mengalami kendala dalam melakukan load balancing pada geo-distributed cluster yang menyebabkan beberapa server tidak mendapatkan traffic sama sekali dan Google Cloud Load Balancer tidak memenuhi aspek geo-aware yang menyebabkan requests dari pengguna tidak selalu diarahkan pada server yang terdekat dari lokasi pengguna.

With the application of information technology in various fields of daily life, today's computer system has become a vital system. To increase the reliability of the computer system, one method that can be done is to replicate the application in multiple geographical locations. However, this approach has problems with connection and high latency. Motivated by this problem, this study conducts a more in-depth analysis of the effect of server location placement in a Kubernetes cluster on aspects of performance, reliability, and flexibility. This study found that the use of multiple geographical locations for the Kubernetes cluster does not have a significant impact on the performance. The use of geo-distributed clusters is proven to provide better reliability compared to the single-zone and multi-zone approaches. While the use of Kubernetes can increase the flexibility of the system, it also impacts the system performance. In this study, it was also found that Google Cloud Load Balancer experienced problems when load balancing traffic on the geo-distributed cluster which caused some servers not getting any traffic and Google Cloud Load Balancer does not meet the geo-aware aspect which causes requests from users not directed to the server closest to the user's location."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Rasyad Syach
"Penelitian ini dilakukan untuk mengetahui pengaruh penggunaan filler sabut kelapa terhadap sifat mampu bentuk pada lembaran komposit sandwich SS 304/SS 304 Wire Mesh/SS 304 untuk komponen otomotif berbobot ringan. Tujuannya untuk menganalisis kemampuan bentuk dari lembaran komposit ketika terdapat tambahan sabut kelapa sebagai fillernya. Uji eksperimental yang dilakukan untuk menganalisis sifat mampu bentuk dengan uji kemampuan regang (stretchability), uji perluasan lubang (hole expansion), dan uji peregangan dan pembengkokkan (stretch bend). Hasil penelitian menunjukkan bahwa spesimen komposit sandwich SS 304/SS 304 Wire Mesh/SS 304 yang diberi tambahan filler sabut kelapa memberikan peningkatan nilai sifat mampu bentuk pada spesimen berdasarkan pengujian stretching dan hole expansion namun mengalami penurunan sifat mampu bentuk pada pengujian stretch bend. Hal ini dapat dilihat dari peningkatan nilai LDH dan Hole Expansion Ratio karena pengaruh interface pada sandwich yang menjadi lebih baik dalam menerima beban sehingga memperoleh nilai lebih maksimal. Sedangkan penurunan nilai bend ratio karena bertambahnya ketebalan spesimen yang menurunkan nilai sifat mampu bentuknya. Dipelajari pula proses fabrikasi dari sandwich dan sensitivitas tepi potong material berdasarkan proses pembentukan logam hole expansion dan stretch bend. Secara umum lembaran komposit sandwich SS 304/SS 304 Wire Mesh/SS 304 dengan filler sabut kelapa menunjukkan peningkatkan nilai mampu bentuk yang baik.

This study investigates the impact of coconut fiber filler on the formability properties of SS 304/SS 304 Wire Mesh/SS 304 composite sandwich sheets used for lightweight automotive components. The objective is to analyze the formability of composite sheets when coconut fiber is added as a filler. Experimental tests, including stretchability, hole expansion, and stretch bend tests, were conducted to evaluate formability properties. The findings reveal that the SS 304/SS 304 Wire Mesh/SS 304 composite sandwich specimens with added coconut fiber filler exhibit improved formability, as indicated by higher values in stretching and hole expansion tests. This improvement is attributed to the enhanced interface of the sandwich structure, which distributes loads more evenly, resulting in increased Limiting Dome Height (LDH) and Hole Expansion Ratio (HER). However, a reduction in formability is observed in the stretch bend test due to increased specimen thickness, leading to a lower bend ratio. Additionally, the study explores the fabrication process of the sandwich composite and the edge sensitivity of the material under hole expansion and stretch bend metal forming processes. Overall, SS 304/SS 304 Wire Mesh/SS 304 composite sandwich sheets with coconut fiber filler demonstrate superior formability for lightweight automotive applications."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>