Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 120117 dokumen yang sesuai dengan query
cover
Alfian Firmansyah
"Internet of Things merupakan teknologi perangkat terkoneksi yang memiliki angka pertumbuhan terpesat di dunia. Pada tahun 2020, perangkat IoT yang telah terkoneksi mencapai 31 miliar perangkat dan masih terus meningkat, sehingga teknologi ini akan mengubah cara hidup kita setelah hadirnya internet sebagai pionir. Hal tersebut mengakibatkan semakin kompleksnya diversifikasi topik IoT baru, mekanisme protokol, dan karakteristik perangkat keras yang terhubung pada infrastruktur server IoT. Indonesia akan segera mengimplementasikan 5G sebagai teknologi jaringan nirkabel generasi ke-5, sehingga hal ini mendorong adanya adaptasi yang dilakukan terhadap infrastruktur IoT pada cloud computing. Integrasi ini akan membuka sebuah ekosistem inovasi produk smart devices baru, baik itu produk skala kecil yang dilakukan oleh perorangan dan komunitas, maupun skala besar oleh sektor usaha, industri dan pemerintahan. Maka, dibutuhkan sebuah aplikasi IoT sebagai middleware, penghimpun data, router addressing ID unik, pemvisualisasi data, dan penganalisis ribuan bahkan jutaan perangkat IoT yang terkoneksi. Penyebaran arsitektur monolithic sudah perlahan ditinggalkan, melainkan mengubah pendekatan operasinya dengan menggunakan arsitektur microservice dengan containerization yang menawarkan fleksibilitas, pengembangan yang cepat, performa yang kuat dan loosely-coupled. Supaya pendekatan bersifat kontinyu, maka Continuous Integration dan Continuous Deployment Pipeline atau CI/CD Pipeline digunakan sebagai Software Development Life Cycle. Secara garis besar, penelitian ini membahas usulan arsitektur server IoT dengan Kubernetes dan aplikasinya, proses deployment secara CI/CD, analisis performa utilisasi dan autoscaling pada kubernetes cluster saat load tests sedang dijalankan, analisis berbasis model terhadap hasil metrik yang didapatkan guna meningkatkan performa deployment dari perspektif aplikasi IoT dengan akses request skala besar.

The Internet of Things is a connected device technology that has a rapid growth rate in the world. In 2020, there are 31 billion connected IoT devices and still increasing, thus this technology will change the way we live after the presence of the internet as a pioneer. We are getting more diversification of new IoT topics, protocol mechanisms, and characteristics of the hardware connected to the IoT server infrastructure becoming increasingly complex. Indonesia will soon implement the 5G as the fifth generation of wireless network technology, thus this will encourage adaptations to be made to the Indonesian IoT infrastructure in cloud computing. This integration will open an innovative ecosystem for new smart device products, both small-scale products carried out by individuals and communities, as well as large-scale by the business sector, industries and government as well. Therefore, an IoT application is needed as a middleware, data collector, unique-ID addressing router, data visualizer, and analyzer of thousands or even millions of connected IoT devices. Deployment of monolithic architectures is slowly being abandoned, instead changing its operating approach by using a microservice architecture with containerization that offers flexibility, fast development, robust performance, and loosely-coupled. To maximize the approach to be continuous, the Continuous Integration and Continuous Deployment Pipeline or CI/CD Pipeline are used as the Software Development Life Cycle. Broadly speaking, this research discusses the architectural design of IoT over Kubernetes and its applications, CI/CD deployment processes, performance analysis of the autoscaling during incoming traffic from running load tests, model-based analysis in accordance with metric results to enhance the deployment performance of IoT applications with large-scale request accesses perspective."
Depok: Fakultas Teknik Universitas Indonesia, 2021
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Jonathan Nicholas
"Kebutuhan untuk menyediakan layanan kepada pengguna di seluruh dunia menyebabkan layanan aplikasi web untuk beradaptasi menggunakan teknologi baru dan memadai. Untuk mencapai hal tersebut, layanan cloud servis digunakan untuk memperluas jangkauan geografis dari layanan web di seluruh dunia. Peningkatan kualitas pengembangan deployment aplikasi web terlihat pada Kubernetes, alat yang diadopsi secara luas yang didukung di sebagian besar platform cloud, yang memungkinkan penerapan geo-distributed clusters untuk aplikasi yang memiliki pengguna multinasional. Dikarenakan kelangkaan studi mengenai geo-distributed clusters dan kinerjanya, penelitian ini bermaksud untuk menjembatani kesenjangan pengetahuan tersebut dengan mengimplementasikan solusi menggunakan Istio (Anthos Service Mesh), mesh layanan yang paling banyak digunakan untuk aplikasi Kubernetes, serta solusi cloud native di Google Cloud Platform menggunakan MultiClusterService. Studi ini menemukan bahwa kedua pendekatan tersebut dapat diandalkan, namun, Istio/ASM memiliki latensi yang sedikit lebih rendah untuk sebagian besar request. Kedua pendekatan tersebut merupakan pilihan baik untuk aplikasi global, karena keduanya menggunakan geo-aware load balancing, yang merutekan permintaan pengguna ke klaster terdekat yang tersedia. Basis kode studi dan hasil pengujian ini tersedia secara open-sourced untuk studi lebih lanjut tentang aplikasi berbasis geo-distributed Kubernetes clusters.

With the need of providing services to ever-growing worldwide users, web application services must adapt new technologies in order to fulfill these needs. As setting up physical servers across the globe is a daunting task, cloud service providers are an essential tool to reach geographical coverage for worldwide web services. Further advancements on the developer experience of deploying web applications can be seen in tools such as Kubernetes, a widely adopted tool that’s supported in most cloud platforms that enables the implementation of geo-distributed clusters for applications with a multi-national user base. However, there is a scarcity of studies regarding geo-distributed clusters methods and its performance. Therefore, this study intends to bridge that knowledge gap by implementing a solution using Istio (Anthos Service Mesh), the most used service mesh for kubernetes applications as well as a cloud native solution on Google Cloud Platform using MultiClusterService. This study found that both approaches are reliable, however, Istio / ASM has a slightly lower latency for the vast majority of requests. In addition, both approaches are a viable choice for worldwide applications, as they both use geo- aware load balancing, which routes user requests to the nearest available cluster. This study’s scripts and test results are open-sourced for further studies about geo-distributed Kubernetes- based applications. "
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Barry, Douglas K.
"Web Services, Service-Oriented Architectures, and Cloud Computing is a jargon-free, highly illustrated explanation of how to leverage the rapidly multiplying services available on the Internet. The future of business will depend on software agents, mobile devices, public and private clouds, big data, and other highly connected technology. IT professionals will need to evaluate and combine online services into service-oriented architectures (SOA), often depending on Web services and cloud computing. This can mean a fundamental shift away from custom software and towards a more nimble use of semantic vocabularies, middle-tier systems, adapters and other standardizing aspects.
This book is a guide for the savvy manager who wants to capitalize on this technological revolution. It begins with a high-level example of how an average person might interact with a service-oriented architecture, and progresses to more detail, discussing technical forces driving adoption and how to manage technology, culture and personnel issues that can arise during adoption. An extensive reference section provides quick access to commonly used terms and concepts."
Amsterdam: Morgan Kaufmann, 2013
e20480364
eBooks  Universitas Indonesia Library
cover
Barry, Douglas K.
San Fransisco: Elsevier, 2013
004.65 BAR w
Buku Teks SO  Universitas Indonesia Library
cover
Dipta Laksmana Baswara Dwiyantoro
"Pada saat ini, pengadaan suatu event untuk menarik pengguna dilakukan oleh perusahaan. Namun, hal tersebut menyebabkan lonjakan HTTP Request pada pod yang ada pada kluster. Peristiwa tersebut menyebabkan thundering herd yang berdampak ke response time yang meningkat. Pada umumnya, terdapat Horizontal Pod Autoscaler (HPA) yang digunakan untuk mengatur jumlah pod berdasarkan kebutuhan namun waktu yang dibutuhkan cukup lama. Waktu yang lama disebabkan oleh adanya pengecekan yang dilakukan oleh Readiness dan Liveness Probe. Untuk dapat membuat kluster lebih siap menghadapi suatu event, pengembang melakukan kon gurasi ulang pada HPA sebelum event dimulai. Namun, selain diperlukan pengkon gurasian pada HPA diperlukan juga pengkon gurasian terhadap Cluster Autoscaler (CA) dikarenakan pod yang dibuat HPA memiliki kemungkinan tidak aktif jika tidak terdapat node yang tersedia untuk digunakan. Karena pengkon gurasian dilakukan dengan campur tangan manusia, maka peluang human error seperti lupa atau salah hitung dapat terjadi. Maka dari itu, dalam penelitian ini akan dikembangkan sebuah aplikasi KubeEP yang dapat melakukan penjadwalan kon gurasi HPA dan pengkalkulasian banyaknya node yang dibutuhkan oleh suatu kluster pada saat event terjadi. Dampak dari aplikasi KubeEP akan diuji dengan memberikan pengujian beban kepada kluster yang telah dijadwalkan kon gurasi HPA-nya dan telah dikalkulasikan banyak node yang dibutuhkan. Pengujian dilakukan dengan membuat lonjakan HTTP Request pada saat event mulai. Hasil pengujian didapati bahwa kluster yang dilakukan penjadwalan kon gurasi serta pengkalkulasian jumlah maksimum node memiliki performa yang lebih baik. Sementara itu, kluster yang dilakukan penjadwalan kon gurasi namun jumlah maksimum nodenya hanya 2 kali lipat dari sebelumnya memiliki performa yang lebih rendah namun masih bisa memproses HTTP Request. Pada kluster yang dilakukan penjadwalan namun jumlah maksimum node nya tidak disesuaikan lagi memiliki performa yang cukup buruk, banyak sekali HTTP Request yang gagal dan memiliki response time yang tinggi. Performa yang lebih buruk didapati pada saat kluster tidak dilakukan penjadwalan dan pengkalku- lasian jumlah maksimum node yang dibutuhkan. Berdasarkan pengujian tersebut dilakukan analisis dan didapati bahwa dampak dari penjadwalan dan pengkalkulasian yang dilakukan oleh aplikasi KubeEP memberikan efek yang signi kan pada performa dan ketersediaan kluster.

Currently, a company creates an event to attract many users. However, it causes HTTP Request spikes to cluster pods. HTTP Request spikes cause thundering herd and the result is an increase in response time. In general, there is a Horizontal Pod Autoscaler (HPA) used for managing pod count according to the needs but it takes quite a long time. The long time is due to a check carried out by Readiness and Liveness Probe. To make kluster more ready to handle the event, developer recon gures the HPA before the event starts. However, besides that con guration on HPA is also required con guration of Cluster Autoscaler (CA) because the pod that HPA creates might had a chance to not active if there are no nodes available to be used. Because the con guration is done by human intervention, the possibility of human error such as forgetting or miscalculation can occur. Therefore, in this research, a KubeEP application will be developed that can perform HPA con guration scheduling and calculating the number of nodes required by a cluster when the event occurs. The impact of KubeEP application will be tested by providing load testing to a cluster that had scheduled HPA con guration and calculated the required number of nodes. Testing is done by making HTTP Request spikes when event starts. The test results found that the cluster which had scheduled con guration and calculated the required maximum number of nodes had better performance. Meanwhile, cluster which had scheduled con guration but the maximum number of nodes is doubled the amount from before had a lower performance but it still can process the HTTP Request. In cluster which had scheduled con guration but the maximum number of nodes is not changed had a bad performance, many HTTP Requests had failed and they had high response time. Worst performance found in kluster which had no scheduling and calculation of the required amount of maximum nodes. Based on the tests, an analysis was carried out and it was found that the impact of scheduling and calculations performed by the KubeEP application had a signi cant effect on the performance and availability of the cluster"
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2022
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Riansyah Sumajaya
"Skripsi ini berisi tentang konsep dasar, implementasi, serta hasil analisis dari messaging protocol yang dapat diterapkan pada sistem Internet of Things. Tujuan dari skripsi ini ialah untuk mengetahui kelebihan serta kekurangan protokol tersebut dalam aspek kinerja sehingga pengembang sistem IoT dapat menentukan apakah protokol tersebut sesuai untuk diimplementasikan kedalam sistem yang mereka kembangkan.
Penelitian kali ini akan menganalisis kinerja metode messaging protocol umum yang sering digunakan dalam sistem IoT. Messaging protocol tersebut berada di Application Layer. Protokol tersebut ialah Message Queuing Telemetry Transport MQTT dan Constrained Application Protocol COAP.
Untuk menganalisis metode tersebut, dilakukan implementasi kedua protokol untuk menentukan tingkat kinerja terhadap skenario lingkungan tertentu.
Hasil analisis dari studi literatur menunjukkan bahwa penggunaan MQTT lebih realibel dibandingkan COAP. Akan tetapi pada situasi lingkungan yang terbatas, CoAP lebih unggul dibandingkan MQTT.
Hasil analisis dari data pengamatan yang dilakukan pada ESP8266 menunjukkan bahwa protokol MQTT memiliki throughput, delay, dan jitter yang lebih besar dibandingkan dengan protokol CoAP, sedangkan packet loss CoAP lebih besar dibandingkan MQTT. Hal ini menunjukkan bahwa prototype MQTT pada ESP8266 lebih realibel dibanding CoAP, tetapi membutuhkan bandwidth yang besar untuk dapat memaksimalkan implementasi protokol. Sedangkan prototype CoAP pada ESP8266 cocok diimplementasikan pada kondisi bandwidth yang terbatas.

This thesis contains the basic concepts, implementation, and analysis results of messaging protocol that can be applied to the system of Internet of Things. The purpose of this thesis is to know the advantages and disadvantages of the protocol in the performance aspect so that IoT system developers can determine whether the protocol is suitable to be implemented into the system they develop.
The study will analyze the performance of common messaging protocol methods that are often used in IoT systems. The messaging protocol is in the Application Layer. The protocols are Message Queuing Telemetry Transport MQTT and Constrained Application Protocol COAP.
To analyze these methods, two protocols are implemented to determine the level of performance against certain environmental scenarios.
The results of the analysis from the literature study indicate that the use of MQTT is more reliable than COAP. However, in limited environmental situations, CoAP is superior to MQTT.
The results of the observational data analysis conducted on ESP8266 indicate that the MQTT protocol has greater throughput, delay, and jitter than the CoAP protocol while CoAP's packet loss is greater than MQTT. This indicates that the MQTT prototype on ESP8266 is more reliable than CoAP, but requires large bandwidth to maximize protocol implementation. While the prototype CoAP on ESP8266 suitable implemented in limited bandwidth conditions.
"
Depok: Fakultas Teknik Universitas Indonesia, 2017
S67028
UI - Skripsi Membership  Universitas Indonesia Library
cover
Tilley, Scott
"Cloud computing offers the use of virtualized hardware, effectively unlimited storage, and software services that can help reduce the execution time of large test suites in a cost-effective manner. The research presented by Tilley and Parveen leverages the resources provided by cloud computing infrastructure to facilitate the concurrent execution of test cases. They introduce a decision framework called SMART-T to support migration of software testing to the cloud, a distributed environment called HadoopUnit for the concurrent execution of test cases in the cloud, and a series of case studies illustrating the use of the framework and the environment. Experimental results indicate a significant reduction in test execution time is possible when compared with a typical sequential environment."
Heidelberg: [Springer, ], 2012
e20410112
eBooks  Universitas Indonesia Library
cover
Ni Made Dwi Warsiani
"Private Cloud merupakan pemodelan teknologi Cloud Computing yang hanya memberikan layanan kepada pengguna tertentu. Kebutuhan akan performa server yang baik, tentunya mempengaruhi layanan yang ditawarkan suatu provider cloud kepada penggunanya. Oleh karena itu, pembuatan Cloud Computing dengan memilih layanan Private Cloud pada skripsi ini dilakukan dengan membuat simulasi nyata pada jaringan fisik menggunakan CentOS dengan Eucalyptus di dalamnya. Metode instalasi menggunakan konfigurasi Cloud in a Box. Lima pengujian diimplementasikan untuk mengetahui performa server Private Cloud ini. Instances dibuat sibuk seolah-olah menjalankan sebuah aplikasi sehingga terlihat kinerja dari server cloud. Parameter pengujian yang digunakan untuk pengukuran performa server adalah Load Average, CPU Usage dan Memory Usage.
Dari hasil pengukuran menunjukkan bahwa parameter Load Average dengan load tertinggi sebesar 4,35 satuan proses dan CPU Usage tertinggi mencapai nilai 95,04% ketika seluruh instance aktif menjalankan aplikasi. Memory usage server mencapai 4740,95 MB dan untuk seluruh instance menggunakan memori sebesar 29,37% dari penggunaan memori pada server. Tiga parameter di atas menunjukkan kesesuaian server cloud dalam menangani pengguna pada jaringan privat IaaS ini dengan konsep Cloud IaaS pada umumnya.

Private Cloud is a technology model of Cloud computing that only provide service to a particular user. Requirement for a good server performance, of course, affect the service offered to the user of a cloud provider. Therefore, making cloud computing by choosing a Private Cloud service in this thesis was to create a simulation of the real physical network using CentOS with Eucalyptus in it. Installation method using configuration Cloud in a Box. Five tests are implemented to determine the performance of the server's Private Cloud. Instances kept busy as running an application and visible the performance of the server cloud. Testing parameters used to measure the performance of the server is the Load Average, CPU Usage and Memory Usage.
From the measurement results indicate that the parameter Load Average with the highest load of 4.35 units and the highest CPU usage reaches 95.04% when all active instances running the application. Memory usage of server and to achieve 4740.95 MB memory instances amounting to 29.37%. Three parameters above indicates suitability of cloud servers to handle the user's private network to the concept of Cloud IaaS IaaS in general.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
S52589
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ansar Fitria
"Cloud computing adalah teknologi baru hasil pengembangan dari sistem berbasis Internet dengan sumber daya komputasi dalam skala besar yang disediakan melalui Internet untuk pengguna. Aplikasi multimedia pada cloud membutuhkan Quality of Service (QoS) seperti bandwidth, delay, dan lain-lain. Penyediaan QoS merupakan tantangan pada multimedia cloud computing.
Penelitian ini mengusulkan sistem QoS MEC, sebuah sistem QoS cloud computing dengan kombinasi teknologi Hadoop dan metode Load Balancing berbasis Eucalyptus untuk aplikasi multimedia. Hadoop merupakan platform yang bersifat open source digunakan untuk data berukuran besar yang diproses secara terdistribusi dan paralel. Load balancing merupakan metode untuk membagi beban kerja server.
Hasil pengujian menunjukkan bahwa terjadi percepatan response time dan peningkatan throughput, terbesar terjadi pada saat jumlah koneksi per detik 5000. Persentase percepatan response time video ukuran 58,4 MB, adalah 20,42 %; video ukuran 137 MB, adalah 21,36%; video ukuran 249 MB, adalah 21,51%. Persentase peningkatan throughput video ukuran 58,4 MB, adalah 12,52%; video ukuran 137 MB, adalah 13,39%; video ukuran 249 MB, adalah 14,09%.

Cloud computing is a new technology development results of Internet-based systems with computing resources on a large scale are provided via the Internet to the user. Multimedia application in the cloud requires Quality of Service (QoS) such as bandwidth, delay, and others. Provision of QoS is a challenge on a multimedia cloud computing.
This research proposed a QoS MEC system, a QoS cloud computing system with technology combination of Hadoop and Load Balancing method based Eucalyptus for multimedia applications. Hadoop is an open source platform which is used for large data that is distributed and processed in parallel. Load balancing is a method to divide the workload of the server.
The test results show that there is accelerated response time and increased throughput and largest occurred when the number of simultaneous access is 5000. Percentage of acceleration response time for video size of 58.4 MB is 20.42%; video size of 137 MB is 21,36%; and video size of 249 MB is 21,51%. The increased percentage of throughput for video size of 58.4 MB is 12,52%; video size of 137 MB is 13,39%; and video size of 249 MB is 14,09%.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
T35100
UI - Tesis Membership  Universitas Indonesia Library
cover
Ariq Pradipa Santoso
"Cloud Computing menyediakan akses mudah ke berbagai sumber daya melalui jaringan internet, dengan jangkauan jaringan yang luas, kemampuan elastisitas yang cepat, dan layanan yang dapat diukur. Dalam penelitian ini, digunakan Cloud Management Platform Apache CloudStack untuk membangun sistem Cloud sendiri. Sistem ini menggunakan sistem operasi Ubuntu dan hypervisor KVM (Kernel-based Virtual Machine) untuk menguji performa dan optimalisasi konfigurasi hypervisor dalam menjalankan tugas-tugas komputasi tertentu. Penelitian ini bertujuan untuk menganalisis apakah konfigurasi default dari hypervisor KVM sudah optimal dan bagaimana konfigurasi hypervisor KVM dapat meningkatkan performa dalam menjalankan tugas komputasi seperti kompresi video, enkripsi, dekripsi, dan validasi integritas data. Metode yang digunakan melibatkan pengujian performa hypervisor KVM dengan melakukan berbagai tugas komputasi dan mengukur waktu yang diperlukan untuk menyelesaikan tugas-tugas tersebut. Hasil pengujian menunjukkan bahwa konfigurasi hypervisor dengan menambahkan flag tertentu seperti SSSE3, SSE4.1, SSE4.2, SSE4a, dan AES dapat meningkatkan performa komputasi secara signifikan. Kesimpulan dari penelitian ini adalah bahwa konfigurasi default hypervisor KVM bersifat minimal dan perlu dilakukan konfigurasi untuk mencapai performa optimal. Konfigurasi hypervisor yang tepat dapat mempercepat kompresi video hingga 2.4 kali, validasi integritas data hingga 7.56 kali, enkripsi AES hingga 2.1 kali, dan dekripsi AES hingga 2.68 kali dibandingkan dengan konfigurasi default. Penelitian ini diharapkan memberikan kontribusi akademis dalam bidang optimalisasi infrastruktur cloud.

Cloud Computing provides easy access to various resources over the internet, with a wide network reach, fast elasticity capabilities, and measurable services. In this research, the Apache CloudStack Cloud Management Platform is utilized to build a Cloud system. This system uses the Ubuntu operating system and KVM (Kernel-based Virtual Machine) hypervisor to test performance and optimize the hypervisor configuration for specific computing tasks. The aim of this research is to analyze whether the default configuration of the KVM hypervisor is optimal and how configuration the KVM hypervisor can enhance performance in executing computing tasks such as video compression, encryption, decryption, and data integrity validation. The methodology involves performance testing of the KVM hypervisor by executing various computing tasks and measuring the time taken to complete these tasks. The test results indicate that configuring the hypervisor by adding specific flags such as SSSE3, SSE4.1, SSE4.2, SSE4a, and AES can significantly improve computational performance. The conclusion drawn from this research is that the default configuration of the KVM hypervisor is minimal and requires configuration to achieve optimal performance. Proper hypervisor configuration can accelerate video compression by up to 2.4 times, data integrity validation by up to 7.56 times, AES encryption by up to 2.1 times, and AES decryption by up to 2.68 times compared to the default configuration. This research is expected to make an academic contribution in the field of cloud infrastructure optimization."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>