Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 19 dokumen yang sesuai dengan query
cover
Denny Setiawan
"ABSTRAK
Dengan memperhatikan dampak Mobile Broadband yang sangat penting bagi pertumbuhan ekonomi dan sosial bagi negara-negara berkembang, termasuk di Indonesia, maka pemanfaatan spektrum Digital Dividend dan LTE memungkinkan pembangunan broadband paling efisien, khususnya untuk menjangkau wilayah-wilayah yang sulit dijangkau. Implementasi LTE di pita frekuensi Digital Dividend menyediakan solusi paling ideal untuk mempercepat ketersediaan akses Broadband yang terjangkau secara universal kepada seluruh masyarakat dalam rangka memenuhi target cakupan dan kapasitas Perencanaan Broadband Nasional.
Akan tetapi penggunaan frekuensi Digital Dividend untuk Mobile Broadband hanya dapat diimplementasikan setelah proses Digital Switchover selesai dilakukan. Permasalahan utama di Indonesia adalah lambatnya proses migrasi TV analog ke TV Digital serta keengganan industri TV untuk melakukan migrasi tersebut.
Pada penelitian ini dikembangkan suatu model tekno ekonomi mengenai percepatan migrasi analog ke digital dengan memanfaatkan potensi pendapatan negara dari Biaya Hak Penggunaan (BHP) Frekuensi untuk Digital Dividend LTE untuk membantu biaya-biaya dibutuhkan penyelenggara TV dalam masa transisi dari analog ke digital, yaitu insentif set-top-box, biaya operasional sewa kapasitas Multiplex TV Digital dan modal infrastruktur Multiplex TV Digital Terrestrial di Indonesia.
Berdasarkan model yang dikembangkan ini dilakukan perhitungan Present Worth relatif terhadap kebijakan eksisting menunggu Digital Dividend tahun 2018 untuk 3 skenario subsidi biaya sewa kapasitas TCDTV yaitu skenario A (subsidi sewa kapasitas TV Digital selama masa simulcast), skenaro B (subsidi sewa kapasitas TV Digital saat Digital Switchover) dan skenario C (tanpa subsidi sewa kapasitas TV Digital) dengan asumsi variabel-variabel lain seperti BHP Frekuensi Digital Dividend LTE, insentif set-top-box dan biaya infrastruktur Multiplex TV Digital bernilai tetap. Didapatkan hasil penelitian bahwa Skenario A tidak layak dilakukan, Skenario B layak dilakukan pada tahun 2014, sedangkan Skenario C layak dilakukan pada tahun 2014 dan 2015. Ditemukenali pula bahwa sensitivitas model akselerasi Digital Dividend ini terdapat pada variabel BHP Frekuensi dan subsidi set-top-box.

ABSTRACT
By taking into account the effect of Mobile Broadband which is very important for socio-economic development in developing countries, including Indonesia, the utilization of Digital Dividend spectrum and LTE technology will enable most efficient broadband development, especially to cover unreachable rural areas. LTE implementation in Digital Dividend spectrum provides most ideal solution to accelerate the availability of affordable and universal broadband access to whole society in order to fulfill the coverage and capacity target of National Broadband Plan.
However, the utilization of Digital Dividend spectrum for Mobile Broadband is only be realized after complete Digital Switchover process. The main problem in Indonesia is the very slow progress of migration of Analog TV to Digital TV and the reluctance of Broadcaster to proceed the migration.
In this research, the techno economy model to accelerate the Digital Switchover process is developed, by involving the potential of Digital Dividend LTE Spectrum Fees and providing incentive to reduce necessary cost of Broadcaster in Digital Switchover process such as set-top-box incentive, Digital TV leasing capacity operational expenditure and capital expenditure of Multipex Digital TV in Indonesia.
Based on the developed model, the Relative Present Worth of three scenarios toward current policy postponing Digital Dividend until year 2018 are calculated; i.e. scenario A is Digital TV leasing capacity subsidy during simulcast period, scenario B is such subsidy only during Digital Switchover and scenario C is no such subsidy; while other parameters such Digital Dividend LTE Spectrum Fees, set-top-box incentives and Capex of Digital TV infrastrucutre are fixed. The results of the calculation are that scenario A is not feasible, scenario B is feasible only in year 2014, while scenario C is feasible in year 2014 and 2015 only. It is found also that the most sensitive variables in this model are Digital Dividend LTE Spectrum Fees and set-top-box incentive.
"
2013
D1378
UI - Disertasi Membership  Universitas Indonesia Library
cover
Suhartati Agoes
"Pemrosesan sinyal genom (Genomic Signal Processing) seperti Deoxyribonucleid Acid (DNA) dan protein dapat dilakukan untuk memprediksi ekson atau coding region suatu gen. Metoda yang paling banyak digunakan adalah Hidden Markov Model (HMM) yang kaya akan struktur matematik dan berpotensi untuk mengetahui lebih banyak tentang sumber sinyal tanpa hams texsedia sumber tersebut.
Pada penelitian ini dirancang struktur model yang menggunakan metoda HMM dengan struktur dasar model sesuai struktur ekson pada coding sequence (CDS) sehingga dapat memprediksi ekson DNA Plasmodium falcyarum., Jumlah state model pada struktur dasar adalah 5, 7 dan 9 sedangkan untuk struktur pengembangan ditentukan secara acak yaitu 20. 30, 50 dan 100 stare. Proses training HMM menggunakan algoritma Viterbi dan proses testing HMM menggunakan kedua algoritma yaitu Viterbi dan Baum- Welch sedangkan kinerja model menggunakan parameter Correlation Coejicienr (CC). Sekuen yang digunakan adalah 152 sekuen DNA Plasmodium falciparum dengan panjang minimum 684 pb dan maksimum 10095 pb.
Hasil simulasi pada umumnya menghasilkan nilai CC rata-rata lebih baik dengan menggunakan algoritma Viterbi dibandingkan dengan algoritma Baum-Welch. Pada struktur dasar model 9 state menghasilkan nilai CC paling balk dibandingkan dengan struktur dasar model lainnya yaitu 0,7289 dengan menggunakan algoritma Viterbi dan 0,7166 dengan menggunakan algoritma Baum-Welch. Sedangkan untuk pengembangan model diperoleh nilai CC rata-rata paling baik untuk Model 2 dengan 100 store yaitu 0,7827 dengan menggunakan algoritma Baum-Welch dan 0,7820 dengan menggunakan algoritrna Viterbi. Waktu proses resting HMM rata-rata seluruh model hampir dua kali lebih lama dengan algoritma Baum-Welch dibandingkan dengan algoritma Viterbi.
Genomic signal processing like as Deoxyribonucleid Acid (DNA) and protein can be done for exon prediction or coding region of the gene. The most used method is Hidden Markov Model (HMM) which has various mathematical structures and potentially capable of learning a great deal of signal source without having to have the source available.
The model structure designed in this research is using the HMM method with based structure model in accordance with exon structure inthe coding sequence (CDS) in order to predict of DNA Plasmodium falciparum. The state number of model in the basic structure are 5, 7 and 9 states, meanwhile the expansions structure was randomly defined having 20, 30, S0 and 100 states. The HMM training process are using the Viterbi algorithm and the HMM testing are using both algorithms, Viterbi and Baum-Welch, meanwhile the performance indicator of the model are using the Correlation Coeflicient (CC). It is using 152 sequences -of DNA Plasmodium falciparum with the minimum length of 634 base-pair (bp) and maximum length of 10095 bp.
In general, the simulation results produced the best average of CC value by using Viterbi algorithm rather then Baum-Welch. In the basic structure of 9 states model produced the best CC value compared with the other basic structure models with 0.7289 using the Viterbi Algorithm and 0.7166 using Baum-Welch. Meanwhile, for the model expansion, the best CC average value is for Model 2 with state number 100 with 0.7827 using the Baum-Welch algorithm and 0.7820 using Viterbi. The average processing time of the HMM tests for all models using the Baum-Welch algorithm are almost two times slower than using Viterbi algorithm.
"
Depok: Fakultas Teknik Universitas Indonesia, 2008
D1169
UI - Disertasi Open  Universitas Indonesia Library
cover
Veny Sesanria
"ABSTRAK
Perkembangan telekomunikasi yang sangat pesat menyebabkan
pertumbuhan jumlah pelanggan seluler terus meningkat sehingga trafik pun
meningkat namun ternyata tidak sebanding dengan cost dan power yang
dikeluarkan dan revenue yang diperoleh. Hal ini terjadi pada PT XYZ yang
merupakan salah satu operator telekomunikasi di Indonesia. Melihat kondisi
keuangan perusahaan saat ini, maka Tim Transmission Backbone harus jeli
menentukan teknologi yang akan digunakan untuk mereduksi CAPEX dan OPEX
sehingga bisa meningkatkan revenue. Di beberapa daerah di Sumatera saat ini
memiliki traffic demand yang besar. Selain itu juga adanya pertimbangan untuk
kebutuhan proteksi trafik skala besar di wilayah Sumatera. Namun jaringan
eksisting saat ini di dareag tersebut dan mayoritas Pulau Sumatera masih
menggunakan teknologi SDH dan traditional WDM sehingga tidak mampu
memenuhi kebutuhan tersebut. Akibatnya diperlukan pembangunan jaringan
backbone optik baru dengan teknologi baru yaitu OTN yang dengan kelebihankelebihannya
dapat membantu kondisi keuangan perusahaan namun tetap
memperhatikan kelebihan dalam sisi teknisnya.
Laporan tesis ini menganalisa tingkat profitabilitas dan tingkat risiko
investasi implementasi teknologi OTN pada penyelenggaraan jaringan backbone
optik di beberapa daerah di Sumatera menggunakan metode Analisa Tekno
Ekonomi. Implementasi teknologi OTN pada penyelenggaraan jaringan backbone
optik diharapkan dapat mereduksi nilai CAPEX, OPEX, serta dapat meningkatkan
revenue namun tetap mempertimbangkan kualitas jaringan yang dibangun.
Parameter yang digunakan dalam tesis ini adalah First Installed Cost
(FIC), Life Cycle Cost (LCC), Net Present Value (NPV), Internal Rate of Return
(IRR), dan Payback Period (PBP). Untuk periode investasi 5 tahun, kelima
parameter tersebut mengindikasikan kerugian bagi perusahaan. Namun jika
periode investasi diperpanjang menjadi 10 tahun, maka memberikan indikasi
untung bagi perusahaan. Jika dibandingkan dengan teknologi traditional WDM,
maka teknologi OTN mengindikasikan hasil yang lebih baik yang ditunjukkan
oleh kelima parameter yang digunakan. Berdasarkan analisa risiko, dapat
disimpulkan bahwa NPV berbanding lurus dengan tarif layanan dan total trafik,
tetapi berbanding terbalik terhadap nilai tukar Dollar, nilai OPEX, dan discount
rate. Dapat dismipulkan juga bahwa PBP berbanding lurus tarif layanan dan total
trafik tetapi berbanding terbalik dengannilai tukar Dollar dan OPEX. Sedangkan
discount rate tidak memberikan pengaruh apa-apa terhadap PBP investasi.

ABSTRACT
Telecommunication development causes rapid growth in the number of
mobile subscribers continues to increas, so that traffic growth has increased too.
But the increased of traffic growth is not balance to the cost incurred and the
power and revenue earned. This occurs in PT XYZ which is one of
telecommunication operator in Indonesia. Looking at this company financial
condition now, then Transmission Backbone team should determine which
technology will be used to reduced CAPEX, OPEX buat can increase revenue
with also best quality in network performance. Today, in some areas in Sumatera
have large traffic demands. There is also consideration for the need of large-scale
traffic protection accross Sumatera area. However, the existing network in that
areas is still using SDH technology. And existing network in Sumatera area in
majority is also still using SDH and traditional WDM technology that cannot meet
those needs. Consequently, it is required the development of new optical
backbone network with new technology is that with the OTN strenghts can help
the company’s financial condition but still consider the advantages of the
technical side.
This thesis analyze profitability analyze the level of profitability and the
level of investment risk of OTN technology implementation in optical backbone
network development in several areas in Sumatera using Techno-Economic
analysis method. The implementation of OTN technology From this analysis, it
will be known whether the OTN technology in optical backbone network
development is expected to reduce CAPEX and OPEX, and also can improve
revenue, but still considering quality of network that is built.
Parameters that are used in this tesis are First Installed Cost (FIC), Life
Cycle Cost (LCC), Net Present Value (NPV), Internal Rate of Return (IRR), dan
Payback Period (PBP). For investment period 5 years, all five parameters indicate
suffer a financial loss for company. However, if investment period is extended to
10 years, then all five parameters indicate profit for company. If it is compared
with traditional WDM technology, then OTN techonology indicates better result
that is showed from all five parameters. Based on the result of risk analysis, it can
be concluded that the sensitivity of NPV is proportional to the tariff and traffic,
but it is inversely related to Dollar exchange rate, OPEX, and discount rate. And it
also can be concluded that the sensitivity of PBP is propotional with tarif and
traffic, but is is inversly related to Dollar exchange rate and OPEX. But discount
rate not give any changes to PBP."
Jakarta: Fakultas Teknik Universitas Indonesia, 2014
T39363
UI - Tesis Membership  Universitas Indonesia Library
cover
Rajagukguk, Marthin Adhiyaksa
"ABSTRAK
Teknologi Cloud diimplementasikan untuk meningkatkan kualitas layanan data dan dapat menggantikan infrastruktur tradisional yang telah lama dipakai baik pada jaringan data maupun jaringan suara. Perusahaan yang menggunakan teknologi Cloud akan dapat mengurangi biaya operasional dan maintenance yang mahal. Penggunaan perangkat yang terlalu banyak juga dapat dikurangi. Pada tesis ini dilakukan analisis model bisnis berbasis teknologi Cloud yang diimplementasikan pada PT.XYZ yang mengganti jaringan tradisional dengan teknologi Cloud. Hasil analisis diperoleh bahwa dengan menambahkan teknologi Cloud dan mengganti infrastruktur tradisional di PT.XYZ telah meningkatkan revenue dan efisiensi bagi perusahaan.

ABSTRACT
Cloud technology is implemented to improve the quality of data services and can replace traditional infrastructure that has long been used both on data networks and voice networks. Companies that use Cloud technology will reduce operational and expensive maintenance Costs. The use of too much devices can also be reduced. This thesis analyzed business model of Cloud technology that implemented on PT.XYZ which replace the traditional network with Cloud technology. Results of the analysis showed that by adding Cloud technology and infrastructure to replace traditional network in PT.XYZ has increased revenue and efficiency for the company."
2015
T43823
UI - Tesis Membership  Universitas Indonesia Library
cover
Nur Afny Catur Andryani
"ABSTRAK
Electrical Capacitance Volumetric Tomography ECVT adalah teknologi pemindaian alternatif berbasis kapasitansi yang relatif baru dikembangkan. Teknologi pemindaian serupa, seperti halnya ECT, EIT, ERT, dll. banyak dikembangkan sebagai alternatif teknologi pemindaian yang sudah mapan dikarenakan sifatnya yang non-invassive, rendah energi dan portability. Teknologi pemindaian alternatif tersebut kini tidak hanya dikembangkan untuk keperluan industri namun telah juga digunakan untuk keperluan medis. Oleh karenanya, peningkatan kualitas hasil rekonstruksi citra dari ECVT yang kaya informasi dan presisi, menjadi salah satu isu dalam riset pengembangan teknologi ECVT.Di dalam penelitian ini diusulkan metode rekonstruksi citra ECVT menggunakan prinsip Compressive Sensing CS . CS digunakan mengingat inverse problem pada metode rekonstruksi citra ECVT secara natural membentuk under-determined linear system yang secara teori seharusnya dapat diselesaikan dengan prinsip CS. Metode rekonstruksi yang diusulkan diperkaya dengan penambahan metode usulan threshold yang berdasarkan hasil simulasi meningkatkan nilai kinerja hasil rekonstruksi sampai dengan 16.4 secara rata-rata. Beberapa kontribusi teori juga dirumuskan hasil dari analisa menyeluruh pada metode rekonstruksi yang diusulkan berdasarkan beberapa aspek penting dalam prinsip CS. Pada bagian akhir evaluasi dan analisis, metode rekonstruksi yang diajukan dibandingkan dengan metode rekonstruksi citra ECVT pada metode konvensional ILBP Iterative Linear Back Projection yang lebih sederhana.Hasil penelitian menunjukkan metode yang diusulkan mampu memperbaiki kualitas hasil rekonstruksi dan menghilangkan elongation error yang muncul pada hasil rekonstruksi citra ECVT dengan metode ILBP. Kinerja terbaik pada metode yang diusulkan mampu memperbaiki akurasi hasil rekonstruksi sampai dengan 11.9 berdasarkan nilai koefisien korelasi R. Metode rekonstruksi citra ECVT yang diusulkan masih memiliki kelemahan pada beberapa pemindaian yang lebih rumit, namun tetap memberikan hasil lebih baik dibandingkan dengan ILBP. Analisis hasil simulasi juga menunjukkan bahwa tidak semua kriteria pada teori prinsip CS sejalan dengan implementasinya pada metode rekonstruksi citra ECVT.

ABSTRACT
Electrical Capacitance Volume Tomography ECVT is a capacitance based sensing technology. ECVT and other related sensing technologies are rapidly developed since they have beneficial properties non invasive, low energy consumption and portability compared to the established sensing technologies MRI, CT Scan, USG, etc . The ECVT is not only developed for industrial purposes but also for medical purposes. Therefore, the improvement on the image reconstruction is urgently needed. ECVT image reconstruction imaging system based on Compressive Sensing Principle is proposed. CS framework is used since the inverse problem of ECVT naturally constructs under determined linear system which is theoretically can be solved using Compressive Sensing framework. The proposed method is enriched by proposed thresholding method which succeed to improve the reconstruction kinerjance up to 16.4 . In addition, some theoretical contributions are also defined based on the comprehensive analysis of the proposed method subject to several aspects in Compressive Sensing principles. At the end of the works, the proposed method is compared with the existing image reconstruction method for ECVT, Iterative Linear Back Projection ILBP .Simulation results indicated that the proposed imaging system is able to improve the reconstructed image especially on reducing the elongation error resulted in ILBP method. The best kinerjance on the proposed method succeeds to improve the accuracy up to 11.9 based on R value. The proposed method still has limitations, especially on more complicated sensing environment but still retrieved better results compared to ILBP. In addition, there are some gaps between the theoretical concept and application of Compressive Sensing that could not be fully implemented in ECVT imaging system."
2017
D2405
UI - Disertasi Membership  Universitas Indonesia Library
cover
Achmad Hindasyah
"Menurunnya kualitas citra radiografi neutron disebabkan oleh partikel gamma dan netron terhambur sekunder yang menumbuk CCD kamera serta kemampuan sensor skrin scintillator dalam mengkonversi berkas neutron menjadi cahaya tampak yang meninggalkan jejak berupa white spot noise (WSN) pada citra. Dalam penelitian ini dikembangkan suatu teknik baru untuk menghapus WSN pada citra radigrafi dengan tanpa merusak detail citra. Teknik ini merupakan kombinasi antara Global Threshold dengan algoritma Adaptive Switching Alternative Median (ASAM) filter. Proses menghapus WSN menggunakan teknik ini terdiri dari tiga tahap yaitu tahap deteksi intensitas, tahap deteksi posisi dan tahap denoising. Mengingat WSN pada citra radiografi memiliki intensitas yang random maka pada tahap deteksi intensitas diperlukan global threshold. Tahap deteksi posisi noise diperlukan agar proses denoising hanya dikenakan pada piksel yang terkontaminasi noise, sedangkan piksel yang tidak terkontaminasi noise tetap dipertahankan. Pada tahap denoising digunakan algoritma ASAM yang terdiri dari dua blok filtering yaitu blok filter utama dan blok filter sekunder atau blok filter alternatif. Blok filter utama digunakan pada saat kerapatan noise rendah sedangkan blok filter sekunder digunakan pada saat kerapatan noise tinggi. Pada kedua blok filter digunakan sliding window yang dapat berubah ukurannya sesuai dengan kerapatan noise. Blok filter sekunder merupakan algoritma baru dalam hal menghapus noise impulse kerapatan tinggi dan merupakan kontribusi utama dalam penelitian ini. Algoritma ASAM merupakan algoritma switching yang handal dan dapat menghapus noise impulse kerapatan tinggi pada citra, baik itu fix value impulse noise maupun random value impulse noise. Pengujian algoritma ASAM dilakukan dengan menggunakan beberapa citra standar yang diberi fix value impulse noise berupa Salt and Pepper (SNP) noise dan WSN secara simulasi. WSN dibentuk dari noise SNP dengan mengubah noise pepper menjadi noise salt. Selanjutnya pengujian dilakukan secara real pada citra radiografi neutron menggunakan kombinasi global threshold dengan algoritma ASAM. Dari hasil percobaan untuk pengujian dengan algoritma ASAM secara simulasi menggunakan citra Lena pada kerapatan noise SNP 98% diperoleh Peak Signal To Noise Ratio (PSNR) adalah 21,16 dB, Mean Square Error (MSE) adalah 459,55, Structural Similarity Index (SSIM) adalah 0,61 dan waktu eksekusi 8,9 detik. Sedangkan dengan menggunakan algoritma Switching Median Filter (SMF), Progressive Switching Median Filter (PSMF), Decisions Based Analysis (DBA), Noise Adaptive Fuzzy Switching Median Filter (NAFSM) dan Switching Non Local Mean (SNLM) diperoleh PSNR berturut-turut adalah 10,93 dB, 14,26 dB, 14,21 dB, 10,90 dB dan 11,38 dB, dan untuk pengukuran MSE, SSIM dan waktu eksekusi berturut-turut adalah 4843,54, 0,12 dan 4,8 detik untuk SMF, 2249,89, 0,40 dan 15,1 detik untuk PSMF, 2275,81, 0,36 dan 6,4 detik untuk DBA, viii Universitas Indonesia 4883,03, 0,11 dan 5,3 detik untuk NAFSM dan 4371,33, 0,19 dan 39,0 detik untuk SNLM. Pada percobaan pengujian kedua menggunakan simulasi WSN pada citra Lena dengan kerapatan WSN 98% menggunakan algoritma ASAM diperoleh PSNR adalah 21,30 dB, MSE adalah 445,44, SSIM adalah 0,62 dan waktu adalah 8,9 detik. Sedangkan dengan menggunakan algoritma pembanding lainnya seperti SMF, PSMF, DBA, NAFSM dan SNLM diperoleh PSNR berturut-turut adalah 9,10 dB, 4,99 dB, 10,63 dB, 5,69 dB dan 9,55 dB, dan untuk pengukuran MSE, SSIM dan waktu eksekusi berturut-turut adalah 7377,13, 0,12 dan 5,1 detik untuk SMF, 19046,07, 0,24 dan 0,1 detik untuk PSMF, 5186,02, 0,11 dan 6,9 detik untuk DBA, 16207,00, 0,12 dan 5,3 detik untuk NAFSM dan 6650,19, 0,19 dan 41,2 detik untuk SNLM. Dibandingkan dengan algoritma SMF, PSMF, DBA, NAFSM, SNLM , dari kedua percobaan ini menunjukkan bahwa nilai PSNR, MSE, SSIM algoritma ASAM jauh lebih baik, kecuali waktu yang lebih lama sedikit, namun hasil pengukuran kualitatif dan pengukuran parameter lainnya memperlihatkan hasil yang sangat baik. Pengujian juga dilakukan secara aplikasi real pada beberapa citra radiografi neutron menggunakan kombinasi antara global threshold dan ASAM. Dari hasil percobaan real pada citra radiografi objek valve air pada nilai threshold optimal T0=30 diperoleh jumlah noise terdeteksi 19,72% dan signal to noise ratio (SNR) adalah 33,17 dB, atau naik sebesar 36,0% dari SNR awal.

The quality of neutron radiographic images degraded due to random error in the neutron radiographic facility. The random error was caused by gamma particles and secondary neutron scattering that hit the CCD camera sensors, and the ability of the scintillator screen sensor in a conversion neutron beam into visible light which creates of White Spot Noise (WSN) in the image. In this study, we developed a new technique to remove WSN and preserved image details . The techique is a combination between Global Threshold and Adaptive Switching Alternative Median Filter (ASAM). The technique has three stages that are separating noise from the image, noise position detection, marking noisy and noise-free pixels, and removing the noise using the ASAM algorithm. The global threshold is needed at the detection stage because that WSN has a random intensity on radiographyc image. Noise position detection stage is needed so that the denoising process only applied to noise-contaminated pixels, while pixels that are not contaminated with noise are maintained. In the stage of denoising used the ASAM filter that consists of two blocks filtering, namely main and secondary block filtering, respectively. The main filter block is used when low noise density while the secondary filter block is used when high noise density. The two filtering blocks use a sliding window whose size can be adjusted automatically according to the noise density. Secondary block filtering is a novel algorithm in the high-density impulse noise removal and the main contribution in our research. The ASAM algorithm is a reliable switching algorithm and able to remove high-density impulse noise in the image both of fix value impulse noise or random value impulse noise. To test the ASAM, we applied the algorithm to standard images that are given simulated fix value impulse noise that Salt and Pepper Noise (SNP) and WSN. The WSN formed from the SNP noise by changing pepper noise into salt noise. Furthermore, we applied it to real neutron radiographic images using combination between global threshold and ASAM algorithm. The experiment results showed the simulation test using SNP noise on Lena image at the highest noise level of 98% obtained the Peak Signal to Noise Ratio (PSNR) of 21,16 dB, Mean Square Error (MSE) of 459,55, Structural Similarity Index (SSIM) of 0,61 and processing time of 8,9 s. Whereas by using other comparison algorithm such as Median Filter Switching (SMF), Progressive Switching Median Filter (PSMF), Decisions Based Analysis (DBA), Adaptive Fuzzy Switching Median Filter (NAFSM) and Switching Non Local Mean (SNLM) obtained PSNR of 10.93 dB, 14.26 dB, 14.21 dB, 10.90 dB and 11.38 dB respectively. For the measurement of MSE, SSIM and execution times obtained of 4843.54, 0.12 and 4.8 seconds for SMF, 2249.89, 0.40 and 15.1 seconds for PSMF, 2275.81, 0.36 and 6.4 seconds for DBA, 4883.03, 0.11 and 5.3 seconds x Universitas Indonesia for NAFSM and 4371.33 , 0.19 and 39.0 seconds for SNLM respectively. From the experiment results of simulation test using WSN on Lena image, at the highest noise level of 98%, we obtained the PSNR of 21,30 dB, MSE of 445,44, SSIM of 0,62 and processing time of 8,9 s. Whereas by using other comparison algorithms such as SMF, PSMF, DBA, NAFSM and SNLM obtained PSNR of 9.10 dB, 4.99 dB, 10.63 dB, 5.69 dB and 9.55 dB respectively. For measurements of MSE, SSIM and execution times are 7377.13, 0.12 and 5.1 seconds for SMF, 19046.07, 0.24 and 0.1 seconds for PSMF, 5186.02, 0.11 and 6,9 seconds for DBA, 16207.00, 0.12 and 5.3 seconds for NAFSM and 6650.19, 0.19 and 41.2 seconds for SNLM. Compared with the SMF, PSMF, DBA, NAFSM, SNLM algorithms, from these two experiments, the PSNR, MSE and SSIM of ASAM algorithm are much better, except for a slightly longer time, but the results of qualitative measurements and other parameter measurements show very well. The tests also conducted in real applications on several neutron radiographic images using a combination of global threshold and ASAM.From the results of the real experiment on the radiographic image of the water valve object at the optimal threshold value T0 = 30, the amount of noise detected of 19.72% and the Signal to Noise Ratio (SNR) of 33.17 dB, or an increase of 35% from the initial SNR."
Depok: Fakultas Teknik Universitas Indonesia, 2018
D2584
UI - Disertasi Membership  Universitas Indonesia Library
cover
Hugeng
"Sintesis sistem audio spasial ditemukan dalam banyak aplikasi krusial, seperti dalam pesawat terbang militer maupun komersial, pengembangan virtual reality, termasuk di dalamnya aplikasi dalam permainan-permainan elektronik, maupun sebagai consumer electronics yang memberikan efek bunyi spasial dan kenyamanan bagi pengguna dalam mendengarkan musik. Hampir semua sistem yang mengaplikasikan sintesis audio spasial atau tiga dimensi, memerlukan Head- Related Impulse Response (HRIR). HRIR merupakan fungsi alih dalam kawasan waktu dari gendang telinga manusia yang melakukan penyaringan bunyi yang datang pada gendang telinga tersebut.
Pemodelan HRIR dengan parameter-parameter yang dapat diatur sesuai dengan antropometri pendengar merupakan salah satu solusi dari masalah yang timbul akibat menggunakan HRIR yang non-individual, seperti bunyi terdengar tidak seperti aslinya, serta bunyi terdengar di dalam kepala jika digunakan headphones. Hasil yang sangat bagus diperoleh jika digunakan HRIR individual milik subyek itu sendiri. Tetapi pengukuran HRIR individual ini memerlukan waktu, biaya dan energi yang tidak sedikit.
Di dalam penelitian ini, dimodelkan HRIR fasa minimum, di kawasan waktu, dan Head-related Transfer Function (HRTF) magnitude, di kawasan frekuensi, dengan menggunakan metode statistik Principal Components Analysis (PCA) dengan 10 vektor basis, untuk sumber-sumber bunyi di bidang horisontal dan di bidang median. Sedangkan individualisasi dari model HRIR dan model HRTF tersebut dilakukan berdasarkan Multiple Linear Regression (MLR) dari bobot-bobot vektor basis PCA yang dapat diatur, sesuai dengan 8 ukuran antropometris terseleksi. Seleksi 8 dari total 27 ukuran antropometris dilakukan berdasarkan analisis korelasi antara parameter-parameter psikoakustik penting dan bobot-bobot vektor basis PCA terhadap 27 ukuran antropometris.
Individualisasi model HRIR fasa minimum menghasilkan mean-square error (MSE) rata-rata yang cukup memuaskan sebesar 22,5% di bidang horisontal dan 20,42% di bidang median. Di kawasan frekuensi, dihasilkan MSE rata-rata lebih kecil untuk individualisasi model HRTF magnitude, yaitu 12,17% di bidang horisontal dan 11,21% di bidang median. Model-model HRIR dan HRTF individual dapat mengaproksimasi dengan baik pola-pola dan struktur-struktur detail respon-respon HRIR dan HRTF asli yang bersangkutan. Tes pendengaran dalam menentukan posisi-posisi sumber bunyi di bidang horisontal menghasilkan persentasi kebenaran yang lebih besar jika digunakan model-model HRIR individual daripada jika digunakan HRIR non-individual.

Syntheses of spatial audio systems are found in many crusial applications, such as both in military and commercial aeroplanes, development of virtual reality, electronics games, and consumer electronics that have given spatial effects on sound so that the listeners are pleasant in hearing their music. Most of the systems that synthesize spatial audio need head-related impulse responses (HRIRs) of human ears. HRIRs are impulse responses of human's eardrum, in time domain, that are responsible in filtering incident sound to that eardrum.
Modeling HRIRs with tunable parameters that are suitable to anthropometrie of a listener is a solution to emerging problems by using nonindividualized HRIRs, e.g. sound heard as if it were in head when using headphones and sound heard is not natural. The best results are obtained when the listener uses his/her own individual HRIRs. However, measurements of individual HRIRs require a huge amount of time, cost, and energy.
In this dissertation, minimum phase HRIRs were modeled in time domain and magnitude HRTFs were modeled in frequency domain, by using the statistical method named Principal Components Analysis (PCA) with 10 basis vectors, for sound sources on horizontal plane and on median plane. The individualization method used for the models of minimum phase HRIRs and the models of magnitude HRTFs, was based on Multiple Linear Regression (MLR) between weights of basis vectors obtained from PCA, that could be adjusted due to 8 selected anthropometric measurements. The selection process of 8 out of all 27 anthropometric measurements was performed based on correlations analysis between psychoacoustically crusial parameters; weights of basis vectors of PCA; and 27 anthropometric measurements.
Individualization of models of minimum phase HRIRs resulted in quite satisfying average mean-square error (MSE) of 22,5% for sources on horizontal plane and of 20,42% on median plane. In frequency domain, average MSE obtained from individualization of models of magnitude HRTFs was much better, that was 12,17% on horizontal plane and 11,21% on median plane. Individualized HRIRs models and individualzed HRTFs models were able to approximate very well the patterns and detail structures found in respective original HRIRs and HRTFs. Listening tests performed for sound sources on horizontal plane resulted in that larger correct rates were obtained, if models of individualized HRIRs were applied, than if models of non-individualized HRIRs were applied.
"
Depok: Fakultas Teknik Universitas Indonesia, 2011
D1185
UI - Disertasi Open  Universitas Indonesia Library
cover
Arfianto Fahmi
"Pertumbuhan jumlah pengguna layanan broadband mobile cellular berbasis internet protocol (IP) telah mendorong peningkatan kebutuhan laju data untuk mengakses berbagai macam jenis layanan telekomunikasi. Disisi lain, jaringan akses wireless sebagai infrastruktur terdepan dalam memberikan berbagai layanan mempunyai keterbatasan dalam hal penggunaan sumberdaya radio. Diperlukan suatu metoda resource sharing dengan menerapkan skema pengalokasian sumberdaya agar penggunaan sumberdaya tetap efisien dan mempunyai quality of service yang tetap terjaga serta mempunyai kompleksitas rendah. Third Generation Partnership Project Long Term Evolution (3GPPLTE) telah diperkenalkan sebagai standar Next Generation Network (NGN) pada sistem seluler generasi keempat. 3GPP-LTE telah mengadopsi sistem Single Carrier Frequency Division Multiple Access (SC-FDMA) sebagai standar teknologi akses jamak pada arah uplink untuk mengakomodasi berbagai macam layanan broadband berbasis internet protocol.
Pada sistem wireless SC-FDMA, kondisi lingkungan dan mobilitas semua user membuat kondisi propagasi setiap user pada semua subcarrier berubah dari waktu ke waktu. Diperlukan skema pengalokasian sumberdaya radio berkompleksitas rendah yang mampu beradaptasi terhadap perubahan kondisi tersebut. Diperlukan pula skema yang mampu menggunakan sumberdaya menjadi lebih efisien dibanding generasi sebelumnya. Pertimbangan dalam pencapaian performansi dan kompleksitas waktu komputasi menjadi area terbuka yang dapat dikembangkan dan dieksplorasi lebih lanjut untuk mendapatkan skema pengalokasian sumberdaya baru.
Disertasi ini menjawab isu tersebut dengan mengembangkan skema baru pengalokasian sumberdaya combined-order allocation berbasis algoritma mean greedy. Skema tersebut dibangun berdasarkan solusi dari persoalan optimasi pengalokasian. Persoalan pengalokasian dimodelkan sebagai persoalan linear programming dengan obyektif optimasi adalah quality of service dengan constraint optimasi berupa persyaratan alokasi. Skema baru dibangun dari algoritma berbasis mean greedy karena mempunyai pertimbangan praktis untuk diimplementasikan. Dengan menggunakan pendekatan asimtotik, skema baru yang dikembangkan mempunyai kompleksitas waktu komputasi yang sama dengan skema mean greedy konvensional. Kemudian berdasarkan hasil pengujian menggunakan metoda montecarlo, skema yang dikembangkan mampu memberikan perbaikan performansi pada skenario dan persyaratan tertentu sehingga dapat dipertimbangkan untuk diimplementasikan pada kondisi nyata.

The data rate requirements of telecommunication services has increased due to the growth of the number of broadband mobile celluler internet protocol-based services subscriber. Meanwhile, there are the restrictions on the use of radio resource on the radio access network deployment. Therefore, the resource sharing method using the certain resource allocation scheme is required to keep the efficient use of spectral efficiency and the quality of service as well as. This research addressed those issues by developing the novel resource allocation scheme as a solution of the allocation problem which is modeled using the linear programming optimization. The objective of optimization is a quality of service with a lot low complexity. Third Generation Partnership Project Long Term Evolution (3GPP-LTE) has been introduced as a standard of the Next Generation Network (NGN) on the fourth generation cellular systems. Single Carrier Frequency Division Multiple Access (SC-FDMA) system has been adopted by 3GPP-LTE as a uplink access technology to accomodate a wide range of broadband internet protocolbased services.
In wireless SC-FDMA system, the instantaneous channel conditions of all users always differ from each other, both in time and frequency domains. Therefore, the intelligent radio resource allocation which can adapts to the change of the propagation condition is required to meet its phenomenon. The SC-FDMA technology is designed to be able to more efficiently utilize all the available subcarriers compared to previous generations as well as has a low time complexity by using the intelligent resource allocation scheme. By considering the achieved performance and the time complexity become an attractive area and can be explored further for exploring the new resource allocation scheme.
This research addressed those issues by developing the novel resource allocation scheme as a solution of the allocation problem which is modeled using the linear programming optimization. The objective of optimization is a quality of service with a lot of allocation requirements as constraints. The proposed scheme is built based on the mean greedy algorithm due to the practical implementation and it is called as combined-order allocation. The proposed combined-order allocation has the same time complexity with those of the conventional mean greedy scheme due to the asymtotic method approach. Those scheme also provides the performance improvement on the specific scenarios and the certain requirements regarding to performance evaluation based on the montecarlo method. Accordingly, it can be considered to be implemented in real condition.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
D1457
UI - Disertasi Membership  Universitas Indonesia Library
cover
Lydia Sari
"Skema Multiple Input Multiple Output (MIMO) menjadi topik penelitian penting dalam bidang telekomunikasi nirkabel, karena memiliki kapasitas tinggi tanpa memerlukan tambahan bandwidth serta ketahanannya terhadap multipath fading. Permasalahan yang timbul pada MIMO adalah diperlukannya suatu skema agar setiap antena pemancar dapat digunakan untuk mengirimkan aliran data yang berbeda pada saat bersamaan, dan aliran data yang berbeda-beda tersebut dapat dipisahkan secara tepat di bagian penerima. Permasalahan lain pada sistem MIMO adalah pengkodean yang tepat untuk aliran data jamak sehingga data dapat diterima secara handal.
Untuk mengatasi permasalahan tersebut, pada penelitian ini diajukan penggabungan arsitektur berlapis Vertical Bell Laboratories Space-Time Multiple Input Multiple Output (V-BLAST MIMO) serta pengkodean Rate Compatible Punctured Convolutional (RCPC). Penggunaan V-BLAST memungkinkan pengiriman data yang berbeda pada setiap antena, dan kode RCPC memberikan proteksi terhadap kesalahan kanal. Untuk mempermudah perhitungan parameter kode RCPC, digunakan kode konvolusional ekivalen. Kriteria Zero Forcing (ZF) dan Minimum Mean Squared Error (MMSE) digunakan untuk mengekstrak setiap sub-aliran informasi yang tiba di penerima.
Penelitian ini menghasilkan kode RCPC menggunakan kode konvolusional ekivalen dengan periode puncturing Pc = 2 hingga 6, serta kode RCPC tanpa kode konvolusional ekivalen dengan periode puncturing Pc = 6. Hasil lainnya adalah persamaan BER untuk RCPC V-BLAST MIMO pada kanal fading Nakagami-m. Kanal fading Nakagami-m digunakan karena memiliki karakteristik empiris yang sesuai dengan pola fading secara general. Persamaan BER sistem dinyatakan dalam persamaan matematis yang modular, yang terdiri atas kinerja BER subsistem modulasi M-QAM multikanal, subsistem V-BLAST MIMO, dan subsistem RCPC dengan modulasi M-QAM dan kanal Nakagami-m.
Simulasi numerik yang dilakukan menunjukkan bahwa peningkatan periode puncturing Pc akan meningkatkan jarak bebas kode dfree, sehingga memperbaiki BER sistem. Peningkatan dfree juga dapat dicapai dengan meletakkan bit yang di-puncture pada satu kolom dalam matriks puncturing, tanpa mengubah Pc. BER sistem juga akan semakin baik dengan penambahan jumlah antena, dimana penambahan jumlah antena penerima akan meningkatkan BER dengan lebih signifikan dibandingkan dengan penambahan jumlah antena pemancar. Semakin tinggi Pc yang digunakan, perbaikan BER yang dihasilkan oleh penambahan antena akan semakin kecil. Penggunaan deteksi berbasis MMSE akan meningkatkan BER sistem pada kisaran 0,5 hingga 1 dB dibandingkan deteksi berbasis ZF.

The Multiple Input Multiple Output (MIMO) system has been the subject of rigorous research in the wireless telecommunication field, due to its ability to increase capacity without necessitating extra bandwidth and its robustness against multipath fading. There are two main problems arising in this system. The first is the need to find a scheme to send different information symbols simultaneously using multiple transmit antennas, as well as enabling the extraction of those symbols in the receiver. The second problem is finding a correct coding type for multiple information streams to provide robustness against channel errors.
To solve these problems, this research proposes the integration of Vertical Bell Laboratories Space-Time Multiple Input Multiple Output (V-BLAST MIMO) scheme and Rate Compatible Punctured Convolutional (RCPC) encoding. The use of V-BLAST scheme will enable the transmission of different data streams simultaneously using the multiple transmit antennas, while RCPC codes protect the data against channel errors. To simplify the calculation of RCPC code parameters, equivalent convolutional codes are used. Zero Forcing (ZF) and Minimum Mean Squared Error (MMSE) criteria are used to extract the different data streams arriving in the receiver.
In this research RCPC codes using equivalent convolutional codes which puncturing periods are Pc = 2 to 6, and an RCPC code without equivalent convolutional code which Pc = 6 are obtained. A mathematical formulation of BER for RCPC V-BLAST in Nakagami-m fading channel is derived and numerically simulated. The Nakagami-m model is used as its empirical characteristics match those of general fading pattern. The mathematical BER of the system is stated as a modular equation, consisting of the subsystems BER.
The numerical simulations results show that the increase of Pc will increase the free distance of the codes dfree, which in turn will increase the system BER. The increase of dfree can also be obtained by placing the punctured bits in one column of the puncturing matrix, without changing the Pc. Increasing the number of antennas will also improve the system BER. The increased number of receive antennas will contribute more significantly to the BER improvement compared to the increase of transmit antennas. The larger the Pc used, the BER improvement yielded by increasing the antenna numbers will be more insignificant. The use of MMSE-based detection will improve the system BER by 0.5-1 dB compared to the ZF-based detection.
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
D995
UI - Disertasi Open  Universitas Indonesia Library
cover
Setiyo Budiyanto
"ABSTRAK
Pemakaian trafik data pada jaringan seluler, dalam hal ini UMTS (Universal Mobile
Telecommunications System), dewasa ini semakin meningkat seiring dengan perkembangan
teknologi pendukungnya. Hal ini memunculkan ide untuk mengalirkan trafik data seluler
tersebut ke jaringan nirkabel lain, yaitu Wi-Fi (Wireless Fidelity). Proses pemindahan trafik
data dari jaringan UMTS ke jaringan WiFi dan juga sebaliknya (pemindahan trafik data dari
jaringan WiFi ke jaringan UMTS) disebut sebagai proses UMTS?WiFi Offload. Untuk
melakukan proses offloading tersebut digunakan algoritma VHO (Vertical HandOver).
Sampai saat ini, belum ditemukan suatu penelitian yang membahas protokol routing khusus
yang mampu mengalirkan trafik kepada access point lain yang berada pada sebuah cluster. Di
sisi lain, teknologi MANET (Mobile Ad-Hoc Network) memiliki beberapa konsep routing
protokol, yakni reaktif, proaktif, dan hibrid. Penelitian dilakukan untuk menentukan suatu
metode algoritma hibrid pada jaringan MANET, dalam hal ini GZRP (Genetic Zone Routing
Protocol), yang mampu dikembangkan bersama dengan VHO sehingga permasalahan bottle
neck trafik data yang terdapat pada jaringan UMTS-WiFi offload dapat diatasi.
Berdasarkan penelitian yang telah dilakukan dapat disimpulkan beberapa hal sebagai
berikut. Penelitian yang dilakukan dengan menggunakan protokol routing GZRP yang
dikombinasikan dengan VHO pada jaringan UMTS?WiFi offload menghasilkan beberapa
peningkatan performansi jaringan, antara lain adanya efisiensi total waktu yang diperlukan
oleh stasiun bergerak untuk melakukan handover (dari jaringan UMTS ke jaringan Wi-Fi dan
dari jaringan Wi-Fi ke jaringan UMTS) pada jaringan UMTS?WiFi offload sebesar 2.757
detik dan 3.824 detik. Di samping itu, nilai RSSI pengguna layanan, data rate, dan
throughput masing-masing meningkat 30 dBm, 2 Mbps, dan 2 Mbps. Proses yang diajukan mengurangi total trafik pada area WiFi, delay sinkronisasi, dan konsumsi power masingmasing
sebesar 5 Mbps, 600 ms dan 35%.
Penelitian tentang jaringan UMTS?WiFi Offload dengan seleksi data inputan
menggunakan Roullete Wheel and Rank (N?GZRP) menghasilkan kesimpulan sebagai
berikut. Dengan metode ini, pemakaian power berjalan stabil dan efisiensi kebutuhan power
meningkat sebesar 35% dan 60% jika dibandingkan dengan RW?GZRP (Roulette Wheel
GZRP) dan ZRP (Zone Routing Protocol). Throughput algoritma ini memiliki nilai tiga kbps
lebih besar dari throughput yang dihasilkan oleh algoritma ZRP. Algoritma yang diajukan ini
mampu mengurangi nilai delay apabila dibandingkan dengan RW?GZRP dan ZRP masingmasing
sebesar 20 ms dan 1400ms.
Pada pengujian terakhir dikembangkan kombinasi antara GZRP dan VHO sebagai solusi
dari permasalahan yang ada. Proses yang dilakukan dengan variasi parameter input sistem
jaringan UMTS?Wi-Fi Offload menghasilkan kesimpulan sebagai berikut. Pada saat Bx >
Bth; Cx > Cth, akan dilakukan pemindahan data trafik dari jaringan UMTS menuju ke
jaringan Wi-Fi tanpa memperhatikan nilai Power yang terdapat pada UE (User Equipment).
Pada saat terdapat suatu nilai Cx < Cth, tidak akan dilakukan pemindahan data trafik dari
jaringan UMTS menuju ke jaringan Wi-Fi. Perubahan nilai Power pada UE tidak
mempengaruhi kinerja Jaringan UMTS?Wi-Fi Offload. Dengan demikian, jaringan UMTS?
Wi-Fi Offload bekerja hanya dengan memperhatikan nilai Bandwidth dan Kapasitas Data
Trafik. Pada saat Bx > Bth; Cx > Cth, akan dilakukan pemindahan data trafik dari jaringan
UMTS menuju ke jaringan Wi-Fi tanpa memperhatikan nilai Power yang terdapat pada UE
dan peningkatan nilai Bandwidth pada UE mampu meningkatkan kinerja jaringan UMTS?
Wi-Fi Offload, khususnya dalam aktivitas pemindahan data dari jaringan UMTS menuju ke
jaringan Wi-Fi.

ABSTRACT
The usage of data traffic on mobile networks, in this case the UMTS (Universal Mobile
Telecommunications System), recently increased along with the advancement of its
supporting technologies. This led to the idea to discharge the mobile data traffic to another
wireless network, which is the Wi-Fi (Wireless Fidelity). The process of moving data traffic
from UMTS network to a WiFi network and vice versa (the transfer of data traffic from the
WiFi to UMTS network) called UMTS-WiFi Offload process. To perform the offloading
process, the VHO (Vertical Handover) algorithm is used. Until now, we have not found a
study that addresses the specific routing protocols which can divert traffic to another access
point on a cluster. On the other hand, MANET (Mobile Ad-Hoc Network) technology has
some concepts of routing protocols: reactive, proactive, and hybrid. This study was
conducted to determine a method of hybrid algorithm in MANET network: GZRP (Genetic
Zone Routing Protocol), which is able to be developed in conjunction with VHO so that the
bottleneck problem of traffic data in the UMTS network-WiFi offload can be overcome.
Based on the research that has been done, some conclusions can be taken as follows.
Research carried out by using a routing protocol GZRP combined with VHO on the UMTSWiFi
offload produces some improvements in network performance, for example, the
efficiency of the total time required by the mobile station to perform handover (from a UMTS
network to a Wi-Fi network and from the network Wi-Fi networks to UMTS) on the UMTSWiFi
offload is 2.757 seconds and 3.824 seconds. In addition, the RSSI value of the service
users, data rate, and throughput are improved by 30 dBm, 2 Mbps, and 2 Mbps. The proposed
process reduced the total traffic on WiFi area, delay synchronization, and power consumption
of by 5 Mbps, 600 ms and 35%. Research on the UMTS-WiFi network Offload with input data selection using Roulette
Wheel and Rank (N-GZRP) resulted in the following conclusions. With this method, the
power consumption is stable and power efficiency is enhanced by 35% and 60% compared
with the RW-GZRP (Roulette Wheel GZRP) and ZRP (Zone Routing Protocol).The
throughput of this algorithm is 3 kbps greater than generated by the algorithm ZRP. The
proposed algorithm is able to reduce delay, compared to the value of RW-GZRP and ZRP,
with the value of 20 ms and 1400ms.
In the last test, the combination of GZRP and VHO was developed as the solution to the
existing problems. The process done by varying input parameters UMTS network systems-
Wi-Fi Offload gives following conclusions. At the time of Bx> Bth; Cx> Cth, the data traffic
transfer from UMTS network to a Wi-Fi network will be done, regardless of the power value
in the UE (User Equipment). At the moment when Cx value < Cth, displacement of traffic
data from UMTS to Wi-Fi network will not be performed. Changes in the power value in the
UE will not affect the performance of UMTS - Wi-Fi Offload. Thus, UMTS - Wi-Fi Offload
only works with regard to bandwidth value and data traffic capacity. At the time of Bx> Bth;
Cx> Cth, the traffic data transfer will be done from UMTS to the Wi-Fi network regardless to
the power value in the UE, and increased bandwidth value on the UE can improve the
performance of UMTS - Wi-Fi Offload, especially in the activity of data transfer from UMTS
to Wi-Fi network"
2016
D2202
UI - Disertasi Membership  Universitas Indonesia Library
<<   1 2   >>