Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 136743 dokumen yang sesuai dengan query
cover
cover
Budi Santoso
"Algoritma kompresi lossless untuk digital audio secara umum terbagi dua. Algoritma pertama menggunakan metode prediktif untuk menghilangkan redundansi pada data audio tersebut. Sementara algoritma kedua menggunakan metode lossy coding.
Algoritma Shorten adalah contoh algoritma yang menggunakan metode prediktif. Sedangkan A!goritma LTAC adalah contoh algoritma yang menggunakan metode lossy coding. Hasil rasio kompresi yang diperoleh dari kedua algoritma tersebut tidak berbeda jauh. Namun untuk kecepatan proses, algoritma dengan metode prediktif memiliki waktu proses yang lebih cepat."
Depok: Fakultas Teknik Universitas Indonesia, 2002
S39704
UI - Skripsi Membership  Universitas Indonesia Library
cover
R. Alifiansyah Ilham K.
"Kebutuhan akan kompresi data memunculkan banyak metode dan konsep untuk mengurangi ukuran sebuah informasi digital. Tujuan dari kompresi data adalah untuk menghemat kapasitas media penyimpanan dan mempermudah pengiriman informasi melalui media transmisi. Metode Huffman Code merupakan salah satu metode kompresi Lossless yang dapat memberikan kompresi bit tanpa mengurangi informasi di dalam data yang asli.
Tugas Akhir ini membahas tentang penggunaan metode Huffman Code dengan jumlah data yang besar, yaitu pada sebuah Frame Video MPEG-4 dengan menggunakan nilai intensitas warna pada setiap pixel sebagai data dan letak pixel sebagai dimensi matriks. Proses yang melibatkan berjuta bit tersebut terlalu rumit untuk diselesaikan secara manual, sehingga membutuhkan bantuan software komputer Matlab. Pemrograman Matlab dilengkapi dengan tools yang memberikan kemudahan dalam penyelesaian komputasi tesebut.
Data yang diamati adalah kecepatan proses kompresi-dekompresi, rasio antara jumlah bit sebelum dan sesudah kompresi, dan ketepatan antara data hasil dekompresi dengan data aslinya. Kecepatan proses kompresi dan dekompresi menunjukkan waktu yang dibutuhkan untuk mengganti setiap simbol dalam data dengan kode Huffman-nya. Kecepatan tersebut berbeda-beda tergantung pada spesifikasi alat yang digunakan. Rasio merupakan perbandingan antara data terkompresi dengan data aslinya. Ketepatan data menunjukkan perbandingan antara nilai-nilai pada data yang dikompresi dengan data aslinya. Pada kompresi Huffman data hasil dekompresi dan data asli harus sama.

The need of data compression makes a lot of methods and concepts made to reduce the size of digital information. The purpose of data compression is to save the capacity of a storage media and to ease information transmission through transmission lines. The Huffman Code Method is one of Lossless compression method which able to give bit compression without reducing the information inside the original data.
This final project examine the utilization of Huffman Code method with huge number of data, and that is an MPEG-4 video frame using the value of color intensity on each pixel as data and pixel’s position as matrix dimension. The Process which involves millions of bits is too complicated to be done manually, so a help from computer software, Matlab is required. Matlab programming is equipped with tools which gives ease on handling the complex computation.
The Data which observed are the compressing-decompressing speeds, ratio between the number of bits before and after the compression, and the accuracy between the decompressed data and the original data. Processing speed in compressing and decompressing shows the time needed to replace each symbol in data with its Huffman code. The speed varies depends on the specification of the device used for the process. Ratio is the comparison between compressed data with its original data. The accuracy of data shows the comparison between values in the decompressed data and the original data. In Huffman Code compression, the decompressed data and the original data must shows exact match.
"
Depok: Fakultas Teknik Universitas Indonesia, 2013
S44055
UI - Skripsi Membership  Universitas Indonesia Library
cover
Fityan Azizi
"Penyakit kardiovaskular merupakan penyakit dengan angka kematian tertinggi di dunia. Fungsi jantung perlu diperiksa secara akurat dan efisien agar penyakit kardiovaskular dapat terdeteksi dengan baik. Penilaian fungsi jantung umumnya dilakukan dengan memberi tanda ventrikel kiri secara manual. Hal tersebut memiliki kekurangan karena dapat memakan waktu, rawan kesalahan karena resolusi citra yang rendah, dan memiliki perbedaan hasil yang bervariasi antar pemeriksa. Oleh karena itu, penandaan ventrikel kiri secara otomatis dengan segmentasi sangat penting agar pemeriksaan fungsi jantung dapat dilakukan lebih efektif dan efisien. Dalam penelitian ini, dilakukan pengembangan model deep learning untuk pekerjaan segmentasi ventrikel kiri pada citra ekokardiografi menggunakan encoder yang dimiliki U-Net, ditambahkan dengan modul Atrous Spatial Pyramid Pooling dan decoder yang dimiliki DeeplabV3+. Selanjutnya, ditambahkan Coordinate Attention pada tahap akhir dalam encoder untuk penyempurnaan fitur. Dilakukan uji pada dataset Echonet-Dynamic, Hasil penelitian menunjukkan bahwa melakukan penggabungan antara encoder yang dimiliki U-Net dan decoder yang dimiliki DeeplabV3+ mampu memberikan peningkatan performa dibandingkan model U-Net dan DeeplabV3+, juga memberikan hasil yang lebih baik dibandingkan penelitian sebelumnya, dengan menghasilkan nilai dice similiarity coefficient sebesar 92.91%.

Cardiovascular disease is a disease with the highest mortality rate in the world. Heart function needs to be checked accurately and efficiently so that cardiovascular disease can be detected properly. Assessment of cardiac function is generally done by marking the left ventricle manually. This has the drawbacks of being time-consuming, error-prone due to low image resolution, and have inter-observer variability. So that automatic marking of the left ventricle with segmentation is very important so that the examination of cardiac function can be carried out more effectively and efficiently. In this study, a deep learning model was developed for left ventricle segmentation on echocardiographic images using an encoder in U-Net, added with the Atrous Spatial Pyramid Pooling module and an decoder in DeeplabV3+. Furthermore, the Coordinate Attention Module was added at the final stage in the encoder for feature enhancements. Tests were carried out using the Echonet-Dynamic dataset. The results showed that combining the encoder in U-Net and the decoder in DeeplabV3+ was able to provide increased performance compared to the U-Net and DeeplabV3+ models, also gives better results than previous research, by producing a dice similarity coefficient of 92.91%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
T-pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Satrya N. Ardhytia
"Kompresi citra adalah proses mengurangi ukuran dari citra dengan mengurangi kualitas dari citra tersebut. Metode Fraktal yang digunakan bekerja dengan mencari kemiripan pada piksel-piksel citra dan mengelompokkannya dalam beberapa cluster. Semakin tinggi tingkat kemiripan pada citra, rasio kompresi akan semakin baik. Pada citra berwarna (RGB) metode tersebut diulang sebanyak tiga kali, masing-masing untuk satu elemen warna. Hasil akhir dari proses kompresi adalah tiga virtual codebook, masing-masing untuk satu elemen warna, yang menyimpan nilai dari brightness, contrast, dan tipe transformasi affine yang digunakan untuk tiap cluster. Proses dekompresi dari metode ini adalah dengan membentuk citra kosong dengan resolusi yang sama dengan citra asli dan mengisikan nilai RGB pada tiap piksel yang bersangkutan dengan menghitung nilai yang tersimpan pada virtual codebook. Dengan menggunakan nilai Coefficient of Variation (CV) sebagai penyesuaian nilai standar deviasi dan 57 citra BMP24-bit, hasil pengujian menunjukkan rasio kompresi rata-rata sebesar 41.79%. Dengan metode paralel yang digunakan, proses kompresi citra berwarna menunjukkan rata-rata nilai speed-up sebesar 1.69 dan nilai efisiensi prosesor sebesar 56.34%.
Image compression is a process of reducing the size of the image by reducing the quality of the image. Fractal method is used to work by searching for similarities in the image pixels, and group them in clusters. The higher the degree of resemblance to the image, the better the compression ratio. In the color image (RGB) the method is repeated three times, each for one color element.The end result of the compression process is a three virtual codebook, each for one color element, which stores the value of the brightness, contrast, and the type of affine transformation are used for each cluster. Decompression process of this method is to form a blank image with the same resolution with the original image and fill in the RGB values at each pixel corresponding to the count value stored in the virtual codebook.By using the Coefficient of Variation (CV) as an adjustment value and standard deviation of 57 pieces of 24-bit BMP images, test results showed an average compression ratio of 41.79%. With the parallel method is used, the compression process of color image shows the average speed-up values of 1.69 and the processor efficiency of 56.34%."
Jakarta: Fakultas Teknologi Informasi Universitas Tarumanegara, 2010
AJ-Pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Wowor, Lukas
"Skripsi ini membahas mengenai pemodelan dan simulasi rangkaian enkoder pada teknik pengkodean suara VSELP. VSELP merupakan suatu teknik pengkodean suara atau kompresi pada komunikasi selular yang memberikan tingkat kompresi sebesar delapan kilo bit persekon. Bagian Enkoder VSELP melakukan kompresi dengan metode Linear Prediction Coding dan memodelkan nilai eksitasi dengan kode buku adaptif dan kode buku eksitasi.Bagian Enkoder ini akan disimulasikan dan dibuktikan tingkat kompresi suaranya. Simulasi dilakukan dengan secara offline yang berarti suara direkam terlebih dahulu dan kemudian diproses secara terpisah. Simulasi tersebut akan menghasilkan sebuah bentuk dokumen dari data asli yang akan memberikan tingkat kompresi sebesar delapan kilo bit perdetik.

This final project discusses designing and simulating encoder part of VSELP sound compression. Vector Sum Excitation Linear Prediction is one of the technique of sound compression or sound coding on cellular communication that give compression into eight kilo bit per second. VSELP Encoder compressed sound data with linear prediction coding and model the excitation with adaptive codebook and excitation codebook This Encoder part will be simulated to prove the compression level of it. Simulation done in offline condition whereas the data recorded and processed separately. Simulation will give a new file from the origin data that give the eight kilo bit persecond compression."
Depok: Fakultas Teknik Universitas Indonesia, 2009
S51478
UI - Skripsi Open  Universitas Indonesia Library
cover
Mohammad Abdul Jabbar
"Convolutional code merupakan teknik Error control coding untuk mendeteksi dan mengkoreksi error pada informasi akibat pengaruh noise. Skripsi ini merancang bangun rangkaian convolutional encoder dan Viterbi decoder menggunakan DSK TMS320C6713 berbasis Simulink, untuk melihat probabilitas error yang dipengaruhi oleh Binary Symetric Channel (BSC) sebagai pembangkit error. Analisis meliputi perbandingan bit input dan output dengan variasi nilai parameter convolutional code, dan uji coba rangkaian menggunakan DSK TMS320C6713.
Hasil penelitian menunjukkan convolutional encoder dan Viterbi decoder dapat menurunkan probabilitas error tergantung dari parameter yang digunakan. Semakin besar constrain length dan semakin kecil rate yang digunakan, maka probability of error akan semakin kecil.

Convolutional code is a technique in Error control coding to detect and correct error on information caused by noise. This research designed the circuitry of convolutional encoder and Viterbi decoder using DSK TMS320C6713 with Simulink-based, to see the probability of errors affected by Binary Symetric Channel as error generator. The analysis consists of comparison between input and ouput bits with variation of parameter's value of the convolutional code, and the tryout using DSK TMS320C6713.
Results showed that convolutional encoder and Viterbi decoder could reduce the probability of error depend on parameters used. Higher constrain length and smaller rate, resulted a smaller probability of error.
"
Depok: Fakultas Teknik Universitas Indonesia, 2008
S51043
UI - Skripsi Open  Universitas Indonesia Library
cover
Annisa Dinda Amalia
"Kebutuhan transmisi data telemedicine seperti citra dan video medis secara nirkabel mengharuskan data dikompresi terlebih dahulu agar dapat dikirimkan secara efisien. Yu, et.al, membuktikan bahwa standar kompresi H.264 dapat diterapkan pada kompresi video medis, sementara menurut Xiong, et.al transformasi wavelet diskrit mengungguli DCT pada kompresi citra dan video.
Skripsi ini bertujuan untuk mensimulasikan algoritma H.264 dengan transformasi 2D berupa transformasi wavelet diskrit serta menganalisis hasil simulasinya dengan parameter kualitas objektif yaitu PSNR dan rasio kompresi. Simulasi kompresi video medis berdasarkan algoritma H.264 dengan DCT maupun DWT dilakukan pada parameter kompresi yang sama untuk dibandingkan hasilnya.
Hasil simulasi menunjukkan bahwa DWT dapat diterapkan pada kompresi video medis berdasarkan algoritma H.264 dengan gain hingga 1,06 dB mengungguli DCT. Namun demikia, rasio kompresi yang didapat tidak terlalu berbeda secara signifikan akibat adanya padding pada hasil dekomposisi DWT.

The need of telemedicine data transmission, such as image and video, using wireless network requires data to be compressed efficiently. Yu, et.al, proved that H.264 standard of video coding is applicable in medical video compression, while according to Xiong et.al, discrete wavelet transform outperforms discrete cosine transform in image and video compression.
This thesis aims to simulate medical video compression based-on H.264 algorithm using discrete wavelet transform and analyze the simulation results showed by objective quality parameter, namely PSNR and compression ratio. The simulation using DCT and DWT performed on the same compression parameters to compare the results.
The simulation result show that DWT is applicable in medical video compression based-on H.264 algorithm with 1,06 dB outperformed DCT. However, the compression ratio obtained doesn‟t differ significantly because of the pixel padding on the DWT decomposition matrices."
Depok: Fakultas Teknik Universitas Indonesia, 2012
S42276
UI - Skripsi Open  Universitas Indonesia Library
cover
Ariq Pradipa Santoso
"Cloud Computing menyediakan akses mudah ke berbagai sumber daya melalui jaringan internet, dengan jangkauan jaringan yang luas, kemampuan elastisitas yang cepat, dan layanan yang dapat diukur. Dalam penelitian ini, digunakan Cloud Management Platform Apache CloudStack untuk membangun sistem Cloud sendiri. Sistem ini menggunakan sistem operasi Ubuntu dan hypervisor KVM (Kernel-based Virtual Machine) untuk menguji performa dan optimalisasi konfigurasi hypervisor dalam menjalankan tugas-tugas komputasi tertentu. Penelitian ini bertujuan untuk menganalisis apakah konfigurasi default dari hypervisor KVM sudah optimal dan bagaimana konfigurasi hypervisor KVM dapat meningkatkan performa dalam menjalankan tugas komputasi seperti kompresi video, enkripsi, dekripsi, dan validasi integritas data. Metode yang digunakan melibatkan pengujian performa hypervisor KVM dengan melakukan berbagai tugas komputasi dan mengukur waktu yang diperlukan untuk menyelesaikan tugas-tugas tersebut. Hasil pengujian menunjukkan bahwa konfigurasi hypervisor dengan menambahkan flag tertentu seperti SSSE3, SSE4.1, SSE4.2, SSE4a, dan AES dapat meningkatkan performa komputasi secara signifikan. Kesimpulan dari penelitian ini adalah bahwa konfigurasi default hypervisor KVM bersifat minimal dan perlu dilakukan konfigurasi untuk mencapai performa optimal. Konfigurasi hypervisor yang tepat dapat mempercepat kompresi video hingga 2.4 kali, validasi integritas data hingga 7.56 kali, enkripsi AES hingga 2.1 kali, dan dekripsi AES hingga 2.68 kali dibandingkan dengan konfigurasi default. Penelitian ini diharapkan memberikan kontribusi akademis dalam bidang optimalisasi infrastruktur cloud.

Cloud Computing provides easy access to various resources over the internet, with a wide network reach, fast elasticity capabilities, and measurable services. In this research, the Apache CloudStack Cloud Management Platform is utilized to build a Cloud system. This system uses the Ubuntu operating system and KVM (Kernel-based Virtual Machine) hypervisor to test performance and optimize the hypervisor configuration for specific computing tasks. The aim of this research is to analyze whether the default configuration of the KVM hypervisor is optimal and how configuration the KVM hypervisor can enhance performance in executing computing tasks such as video compression, encryption, decryption, and data integrity validation. The methodology involves performance testing of the KVM hypervisor by executing various computing tasks and measuring the time taken to complete these tasks. The test results indicate that configuring the hypervisor by adding specific flags such as SSSE3, SSE4.1, SSE4.2, SSE4a, and AES can significantly improve computational performance. The conclusion drawn from this research is that the default configuration of the KVM hypervisor is minimal and requires configuration to achieve optimal performance. Proper hypervisor configuration can accelerate video compression by up to 2.4 times, data integrity validation by up to 7.56 times, AES encryption by up to 2.1 times, and AES decryption by up to 2.68 times compared to the default configuration. This research is expected to make an academic contribution in the field of cloud infrastructure optimization."
Depok: Fakultas Teknik Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
"Penelitian yang dilakukan oleh John Holland pada tahun 1962 menghasilkan metode yang disebut sebagai algoritma genetik (Genelic Algorithms), yang dasar pikirannya sesuai dengan namanya, yaitu dari proses genetika. Secara biologis, gen dalam tubuh mahluk hidup berkembang biak, djselcksi dan terus berubah (beradaptasi) menurut lingkungannya Hal ini terlihat acak tetapi memiliki arah tertentu dan dapat mempertahankan hidupnya. Sistem alam ini kemudian dikembangkan menjadi sistem tiruan yang menggunakan metode Sarna untuk membuat replika ilmiah dari sistem buatan dan bersifat memiliki kecerdasan buatan karena prosesnya menunjukkan seolah-olah memiliki pikirannya sendiri. Sistem inilah yang disebut sebagai algoritma genetik karena rnemang mengambil sistern perlcembangan genetik di alam.
Studi kasus ini mengambil sistem perpipaan yang mengguna.ka.n kompresor serial yang bertujuan untuk rnempertahankan tekanan sepanjang sistem. Perhitungan yang dilakukan bertujuan untuk mencari energi kompresor minimum yang dilconsumsi dari aliran tluida. Kesimpulan yang diambil bukan hanya harga optimum pemakaian energi dari kompresor, melainkan juga apakah metode optimasi yang dilakukan dapat memberikan hasil yang layak untuk diaplikasikan di lapangan atau metode tersebul layak untuk dipergunakan dalam proses simulasi maupun optimasi suatu sistem."
Fakultas Teknik Universitas Indonesia, 1997
S49073
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>