Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 41639 dokumen yang sesuai dengan query
cover
Naufal Ihsan Pratama
"Seiring berkembangnya teknologi informasi yang mulai merambah ke sektor ekonomi menyebabkan banyak bermunculan penyedia layanan dompet digital di Indonesia. DOKU sebagai salah satu penyedia layanan dompet digital ingin terus berinovasi untuk meningkatkan kepuasan pelanggan. Proses verifikasi data diri yang membutuhkan waktu lama karena harus dilakukan secara manual kini menjadi persoalan. Fokus penelitian ini adalah untuk mengembangkan sebuah aplikasi mobile cross platform yang dapat
digunakan untuk mengekstrak data dari gambar kartu idenitas pengguna DOKU agar proses verifikasi data dapat dilakukan secara otomatis.
Arsitektur dari aplikasi terdiri dari aplikasi mobile menggunakan Flutter dan webservice menggunakan Flask. Proses ekstraksi data dari gambar kartu identitas dilakukan menggunakan Tesseract-OCR. Hasil ekstraksi data akan diprediksi menggunakan model LSTM untuk dapat dilakukan verifikasi lanjutan. Hasil eksperimen menunjukkan akurasi pengenalan karakter dari gambar kartu identitas sebesar 77.45% dan akurasi prediksi kategori sebesar 88%. Dengan demikian aplikasi ini dapat digunakan
untuk menyelesaikan masalah verifikasi data pengguna.

The development of information technology has penetrated the economic sector causing many digital wallet service providers to appear in Indonesia. DOKU as one of the digital wallet service providers wants to innovate to increase customer satisfaction. The process of verifying personal data which takes a long time because it has to be done manually is now a problem. The focus of this research is to develop cross-platform mobile applications that can be used to extract data from DOKU user identity card images so that the data verification process can be done automatically. The application architecture consists of mobile applications using Flutter and web services using Flask. The data extraction process from the identity card image is done using Tesseract-OCR. The results of data extraction will be predicted using the LSTM model for the further verification process. The experimental results show that the accuracy of character recognition from the identity card images is 77.45% and the category prediction accuracy is 88%. Thus this application can be used to resolve user data verification issues."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Muhammad Fairuzi Teguh
"Open Information Extraction (Open IE) merupakan topik yang telah diteliti cukup lama terutama pada bahasa Inggris. Pada pekerjaan open information extraction, dikembangkan banyak model baik yang melakukan ekstraksi relasi umum maupun yang berfokus pada relasi khusus, misalnya relasi numerik. Pada bahasa Indonesia, telah dikembangkan beberapa model open information extraction namun belum ada model yang berfokus pada relasi numerik. Padahal, sangat banyak informasi yang disajikan dalam bentuk numerik sehingga informasi tersebut belum dapat dimanfaatkan dengan baik. Karena itu, pada riset ini kami berfokus pada ekstraksi relasi numerik pada teks berbahasa Indonesia. Tantangan dalam pekerjaan ini adalah banyaknya relasi yang mungkin dari ekspresi numerik serta kategori ekspresi numerik yang beragam yaitu kardinal, kuantitas, persen, dan uang. Selain itu, banyak juga ekspresi numerik yang tidak menyatakan sebuah relasi numerik. Kontribusi riset ini adalah model ekstraksi atribut numerik dari teks berbahasa Indonesia. Walaupun pekerjaan ini adalah pilot task, model kami memperoleh hasil yang cukup baik dengan precision score 61.06%.

Open Information Extraction (Open IE) is a widely studied topic, especially in English. In open information extraction research, many models have been developed for general relation extraction or for specific relations, for instance, numerical relations. In Indonesian language, there have been some works on open information extraction models but none is focusing on numerical relations. With so much information given in numerical expression, it is so unfortunate if that information can not be used. Thus, in this research, we focus on numerical relation extraction in Indonesian texts. The challenge in this work is a huge number of relations that can be produced from numerical expressions as well as several categories of numerical expressions: cardinal, quantity, percent, and money. Furthermore, many numerical expressions do not express any numerical relation. Our contribution is a numerical relation extraction model from Indonesian texts. While this work is a pilot task, our model obtained a good result with precision score of 61.06%."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2020
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Prabu Kresna Putra
"Padatnya aktivitas lalu lintas yang terjadi setiap harinya menimbulkan gangguan yang dapat mengganggu proses pelaksanaan kegiatan berlalu lintas. Pemerintah Provinsi DKI Jakarta telah mengembangkan sistem pemantauan guna memantau situasi lalu lintas dalam mendukung kegiatan berlalu lintas dan mengurangi ganguan situasi lalu lintas. Walaupun terdapat beberapa sistem pemantauan lalu lintas, namun Informasi yang diterima oleh pengguna atau penyelenggara lalu lintas masih tidak lengkap / kurang lengkap. Penelitian ini berfokus memanfaatkan data media sosial Twitter untuk digunakan terkait pemantauan lalu lintas dan kondisi jalan. Pendekatan text mining digunakan untuk mengekstraksi informasi dari data media sosial. Jenis analisa yang digunakan pada penelitian ini adalah klasikasi untuk penyaringan data relevan dan klasifikasi untuk mengkategorikan data relevan, ekstraksi informasi lokasi untuk ekstraksi informasi lokasi dan geocoding untuk mengkonversi informasi lokasi menjadi informasi geografis. Algoritma klasifikasi yang digunakan pada penelitian ini adalah Naïve Bayes, Random Forest, Logistic Regression dan Support Vector Machine. Metode ekstraksi fitur yang digunakan pada penelitian ini adalah Bag Of Words (BOW) dan Term Frequency - Inverse Document Frequency (TF-IDF). Metode ekstraksi informasi lokasi yang digunakan pada penelitian ini adalah Named Entity Recognition (NER) dan Part Of Speech Tagger. Metode geocoding yang digunakan memanfaatkan library ArcPy. Hasil evaluasi menunjukkan model klasifikasi terbaik untuk menyaring data relevan dihasilkan dengan menggunakan algoritma Logistic Regression dan gabungan tiga fitur ektraksi BOW Unigram dan TF-IDF Word Trigram dan N-Gram Char dengan nilai F1-score 93%. Model klasifikasi untuk mengkategorikan data relevan dihasilkan dengan menggunakan algoritma Logistic Regression dan gabungan dua fitur ektraksi BOW Unigram dan TF-IDF N-Gram Char dengan nilai F1-score 96%. Metode ekstraksi informasi lokasi terbaik dihasilkan dengan menggunakan metode Standford NER dengan nilai F1-score sebesar 48% dan presisi sebesar 84%. Tingkat keberhasilkan tahapan geocoding untuk hasil ekstraksi informasi lokasi menggunakan metode NER adalah sebesar 59%. Disamping itu, dilakukan juga visualisasi sederhana berbasis web untuk menampilkan informasi data yang telah diolah dalam bentuk spasial.

Dense traffic activities that occur every day cause disruption that can interfere with the process of carrying out traffic activities. The DKI Jakarta Government has developed a monitoring system to monitor the traffic situation in support of traffic activities and reduce traffic disruption. Although there are some traffic monitoring system, but the information received by the user or traffic organizers are still not complete / incomplete. This study focuses on utilizing Twitter social media data for use in monitoring traffic and road conditions. The process of extracting information related to traffic situations uses a method with a text mining approach. The type of analysis used in this study is the classification for the filtering of relevant data and classification for categorizing relevant data, location extraction for the extraction of location information and geocoding to convert location information into geographic information. The classification algorithm used in this study is Naïve Bayes, Random Forest, Logistic Regression and Support Vector Machine. Feature extraction methods used in this study are Bag of Words (BOW) and Term Frequency - Inverse Document Frequency (TF-IDF). The location extraction method used in this study is Named Entity Recognition (NER) and Part Of Speech Tagger. The geocoding method used utilizes the ArcPy library. The evaluation results show that the best classification model to filter out relevant data is generated using a Logistic Regression algorithm and a combination of three extraction features, namely BOW Unigram and TF-IDF Word Trigram and N-Gram Char with an F1-score of 93%. Classification models to categorize relevant data are generated using Logistic Regression algorithm and a combination of two features, namely Unigram BOW extraction and TF-IDF N-Gram Char with F1-score value of 96%. Best location extraction method produced using Stanford NER with F1-score value of 48% and a precision of 84%. The success rate of the geocoding stage for location extraction results using the NER method was 59%. Besides that, a simple web-based visualization is also produced to display information that has been processed in spatial interface.

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Gusman Dharma Putra
"Jenis bencana alam, lokasi, dan waktu kejadian adalah informasi minimal bisa mengindikasi terjadinya sebuah bencana alam. Salah satu sumber informasi kejadian bencana alam adalah dari berita di media siber. Suatu sistem informasi tentang bencana alam bisa memanfaatkan berita di media siber sebagai sumber data, namun harus mengubah data teks berita menjadi bentuk data terstruktur. Teknik penambangan teks yang bisa digunakan untuk mendapatkan data terstruktur dari suatu kumpulkan teks. Penelitian ini melakukan eksplorasi efektivitas teknik penambangan data untuk mengekstrak informasi jenis bencana alam, lokasi, dan waktu kejadian. Metode web scraping digunakan untuk mengumpulkan data teks berita dari media siber dan anotasi manual dilakukan untuk membuat data gold standard. Penelitian ini menggunakan klasifikasi teks dengan machine learning untuk mengetahui jenis bencana alam yang diberitakan. Klasifikasi biner diterapkan untuk mengetahui pemberitaan tentang bencana angin topan, banjir, erupsi, gempa, karhutla, kekeringan, longsor, dan tsunami. Algoritma yang diuji untuk klasifikasi teks adalah Multinomial Naive Bayes, Support Vector Machine, Random Forest, Linear Regression dan Adaboost. Penelitian ini memanfaatkan aplikasi Stanford NER untuk mengetahui entitas lokasi di suatu teks, kemudian gazetteer digunakan untuk pemetaan wilayah administrasi. Penelitian ini menggunakan pencocokan pola teks dengan regular expression untuk mengekstrak informasi tanggal kejadian bencana alam. Nilai F1 dari model klasifikasi penelitian ini untuk berita bencana angin topan, banjir, erupsi, gempa, karhutla, kekeringan, longsor, dan tsunami adalah 0,731, 0,767, 0,760, 0,761, 0,749, 0,680, 0,763, dan 0,600. Sedangkan Nilai F1 untuk hasil ekstraksi lokasi dan waktu adalah 0,795 dan 0,881.

The minimal information to notice the occurrence of a natural disaster is its type, location, and event time. News in the cyber media can be a source of information to discover disaster events. Furthermore, natural disaster information systems can utilize that news as the data source. The news needs to be converted into structured data to be processed by system information. Text mining is a method to extract structured information from a text collection. This research explored the effectiveness of data mining to extract natural disaster type, location, and event time reported by news in cyber media. The web scraping method was used to collect news in cyber media and manual annotation was performed to create gold-standard data. This study used text classification with a machine learning approach to identify the types of natural disasters reported. Binary classification was applied to label news for following disaster types: hurricanes, floods, eruptions, earthquakes, forest and land fires, droughts, landslides, and tsunami. This research evaluated Multinomial Naive Bayes, Support Vector Machines, Random Forests, Linear Regression, and AdaBoost algorithm for text classification tasks. This study utilized the Stanford NER application to recognize location entities in a text, then the gazetteer was used to get administrative area information. This study applied text patterns with regular expressions to extract date information of disaster events. The F1 value of 8 classification model in this research for following disaster news type: hurricanes, floods, eruptions, earthquakes, forest and land fires, droughts, landslides, and tsunami, are 0.731, 0.767, 0.760, 0.761, 0.749, 0.780, 0.680, 0.763, and 0.600. The F1 value of method to extract location and event time information are 0.795 and 0.881.

 

"
Depok: Fakultas Ilmu Komputer Universitas Indonesia , 2020
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Aulia Astrico Pratama
"SIBI (Sistem Isyarat Bahasa Indonesia) merupakan bahasa isyarat resmi yang digunakan oleh penyandang tunarungu di Indonesia untuk berkomunikasi sehari- hari baik dengan sesama penyandang tunarungu maupun orang non-tunarungu. Adanya aplikasi penerjemah gerakan Bahasa isyarat ke teks akan sangat membantu proses komunikasi antara tunarungu dan non-tunarungu. Salah satu fitur yang dibutuhkan untuk pengembangan model penerjemah SIBI adalah informasi kerangka manusia (skeleton). Penelitian ini bertujuan untuk mengembangkan metode ekstraksi fitur kerangka manusia dari citra video telepon pintar untuk melatih model pembelajaran mesin LSTM (Long Short-Term Memory) pengenal gerakan kata dasar SIBI. Metode ekstraksi fitur yang dikembangkan menggunakan Haar Cascade untuk identifikasi titik bahu, algoritma Lucas-Kanade untuk melacak titik tangan, dan menggunakan interpolasi antara titik bahu dan tangan untuk mengidentifikasi titik siku. Dari titik-titik skeleton tersebut, dihitung sudut antara bahu dan lengan atas, serta bahu dan lengan bawah. Hasil ekstraksi digunakan sebagai input untuk model pembelajaran mesin LSTM yang telah dikembangkan sebelumnya. Penelitian ini berhasil mengembangkan metode ekstraksi skeleton yang saat dimasukkan ke model LSTM menghasilkan model dengan akurasi terbaik hingga 84.64%. Model dengan akurasi terbaik tersebut adalah model LSTM 2 layer dan dilatih dengan parameter jumlah hidden unit 512, jumlah batch 100, dan iterasi training 1800 epoch.

SIBI (Indonesian Language Sign System) is the official sign language system used by deaf people in Indonesia to communicate with each other and with non-deaf people. An application that can translate the sign language movement from video to text would be very useful to help communication between deaf and non-deaf people. One of the features needed to develop a model to translate sign language gesture is the subject’s skeleton. This research aims to develop a method to extract skeleton feature from smartphone video image to be used to train an LSTM (Long Short-Term Memory) machine learning model to translate gestures of SIBI base words. The developed method used Haar Cascade to identify shoulder points, Lucas-Kanade Algorithm to track hand points, and interpolate elbow points based on the location of previously known shoulder and hand points. From those skeleton points, the angles between shoulder and upper arm, and the shoulder between upper and lower arm are computed. This extraction result is then fed into a previously- developed LSTM machine learning model as training data. This research successfully develops a skeleton extraction method that when fed into LSTM model resulted in a model that can achieve accuracy up to 84.64%. This best model is LSTM with 2 layers, and trained with 512 hidden units, 100 batch size, and 1800 training epoch."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2018
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sigalingging, Geraldo Martua
"Elektroensefalografi (EEG), adalah metode perekaman aktivitas kelistrikan otak pada kulit kepala. Aktivitas kelistrikan ini direkam dan diubah menjadi sinyal amplitudo tegangan. Hasil sinyal yang sudah diproses ini akan terklasifikasi pengguna melakukan perintah atau tidak. Sistem ini adalah purwarupa untuk pengembangan Sistem Pengendalian Tangan Artifisial Dengan EEG yang berfungsi menggerakkan tangan artifisial dengan bantuan sinyal gelombang otak. Sistem ini bekerja dengan mendeteksi keberadaan sinyal ERP P300 dalam sinyal EEG. Dalam penelitian ini, metode untuk menganalisis data EEG adalah filtrasi, ekstraksi P300 dan algoritma klasifikasi Support Vector Machines (SVM). Dari metode yang digunakan akan menunjukkan nilai rekognisi yang akan dibandingkan antar filtrasi, ekstraksi dan klasifikasi sehingga menghasilkan Filtrasi dengan Chebyshev Type I Orde 5 dengan nilai rekognisi 61.07%, ekstraksi fitur dengan Independent Component Analysis (ICA) dengan nilai rekognisi 58.64 %, dan klasifikasi data dengan Back Propagation Neural Network dengan nilai 59.97 % adalah algoritma yang paling efektif.

Electroencephalography (EEG), is a method of recording the brain's electrical activity on the scalp. This activity is recorded and converted to a signal amplitude voltage. The result of this signal will be classified as a user or not. This system is a prototype for the development of an Artificial Hand Control System with EEG which functions to move the artificial hand with the help of brain wave signals. This system works by detecting the presence of an ERP P300 signal in the EEG signal. In this study, methods for analyzing EEG data were filtration, extraction P300, and Support Vector Machines (SVM) classification algorithms. From the method used will show the value of recognition that will be compared between filtration, extraction and classification so as to produce Filtration with Chebyshev Type I Order 5 with recognition value of 61.07%, feature extraction with Independent Component Analysis (ICA) with recognition value of 58.64%, and data classification with Back Propagation Neural Network with a value of 59.97% is the most effective algorithm.
"
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Sigalingging, Geraldo Martua
"Elektroensefalografi (EEG), adalah metode perekaman aktivitas kelistrikan otak pada kulit kepala. Aktivitas kelistrikan ini direkam dan diubah menjadi sinyal amplitudo tegangan. Hasil sinyal yang sudah diproses ini akan terklasifikasi pengguna melakukan perintah atau tidak. Sistem ini adalah purwarupa untuk pengembangan Sistem Pengendalian Tangan Artifisial Dengan EEG yang berfungsi menggerakkan tangan artifisial dengan bantuan sinyal gelombang otak. Sistem ini bekerja dengan mendeteksi keberadaan sinyal ERP P300 dalam sinyal EEG.
Dalam penelitian ini, metode untuk menganalisis data EEG adalah filtrasi, ekstraksi P300 dan algoritma klasifikasi Support Vector Machines (SVM). Dari metode yang digunakan akan menunjukkan nilai rekognisi yang akan dibandingkan antar filtrasi, ekstraksi dan klasifikasi sehingga menghasilkan Filtrasi dengan Chebyshev Type I Orde 5 dengan nilai rekognisi 61.07%, ekstraksi fitur dengan Independent Component Analysis (ICA) dengan nilai rekognisi 58.64 %, dan klasifikasi data dengan Back Propagation Neural Network dengan nilai 59.97 % adalah algoritma yang paling efektif.

Electroencephalography (EEG), is a method of recording the brains electrical activity on the scalp. This activity is recorded and converted to a signal amplitude voltage. The result of this signal will be classified as a user or not. This system is a prototype for the development of an Artificial Hand Control System with EEG which functions to move the artificial hand with the help of brain wave signals. This system works by detecting the presence of an ERP P300 signal in the EEG signal.
In this study, methods for analyzing EEG data were filtration, extraction P300, and Support Vector Machines (SVM) classification algorithms. From the method used will show the value of recognition that will be compared between filtration, extraction and classification so as to produce Filtration with Chebyshev Type I Order 5 with recognition value of 61.07%, feature extraction with Independent Component Analysis (ICA) with recognition value of 58.64%, and data classification with Back Propagation Neural Network with a value of 59.97% is the most effective algorithm.
"
Depok: Fakultas Teknik Universitas Indonesia, 2019
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
"Ekstraksi informasi merupakan sebuah tahap awal dari proses analisis data tekstual. Ekstraksi informasi diperlukan untuk mendapatkan informasi dari data tekstual sehingga dapat digunakan untuk proses analisis seperti misalnya klasifikasi dan kategorisasi. Data tekstual
sangat dipengaruhi oleh bahasa, jika sebuah data tekstual berbahasa Arab maka karakter yang digunakan adalah karakter arab.
Knowledge dictionary merupakan sebuah kamus yang dapat digunakan untuk mengekstraksi informasi dari data tekstual. Informasi yang diekstraksi menggunakan knowledge dictionary adalah konsep.
Knowledge dictionary biasanya dibangun secara manual oleh seorang pakar yang tentunya membutuhkan waktu yang lama dan spesifik untuk
setiap masalah. Pada penelitian ini diusulkan sebuah metode untuk membangun knowledge dictionary secara otomatis. Pembentukan
knowledge dictionary dilakukan dengan cara mengelompokkan kalimat yang memiliki konsep yang sama, dengan asumsi kalimat yang memiliki konsep yang sama akan memiliki nilai simi laritas yang tinggi. Konsep yang telah diekstraksi dapat digunakan sebagai fitur untuk proses komputasi berikutnya misalnya klasifikasi ataupun kategorisasi.
Dataset yang digunakan dalam penelitian ini adalah dataset teks Arab. Hasil ekstraksi diuji dengan menggunakan mesin klasifikasi
decision tree dan didapatkan nilai presisi tertinggi 71,0% dan nilai recall tertinggi 75,0%.

Abstract
Information extraction is an early stage of a process of textual data analysis. Information extraction is required to get information from textual data that can be used for process analysis, such as classification and categorization. A textual data is strongly influenced by the language. Arabic is gaining a significant attention in
many studies because Arabic language is very different from others, and in contrast to other languages, tools and research on the Arabic language is still lacking. The information extracted using the knowledge
dictionary is a concept of expression. A knowledge dictionary is usually constructed manually by an expert and this would take a long time and is specific to a problem only. This paper proposed a method for automatically building a knowledge dictionary. Dictionary knowledge is formed by classifying sentences having the same concept, assuming that they will have a high similarity value. The concept that has been extracted can be used as features for subsequent computational process such as classification or categorization. Dataset used in this paper was the Arabic text dataset. Extraction result was tested by using a decision tree classification engine and the highest precision value obtained was 71.0% while the highest recall value was 75.0%. "
[Direktorat Riset dan Pengabdian Masyarakat Universitas Indonesia, Institut Teknologi Sepuluh Nopember. Fakultas Teknologi Informasi], 2012
pdf
Artikel Jurnal  Universitas Indonesia Library
cover
Achmad Arthur Pradana R
"ABSTRAK
Berkaitan dengan organisasi pemantauan keamanan Cyber nasional untuk publik, Indonesia memiliki tim insiden respon terhadap gangguan dan ancaman keamanan internet ID-SIRTII/CC (Indonesia Security Incident Response Team on Internet Infrastructure coordination centre) yang bertugas melakukan pengamanan pemanfaatan jaringan telekomunikasi berbasis protokol internet di Indonesia dimana menurut Peraturan Menteri nomor 16/PER/M.KOMINFO/10/2010 yang memiliki peran mendukung terlaksananya proses penegakan hukum, menciptakan lingkungan dan pemanfaatan jaringan telekomunkasi berbasis protokol internet yang aman dari berbagai macam potensi ancaman dan gangguan, Mendukung terlaksananya koordinasi dengan pihak pihak terkait di dalam maupun luar negeri dalam upaya pencegahan, pendeteksian, peringatan dini dan mitigasi insiden pada infrastruktur strategis.
ID-SIRTII/CC dalam kegiatan operasionalnya mengandalkan TI untuk menunjang fungsi dan tugasnya dalam pelayanan publik. Tingginya tingkat ketergantungan organisasi terhadap TIK diperlukan manajemen risiko TI untuk mengurangi atau memperkecil risiko risiko yang terjadi. Sesuai dengan permen kominfo no.41 tahun 2007 bahwa dalam melakukan tata kelola TI oleh institusi pemerintahan diperlukan manajemen risiko atas keberlangsungan layanan.
Pada Karya akhir ini disusun evaluasi terhadap manajemen risiko sistem monitoring ID-SIRTII/CC dengan menggunakan kerangka kerja NIST sp800-30. Perancangannya dimulai dari identifikasi Risiko,Mitigasi Risiko dan Evaluasi terhadap risiko yang ada untuk kemudian mendapatkan rekomendasi kontrol yang diperlukan untuk sistem monitoring ID-SIRTII/CC.

ABSTRACT
In connection with the organization of national cyber security monitoring to the public, Indonesia has incident response team to interference and internet security threats named ID-SIRTII/CC (Indonesia Security Incident Response Team on Internet Infrastructure coordination centers). which aims to safeguard the use of internet protocol based telecommunications network in Indonesia where, according to Regulation No. 16 / PER / M.KOMINFO / 10/2010 which has the role of support the implementation of the law enforcement process, creating environmental and utilization of telecommunication networks based on Internet protocols that are safe from various kinds of potential threats and disturbances, Supports implementation in coordination with the relevant parties at home and abroad in the prevention, detection, early warning and mitigation of incidents in strategic infrastructure.
ID-SIRTII/CC in its operations rely on IT to support the functions and duties in the publik service. The high level of dependence on ICT organizations IT risk management is needed to reduce or minimize the risk of the risk. In accordance with Kominfo regulation no.41 of 2007 that in performing IT governance by government institutions necessary risk management on the sustainability of the service.
At the end of the work is structured evaluation of risk management monitoring system with the ID-SIRTII/CC using sp800-30 NIST framework. Its design starting from risk identification, Risk Mitigation and evaluation of the risks that exist to then get recommendations necessary controls for monitoring systems Of ID-SIRTII/CC."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2017
TA-Pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Rafita Anggraini
"ABSTRAK
Mikroalga biasanya hanya dimanfaatkan sebagai pakan ikan. Kandungan minyak mikroalga mengandung EPA dan DHA. Selain minyak, mikroalga juga mengandung protein dan karbohidrat yang dapat dijadikan sumber pangan dengan gizi yang baik. Saat ini, sedang marak dilakukan penelitian guna mencari cara memperoleh minyak secara optimum. Untuk memperoleh minyak dari mikroalga ada beberapa metode salah satunya adalah dengan menggunakan metode ultrasonik. Kadar minyak yang dihasilkan berbeda-beda sesuai dengan pelarut yang digunakan. Waktu memanen biomassa mikroalga juga perlu diperhitungkan agar dapat diperoleh biomassa yang maksimal. Scenedesmus sp. dapat dipanen pada hari ke 13 dan Coelastrum sp. dapat dipanen pada hari ke 10.

ABSTRACT
Microalgae are usually used as fish feed. The content of microalga oil containing EPA and DHA. Microalgae also contains protein and carbohydrate that can be used as a source of food with good nutrition. Currently, many research is being done to find way to get optimum oil. There are several methods to obtain oil, one of that is ultrasonic method. The oil produced varies according to the solvent. Harvesting time of microalgae biomass also considered in order to obtain the maximum biomass. Scenedesmus sp. can be harvested on 13th day and Coelastrum sp. on 10th day."
2016
S63436
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>