Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 122434 dokumen yang sesuai dengan query
cover
Zahrudi Zaira
"Al Qur'an dan Hadits Nabi merupakan sumber bagi umat Islam yang digunakan sebagai sumber otoritatif tunggal pengetahuan, kebijaksanaan dan hukum. Tujuan dari sistem ini adalah untuk mengekstraksi. mengumpulkan dan merepresentasikan pengetahuan tersebut dalam suatu sistem komputer. Mengumpulkan informasi untuk menambah pengetahuan dari hadits pada khususnya, yang dapat membantu masyarakat, baik Muslim dan non-Muslim, untuk memahami dan menghargai agama Islam. Skripsi ini mengimplementasikan bagaimana teknik ekstraksi dapat melakukan ekstraksi pengetahuan Islam khususnya hadits Nabi dari beberapa sumber-sumber di Internet.

Al Qur'an and Hadith of the Prophet is a source for Muslims which is used as a single authoritative source of knowledge, wisdom and law. The purpose of this system is to extract, collect and represent that knowledge in a computer system. Gathering information to increase knowledge of hadith in can help the community, both Muslim and non-Muslims, to understand and appreciate the Islamic religion. In this book we attempts to understand how the extraction technique can be used to extract the knowledge of Islam, especially the hadith of the Prophet from several sources in Internet."
2011
S51064
UI - Skripsi Open  Universitas Indonesia Library
cover
Agung Kurniawan
"Banyaknya karya penelitian yang dihasilkan oleh para peneliti sekarang ini tidak terlepas dari karya - karya penelitian yang dihasilkan sebelumnya. Karya penelitian tersebut banyak yang dipublikasikan baik lewat media cetak ataupun elektronik, dan dengan perkembangan media informasi elektronik seperti Internet, menjadikannya sebagai salah satu media publikasi yang banyak digunakan. Karya penelitian yang banyak dipublikasikan tersebut salah satunya berupa jurnal, Untuk mengetahui keterkaitan antara artikel jurnal dengan artikel jurnal sebelumnya, dapat diketahui dengan melihat sitasi antara artikel-artikel tersebut. Dengan demikian dapat diketahui seberapa sering suatu artikel jurnal disitasi oleh artikel jurnal lainnya. Untuk membantu mengetahui sitasi antara jurnal yang dipublikasikan di Internet, diperlukan suatu sistem yang secara otomatis mendapatkan data yang diperlukan dari situs penyedia jurnal.
Dalam Skripsi ini telah dibuat tools yang dapat mengekstraksi halaman web lalu kemudian memilih data-data yang diperlukan. Selain itu diperlukan suatu database yang digunakan untuk menyimpan data hasil ekstraksi tersebut dan mencari keterkaitannya. Data yang telah diproses dapat dilihat menggunakan suatu antarmuka pengguna yang mempunyai fungsi pencarian data sesuai kata kunci yang dimasukkan oleh pengguna. Sehingga akhirnya secara keseluruhan dan bagian sistem membentuk suatu Mashup. Sistem ini dibangun dengan menggunakan bantuan bahasa PHP dan database MySQL, setelah mempelajari crawler seperti Openkapow robomaker.
Dari hasil pengujian terbukti sistem ini dapat bekerja dengan baik mengekstraksi halaman web penyedia jurnal, termasuk halaman pdf tipe tertentu dan menyimpannya dalam database. Hasil pengujian sistem memperlihatkan analisa masalah waktu program dan memori pada komputer dan juga koneksi ke Internet, juga menampilkan keterkaitan sitasi antar artikel jurnal yang ada."
Depok: Fakultas Teknik Universitas Indonesia, 2009
S51145
UI - Skripsi Open  Universitas Indonesia Library
cover
Alif Iqbal Hazairin
"Bahasa daerah adalah bahasa yang digunakan sebagai penghubung pada masyarakat suatu daerah atau suatu kelompok masyarakat tertentu di samping bahasa utama, yaitu bahasa Indonesia. Keragaman bahasa daerah di Indonesia merupakan kekayaan budaya yang harus dipertahankan sepanjang zaman. Sayangnya, penggunaan bahasa daerah yang berkurang serta minimnya perhatian masyarakat pada digitalisasi bahasa daerah membuat bahasa daerah semakin terpinggirkan. Tak terkecuali pada bidang NLP, belum ada perkembangan signifikan dalam puluhan tahun terakhir yang melibatkan bahasa daerah sebagai subjek penelitian. Oleh karena itu, penelitian ini mencoba memberikan salah satu cara untuk meningkatkan kembali pelibatan bahasa daerah dalam penelitian khususnya NLP. Penelitian ini mencoba membangun korpus teks untuk sebanyak mungkin bahasa daerah di Indonesia menggunakan metode web crawling. Sistem melakukan crawling untuk mengumpulkan web berbahasa daerah sebanyak-banyaknya dan kontennya diambil dengan melakukan web scraping. Teks hasil scraping selanjutnya dinormalisasikan dan dilakukan language identification pada tiap kalimatnya. Kalimat dengan bahasa mayor seperti Indonesia dan Inggris dibuang, dan kalimat yang berbahasa daerah dipertahankan. Hasilnya adalah korpus teks untuk ratusan bahasa daerah di Indonesia. Harapannya hasil penelitian ini dapat menjadi batu loncatan penelitian bahasa daerah NLP di Indonesia selanjutnya.

Regional languages are languages used as a means of communication within a specific region or community, in addition to the main language, which is Indonesian. The diversity of regional languages in Indonesia is a cultural wealth that should be preserved throughout time. Unfortunately, the diminishing use of regional languages and the lack of attention given by society to the digitization of these languages have led to their marginalization. This holds true even in the field of Natural Language Processing (NLP), where there has been little significant development involving regional languages as research subjects in recent decades. Therefore, this study aims to provide a method to re-engage regional languages, particularly in NLP research. The research attempts to build a text corpus for as many regional languages in Indonesia as possible using web crawling methods. The system will crawl the web to collect regional language websites and extract their content through web scraping. The scraped texts will then undergo a normalization process and language identification process for each sentence. Sentences in major languages such as Indonesian and English will be discarded, while sentences in regional languages will be retained. The outcome of this research will be a text corpus for hundreds of regional languages in Indonesia. The hope is that the results of this study can serve as a stepping stone for the next NLP research on regional languages in Indonesia."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nuriana Ayuningtyas
"Skripsi ini membangun ontologi web sebagai pengembangan ontologi dan aplikasi semantik. Ontologi adalah sebuah struktur hirarki yang menjelaskan sebuah domain yang digunakan sebagai landasan knowledge base. Komponen utama dari ontologi adalah class, slot dan instance. Sistem ini ditujukan untuk membangun sistem berbasis web pada aplikasi sitasi jurnal elektronik Indonesia. Tujuan dari aplikasi semantik adalah mengklasifikasikan informasi dari artikel-artikel pada jurnal elektronik dan menghubungkan dengan artikel yang diacunya. Dengan membuka halaman web dapat dilakukan pencarian judul dan penulis dalam beberapa kategori yang sudah dimodelkan dalam ontologi yaitu Art and Design, Economy, Civil Engineering, Electrical Engineering, Industrial Engineering dan Information Science. Pencarian tersebut juga akan melakukan hubungan antar artikel dan jumlah artikel yang diacu oleh artikel lainnya. Implementasi ontologi menggunakan tool Protege 3.4 sebagai editor ontologi dan plug-in TGVizTab untuk visualisasi hasil ontologi. Implementasi web menggunakan XAMPP yang terdiri dari web server Apache, PHP dan MySQL. Pengujian dilakukan dengan pengujian fungsionalitas sistem pada tool Protege 3.4 oleh domain expert atau pustakawan dan pengujian oleh pengguna web dalam melakukan pencarian sitasi jurnal elektronik.
Pengujian dilakukan oleh sepuluh orang pengguna yang berperan sebagai pustakawan dan pengguna web dengan mengisi kuesioner. Dari hasil kuesioner pengujian tool Protege 3.4, hasil yang didapat adalah sebagian besar tidak familiar dengan Protege tetapi setelah diberikan pengarahan, pemakaian Protege 3.4 sebagai tool pemodelan ontologi yang mudah dan efisien. Rata-rata nilai pada skala 2.94 dari skala 4. Dari hasil kuesioner pengujian web, hasil yang didapat adalah rata-rata memiliki nilai berskala 3 sehingga web melakukan fungsinya sebagai media pencarian, informasi yang ditampilkan bermanfaat dan sistem terbukti berjalan dengan baik.

This final project is to create web ontology and semantic application for indonesia's electronic jornal citation system. An ontology describes basic concepts in a domain and defines among them. Basic building blocks of ontology design include class, slot and instance. The aim of the semantic application is to classify information from an article in electronic journal and relate it with articles cited in it. Web allow user to search the relation among articles in electronic journal cited by particular article. The system has been implemented by ontology tool i.e, Protege and web developed by PHP and MySQL. To entry the update, Protege should be installed and used by domain expert or librarian. The ontology model result is XML file. Librarian can submit the result through web based system to upload and parse XML file into database. User through the web based system could find the citation for an article they searched for.
Testing has been performed by ten users to be able to find out the effectivenes in case of the user for the domain expert or librarian and by the web users. The results are Protege 3.4 is an ontology editor that provides a suite of tools to construct domain models and web ontology is an user interface that provides information can work fine.
"
Depok: Fakultas Teknik Universitas Indonesia, 2009
S51132
UI - Skripsi Open  Universitas Indonesia Library
cover
Aulia Astrico Pratama
"SIBI (Sistem Isyarat Bahasa Indonesia) merupakan bahasa isyarat resmi yang digunakan oleh penyandang tunarungu di Indonesia untuk berkomunikasi sehari- hari baik dengan sesama penyandang tunarungu maupun orang non-tunarungu. Adanya aplikasi penerjemah gerakan Bahasa isyarat ke teks akan sangat membantu proses komunikasi antara tunarungu dan non-tunarungu. Salah satu fitur yang dibutuhkan untuk pengembangan model penerjemah SIBI adalah informasi kerangka manusia (skeleton). Penelitian ini bertujuan untuk mengembangkan metode ekstraksi fitur kerangka manusia dari citra video telepon pintar untuk melatih model pembelajaran mesin LSTM (Long Short-Term Memory) pengenal gerakan kata dasar SIBI. Metode ekstraksi fitur yang dikembangkan menggunakan Haar Cascade untuk identifikasi titik bahu, algoritma Lucas-Kanade untuk melacak titik tangan, dan menggunakan interpolasi antara titik bahu dan tangan untuk mengidentifikasi titik siku. Dari titik-titik skeleton tersebut, dihitung sudut antara bahu dan lengan atas, serta bahu dan lengan bawah. Hasil ekstraksi digunakan sebagai input untuk model pembelajaran mesin LSTM yang telah dikembangkan sebelumnya. Penelitian ini berhasil mengembangkan metode ekstraksi skeleton yang saat dimasukkan ke model LSTM menghasilkan model dengan akurasi terbaik hingga 84.64%. Model dengan akurasi terbaik tersebut adalah model LSTM 2 layer dan dilatih dengan parameter jumlah hidden unit 512, jumlah batch 100, dan iterasi training 1800 epoch.

SIBI (Indonesian Language Sign System) is the official sign language system used by deaf people in Indonesia to communicate with each other and with non-deaf people. An application that can translate the sign language movement from video to text would be very useful to help communication between deaf and non-deaf people. One of the features needed to develop a model to translate sign language gesture is the subject’s skeleton. This research aims to develop a method to extract skeleton feature from smartphone video image to be used to train an LSTM (Long Short-Term Memory) machine learning model to translate gestures of SIBI base words. The developed method used Haar Cascade to identify shoulder points, Lucas-Kanade Algorithm to track hand points, and interpolate elbow points based on the location of previously known shoulder and hand points. From those skeleton points, the angles between shoulder and upper arm, and the shoulder between upper and lower arm are computed. This extraction result is then fed into a previously- developed LSTM machine learning model as training data. This research successfully develops a skeleton extraction method that when fed into LSTM model resulted in a model that can achieve accuracy up to 84.64%. This best model is LSTM with 2 layers, and trained with 512 hidden units, 100 batch size, and 1800 training epoch."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2018
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Vrina Khairunisa Atallah Aldrin
"Penggunaan argots memiliki hubungan yang erat dengan kehidupan di daerah pinggiran kota-kota Prancis dan telah diangkat menjadi tema oleh banyak film salah satunya adalah “Banlieusards”. Diterjemahkan ke bahasa Indonesia dalam bentuk teks takarir, ditemukan kesenjangan ketika menerjemahkan fenomena bahasa itu. Artikel ini membahas tentang strategi penerjemahan yang diterapkan dalam menerjemahkan argots dan tingkat kesepadanan yang dihasilkan. Metode kualitatif dengan studi kepustakaan digunakan dalam melakukan penelitian. Artikel ini bertujuan untuk mengidentifikasikan solusi apa saja yang diterapkan oleh penerjemah ketika menghadapi masalah dalam penerjemahan, yaitu argots dan bagaimana tingkat kesepadanannya dalam bahasa Indonesia. Teori yang digunakan dalam artikel ini adalah teori strategi penerjemahan takarir oleh Gottlieb (1992) dan kesepadanan penerjemahan oleh Kade (1968). Berdasarkan hasil analisis, ditemukan bahwa strategi yang paling banyak digunakan adalah paraphrase dan hal ini menunjukkan pemahaman penerjemah mengenai bahasa dan budaya Prancis juga Indonesia. Akan tetapi, dari segi kesepadanan penerjemah gagal menunjukkan nuansa penggunaan argots oleh para penduduk banlieue yang merupakan salah satu pembentuk identitas mereka. Hal ini ditandai dengan approximate equivalence yang mendominasi. Makna dan konteks penggunaan argots tersebut hilang dalam proses penerjemahan, sehingga penonton tidak terpaparkan fenomena bahasa yang terjadi.

The usage of argots (slang) is very significant and present in the everyday life of France’s banlieue and a lot of filmmakers have been inspired to use it as a theme in their works, one of those works is “Banlieuesards”. Problem arises in translating that phenomenon into Indonesian in the form of subtitles. This article is going to talk about the strategy of translating argots and the result of the equivalence. This article used qualitative method and literary study during its research. The goal of this article is to identify what kind of solution that can help the translator when they’re facing problems in translating argots into Indonesian and the degrees of its equivalence. Gottlieb’s (1992) theory about the strategy of translating subtitles and Kade’s theory of translation equivalence (1968) were used in this article. According to the analysis, the most used strategy in translating is paraphrasing and this shows the translator’s knowledge in the languages and cultures of both countries, Indonesian and French. However from the perspective of equivalence, the translator failed in translating the nuance of argots that holds an important role in creating the identity of the people of banlieue. This is signified by the approximate equivalence that dominates the end product. The meaning and the context is lost in the process of translating, therefore viewers did not get exposed to this language phenomenon."
Depok: Fakultas Ilmu Pengetahuan dan Budaya Universitas Indonesia, 2022
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
Charles Christian
"Saat ini, Internet telah banyak digunakan untuk bertukar informasi. Sayangnya, terdapat kendala bahasa yang membuat tidak semua informasi di Internet dapat dimengerti. Telah banyak language service yang dikembangkan tetapi masih banyak kendala yang ditemui, baik dari sisi biaya hingga sisi hak cipta. Oleh karena itu, proyek Language Grid didirikan dengan harapan dapat mengatasi kendala bahasa yang ada. Language Grid adalah sebuah infrastuktur bahasa yang dibangun di Internet. Language Grid memanfaatkan teknologi web service yang memungkinkan language service yang ada di dalamnya dapat diakses dengan mudah melalui web.
Dalam penelitian ini, akan dikembangkan sebuah web service yang memberikan layanan analisis morfologi bahasa Indonesia menggunakan program Morphological Analyzer yang telah dikembangkan sebelumnya oleh Femphy Pisceldo (Pisceldo, 2008). Langkah lebih lanjut adalah mengembangkan wrapper yang menggunakan teknologi web service agar layanan ini dapat diakses melalui infrastruktur Language Grid. Perancangan dari web service ini meliputi perancangan web application pada server side yang berkomunikasi langsung dengan program Morphological Analyzer, dan perancangan file WSDL yang mendefinisikan layanan yang disediakan. Selain itu, juga dilakukan perancangan web application pada client side untuk melakukan uji coba dari web service yang dihasilkan.
Pada akhirnya, web service yang menyediakan layanan analisis morfologi ini berhasil dibuat, namun belum dilakukan deployment ke dalam infrastruktur Language Grid karena kendala teknis dan keterbatasan waktu pengembangan. Web service yang dihasilkan juga telah diuji coba dan telah sukses melewati uji coba tersebut.

Nowadays, many people use Internet for sharing information. Though, there is a language barrier that prevent some of those information to be understood. Many language services have been developed, but there is still many problems to be faced (i.e. the budget and the copyright restriction). In order to conquer the language barrier over the Internet, the Language Grid project is proposed. Language Grid is a language infrastructure over the Internet. Language Grid use the web service technology which allow the language service inside it can be accessed easily via web.
In this research, a web service which serve the morphological analysis in Indonesian Language, with the use of Morphological Analyzer program which is developed recently by Femphy Pisceldo (Pisceldo, 2008), will be developed. The next step is to develop the wrapper which uses web service technology, in order to make this service available on Language Grid. The design of this web service cover the design of the application on the server side which communicates directly to the Morphological Analyzer program and the design of WSDL file which defines the service. Beside those, there will also be designed an application on client side in order to test the web service developed.
At last, this web service, which serve the morphological analysis in Indonesian Language, has been developed successfully. However, this web service is yet to be deployed to Language Grid, because of the limitation of the develop."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Herannika Dewati
"Seperti bahasa dan bangsa lain di dunia, Jepang juga memiliki budaya dan bahasa yang unik. Bahasa Jepang memiliki honorifik yaitu ragam hormat pada sistem bahasanya, yang disebut keigo. Keigo terdiri dari tiga jenis yaitu teineigo (ragam sopan) , kenjougo (ragam merendah), dan sonkeigo (ragam meninggikan). Keberadaan ragam hormat ini mempersulit pelajar asing mempelajari Bahasa Jepang. Pemelajar bingung kapan dan kepada siapa mereka harus menggunakan atau tidak menggunakan keigo. Penelitian ini merupakan penelitian kualitatif yang menggunakan data percakapan yang dikumpulkan dari web-radio bernama Ito Kento to Nakajima Yoshiki ga Anata wo Muchuu ni Saseru Radio ~YumeRaji~. Dari hasil analisis data terlihat bahwa pertimbangan penggunaan ragam hormat paling banyak ditentukan berdasarkan hubungan penutur dengan mitra tutur. Pertimbangan pengalihan ragam bahasa didasari paling banyak oleh perubahan mitra tutur dengan lingkup yang berbeda dan posisi sosial penutur dalam kalimatnya.

Just like other countries with their languages, Japan also has a unique cultures and language. Japanese have honorifics in their language system, called keigo. Keigo consists of three different forms called teineigo, kenjougo, and sonkeigo. This also increase the difficulty for non-native learners to learn Japanese. Many learners are confused as to when and to whom should they use or not use keigo to. The data used in this research is collected from a web-radio called Ito Kento to Nakajima Yoshiki ga Anata wo Muchuu ni Saseru Radio ~YumeRaji~. Usually, keigo were used to speak with outsiders and people with higher social status. In this manner, the main purpose whether to use keigo or not is to state the distance between speaker and listener. Keigo also often be used when receiving something, to show their gratitude to the giver. From the data collected, it shows that the speech style shifts are mostly determined by the scope of listener. The speech style shifts are usually caused by the change of listener with a different scope and the speaker’s social position in that sentence."
Depok: Fakultas Ilmu Pengetahuan dan Budaya Universitas Indonesia, 2022
TA-pdf
UI - Tugas Akhir  Universitas Indonesia Library
cover
cover
Teddy Setyadi
"Suatu Travelling Web idealnya memiliki informasi yang lengkap mengenai profil sebuah objek wisata. Diantara informasi yang cukup penting adalah jalur yang dapat ditempuh untuk sampai ke lokasi, peta dan tentunya total biaya yang dibutuhkan. Travelling Web yang ada sekarang ini sudah cukup banyak yang mengintegerasikan fitur-fitur tersebut. Namun diantara sekian banyak Travelling Web yang ada, sulit ditemukan yang memiliki kemampuan untuk menyediakan informasi mengenai tempat wisata yang akurat, yang sesuai dengan profil user. Skripsi ini membahas penerapan konsep Web 3.0 pada sebuah Travelling Website dalam ekspektasinya membuat sebuah Travelling Web yang memiliki kemampuan untuk menyediakan informasi mengenai tempat wisata yang akurat, sesuai dengan yang diharapkan oleh user.
Pada sistem telah dilakukan pengujian kesesuaian output objek wisata dengan profil user baik pada fitur autosuggest ataupun manual search dengan hasil 100% akurat, lama waktu yang dibutuhkan untuk melakukan extract data dari seed (situs target) ke database dengan waktu rata-rata sebesar 0.86 detik per seed, lama waktu yang dibutuhkan untuk menampilkan data pada fitur autosuggest dan manual search dengan waktu rata-rata sebesar 6.284728 detik (autosuggest) dan 3.619228 detik (manual search). Berdasarkan hasil survey terhadap user, dapat disimpulkan bahwa sistem ini sudah berhasil diimplementasikan dengan cukup baik karena mendapat nilai rata-rata 6,2 dari nilai maksimum 8.

Travelling Web, ideally has fully equiped with informations about travelling objects. Some crucial informations within are how to getting around to go to the object, maps and of course total fares needed. Travelling Web on these days are pretty good in implementing those features. But it's not sufficient yet, as they couldn't provide informations automatically based on user's profile. This research discussed about Web 3.0 concept on Travelling Website in it's expectation to make some Travelling Website which have any abilities to providing tour objects information precisely, as the users wishes to obtain.
This research had sucesfully tested on both autosuggest and manual search function which brings 100% accurate result, total time needed to extract some seeds into database which brings average time 0.86 seconds per seed, how fast the system can show the output on both autosuggest and manual search which brings average time about 6.284728 seconds (autosuggest) and 3.619228 seconds (manual search). According to the survey result, this system has well done implemented with average point 6,2 from maximum 8
"
Depok: Fakultas Teknik Universitas Indonesia, 2010
S51050
UI - Skripsi Open  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>