Hasil Pencarian  ::  Simpan CSV :: Kembali

Hasil Pencarian

Ditemukan 83404 dokumen yang sesuai dengan query
cover
Eliza Margaretha
"WordNet (Fellbaum, 1998) adalah suatu lexical resource yang kaya akan informas linguistik yang sangat bermanfaat bagi berbagai macam aplikasi, khususnya aplikasiaplikasi yang berhubungan dengan linguistik, pemrosesan bahasa alami, dan kecerdasan buatan. Dewasa ini, WordNet telah dibangun untuk lebih dari 40 bahasa, tetapi WordNet untuk bahasa Indonesia belum tersedia. Oleh karena pengembangan WordNet secara manual membutuhkan sumber daya yang tidak sedikit, penelitian yang dipaparkan dalam laporan tugas akhir ini bermaksud untuk membangun WordNet secara otomatis.
Penelitian ini mencoba untuk membuat synset (synonym set) untuk bahasa Indonesia dengan melakukan pemetaan konsep dwibahasa secara otomatis antara konsep bahasa Inggris yang diambil dari Princeton WordNet dan konsep bahasa Indonesia yang diambil dari Kamus Besar Bahasa Indonesia (KBBI). Tugas lain, yaitu pemetaan kata dwibahasa, diperkenalkan untuk memetakan kata-kata bahasa Inggris ke kata-kata bahasa Indonesia secara otomatis. Kedua pemetaan tersebut dilakukan dengan mengaplikasikan metode Latent Semantic Analysis (Landauer, Foltz, & Laham, 1998) pada korpora paralel berupa teks.
Awalnya, pemetaan kata dwibahasa dimaksudkan untuk melakukan verifikasi proses di balik pemetaan konsep dwibahasa. Namun, hasil pemetaan kata tidak memuaskan karena performa model kemiripan vektor lebih baik dari pada model LSA. Di sisi lain, hasil dari pemetaan konsep dwibahasa, menunjukkan kemampuan LSA untuk menangkap informasi semantik yang terkandung secara implisit dalam suatu korpus parallel. Walaupun LSA belum berhasil mencapai tingkat yang setara dengan pemetaan yang dilakukan manusia, secara umum LSA lebih baik dari pada random baseline.

WordNet (Fellbaum, 1998) is a lexical resource containing rich linguistic knowledge, which is very useful for a wide variety of applications, especially for applications related to linguistics, natural language processing, and artificial intelligence. Recently, WordNets have been built for more than 40 languages, but not yet in Indonesian. Since building a WordNet manually is complex and expensive, the work presented in this thesis considers building an Indonesian WordNet automatically.
This work attempts to construct Indonesian synsets (synonym set) by conducting automatic bilingual concept mapping between English concepts derived from Princeton WordNet and Indonesian concepts derived from Kamus Besar Bahasa Indonesia (KBBI). Another task, namely bilingual term mapping, is introduced to map English terms to their Indonesian analogues automatically. Both mappings are conducted by applying LatentSemantic Analysis (Landauer, Foltz, & Laham, 1998) on parallel corpora of text.
Bilingual term mapping was intended to verify the underlying process of bilingual concept mapping. However, the results are unsatisfactory suggesting that vector model similarity performs better than the LSA model. The results of bilingual concept mapping, on the other hand, show some capability of LSA to capture some semantic information implicit within a parallel corpus. Although LSA is not yet able to attain levels comparable to human judgements, it is generally better than random baseline."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Muhammad Yusuf Irfan Herusaktiawan
"Penelitian ini mengembangkan dan menganalisa sistem pendeteksi plagiarisme dua bahasa berbasis Latent Semantic Analysis untuk karya tulis berbahasa Indonesia dan referensi berbahasa Inggris. Sistem pendeteksi plagiarisme menggunakan algoritma backpropagation neural network untuk melakukan klasifikasi pasangan karya tulis berbahasa Indonesia dan Inggris yang sudah dinilai tingkatan plagiarismenya secara manual. Sistem dapat memperoleh klasifikasi akurasi F-measure sampai dengan 92.75.
Hasil percobaan menunjukkan bahwa akurasi tertinggi dapat diperoleh jika menggunakan metode term frequency binary dalam penghitungan jumlah kata dan penggunaan frobenius norm, vector angle slice, dan vector angle pad sebagai pilihan fitur untuk masukan backpropagation neural network.

This research aims to develop and analyse dual language plagiarism detection system based on Latent Semantic Analysis for papers with Indonesian language and reference text with English language. The plagiarism detection system uses backpropagation neural network algorithm to classify pairs of Indonesian and English papers which plagiarism levels has been graded manually. The system has reached classification accuracy using F measure metric up to 92.75.
Experiment results show that the highest accuracy obtained when using term frequency binary method in counting frequency of words and using frobenius norm, vector angle slice, and vector angle pad features for backpropagtion neural network input.
"
Depok: Fakultas Teknik Universitas Indonesia, 2018
S-Pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Nicholas Pangestu
"Panjangnya suatu berita terkadang mengurangi minat seseorang untuk membaca berita, hal ini dapat kita lihat dari banyaknya istilah “tl:dr” pada thread di internet. Peringkasan dokumen dapat menciptkan ringkasan berita dan mengurangi waktu yang dibutuhkan untuk membaca. Salah satu cara yang dapat digunakan untuk melakukan peringkasan dokumen adalah menggunakan algoritma Textrank. Pada penelitian ini akan diimplementasikan word embedding untuk membantu algoritma Textrank memahami makna suatu kata dengan lebih baik. Hasil yang didapatkan menunjukkan bahwa penggunaan word embedding meningkatkan performa dari algoritma Textrank hingga 13% pada ROUGE-1 dan hingga 21% pada ROUGE-2. Model word embedding BERT memiliki performa tertinggi jika dibandingkan dengan word2vec (3% lebih tinggi pada ROUGE-1 dan 7% lebih tinggi pada ROUGE-2) dan fasttext (5% lebih tinggi pada ROUGE-1 dan 10% lebih tinggi pada ROUGE-2). Pada penelitian ini juga mengimplementasikan pembobotan TF-IDF dalam membuat sebuah representasi suatu kata. Hasil yang didapatkan menunjukkan bahwa pembobotan TF-IDF dapat meningkatkan performa dari tiap model word embedding yang digunakan hingga 11% pada ROUGE-1 dan hingga 19% pada ROUGE-2 dibandingkan performa tanpa pembobotan TF-IDF.

The length of article news sometimes reduces one's interest in reading the news, we can see this from the many terms "tl:dr" in threads on the internet. Document summarization can create news summaries and reduce the time it takes to read. One way to do document summarization is to use the Textrank algorithm. In this research, word embedding will be implemented to help the Textrank algorithm understand the meaning of a word better. The results show that the use of word embedding improves the performance of the Textrank algorithm up to 13% in ROUGE-1 and up to 21% in ROUGE-2. BERT word embedding model has the highest performance when compared to word2vec (3% higher in ROUGE-1 and 7% higher in ROUGE-2) and fasttext (5% higher in ROUGE-1 and 10% higher in ROUGE-2). This study also implements TF-IDF weighting to make a word representation. The results show that TF-IDF weighting can improve the performance of each word embedding model used up to 11% in ROUGE-1 and 19% in ROUGE-2 compared to the performance without using TF-IDF."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Ajmal Kurnia
"Code-mixing adalah sebuah fenomena pengunaan dua atau lebih bahasa dalam suatu percakapan. Fenomena ini semakin banyak digunakan oleh pengguna internet Indonesia yang mencampur bahasa Indonesia-Inggris. Normalisasi teks code-mixed ke dalam satu bahasa perlu dilakukan agar kata-kata yang ditulis dalam bahasa lain dalam teks tersebut dapat diproses dengan efektif dan efisien. Penelitian ini melakukan normalisasi teks code-mixed pada bahasa Indonesia-Inggris dengan menerjemahkan teks ke dalam bahasa Indonesia. Penulis melakukan pengembangan pada pipeline normalisasi code-mixed dari penelitian sebelumnya sebagai berikut: melakukan rekayasa fitur pada proses identifikasi bahasa, menggunakan kombinasi ruleset dan penerjemahan mesin pada proses normalisasi slang, dan menambahkan konteks pada proses Matrix Language Frame (MLF) pada proses penerjemahan. Hasil eksperimen menunjukkan bahwa model identifikasi bahasa yang dibuat dapat meningkatkan nilai F1-score 4,26%. Model normalisasi slang yang dibuat meningkatkan nilai BLEU hingga 25,22% lebih tinggi dan menunrunkan nilai WER 62,49%. Terakhir, proses penerjemahan yang dilakukan pada penelitian ini berhasil memperoleh nilai BLEU 2,5% lebih tinggi dan metrik WER 8,84% lebih rendah dibandingkan dengan baseline. Hasil ini sejalan dengan hasil eksperimen keseluruhan pipeline. Berdasarkan hasil eksperimen keseluruhan pipeline yang dibuat oleh penulis dapat meningkatkan secara signifikan performa BLEU hingga 32,11% dan menurunkan nilai WER hingga 33,82% lebih rendah dibandingkan dengan metode baseline. Selanjutnya, penelitian ini juga menganalisis pengaruh dari proses normalisasi teks code-mixed untuk klasifikasi emosi. Proses normalisasi teks code-mixed terbukti dapat meningkatkan performa sistem klasifikasi emosi hingga 12,45% untuk nilai F1-score dibandingkan dengan hanya melakukan tokenisasi dan meningkatkan nilai F1-score hingga 6,24% dibandingkan dengan metode preproses sederhana yang umum digunakan. Hal ini menunjukkan bahwa normalisasi teks code-mixed memiliki pengaruh positif terhadap efektifitas pemrosesan teks, sehingga normalisasi ini penting untuk dilakukan pada task yang menggunakan data code-mixed.

Code-mixing is the mixing of two or more languages in a conversation. The usage of code-mixing has increased in recent years among Indonesian internet users that often mixed Indonesian language with English. Normalization of code-mixed text has to be applied to translate code-mixed text so that the text can be processed effectively and efficiently. This research performed code-mixed text normalization on Indonesian-English text by translating the text to Indonesian language. Author improves existing normalization pipeline from previous research by: (1) feature engineering on language identification, (2) using combination of ruleset and machine translation approach on slang normalization, and (3) adding some context on matrix language frame that used on translation process. Experiment result shows language identification model that developed in this research is able to improve F1-score by 4,26%. Slang normalization model from this research is able to improve BLEU score by 25,22% and lower WER score by 62,49%. Lastly, translation process on this research is able to improve BLEU score by 2,5% and lower WER score by 8,84% compared to baseline. Experiment results on the entire normalization pipeline shows similar results. The result shows the new pipeline is able to significantly improves previous pipeline by 32,11% on BLEU metric and reduces WER by 33,82% compared to baseline normalization system. This research also tried to analyze the effect of code-mixed text normalization process on emotion classification. Code-mixed text normalization is able to improve evaluation result of emotion classification model by 12,45% on F1-score compared to tokenization only preprocessing data and 6,24% compared to common text preprocessing method. This result shows that the code-mixed text normalization has positive effect to text processing and also shows the importance to perform this normalization when using code-mixed data.
"
Depok: Fakultas Ilmu Kompter Universitas Indonesia, 2020
T-Pdf
UI - Tesis Membership  Universitas Indonesia Library
cover
Muhammad Taqiyuddin
"Penggunaan analisis sentimen semakin umum digunakan. Dalam pengembangan analisis sentimen ini banyak tantangan yang perlu dihadapi. Karena analisis ini termasuk Natural Language Processing NLP, hal yang perlu dimengerti adalah kompleksitas bahasa. Dengan berkembangnya teknologi Artificial Neural Network, ANN semakin banyak permasalahan yang bisa diselesaikan.
Ada banyak contoh struktur ANN dan untuk penelitian ini yang digunakan adalah Convolutional Neural Network CNN dan Recurrent Neural Network RNN. Kedua jenis ANN tersebut sudah menunjukkan performa yang baik untuk beberapa tugas NLP. Maka akan dilakukan analisis sentimen dengan menggunakan kedua jenis ANN tersebut dan dibandingkan kedua performa ANN tersebut. Untuk data yang akan digunakan diambil dari publikasi stanford dan untuk mengubah data tersebut bisa digunakan pada ANN digunakan word2vec.
Hasil dari analisis menunjukkan bahwa RNN menunjukkan hasil yang lebih baik dari CNN. Walaupun akurasi tidak terlalu terlihat perbedaan yaitu pada RNN yang mencapai 88.35 0.07 dan CNN 87.11 0.50, tetapi waktu pelatihan RNN hanya membutuhkan waktu 8.256 detik sedangkan CNN membutuhkan waktu 544.366 detik.

Term of sentiment analysis become popular lately. There are many challenges developing sentiment analysis that need to be addressed. Because this kind analysis is including Natural Language Processing, the thing need to understand is the complexity of the language. With the current development of Artificial Neural Network ANN, more problems can be solved.
There are many type of ANN and for this research Convolutional Neural Network CNN and Recurrent Neural Network will be used. Both already showing great result for several NLP tasks. Data taken from stanford publication and transform it with word2vec so could be used for ANN.
The result shows that RNN is better than CNN. Even the difference of accuracy is not significant with 88.35 0.07 for RNN and 87.11 0.50 for CNN, the training time for RNN only need 8.256 secods while CNN need 544.366 seconds.
"
Depok: Fakultas Teknik Universitas Indonesia, 2017
S68746
UI - Skripsi Membership  Universitas Indonesia Library
cover
Achmad Fatchuttamam Abka
"Peringkasan lintas bahasa adalah sebuah proses menghasilkan ringkasan dalam bahasa target dari dokumen sumber berbahasa lain. Secara tradisional, peringkasan lintas bahasa dilakukan dalam skema pipeline yang melibatkan dua langkah, yaitu penerjemahan dan peringkasan. Pendekatan ini memiliki masalah, yaitu munculnya error propagation. Untuk mengatasi masalah tersebut, penelitian ini mengusulkan peringkasan lintas bahasa abstraktif end-to-end tanpa secara eksplisit menggunakan mesin penerjemah. Arsitektur peringkasan lintas bahasa yang diusulkan berbasis Transformer yang sudah terbukti memiliki performa baik dalam melakukan text generation. Model peringkasan lintas bahasa dilatih dengan 2-task learning yang merupakan gabungan peringkasan lintas bahasa dan peringkasan satu bahasa. Hal ini dilakukan dengan menambahkan decoder kedua pada Transformer untuk menangani peringkasan satu bahasa, sementara decoder pertama menangani peringkasan lintas bahasa. Pada arsitektur peringkasan lintas bahasa juga ditambahkan komponen multilingual word embeddings. Multilingual word embeddings memetakan kedua bahasa yang berbeda ke dalam ruang vektor yang sama sehingga membantu model dalam memetakan relasi antara input dan output. Hasil eksperimen menunjukkan model usulan mendapatkan kenaikan performa hingga +32,11 ROUGE-1, +24,59 ROUGE-2, +30,97 ROUGE-L untuk peringkasan lintas bahasa dari dokumen sumber berbahasa Inggris ke ringkasan berbahasa Indonesia dan hingga +30,48 ROUGE-1, +27,32 ROUGE-2, +32,99 ROUGE-L untuk peringkasan lintas bahasa dari dokumen sumber berbahasa Indonesia ke ringkasan berbahasa Inggris.

Cross-lingual summarization (CLS) is a process of generating summaries in the target language from source documents in other languages. Traditionally, cross-lingual summarization is done in a pipeline scheme that involves two steps, namely translation and summarization. This approach has a problem, it introduces error propagation. To overcome this problem, this study proposes end-to-end abstractive cross-lingual summarization without explicitly using machine translation. The proposed cross-lingual summarization architecture is based on Transformer which has been proven to have good performance in text generation. The cross-lingual summarization model is trained with 2-task learning, which is a combination of cross-lingual summarization and monolingual summarization. This is accomplished by adding a second decoder to handle monolingual summarization, while the first decoder handles cross-lingual summarization. The multilingual word embeddings component is also added to the cross-lingual summarization architecture. Multilingual word embeddings map both different languages into the same vector space so that it helps the model in mapping the relationship between input and output. The experimental results show that the proposed model achieves performance improvements of up to +32.11 ROUGE-1, +24.59 ROUGE-2, +30.97 ROUGE-L for cross-lingual summarization from English source documents to Indonesian summaries and up to +30,48 ROUGE-1, +27.32 ROUGE-2, +32.99 ROUGE-L for cross-lingual summarization from Indonesian source documents to English summaries."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2023
D-pdf
UI - Disertasi Membership  Universitas Indonesia Library
cover
Siahaan, Edison Pardengganan
"Penelitian yang dilakukan pada tesis ini dimotivasi oleh adanya kebutuhan untuk dapat melakukan pengelolaan informasi pada dokumen suara khususnya berita berbahasa Indonesia. Informasi pada dokumen suara berita berbahasa Indonesia dapat diubah menjadi informasi berbentuk dokumen teks, dengan menggunakan perangkat lunak Automatic Speech Recognition (ASR). Pada penelitian ini perangkat ASR yang digunakan adalah perangkat ASR Sphinx 4.
Penggunaan perangkat Sphinx 4 ini didasari telah dilakukannya penelitian tentang transkripsi dokumen suara berbahasa Indonesia menggunakan perangkat ini. Hasil keluaran dari ASR berupa dokumen teks yang tidak memiliki batasan akhir dan tidak tersegmentasi secara jelas, tentu menyulitkan dalam pengolahan data teks tersebut. Dalam kerangka itu, maka penelitian yang dilakukan pada tesis ini ditujukan untuk mengetahui metode yang efektif dalam melakukan segmentasi hasil transkripsi berita suara berbahasa Indonesia. Metode yang akan diuji pada penelitian ini adalah metode TextTiling berbasis perbandingan blok dengan pembobotan TF-IDF-Mutual Information, TF-IDFMutual Information-Word Similarity, TF-IDF-Word Frequency, TF-IDF, Latent Semantic Analysis dan metode TextTiling berbasis Vocabulary Introduction. Segmentasi dilakukan untuk berita teks dan dokumen teks hasil transkripsi berita suara yang telahdikatagorikan menjadi 5 topik yaitu topik politik, sosial budaya, ekonomi, hukum dan olah raga. Hasil pengujian terhadap masing-masing teknik pembobotan menunjukkan bahwa metode segmentasi TextTiling dengan teknik pembobotan TF-IDF-Word Frequency merupakan metode segmentasi yang paling baik untuk dipakai dalam melakukan segmentasi hasil transkripsi dari perangkat pengenal suara (Automatic Speech Recognition). Pada penelitian ini telah dibuktikan bahwa teknik pembobotan TF-IDF-Word Frequency memiliki ketepatan segmentasi lebih tinggi baik pada dokumen teks hasil transkripsi (81,4%) ataupun pada dokumen berita teks (73,3%). Metode segmentasi yang dilakukan pada penelitian ini dapat terus dikembangkan menggunakan teknik-teknik lain dalam menunjang proses segmentasi hasil transkripsi berita berberbahasa Indonesia, seperti mempergunakan metode-metode optimalisasi dalam memperoleh urutan batas segmen yang optimal."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2009
T-804
UI - Tesis Membership  Universitas Indonesia Library
cover
Pisceldo, Femphy
"Pengurai morfologi merupakan suatu program yang digunakan untuk melakukan pengenalan kata dan membagi kata menjadi satu atau lebih morfem dengan memberikan analisis morfologi yang sesuai untuk kata tersebut. Pengurai morfologi yang dikembangkan pada penelitian untuk Tugas Akhir ini adalah pengembangan dari pengurai morfologi yang telah dikembangkan Hendra Hartono pada tahun 2002. Pengurai morfologi ini dikembangkan untuk bahasa Indonesia dengan memanfaatkan prinsip morfologi dua tingkat (two-level morphology) yang lazim dipakai untuk pengurai-pengurai morfologi pada bahasa-bahasa lainnya.
Prinsip morfologi dua tingkat (two-level morphology) ini memanfaatkan finite-state transducers dalam pemodelannya. Morfologi bahasa Indonesia yang dicakup dalam penelitian ini berkisar antara kata dasar, kata imbuhan dari penggabungan kata dasar dengan awalan (prefiks), akhiran (sufiks), maupun gabungan pengimbuhanan (konfiks), hingga kata ulang sejati, kata ulang sebagian, dan kata ulang berimbuhan. Morfologi bahasa Indonesia ini dibuat berdasarkan tata bahasa baku bahasa Indonesia. Perancangan untuk pengurai morfologi ini melingkupi perancangan lexicon, tags, aturan-aturan morfotaktik, hingga aturan-aturan morfofonemik.
Hasil rancangan tersebut kemudian diimplementasikan dengan Xerox Finite-State Tool (XFST) dan Finite-State Lexicon Compiler (LEXC). Setelah tahapan implementasi dilakukan, hasilnya diujicobakan dengan berbagai test cases yang representatif sesuai apa yang dikembangkan dalam penelitian ini. Ujicoba dilakukan terhadap 420 test cases dan hanya 8 test cases yang mengeluarkan hasil yang salah. Kata kunci: Pengurai morfologi, two-level morphology, finite-state transducers, tata bahasa baku bahasa Indonesia, lexicon, tags, morfotaktik, morfofonemik, XFST, dan LEXC."
Depok: Fakultas Ilmu Komputer Universitas Indonesia, 2008
S-Pdf
UI - Skripsi Open  Universitas Indonesia Library
cover
Kelisiana
"Dewasa ini, tidak dapat dipungkiri bahwa teknologi telah berkembang pesat dan digunakan secara masif di seluruh dunia. Mesin kecerdasan buatan atau AI pada masa ini mampu memenuhi berbagai macam kebutuhan manusia. Saat ini, sudah hadir generative AI dengan bentuk chatbot yang mampu menjawab pertanyaan dalam bentuk prompt dari manusia sebagai pengguna. Namun, tentunya perkembangan pesat kecerdasan buatan ini tidak bersifat sempurna. Dalam beberapa situasi, terjadi kesalahan dalam perkembangan kecerdasan buatan dan hal tersebut justru berpotensi untuk merugikan manusia, contohnya terjadinya pencemaran nama baik dalam chatbot seperti yang terjadi pada tahun 2023 di Amerika Serikat. Situasi tersebut pastinya akan menimbulkan beberapa macam ketidakpastian, salah satunya adalah pihak yang akan bertanggungjawab dalam hal terjadinya kesalahan hasil dari mesin kecerdasan buatan. Perumusan penulisan akan membahas lebih lanjut mengenai kedudukan generative AI di Indonesia dan Amerika Serikat sampai dengan tanggung jawab terhadap performa AI yang dianggap mencemarkan nama baik. Penulisan penelitian ini dilakukan dengan metode penelitian hukum doktrinal yang disusun lebih lanjut dengan pendekatan analisis yuridis normatif, yaitu dengan berfokus kepada kaidah-kaidah norma hukum dan penerapannya.

Today, technology has developed rapidly and is used massively throughout the world. Today's artificial intelligence or AI machines are able to fulfil various human needs. Currently, generative AI is available in the form of chatbot which is able to answer questions in the form of prompts from humans as users. However, of course, the rapid development of artificial intelligence is not perfect. In several situations, errors occur in the development of artificial intelligence and has the potential to harm humans, for example defamation in chatbots as happened in 2023 in the United States. Such situation will inevitably create several kinds of uncertainty, one of which is determining who will be held responsible when errors arise as the results of artificial intelligence systems. The formulation of this paper will discuss the standing of generative AI in Indonesia and the United States, including responsibility for AI performance that is considered defamatory. The writing of this study is reviewed with doctrinal research method, developed with a normative juridical analysis approach, focusing on legal norms and the application of legal norms."
Depok: Fakultas Hukum Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
cover
Kelisiana
"Dewasa ini, tidak dapat dipungkiri bahwa teknologi telah berkembang pesat dan digunakan secara masif di seluruh dunia. Mesin kecerdasan buatan atau AI pada masa ini mampu memenuhi berbagai macam kebutuhan manusia. Saat ini, sudah hadir generative AI dengan bentuk chatbot yang mampu menjawab pertanyaan dalam bentuk prompt dari manusia sebagai pengguna. Namun, tentunya perkembangan pesat kecerdasan buatan ini tidak bersifat sempurna. Dalam beberapa situasi, terjadi kesalahan dalam perkembangan kecerdasan buatan dan hal tersebut justru berpotensi untuk merugikan manusia, contohnya terjadinya pencemaran nama baik dalam chatbot seperti yang terjadi pada tahun 2023 di Amerika Serikat. Situasi tersebut pastinya akan menimbulkan beberapa macam ketidakpastian, salah satunya adalah pihak yang akan bertanggungjawab dalam hal terjadinya kesalahan hasil dari mesin kecerdasan buatan. Perumusan penulisan akan membahas lebih lanjut mengenai kedudukan generative AI di Indonesia dan Amerika Serikat sampai dengan tanggung jawab terhadap performa AI yang dianggap mencemarkan nama baik. Penulisan penelitian ini dilakukan dengan metode penelitian hukum doktrinal yang disusun lebih lanjut dengan pendekatan analisis yuridis normatif, yaitu dengan berfokus kepada kaidah-kaidah norma hukum dan penerapannya.

Today, technology has developed rapidly and is used massively throughout the world. Today's artificial intelligence or AI machines are able to fulfil various human needs. Currently, generative AI is available in the form of chatbot which is able to answer questions in the form of prompts from humans as users. However, of course, the rapid development of artificial intelligence is not perfect. In several situations, errors occur in the development of artificial intelligence and has the potential to harm humans, for example defamation in chatbots as happened in 2023 in the United States. Such situation will inevitably create several kinds of uncertainty, one of which is determining who will be held responsible when errors arise as the results of artificial intelligence systems. The formulation of this paper will discuss the standing of generative AI in Indonesia and the United States, including responsibility for AI performance that is considered defamatory. The writing of this study is reviewed with doctrinal research method, developed with a normative juridical analysis approach, focusing on legal norms and the application of legal norms."
Depok: Fakultas Hukum Universitas Indonesia, 2024
S-pdf
UI - Skripsi Membership  Universitas Indonesia Library
<<   1 2 3 4 5 6 7 8 9 10   >>