Selasa, 17 Januari 2017

Tugas IV Pengenalan Teknologi Sistem Cerdas

Pengenalan Teknologi Sistim Cerdas

Oleh :


R. Moch. Imron Maulana (18114662)



Universitas Gunadarma
PTA 2016/2017


Kecerdasan Buatan (Artificial Inteligence) merupakan salah satu bagian dari ilmu komputer yang mempelajari bagaimana membuat mesin (komputer) dapat melakukan pekerjaan seperti dan sebaik yang dilakukan oleh manusia bahkan bisa lebih baik daripada yang dilakukan manusia. Menurut John McCarthy ,1956 , AI : untuk mengetahui dan memodelkan proses-proses berpikir manusia dan mendesain mesin agar dapat menirukan perilaku manusia. Cerdas , berarti memiliki pengetahuan ditambah pengalaman , penalaran (bagaimana membuat keputusan dan mengambil tindakan), moral yang baik. Tentu saja terdapat perbedaan antara Kecerdasan Buatan dengan Kecerdeasan Alami, yaitu ; Kecerdasan Buatan lebih bersifat permanen. Kecerdasan alami bisa berubah karena sifat manusia pelupa. Kecerdasan buatan tidak berubah selama sistem komputer & program tidak mengubahnya. Lebih mudah diduplikasi & disebarkan. Mentransfer pengetahuan manusia dari 1 orang ke orang lain membutuhkan proses yang sangat lama & keahlian tidak akan pernah dapat diduplikasi dengan lengkap. Jadi jika pengetahuan terletak pada suatu sistem komputer, maka pengetahuan tersebut dapat disalin dari komputer tersebut & dapat dipindahkan dengan mudah ke komputer yang lain. Lebih murah. Menyediakan layanan komputer akan lebih mudah & murah dibandingkan mendatangkan seseorang untuk mengerjakan sejumlah pekerjaan dalam jangka waktu yang sangat lama. Bersifat konsisten karena kecerdasan buatan adalah bagian dari teknologi komputer sedangkan kecerdasan alami senantiasa berubah-ubah. Dapat didokumentasi. Keputusan yang dibuat komputer dapat didokumentasi dengan mudah dengan cara melacak setiap aktivitas dari sistem tersebut. Kecerdasan alami sangat sulit untuk direproduksi. Lebih cepat. Lebih baik.
Kecerdasan Alami bersifat kreatif. Memungkinkan orang untuk menggunakan pengalaman secara langsung. Sedangkan pada kecerdasan buatan harus bekerja dengan input-input simbolik. Pemikiran manusia dapat digunakan secara luas, sedangkan kecerdasan buatan sangat terbatas.
Sejarah Kecerdasan Buatan dimulai pada tahun 1950-an dimana Alan Turing, seorang pionir AI dan ahli matematika Inggris melakukan percobaan. Turing (Turing Test) yaitu sebuah komputer melalui terminalnya ditempatkan pada jarak jauh. Di ujung yang satu ada terminal dengan software AI dan diujung lain ada sebuah terminal dengan seorang operator. Operator itu tidak mengetahui kalua diujung terminal lain dipasang software AI. Mereka berkomunikasi dimana terminal diujung memberikan respon terhadap serangkaian pertanyaan yang diajukan oleh operator. Dan sang operator itu mengira bahwa ia sedang berkomunikasi dengan operator lainnya yang berada pada terminal lain. Turing beranggapan bahwa jika mesin dapat membuat seseorang percaya bahwa dirinya mampu berkomunikasi dengan orang lain, maka dapat dikatakan bahwa mesin tersebut cerdas (seperti layaknya manusia). Kemudian dari percobaan ini muncul keempat konsep tentang Kecerdasan Buatan (Artificial Intellegence) :
·               Acting humanly ialah system yang melakukan pendekatan dengan menirukan tingkah laku seperti manusia yang dikenalkan pada tahun 1950 degan cara kerja pengujian melalui teletype yaitu jika penguji (integrator) tidak dapat membedakan yang mengintrogasai antara manusia dan computer maka computer tersebut dikatakan lolos(menjadi kecerdasan buatan).
·               Thinking Humanly yaitu system yang dilakukan dengan cara intropeksi yaitu penangkapan pemikiran psikologis. Manusia pada computer,hal ini sering diujikan dengan neuron ke neuron lainnya atau sel otak dengan sel otak lainnya cara pembelajarannya yaitu melalui experiment-experimen.
·               Thinking Rationaly merupakan sistem yang sangat sulit ,karena sering terjadi kesalah data, prinsip dan prakteknya, sistem ini dikenal dengan penalaran komputasi.
·               Acting Rationaly yaitu sistem yang melakukan aksi dengan cara menciptakan suatu robotika cerdas yang menggantikan tugas manusia.      
                  Oleh karena itu didalam pengembangan Kecerdasan Buatan ada empat cabang       disiplin ilmu, yaitu :
·               Sistem Pakar (Expert System), komputer digunakan sebagai sarana untuk menyimpan pengetahuan para pakar. Dengan demikian komputer akan memiliki keahlian untuk menyelesaikan permasalahan dengan meniru keahlian yang dimiliki oleh pakar.
·                  Pengolahan Bahasa Alami (Natural Language Processing). Dengan pengolahan bahasa alami ini diharapkan user dapat berkomunikasi dengan komputer dengan menggunakan bahasa sehari-hari.
·                  Pengenalan Ucapan (Speech Recognition). Melalui pengenalan ucapan diharapkan manusia dapat berkomunikasi dengan komputer menggunakan suara.
·                  Robotika & Sistem Sensor (Robotics & Sensory Systems). Suatu program yang diaplikasikan pada sebuah mesin robot untuk membantu serta menggantikan kinerja manusia agar lebih cepat. Karena mesin tidak kenal lelah dan bosan.
Natural Language Processing adalah saat kita melihat bagaimana memanfaatkan pengetahuan yang berlimpah-limpah yang dinyatakan dalam bahasa alami. Salah satu faktor umum dalam menangani tugas ini adalah penggunaan languange model (model bahasa). Sedangkan Language Model adalah model yang memprediksi probabilitas distribusi dari ekspresi bahasa. Language MODELS terbagi dalam 4 jenis yaitu :
1.              N-gram character models (Model karakter N-gram)   
2.              Smoothing n-gram models (Meluweskan model n-gram)
3.              Model Evaluation (Model Evaluasi)
4.              N-gram word models (Model-model kata n-gram)
Kemudian Klasifikasi teks, juga dikenal sebagai kategorisasi: diberi teks dari beberapa jenis, memutuskan mana dari standar set kelas itu dimiliki. Identifikasi bahasa dan klasifikasi genre adalah contoh dari klasifikasi teks, seperti analisis sentimen (mengelompokkan film atau produk ulasan positif atau negatif) dan deteksi spam (mengelompokkan pesan email sebagai spam atau bukan-spam). Klasifikasi kompresi data merupakan cara lain untuk berpikir tentang klasifikasi sebagai masalah dalam kompresi data. Sebuah algoritma kompresi lossless mengambil urutan simbol, mendeteksi pola berulang didalamnya, dan menulis deskripsi dari urutan yang lebih padu daripada yang asli. Misalnya, teks ",142857142857142857" mungkin dikompresi ke "0 [142857] * 3." Algoritma Kompresi bekerja dengan membangun kamus dari subsequences teks, dan kemudian mengacu pada entri dalam kamus. Contoh di sini hanya satu entri kamus, "142857."
Kemudian pencarian informasi adalah tugas mencari dokumen yang relevan dengan kebutuhan pengguna untuk informasi. Contoh paling terkenal dari sistem pencarian informasi adalah mesin pencari di WorldWideWeb. Sebuah sistem pencarian informasi (selanjutnya disebut dengan IR), IR sistem awal bekerja pada model kunci Boolean, Model ini memiliki keuntungan karena menjadi sederhana untuk penjelasan dan pelaksanaannya. Ada beberapa metode pada model Boolean yaitu : IR scoring functions (Fungsi penilaian IR), IR system evaluation (Evaluasi sistem IR), IR refinements (Perbaikan IR), The PageRank Algorithm (Algoritma PageRank), Algoritma HITS, Menjawab pertanyaan. Jenis paling sederhana dari sistem ekstraksi informasi adalah sistem ekstraksi atribut berbasis yang mengasumsikan bahwa seluruh teks mengacu pada objek tunggal dan tugas ini adalah untuk mengekstrak atribut bahwa objek. Dan ketika informasi penggalian harus dicoba dari input yang bising atau berbagai, hingga keadaan pendekatan sederhana yang tidak baik.Terlalu sulit untuk mendapatkan semua aturan dan prioritas dengan benar; Cara terbaik adalah untuk menggunakan model probabilistik bukan model berbasis aturan. Model probabilistik sederhana untuk urutan dengan keadaan tersembunyi adalah model Markov tersembunyi, atau HMM. Sebuah HMM adalah model generatif; Pemodelan probabilitas gabungan penuh pengamatan dan keadaan tersembunyi, dan karena itu dapat digunakan untuk menghasilkan sampel. Artinya, kita bisa menggunakan model HMM tidak hanya untuk menganalisis teks dan mengambil speaker dan tanggal, tetapi juga untuk menghasilkan contoh acak dari teks yang berisi speaker dan tanggal.
Sebuah aplikasi yang berbeda dari teknologi ekstraksi adalah membangun basis pengetahuan atau ontologi fakta corpus a. Hal ini berbeda dengan tiga cara: Pertama terbuka, kita memperoleh fakta tentang semua jenis domain, bukan hanya domain tertentu. Kedua, dengan corpus besar, tugas ini didominasi oleh presisi. Ketiga, hasil dapat dikumpulkan statistik diperoleh dari berbagai sumber, bukannya diekstraksi dari teks tertentu.
Kemudian bahasa template dirancang untuk memiliki pemetaan dekat dengan para pihak sendiri untuk mampu belajar otomatis, dan menekankan presisi tinggi. (Mungkin dengan risiko recall lebih rendah). Setiap template memiliki tujuh komponen yang sesuai. Penulis dan Judul regexes yang terdiri dari karakter (dimulai dan berakhiran huruf) dan dibatasi untuk memiliki panjang dari setengah panjang minimum dari contoh untuk dua kali panjang maksimum. Awalan, tengah, dan postfix dibatasi untuk string literal no regexes. center adalah yang paling mudah untuk difahami: setiap string menengah yang berbeda di set pertandingan adalah template calon yang berbeda.
Dan sebuah mesin-membaca sistem perwakilan adalah TEXTRUNNER (Banko dan Etzioni, 2008). TEXTRUNNER menggunakan cotraining untuk meningkatkan kinerjanya, tapi perlu sesuatu untuk bootstrap. TEXTRUNNER mampu untuk mengekstrak hubungan ( "Einstein," "menerima," "Hadiah Nobel"). Mengingat satu set contoh label jenis ini, TEXTRUNNER melatih linear-rantai CRF untuk mengekstrak contoh lebih lanjut dari teks berlabel. Fitur dalam CRF termasuk fungsi kata-kata seperti "untuk" dan "dari" dan "," tapi tidak kata benda dan kata kerja (dan frase tidak kata benda atau kata kerja frase). Karena TEXTRUNNER adalah domain-independen, tidak bisa mengandalkan daftar yang telah ditetapkan kata benda dan kata kerja. TEXTRUNNER mencapai ketepatan 88% dan recall dari 45% (F1 dari 60%) pada besar corpus web.

Kesimpulan : Kecerdasan Buatan (Artificial Inteligence) merupakan salah satu bagian dari ilmu komputer yang mempelajari bagaimana membuat mesin (komputer) dapat melakukan pekerjaan seperti dan sebaik yang dilakukan oleh manusia bahkan bisa lebih baik daripada yang dilakukan manusia.Kecerdasan Buatan lebih bersifat permanen. Kecerdasan alami bisa berubah karena sifat manusia pelupa. Kecerdasan buatan tidak berubah selama sistem komputer & program tidak mengubahnya. Lebih mudah diduplikasi & disebarkan. Mentransfer pengetahuan manusia dari 1 orang ke orang lain membutuhkan proses yang sangat lama & keahlian tidak akan pernah dapat diduplikasi dengan lengkap.
Natural Language Processing adalah saat kita melihat bagaimana memanfaatkan pengetahuan yang berlimpah-limpah yang dinyatakan dalam bahasa alami. Salah satu faktor umum dalam menangani tugas ini adalah penggunaan languange model (model bahasa). Sedangkan Language Model adalah model yang memprediksi probabilitas distribusi dari ekspresi bahasa. Language MODELS terbagi dalam 4 jenis yaitu :
1.              N-gram character models (Model karakter N-gram)   
2.              Smoothing n-gram models (Meluweskan model n-gram)
3.              Model Evaluation (Model Evaluasi)
4.              N-gram word models (Model-model kata n-gram)





Referensi :
Muhammad Dahria LPPM-STMIK TRIGUNA DHARMA, Jurnal9-MD-Kecerdasan Buatan.pdf