Pengenalan Teknologi Sistim Cerdas
Oleh :
R. Moch. Imron Maulana (18114662)
Universitas Gunadarma
PTA 2016/2017
Kecerdasan Buatan (Artificial
Inteligence) merupakan salah satu bagian dari ilmu komputer yang mempelajari
bagaimana membuat mesin (komputer) dapat melakukan pekerjaan seperti dan sebaik
yang dilakukan oleh manusia bahkan bisa lebih baik daripada yang dilakukan
manusia. Menurut John McCarthy ,1956 , AI : untuk mengetahui dan memodelkan
proses-proses berpikir manusia dan mendesain mesin agar dapat menirukan
perilaku manusia. Cerdas , berarti memiliki pengetahuan ditambah pengalaman ,
penalaran (bagaimana membuat keputusan dan mengambil tindakan), moral yang
baik. Tentu saja terdapat perbedaan antara Kecerdasan Buatan dengan Kecerdeasan
Alami, yaitu ; Kecerdasan Buatan lebih bersifat permanen. Kecerdasan alami bisa
berubah karena sifat manusia pelupa. Kecerdasan buatan tidak berubah selama
sistem komputer & program tidak mengubahnya. Lebih mudah diduplikasi &
disebarkan. Mentransfer pengetahuan manusia dari 1 orang ke orang lain membutuhkan
proses yang sangat lama & keahlian tidak akan pernah dapat diduplikasi
dengan lengkap. Jadi jika pengetahuan terletak pada suatu sistem komputer, maka
pengetahuan tersebut dapat disalin dari komputer tersebut & dapat
dipindahkan dengan mudah ke komputer yang lain. Lebih murah. Menyediakan
layanan komputer akan lebih mudah & murah dibandingkan mendatangkan
seseorang untuk mengerjakan sejumlah pekerjaan dalam jangka waktu yang sangat
lama. Bersifat konsisten karena kecerdasan buatan adalah bagian dari teknologi
komputer sedangkan kecerdasan alami senantiasa berubah-ubah. Dapat
didokumentasi. Keputusan yang dibuat komputer dapat didokumentasi dengan mudah
dengan cara melacak setiap aktivitas dari sistem tersebut. Kecerdasan alami
sangat sulit untuk direproduksi. Lebih cepat. Lebih baik.
Kecerdasan Alami bersifat kreatif.
Memungkinkan orang untuk menggunakan pengalaman secara langsung. Sedangkan pada
kecerdasan buatan harus bekerja dengan input-input simbolik. Pemikiran manusia
dapat digunakan secara luas, sedangkan kecerdasan buatan sangat terbatas.
Sejarah Kecerdasan Buatan dimulai
pada tahun 1950-an dimana Alan Turing, seorang pionir AI dan ahli matematika
Inggris melakukan percobaan. Turing (Turing Test) yaitu sebuah komputer melalui
terminalnya ditempatkan pada jarak jauh. Di ujung yang satu ada terminal dengan
software AI dan diujung lain ada sebuah terminal dengan seorang operator.
Operator itu tidak mengetahui kalua diujung terminal lain dipasang software AI.
Mereka berkomunikasi dimana terminal diujung memberikan respon terhadap
serangkaian pertanyaan yang diajukan oleh operator. Dan sang operator itu
mengira bahwa ia sedang berkomunikasi dengan operator lainnya yang berada pada
terminal lain. Turing beranggapan bahwa jika mesin dapat membuat seseorang
percaya bahwa dirinya mampu berkomunikasi dengan orang lain, maka dapat
dikatakan bahwa mesin tersebut cerdas (seperti layaknya manusia). Kemudian dari
percobaan ini muncul keempat konsep tentang Kecerdasan Buatan (Artificial
Intellegence) :
·
Acting
humanly ialah system yang melakukan pendekatan dengan menirukan tingkah laku
seperti manusia yang dikenalkan pada tahun 1950 degan cara kerja pengujian
melalui teletype yaitu jika penguji (integrator) tidak dapat membedakan yang
mengintrogasai antara manusia dan computer maka computer tersebut dikatakan
lolos(menjadi kecerdasan buatan).
·
Thinking
Humanly yaitu system yang dilakukan dengan cara intropeksi yaitu penangkapan
pemikiran psikologis. Manusia pada computer,hal ini sering diujikan dengan
neuron ke neuron lainnya atau sel otak dengan sel otak lainnya cara
pembelajarannya yaitu melalui experiment-experimen.
·
Thinking
Rationaly merupakan sistem yang sangat sulit ,karena sering terjadi kesalah
data, prinsip dan prakteknya, sistem ini dikenal dengan penalaran komputasi.
·
Acting
Rationaly yaitu sistem yang melakukan aksi dengan cara menciptakan suatu
robotika cerdas yang menggantikan tugas manusia.
Oleh karena itu didalam
pengembangan Kecerdasan Buatan ada empat cabang disiplin ilmu, yaitu :
·
Sistem Pakar
(Expert System), komputer digunakan sebagai sarana untuk menyimpan pengetahuan
para pakar. Dengan demikian komputer akan memiliki keahlian untuk menyelesaikan
permasalahan dengan meniru keahlian yang dimiliki oleh pakar.
·
Pengolahan Bahasa
Alami (Natural Language Processing). Dengan pengolahan bahasa alami ini
diharapkan user dapat berkomunikasi dengan komputer dengan menggunakan bahasa
sehari-hari.
·
Pengenalan Ucapan
(Speech Recognition). Melalui pengenalan ucapan diharapkan manusia dapat
berkomunikasi dengan komputer menggunakan suara.
·
Robotika &
Sistem Sensor (Robotics & Sensory Systems). Suatu program yang
diaplikasikan pada sebuah mesin robot untuk membantu serta menggantikan kinerja
manusia agar lebih cepat. Karena mesin tidak kenal lelah dan bosan.
Natural Language
Processing adalah saat kita melihat bagaimana memanfaatkan pengetahuan yang
berlimpah-limpah yang dinyatakan
dalam bahasa
alami.
Salah satu faktor umum dalam menangani tugas ini adalah penggunaan languange
model (model bahasa). Sedangkan Language Model adalah model yang memprediksi
probabilitas distribusi dari ekspresi bahasa. Language MODELS terbagi dalam 4
jenis yaitu :
1.
N-gram character models (Model karakter N-gram)
2.
Smoothing n-gram models (Meluweskan model n-gram)
3.
Model Evaluation (Model Evaluasi)
4.
N-gram word models (Model-model kata n-gram)
Kemudian
Klasifikasi teks, juga dikenal sebagai kategorisasi:
diberi teks dari beberapa jenis, memutuskan mana dari standar set kelas itu dimiliki. Identifikasi bahasa dan klasifikasi genre adalah contoh dari klasifikasi
teks, seperti analisis sentimen (mengelompokkan film atau produk ulasan positif
atau negatif) dan deteksi spam (mengelompokkan pesan email sebagai spam atau
bukan-spam). Klasifikasi kompresi data merupakan cara lain untuk berpikir tentang klasifikasi sebagai masalah dalam kompresi
data. Sebuah
algoritma kompresi lossless mengambil urutan simbol, mendeteksi pola
berulang didalamnya, dan
menulis deskripsi dari urutan yang lebih padu daripada yang asli. Misalnya, teks
",142857142857142857" mungkin dikompresi ke "0 [142857] *
3." Algoritma Kompresi bekerja dengan membangun kamus dari subsequences
teks, dan kemudian mengacu pada entri dalam kamus. Contoh di sini hanya satu
entri kamus, "142857."
Kemudian
pencarian informasi adalah tugas mencari dokumen yang relevan dengan
kebutuhan pengguna untuk informasi. Contoh paling terkenal dari sistem
pencarian informasi adalah mesin pencari di WorldWideWeb.
Sebuah sistem pencarian informasi (selanjutnya disebut
dengan IR),
IR sistem awal bekerja pada model kunci Boolean,
Model ini memiliki keuntungan karena
menjadi sederhana untuk penjelasan dan pelaksanaannya. Ada beberapa metode
pada model Boolean yaitu : IR scoring
functions (Fungsi penilaian IR), IR system evaluation (Evaluasi sistem IR), IR
refinements (Perbaikan IR), The PageRank Algorithm (Algoritma PageRank), Algoritma HITS, Menjawab
pertanyaan. Jenis paling sederhana dari sistem ekstraksi
informasi adalah sistem ekstraksi atribut berbasis yang mengasumsikan bahwa
seluruh teks mengacu pada objek tunggal dan tugas ini adalah untuk mengekstrak
atribut bahwa objek. Dan ketika
informasi penggalian harus dicoba dari input yang bising atau berbagai, hingga keadaan pendekatan sederhana yang tidak baik.Terlalu sulit untuk mendapatkan semua aturan dan prioritas
dengan benar; Cara terbaik adalah untuk menggunakan model probabilistik bukan
model berbasis aturan. Model probabilistik sederhana untuk urutan dengan
keadaan tersembunyi adalah model Markov tersembunyi, atau HMM.
Sebuah HMM adalah model generatif; Pemodelan probabilitas
gabungan penuh pengamatan dan keadaan tersembunyi, dan karena itu dapat digunakan untuk
menghasilkan sampel. Artinya, kita bisa menggunakan model HMM tidak hanya untuk
menganalisis teks dan mengambil speaker dan tanggal, tetapi juga untuk
menghasilkan contoh acak dari teks yang berisi speaker dan tanggal.
Sebuah aplikasi yang berbeda dari teknologi ekstraksi
adalah membangun basis pengetahuan atau ontologi fakta corpus a. Hal ini
berbeda dengan tiga cara: Pertama terbuka, kita memperoleh fakta tentang semua
jenis domain, bukan hanya domain tertentu. Kedua, dengan corpus besar, tugas
ini didominasi oleh presisi. Ketiga, hasil dapat dikumpulkan statistik
diperoleh dari berbagai sumber, bukannya diekstraksi dari teks tertentu.
Kemudian
bahasa template dirancang untuk
memiliki pemetaan dekat dengan para pihak sendiri untuk mampu belajar otomatis,
dan menekankan presisi tinggi. (Mungkin dengan risiko recall
lebih rendah). Setiap template memiliki tujuh komponen yang sesuai. Penulis dan
Judul regexes yang terdiri dari karakter (dimulai dan berakhiran huruf) dan
dibatasi untuk memiliki panjang dari setengah panjang minimum dari contoh untuk
dua kali panjang maksimum. Awalan, tengah, dan postfix dibatasi untuk string
literal no regexes. center adalah yang paling mudah untuk difahami: setiap
string menengah yang berbeda di set pertandingan adalah template calon yang
berbeda.
Dan
sebuah mesin-membaca sistem perwakilan adalah TEXTRUNNER (Banko dan Etzioni,
2008). TEXTRUNNER menggunakan cotraining untuk meningkatkan kinerjanya, tapi
perlu sesuatu untuk bootstrap. TEXTRUNNER mampu untuk mengekstrak hubungan (
"Einstein," "menerima," "Hadiah Nobel"). Mengingat
satu set contoh label jenis ini, TEXTRUNNER melatih linear-rantai CRF untuk
mengekstrak contoh lebih lanjut dari teks berlabel. Fitur dalam CRF termasuk
fungsi kata-kata seperti "untuk" dan "dari" dan
"," tapi tidak kata benda dan kata kerja (dan frase tidak kata benda
atau kata kerja frase). Karena TEXTRUNNER adalah domain-independen, tidak bisa
mengandalkan daftar yang telah ditetapkan kata benda dan kata kerja. TEXTRUNNER
mencapai ketepatan 88% dan recall dari 45% (F1 dari 60%) pada besar corpus web.
Kesimpulan : Kecerdasan
Buatan (Artificial Inteligence) merupakan salah satu bagian dari ilmu komputer
yang mempelajari bagaimana membuat mesin (komputer) dapat melakukan pekerjaan
seperti dan sebaik yang dilakukan oleh manusia bahkan bisa lebih baik daripada
yang dilakukan manusia.Kecerdasan
Buatan lebih bersifat permanen. Kecerdasan alami bisa berubah karena sifat
manusia pelupa. Kecerdasan buatan tidak berubah selama sistem komputer &
program tidak mengubahnya. Lebih mudah diduplikasi & disebarkan.
Mentransfer pengetahuan manusia dari 1 orang ke orang lain membutuhkan proses
yang sangat lama & keahlian tidak akan pernah dapat diduplikasi dengan
lengkap.
Natural Language
Processing adalah saat kita melihat bagaimana memanfaatkan pengetahuan yang
berlimpah-limpah yang dinyatakan
dalam bahasa
alami.
Salah satu faktor umum dalam menangani tugas ini adalah penggunaan languange
model (model bahasa). Sedangkan Language Model adalah model yang memprediksi
probabilitas distribusi dari ekspresi bahasa. Language MODELS terbagi dalam 4
jenis yaitu :
1.
N-gram character models (Model karakter N-gram)
2.
Smoothing n-gram models (Meluweskan model n-gram)
3.
Model Evaluation (Model Evaluasi)
4.
N-gram word models (Model-model kata n-gram)
Referensi :
http://irpantips4u.blogspot.co.id/2012/12/konsep-dasar-artificial-intelligence-ai.html Oct 15th, 2016
Muhammad Dahria LPPM-STMIK TRIGUNA DHARMA, Jurnal9-MD-Kecerdasan Buatan.pdf