Pemahaman bahasa alami

cabang dari pengolahan bahasa alami dalam kecerdasan buatan
Revisi sejak 12 Maret 2018 04.06 oleh Guspan Tanadi (bicara | kontrib) (Sejarah: Kelancaran)

Pemahaman bahasa alami (bahasa Inggris: Natural language understanding) NLU atau NLI (Natural Language Interpretation[1]) ialah cabang dari pengolahan bahasa alami dalam kecerdasan buatan yang melapangkan mesin agar mengerti informasi atau data tak terstruktur. Memiliki cakupan lebih luas dibanding tugas NLP yang lain, NLU ialah sebuah AI-komplit, yang diketahui berurusan dalam menciptakan mesin secerdas manusia[2].

Sejarah

Sebuah program komputer STUDENT ditulis pada tahun 1964 oleh Daniel Bobrow atas disertasi doktoral di MIT menjadi satu percobaan paling awal diketahui dari pemahaman bahasa alami pada sebuah komputer.[3][4][5] Delapan tahun berselang, John McCarthy baru mengadakan istilah kecerdasan buatan, disertasi Bobrow (yang berjudul Natural Language Input for a Computer Problem Solving System) menunjukkan bagaimana komputer dapat mengerti masukan bahasa alami biasa kepada memecahkan permasalahan aljabar pada pesan.

Satu tahun berlanjut, pada tahun 1965, Joseph Weizenbaum di MIT menulis ELIZA sebuah program interaktif yang melaksanakan percakapan dalam bahasa Inggris pada topik apa saja, yang paling terkenal saat ELIZA menjadi ahli psikoterapi. ELIZA bekerja dengan parsing biasa dan substitusi kata kunci ke dalam rekaman ungkapan. Weizenbaum memihak dengan memberikan program sebuah basis data pengetahuan dunia nyata atau yang kaya akan leksikon. Kini ELIZA mendapatkan popularitas mengejutkan dan dapat dilihat sebagai pelopor awal atas sistem komersial seperti yang digunakan oleh Ask.com.[6]

Komponen dan arsitektur

Terlepas dari pendekatan yang digunakan, kebanyakan sistem pemahaman bahasa alami menetapkan beberapa komponen umum. Sistem perlu leksikon akan bahasa, parsing dan kaidah tata bahasa kepada mengurai kalimat menjadi representasi internal. Konstruksi leksikon yang kaya dengan ontologi yang sesuai, membutuhkan upaya signifikan. Contoh: leksikon Wordnet diperlukan usaha bertahun-tahun.[7]

Catatan Kaki

  1. ^ Semaan, Paul. (2012). Natural Language Generation: An Overview. Journal of Computer Science & Research (JCSCR) Vol. 1, No. 3, hlm. 50-57, June 2012
  2. ^ Pathak, Nishith. (2017). Artificial Intelligence for .NET: Speech, Language, and Search: Building Smart Applications with Microsoft Cognitive Services APIs. Apress. hlm. 71
  3. ^ Machines who think oleh Pamela McCorduck 2004 ISBN 1-56881-205-1 halaman 286
  4. ^ Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach Prentice Hall, ISBN 0-13-790395-2, http://aima.cs.berkeley.edu/, hlm. 19
  5. ^ Computer Science Logo Style: Beyond programming oleh Brian Harvey 1997 ISBN 0-262-58150-7 halaman 278
  6. ^ Weizenbaum, Joseph (1976). Computer power and human reason: from judgment to calculation W. H. Freeman and Company. hlmn. 188-189
  7. ^ G. A. Miller, R. Beckwith, C. D. Fellbaum, D. Gross, K. Miller. 1990. WordNet: An online lexical database. Int. J. Lexicograph. 3, 4, pp. 235-244.