Teori informasi: Perbedaan antara revisi
Konten dihapus Konten ditambahkan
k +{{Authority control}} |
Fitur saranan suntingan: 3 pranala ditambahkan. |
||
Baris 1:
[[Berkas:Binary entropy plot.svg|jmpl|Fungsi entropi biner Bernoulli]]'''Teori informasi''' ([[bahasa Inggris|Inggris]]: ''information theory'') adalah disiplin ilmu dalam bidang [[matematika terapan]] yang berkaitan dengan kuantisasi data sehingga data atau [[informasi]] itu dapat disimpan dan dikirimkan tanpa kesalahan (error) melalui suatu kanal komunikasi. [[Entropi informasi]] (''information entropy)'' sering dipakai sebagai alat untuk maksud ini, dan biasanya dinyatakan sebagai banyaknya bit rerata yang diperlukan untuk penyimpanan dan pengiriman informasi tersebut. Sebagai contoh, jika keadaan cuaca harian dinyatakan dengan [[entropi]] 3 [[bit]], maka kita katakan bahwa cuaca itu mempunyai rata-rata 3 bit tiap harinya.
Aplikasi dari topik dasar dalam '''teori informasi''' meliputi [[kompresi data]] tanpa cacat (''lossless data compression'', pada file ZIP misalnya), kompresi data (''lossy data compression'', pada file MP3, misalnya), dan pengkodean kanal (''channel coding'', pada saluran DSL, ADSL dll). Biasanya teori informasi merupakan titik temu dari bidang –bidang matematika, statistika, [[ilmu komputer]], fisika, neurobiologi, dan teknik listrik serta komputer. Implementasi dari teori ini berdampak langsung dengan misi ruang angkasa, pemahaman mengenai lubang hitam dalam galaksi, dengan penelitian [[linguistika]] dan [[persepsi manusia]], dengan [[jaringan komputer]], jaringan [[Internet]] serta jaringan [[telepon genggam]].
Secara khusus, '''teori informasi''' adalah cabang dari [[matematika]] [[peluang]] dan [[statistik]], yang berkaitan dengan konsep [[informasi]] dan [[entropi informasi]] seperti telah dijelaskan di atas. [[Claude Shannon]] ([[1916]]-[[2001]]) dikenal sebagai "bapak dari teori informasi". Shannon mendefinisikan pengukuran dari [[entropi informasi]] (dalam bit) sebagai:
Baris 13:
* [http://www.nd.edu/~jnl/ee80653/tutorials/sunil.pdf ND.edu], Srinivasa, S. "A Review on Multivariate Mutual Information"
* [http://www.conceptsearching.com/Web/home/technology/lateral-thinking.aspx Conceptsearching.com] {{Webarchive|url=https://web.archive.org/web/20100204133932/http://www.conceptsearching.com/Web/home/technology/lateral-thinking.aspx |date=2010-02-04 }}, Challis, J., "Lateral Thinking in Information Retrieval"
* [http://jchemed.chem.wisc.edu/Journal/Issues/1999/Oct/abs1385.html Chem.wisc.edu], [[Journal of Chemical Education]], ''Shuffled Cards, Messy Desks, and Disorderly Dorm Rooms - Examples of Entropy Increase? Nonsense!''
* [http://www.itsoc.org/index.html ITsoc.org] {{Webarchive|url=https://web.archive.org/web/20090122063052/http://itsoc.org/index.html |date=2009-01-22 }}, IEEE Information Theory Society and [http://www.itsoc.org/review.html ITsoc.org] {{Webarchive|url=https://web.archive.org/web/20090122063122/http://itsoc.org/review.html |date=2009-01-22 }} review articles
* [http://www.inference.phy.cam.ac.uk/mackay/itila/ Cam.ac.uk], On-line textbook: "Information Theory, Inference, and Learning Algorithms" by [[David MacKay (scientist)|David MacKay]] - giving an entertaining and thorough introduction to Shannon theory, including state-of-the-art methods from coding theory, such as [[arithmetic coding]], [[low-density parity-check code]]s, and [[Turbo code]]s.
|