Teori Informatif – Konsep – Penjelasan Lengkap

Informasi adalah pereduksi ketidakpastian. Teori informatif atau teori informasi adalah salah satu teori komunikasi dan cabang matematika yang menggambarkan bagaimana ketidakpastian seharusnya dihitung, dimanipulasi, dan disajikan.Sebagian besar ilmuwan sepakat bahwa teori informasi dimulai pada tahun 1948 ketika Claude Shannon mempublikasikan artikelnya yang berjudul A Mathematical Theory of Communication dalam Bell System Technical Journal. Shannon memperlihatkan bagaimana informasi dapat dihitung dengan presisi yang absolut dan mendemonstrasikan kesatuan unit seluruh media informasi.

Artikel yang dipublikasikan oleh Shannon menyuguhkan sebuah cetak biru bagi era digital sekarang. Namun, yang perlu dipahami adalah teori informasi bukan hanya hasil karya Claude Shannon namun merupakan hasil dari kontribusi yang diberikan oleh beberapa orang ahli dengan latar belakang ilmu yang berbeda. Perbedaan inilah yang membentuk arah teori informasi.

Baca juga :

Pengertian

Menurut Stephen W. Littlejohn (2009), teori informasi adalah studi kuantitatif mengenai transmisi sinyal. Dalam teori komunikasi manusia, teori informasi berperan sebagai sebuah metafora bagi transmisi komunikasi antara pengirim pesan kepada penerima pesan yang berlangsung secara linear. Teori-teori komunikasi manusia kontemporer secara langsung mengacu pada teori informasi yang memiliki akar sejarah yang cukup signifikan. Selain itu, teori komunikasi juga berperan besar dalam membentuk teori-teori persepsi, kognisi, dan neural computation. Dalam ilmu fisika, teknik, dan matematika, teori informasi menekankan pada ketidakpastian dalam code systems, message redundancy, noise, channel capacity, dan feedback.

Baca juga :

Konsep

Dalam teori informasi, terdapat beberapa konsep penting yang harus dipahami, yaitu :

  • Informasi

Pengertian informasi menurut para ahli merujuk pada  proses pengolahan data. Menurut Littlejohn (2009), yang dimaksud dengan informasi adalah ukuran ketidakpastian dalam sebuah sistem atau sinyal. Dengan kata lain, teori informasi menyatakan bahwa semakin tinggi informasi dalam sistem maka ketidakpastian akan semakin besar. Hal ini disebabkan semakin banyak jumlah informasi yang diperlukan akan menurunkan tingkat kejelasan informasi itu sendiri. Konsep dalam teori informasi yang dapat digunakan untuk memahami lebih jauh mengenai gagasan tersebut adalah entropi (Baca juga : Jenis-jenis Informasi).

  • Entropi

Entropi adalah konsep yang paling mendasar dalam teori informasi. Konsep entropi pertama kali dikenalkan dalam termodinamika yang digunakan untuk menyuguhkan sebuah pernyataan hokum kedua termodinamika. Entropi mengandung arti keteracakan atau kurangnya prediktabilitas di dalam sebuah sistem. Dalam sistem entropi yang rendah, semakin sedikit informasi sehingga lebih terorganisasi, prediktabilitas semakin besar, dan karenanya ketidakpastian akan berkurang. Sebaliknya, dalam sistem entropi yang tinggi, semakin banyak informasi maka organisasi akan semakin sulit, prediktabilitas semakin berkurang, dan karenya ketidakpastian akan semakin besar. Singkatnya, semakin tinggi entropi maka jumlah informasi semakin besar dan semakin rendah entropi maka jumlah informasi akan berkurang.

  • Pilihan

Menurut Littlejohn (2009), cara lain untuk memahami konsep informasi adalah dengan berpikir sejumlah pilihan yang dapat dibuat ketika memprediksi keluaran atau outcome. Semakin banyak pilihan, maka prediktabilitas akan semakin rendah, dan semakin banyak informasi yang berada dalam sistem. Sistem yang lebih rumit dan kompleks akan memiliki banyak sekali kemungkinan keluaran, pilihan, atau alternatif dibandingkan dengan sebuah sistem yang jauh lebih sederhana.

  • Redundancy

Menurut Littlejohn (2009), redundancy adalah kebalikan dari informasi. Redundancy adalah ukuran prediktabilitas dalam suatu sistem. Sebagaimana informasi, redundancy adalah sebuah ukuran kuantitatif yakni rasio entropi terhadap kemungkinan jumlah maksimum dalam suatu sistem. Entropi dikatakan maksimal manakala seluruh alternatif yang ada adalah sama.

Littlejohn (2009) lebih lanjut menjelaskan bahwa bahasa sebagai alat komunikasi merupakan sebuah sistem kode entropik karena terdiri dari beberapa bagian sinyal seperti misalnya suara dalam bahasa mulut, surat dalam bahasa tertulis, dan digit biner dalam teknologi informasi. Baik informasi maupun redundancy sangat berguna dalam merancang sistem informasi. Sejatinya teori informasi tidak merujuk pada makna pesan namun menyuguhkan persamaan yang membantu para insinyur atau sarjana teknik menemukan cara bagaimana mendapatkan sinyal secara efisien dari satu tempat ke tempat yang lain.

Model Transmisi Informasi

Model dasar transmisi informasi muncul pada tahun 1949 pada teks The Mathematical Theory of Communication yang digagas oleh Claude Shannon dan Warren Weaver. Dalam ilmu komunikasi, model dasar transmisi informasi ini dikenal dengan model komunikasi Shannon dan Weaver dan merupakan salah satu model komunikasi linear. Sebagaimana model-model komunikasi lainnya, model ini menggambarkan komponen-komponen komunikasi dalam proses komunikasi yang meliputi source (sumber), message (pesan), transmitter (pemancar), signal (sinyal), channel (saluran), receiver (penerima), destination (tujuan), dan noise (gangguan).

Sumber mengirimkan seperangkat sinyal dari sebuah pemancar melalui sebuah saluran kepada sebuah tujuan melalui penerima. Gangguan adalah interferensi yang dapat mengganggu proses transmisi. Tujuan transmisi informasi bagi pesan adalah untuk menjangkau tujuan secara efisien dan akurat.

Baca juga : Konvergensi Media

Menurut Littlejohn (2009), dalam komunikasi manusia secara langsung, satu orang (sumber) mengirimkan seperangkat sinyal oral (suara) melalui gelombang udara (saluran) kepada orang kedua (tujuan) melalui telinga (penerima). Jika terjadi banyak sekali gangguan fisik, maka pesan oral tersebut tidak akan tersampaikan dengan baik.

Dalam komunikasi elektronik, pesan berjalan melalui beberapa tautan sinyal dan saluran sebelum mencapai tujuan akhir. Gangguan dapat terjadi dimana pun dalam sistem transmisi yang kompleks karena itu sinyal harus memiliki sejumlah redundancy yang mampu menghalau gangguan yang terjadi. Kemudian, saluran harus memiliki kapasitas yang mumpuni untuk membawa sinyal secara efisien.

Kapasitas saluran atau channel capacity adalah jumlah informasi maksimum yang dapat dikirim melalui sebuah saluran dalam rentang waktu tertentu. Meningkatnya permintaan pada sistem broadband untuk membawa sejumlah besar informasi melalui internet sebagai media komunikasi menunjukkan pentingnya kapasitas saluran.  Transmisi informasi akan menjadi efisien jika jumlah informasi tidak melebihi kapasitas saluran dan terdapat redundancy yang cukup dalam sinyal untuk menghalau gangguan sinyal yang mungkin ada.

Baca juga : Macam-macam Media Komunikasi dalam Jaringan

Manfaat Mempelajari Teori Informatif

Mempelajari teori informatif atau teori informasi dapat memberikan beberapa manfaat, diantaranya adalah :

  • Kita dapat mengetahui dan memahami makna informasi.
  • Kita dapat mengetahui dan memahami makna teori informasi.
  • Kita dapat mengetahui dan memahami beberapa konsep yang membentuk teori informasi.
  • Kita dapat mengetahui dan memahami model transmisi informasi yang dikemukakan oleh Shannon dan Weaver.

Demikianlah ulasan singkat tentang teori informasi. Semoga dapat menambah wawasan dan pengetahuan kita tentang teori informasi dan penerapannya dalam ilmu komunikasi.