Informationstheorie

Schlagwörter:
Quellencodierung, Informationsquellen, Kanalkapazität, Referat, Hausaufgabe, Informationstheorie
Themengleiche Dokumente anzeigen

Beschreibung / Inhalt
Das Dokument beschäftigt sich mit der Informationstheorie und deren Anwendung in der Kommunikation. Es beginnt mit einer Einführung in den Begriff der Information und erklärt die Bedeutung von Quellencodierung, Kanalcodierung und Entropie. Es werden die Kriterien für den Informationsgehalt einer Nachricht erläutert und anhand eines Beispiels verdeutlicht. Im zweiten Teil des Dokuments wird die diskrete Informationsquelle definiert und der Informationsgehalt statistisch unabhängiger Zeichen mit diskreten Quellen diskutiert. Es wird auf die Bedeutung von Superzeichen und die Codierung nach Fano und Huffmann eingegangen. Im weiteren Verlauf des Dokuments wird die Informationsübertragung über diskrete Kanäle sowie kontinuierliche Informationsquellen und Kanäle behandelt. Es wird die Kanalkapazität diskreter Kanäle erklärt und die Entropie kontinuierlicher Quellen berechnet. Abschließend wird die Rate-Distortion-Theorie vorgestellt, die untersucht, wie ein Übertragungssystem so entworfen werden kann, dass eine vorgegebene obere Grenze für eine vorgegebene Verzerrung am Verbrauchereingang nicht überschritten wird.
Direkt das Referat aufrufen

Auszug aus Referat
Inhaltsverzeichnis 1. Allgemeines zur Informationstheorie Seite 3 2. Diskrete Informationsquellen und Kanäle Seite 5 2.1. Informationsgehalt statistisch unabhängiger Zeichen mit diskreten Quellen Seite 5 2.1.1. Informationsgehalt von gleichwahrscheinlichen Zeichen Seite 5 2.1.2. Informationsgehalt von nichtgleichwahrscheinlichen Zeichen Seite 9 2.1.3. Quellencodierung, Redundanz, Informationsfluß Seite 11 2.1.4. Optimale, redundanzsparende Codes Seite 13 2.1.4.1. Codierung nach Fano Seite 13 2.1.4.2. Codierung nach Huffmann Seite 14 2.2. Informationsgehalt statistisch verbundener Zeichen mit diskreten Quellen Seite 17 2.3. Informationsübertragung, Kanalkapazität diskreter Kanäle Seite 21 3. Kontinuierliche Informationsquellen und Kanäle Seite 23 3.1. Entropie kontinuierlicher Quellen Seite 24 3.2. Kanalkapazität gestörter kontinuierlicher Kanäle Seite 25 1. Allgemeines zur Informationstheorie Der Begriff Information wird verwendet, wenn es sich um den quantitativen Aspekt von Nach-richten geht. Quantitativ bedeutet, daß z.B. ein Buch mehr Informationsmenge besitzt als ein Flugblatt, bezogen auf die Seitenanzahl. Die Inhaltsschwere oder die subjektive Wertung dieser Nachricht hat aber nichts mit der Informationsmenge zu tun und ist für das technische übertrag-ungssystem unwichtig und daher nicht von Interesse. Die von Claude E. Shannon 1948 begründete Informationstheorie gestattet es, die Leistung von verschiedenen Verfahren der Nachrichtenübertragung miteinander zu ...
Direkt das Referat aufrufen

Autor:
Kategorie:
Sonstiges
Anzahl Wörter:
7348
Art:
Referat
Sprache:
Deutsch
Bewertung dieser Hausaufgabe
Diese Hausaufgabe wurde bislang noch nicht bewertet.
Zurück