Bilder unserer Nutzer

Shop

Meyers Großes Taschenlexikon in 24 Bänden plus CD-ROM
ISBN 3-411-11009-0
149,00 € [D]

Weitere Informationen

Information

Information [lateinisch] die,

allgemein: Auskunft, Nachricht, Belehrung, Mitteilung, Hinweis, Aufklärung, ...

1) allgemein: Auskunft, Nachricht, Belehrung, Mitteilung, Hinweis, Aufklärung, Unterrichtung über eine bestimmte Sache. Im strengen mathematischen Sinne bleibt der Inhalt einer Information unberücksichtigt, entscheidend ist der Informationswert einer Nachricht.

Information beseitigt Ungewissheit beziehungsweise Nichtwissen, ermöglicht Lernen und (sofortige, spätere oder/und dauerhafte) Verhaltensänderung.

Nach dem amerikanischen Mathematiker N. Wiener, dem Begründer der Kybernetik, hat Information eine ähnlich grundlegende Bedeutung wie Materie und Energie. Wesentlich für eine Information ist, dass bestimmte Zeichen (Signale) von einem »Sender« zu einem »Empfänger« gelangen und von diesem dekodiert (entschlüsselt, entziffert, das heißt »verstanden«) werden. Die Mindestvoraussetzung dafür ist ein gemeinsamer, »Code« genannter Zeichenvorrat. Bei der Informationsübertragung kann der (materielle) Träger beziehungsweise (energetische) Überträger problemlos gewechselt werden; so kann dieselbe Information z. B. einmal geschrieben und einmal gesprochen sein. – Informationstheorie.

(100 Wörter des Jahrhunderts)

Bibliothekswesen: Fachinformation.

2) Bibliothekswesen: Fachinformation.

Informatik: »in Form gebrachtes« Wissen, wie Mitteilungen, ...

3) Informatik: »in Form gebrachtes« Wissen, wie Mitteilungen, Nachrichten, die Gegenstand von Speicherung, Verarbeitung und Übertragung sind, meist dargestellt als eine Folge von Zeichen aus einem bestimmten Zeichenvorrat; in der Informationstheorie ein technisches Maß, das den Zeichen einer Nachricht zugeordnet wird. Der Informationsgehalt I eines Ereignisses xi hängt von der Wahrscheinlichkeit pi ab, mit der das Ereignis eintritt; es gilt: I (xi) = ld 1 / pi, mit (0 ≤ p ≤ 1). Verwendet wird der Logarithmus zur Basis 2, woraus sich als Informationseinheit das bit (Bit) ergibt. Für gleich wahrscheinliche Zeichen aus einem Alphabet vom Umfang N ist der Informationsgehalt I = ld N [in bit/Zeichen]. Seltene Ereignisse haben demnach einen hohen, häufige einen geringen Informationsgehalt.

Weiterführende Artikel aus dem Archiv der Wochenzeitung DIE ZEIT