Donnerstag, 4. Februar 2010

Versuch einer Medienchronik

Dieser Beitrag versammelt chronologisch und stichwortartig eine Reihe von Medienereignissen und Erfindungen und ist dazu gedacht, kontinuierlich - diskontinuierlich gelesen, kommentiert, ergänzt und korrigiert zu werden.

800 v. Chr. Erfindung des griechischen Vokalalphabets
um 1450 Gutenbergs Erfindung des Buchdrucks mit beweglichen Lettern
1671 mechanische Rechenmaschine: Gottfried Wilhelm Leibniz
1792 Semaphorentelegraphie: Claude Chappe
1796 Alois Senefelder: Erfinder der Lithographie (Steindruck - Verfahren)
ab 1826 Erfindung der Photographie als "erstes photo – chemisches Medium der Neuzeit“ (Joseph Nicephore Niepce; Louis Daguerre)
1833 Charles Babbage 'Analytical Engine'
1839 William Henry Fox Talbot (1839): Kalotypie (Negativbelichtung)
1861 Der Physikprofessor Philip Reis erfindet das Telephonprinzip
1876 Alexander Graham Bell: Erfindung des Telefons
1877 6.12.: Vorstellung von Edisons Phonograph als ‚Sprechender Maschine’
1884 Mechanisches Fernsehen: Paul Nipkow
1888 Entdeckung und Nachweis der elektrischen Strahlen durch Heinrich Hertz
1887 Emil Berliner: Grammophon
1888 Erste Vorführung von Emil Berliners ‚Grammophon’
1889 Erfindung der Juke Box („nickel – in – the – slot machines“) durch Louis Glass
1895 25.3. Erste Filmvorführung der Gebrüder Lumiere in Frankreich
1897 Erfindung der Kathodenstrahlröhre durch Karl Ferdinand Braun in Deutschland
1923 Oktober: Erste Radiosendung in Deutschland
1926 John Logie Baird experimentiert mit einem mechanischen Fernsehsystem
1936 'Turing - Maschine': Alan Turing (Konzeption eines Universalrechners)
1937 'Z - 1' Relaiscomputer: Konrad Zuse
1950 Gründung der ARD
1953 Farbfernseheinführung in Amerika (NTSC – Standard)
1958 07.02. Gründung der ARPA (Advanced Projects Research Agency)
1960 Entwicklung des ersten funktionsfähigen Laser durch Theodore Harold Maiman
1961 Gründung des ZDF (Sendebetrieb: 1963)
1962 NASA, 10. Juli: Satellit „Telstar 1“ in der Umlaufbahn
1963 Walter Bruch und Telefunken: Patent für das PAL (Phase alternating Line) – Verfahren;
1975 Video – Rekorder mit auswechselbaren Kassetten in breiter Masse erhältlich (Grundig,Philips)

Montag, 11. Januar 2010

Friedrich Kittler - Grammophone, Film, Typewriter (1987) (Marco)

Friedrich Kittler
Grammophon Film Typewriter (1985)


Kittler beginnt mit einem Blick in die Zukunft, der sich in unserer Gegenwart zunehmend bestätigt: Das Ende des Medienzeitalters durch die Digitalisierung der Medien. In die universelle Sprache des Binärcodes übersetzt werden sie beliebig ineinander und in sich transformierbar. Das Computerinterface täuscht uns als „Oberflächeneffekt“ eine saubere Trennung in Klang, Bild und Text als vor. Genau diese saubere Trennung vollziehen 100 Jahre zuvor drei Erfindungen: Phonograph (1877), Kinetoskop (1892) und Schreibmaschine (1865/1868) und läuten damit das Medienzeitalter ein.

Vor den technischen Medien waren Texte und Partituren die einzigen verfügbaren Zeitspeicher. Die Wirklichkeit wird selektiert und anschließend in Zeichen verschlüsselt. Ein serieller Datenfluß erzeugt eine symbolische Zeit in der nur überdauern kann, was encodierbar ist. Als physikalische Einschreibungen auf Wachsrolle und Zelluloid sind Phonograph und Kino dagegen völlig unselektiv. Nicht nur der Körper „hört auf, sich nicht selbst zu schreiben“, sondern er steht mitten im „Rauschen des Realen“ - nach Shannon und im eigentlichen Wortsinn. Selbst was nicht geschrieben werden soll oder kann hinterlässt nun doch Spuren - inklusive Unschärfen und Nebengeräuschen.
Erstmals ist es möglich, den Zeitfluß akustischer und optischer Daten selbst zu speichern und wiederzugeben. Davor war die einzige seine Gegenwart überdauernde Spur eines Individuums dessen Handschrift. Eine bleibende Einschreibung des Körpers auf Papier während Klang und Ansicht in den Zeichen verschwinden. Mit der Schreibmaschine wurde Schrift vom Individuum losgelöst und war nun reiner Text in standardisierten Typen, also reines Symbol - während umgekehrt Phonograph und Kino Bild und Klang selbst reproduzierten und aus der Welt der Symbole befreiten.

Der französische Psychoanalytiker Jacques Lacan unterteilt in seiner Lehre die Psyche in das Symbolische, das Imaginäre und das Reale. Kittler ordnet diesen Unterscheidungen die Medien (Standard)Text, (Stumm)Film und Klang zu.
Die Sphäre des Symbolischen mit ihrer Ordnung von Signifikanten zu Signifikaten ist die des Textes.
Im Imaginären erkennt sich das Subjekt im Spiegel als ein Ganzes obwohl es sich doch selbst zerstückelt wahrnimmt. Genau wie im Film Einzelbilder im Fluss der Vorführung eine Bewegung ergeben. Das Kino fungiert wie der Spiegel des Imaginären. Das Reale schließlich ist das Unsag- und Unfassbare, weder imaginär noch symbolisch. Das was der Phonograph speichert ist erstmal jenseits aller Bedeutung und damit ist es in der Sphäre des Realen.

Raphael Eduard Liesegang - Das Phototel (1891) (Sebastian)

http://rapidshare.com/files/347636226/HA_Technikphilosophie.pdf.html

Montag, 23. November 2009

Alan Turing - Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem (1937)

Alan Mathison Turing
*23. Juni 1912 †7. Juni 1954

Alan Turing war seinerzeit einer der angesehensten Mathematiker Englands und fiel früh durch seine mathematische Begabung auf. Im Zweiten Weltkrieg arbeitete er in Bletchley Park an einem streng geheimen staatlichen Projekt zur Entschlüsselung der nationalsozialistischen Verschlüsselungsmaschine ENIGMA. Mit der endgültigen Entschlüsselung im Dezember 1942 waren sämtliche deutschen Funksprüche für die Alliierten zugänglich, was eine entscheidende Wende des Krieges und den Untergang der deutschen Marine-Übermacht bedeutete.
Wir behandeln hier den 1937 von Turing veröffentlichten Aufsatz "Über berechenbare Zahlen mit einer Anwendung auf das Entscheidungsproblem". Hier entwickelt er das Modell einer Maschine, die später zu den grundlegenden Konzepten der Informatik werden soll.
1952 wurde Alan Turing wegen homosexueller Handlungen zu chemischer Kastration durch eine Hormonbehandlung verurteilt. Infolgedessen erkrankte er an einer Depression und starb 1954 wahrscheinlich durch Suizid durch einen mit Cyanid vergifteten Apfel. Allerdings versäumten es die Ermittler, den Apfel, welcher neben der Leiche gefunden worden war, näher untersuchen zu lassen.
Am 10. September veröffentlichte der britische Premierminister Gordon Brown eine Erklärung, in der er sich im Namen der britischen Regierung bei Turing entschuldigte und ihn für seine Verdienste ehrte.

Zum besseren Verständnis der Turingmaschine wird hier zunächst der Begriff des Algorithmus erklärt. Ein Algorithmus ist ein Lösungsverfahren, das durch präzis formulierte Handlungsanweisungen in endlich vielen Schritten zur Lösung eines Problems führt. Ein Algorithmus setzt sich somit aus einer Folge einzelner Anweisungen zusammen. So kann man beispielsweise im Alltag ein Kochrezept als Algorithmus auffassen, da dieses bei Durchführung der einzelnen Schritte stets zum gleichen Ergebnis führen sollte.


Die Turingmaschine

Die Turingmaschine ist das gedankliche Modell einer Maschine, die mit nur drei Operationen sämtliche Algorithmen simulieren kann. Die Turingmaschine besteht aus einem Speicherband, welches in beide Richtungen unbeschränkt sein muss und in gleich große Felder eingeteilt ist. In jedem Feld ist stets genau ein Symbol gespeichert, wobei wir davon ausgehen, dass ein leeres Feld ein "Leer-Symbol" enthält. Ein Lese-/Schreibkopf kann die Symbole in den Feldern lesen und gegebenfalls überschreiben. Eine Steuereinheit lenkt den Kopf. Sie enthält das Programm der Maschine, welches die jeweiligen Zustände und Arbeitsschritte festlegt.



Beispiel

Zum besseren Verständnis betrachten wir nun ein einfaches Beispiel. Dafür muss zunächst das Programm der Maschine festgelegt werden. Wir benutzen folgende Schreibweise:
[Z1, 1] -> [Z2, 1, R]
[Z1, 1] bedeutet, wir Beginnen in einem Zustand1 Z1. Liest der Kopf im ersten zu lesenden Feld eine 1, so führt die Maschine die Schritte aus, die in der zweiten Klammer angegeben sind: Sie geht über in den Zustand2 Z2, schreibt in das gelesene Feld das Symbol 1 (das Symbol wird also nicht verändert), und bewegt den Kopf ein Feld nach rechts, was durch das R festgelegt ist. Ob nun bei der technischen Umsetzung der Kopf sich nach rechts bewegt oder das Speicherband dementsprechen bewegt wird, ist irrelevant.
Unser festgelegtes Beispielprogramm stellt sich nun in der obigen Schreibweise wie folgt dar:
[Z1, 1] -> [Z2, 1, R]
[Z1, _] -> [Z1, _, R]
[Z2, 1] -> [Z2, 1, R]
[Z2, _] -> [Z2, 1, H]
Wir arbeiten also mit zwei Zuständen Z1 und Z2, zwei Symbolen 1 und _ (welches ein leeres Feld darstellen soll) und zwei Befehlen für die Bewegung des Kopfes R (der Kopf rückt ein Feld nach rechts) und H (der Kopf hält an, die Maschine befindet sich in ihrem Endzustand).
Wir spielen dieses Programm nun an einigen Beispielen durch:

1.) Wir beginnen zunächst im Zustand Z1. Der Kopf liest nun im ersten zu lesenden Feld eine 1. Dies bedeutet, die Maschine geht über in den Zustand Z2, schreibt in das Feld eine 1 und rückt ein Feld nach rechts R. Wir befinden uns nun im Zustand Z2. Ist das nun zu lesende Feld leer, so bleibt die Maschine im Zustand Z2, schreibt in dieses Feld eine 1 und hält an H. Die Zahlenfolge auf dem Band würde folgendermaßen aussehen:
1 1

2.)Wir beginnen erneut im Zustand Z2. Der Kopf liest dieses mal im ersten Feld ein Leer-Symbol _. Also bleibt die Maschine im Zustand Z1, schreibt ein Leer-Symbol _ in das Feld und rückt ein Feld nach rechts R. Wird hier nun eine 1 gelesen, so geht die Maschine über in den Zustand Z2, schreibt in das Feld eine 1 und rückt ein Feld nach rechts R. In diesem Zustand Z2 liest der Kopf nun erneut eine 1, worauf die Maschine im Zustand Z2 bleibt, eine 1 schreibt und ein Feld nach rechts R rückt. Liest der Kopf nun ein Leer-Symbol _, so bleibt die Maschine im Zustand Z2, schreibt in dieses Feld eine 1 und hält an H. Die Zahlenfolge würde nun so aussehen:
_ 1 1 1

Auf diese Art lassen sich wesentlich kompliziertere Algorithmen aufschreiben, die endlich viele Zustände besitzen, und auch andere, endlich viele Symbole enthalten können und nicht nur ein Feld nach rechts rücken können, sondern theoretisch auch mal hundert Felder nach links wandern, wenn das Programm vorher so geschrieben wurde.
Die Turingmaschine arbeitet also ähnlich wie heutige Computer, die auch alle nach algorithmischen Programmen operieren. Mit diesem Modell legte Turing den Grundstein für die spätere theoretische Informatik.


Das Entscheidungsproblem

Im weiteren Text legt Turing die Auswirkungen seines theoretischen Modells auf das so genannte Entscheidungsproblem nieder. Selbiges hängt sehr eng mit dem 1920 von David Hilbert postulierten Hilbertprogramm zusammen, welches darauf abzielt, die Widerspruchsfreiheit der Mathematik mit finiten Methoden nachzuweisen. Entscheidbar wären die Axiome Mathematik, wenn es für jedes Element daraus einen Algorithmus gibt, der entscheiden kann, ob dieses Element den Eigenschaften der Gesamtmenge entspricht. Turing beweist mit Hilfe seines Maschinenmodells, dass die Axiome der Mathematik nicht entscheidbar sind. Die Schritte des Beweises lassen wir hier aus, da sie zu komplex sind, um im Rahmen dieses Blogs nachvollzogen zu werden. Letztendlich besagt die Unentscheidbarkeit, dass die Mathematik nicht in der Lage ist, all ihre Bereiche nur durch sich selbst beweisen zu können.

Claude Shannon/Warren Weaver (Marco)

Die mathematische Theorie der Kommunikation (1949)

Warren Weavers Vorwort zum Text von Claude E. Shannon


Einleitung

Claude Elwood Shannons "mathematische Theorie der Kommunikation", auch kurz als Informationstheorie bezeichnet, ist sehr abstrakt und äußerst komplex. Deshalb kann ich hier nur einen oberflächlichen Einblick in seinen Denkansatz geben und ich werde, wie Warren Weaver auch, nur auf eine seiner Gleichungen eingegehen, nämlich die zur Berechnung der Entropie. Zum tiefergehenden Einstieg in die Informationstheorie ist ein umfassendes mathematisches Rüstzeug vonnöten. Ich hoffe aber, Shannons medienwissenschaftliche Relevanz deutlich machen zu können.

1. Das Kommunikationssystem

Man kann beim Vorgang der Kommunikation drei Problemebenen unterscheiden: Ebene A: Das "technische Problem" betrifft allein den Vorgang der Informationsübertragung. Ebene B: Des "semantische Problem" behandelt, inwiefern der Empfänger einer Nachricht diese auch in der vom Sender beabsichtigten Bedeutung interpretiert. Ebene C: Das "Effektivitätsproblem" bezieht sich darauf, ob eine Nachricht beim Empfänger ein vom Sender beabsichtigtes Verhalten bewirkt. Man liest bisweilen auch von Synthax (A), Semantik (B) und Pragmatik (C) der Kommunikation. Die Ebenen B und C sind dabei nicht klar voneinander zu trennen und sind zudem abhängig vom Gelingen der Kommunikation auf Ebene A. Shannon befasst sich in seiner Theorie ausschließlich mit der technischen Ebene, also allein mit dem Vorgang der Übermittlung, was ihm vor allem seitens der Semiotiker Kritik eingebracht hat. Diese Kritik ist meiner Meinung nach unberechtigt, da Shannons Zielsetzung auf der Optimierung des Kanals bzw. der Übertragung im Kanal beruhte, unabhängig von deren Inhalt. Aufgrund dieser Vorgaben musste die Semantik gezwungenermaßen außen vor gelassen werden.

Der schematische Aufbau eines Kommunikationssystems stellt sich dabei wie folgt dar, als Beispiel sei hier das Sprechen gewählt: Die Nachrichtenquelle (das Gehirn) schickt die Nachricht an den Sender (die Stimmbänder). Dieser übersetzt die Nachricht in ein Signal (Schallwellen), das über den Kanal (Luft) zum Empfänger (dem Trommelfell meines Gesprächspartners) gelangt, wieder in die Nachricht umgewandelt wird und in das Nachrichtenziel (Gehirn des Gesprächspartners) erreicht. Alles, was dabei auf das im Kanal befindliche Signal einwirkt, z.B. Fremdgeräusche, bezeichnet man als Störquelle oder Rauschen.
Wie schon erwähnt, ist das Gesagte hier nicht von Belang. Wichtig ist, dass der Empfänger das Signal wieder in
die eigentliche Nachricht zurückwandeln kann, also dass die Systeme von Sender und Empfänger übereinstimmen.


2. Information


Da nur Ebene A behandelt wird, darf man bei Shannons Theorie Information nicht in Verbindung mit Bedeutung (also der semantischen Ebene) bringen. Information ist ein Maß für die Freiheit der Wahl von einer Nachricht aus einer endlichen Menge anderer Nachrichten. Der Inhalt der Nachrichten ist bedeutungslos. Ob ich also ein Rilke-Gedicht oder völliges Kauderwelsch übermittle, ist von diesem Standpunkt aus egal. Der Begriffs des Informationsgehalts kann am Beispiel des Münzwurfs sehr gut veranschaulicht werden. Das Ergebnis eines Wurfs soll jeweils übermittelt werden: Kopf wäre Nachricht A und Zahl Nachricht B.
Zur Übermittlung der Nachricht denkt man sich ein Relais mit zwei möglichen Zuständen 1 und 0. So wäre Nachricht A Zustand 1 und Nachricht B Zustand 0.
Wirft man zwei Münzen gleichzeitig, ergeben sich vier mögliche Nachrichten (Kopf/Kopf, Kopf/Zahl, usw.). Man bräuchte jetzt zwei solcher Relais, um jeder Nachricht einen Zustand (11,00,10 oder 01) zuzuordnen. Bei drei Münzen gäbe es acht Nachrichten und man bräuchte drei Relais, usw. Der Zusammenhang, der sich zwischen der Anzahl der Nachrichten und der Anzahl der Relais ergibt, ist logarithmisch zur Basis 2, da die Anzahl der übermittelbaren Nachrichten sich mit jedem weiteren Relais verdoppelt. Dieses "gedachte Relais" heißt "bit" (abgeleitet von "binary digit") und ist als Maßeinheit für den Informationsgehalt einer Situation definiert.
Kleiner Einschub: Der Logarithmus einer Zahl y zur Basis x ist die Zahl mit der man x potenzieren muss, um y zu erhalten. Also z.B. log3 9 = 2 , da 3² = 9.


Gibt es z.B. 16 Wahlmöglichkeiten, so rechnet man log2 16 = 4bit. Diese Situation hat also einen Informationsgehalt von 4bit. Bei 26 Wahlmöglichkeiten bzw. Zeichen: log2 26 =(rund) 4,7bit. Nicht-ganzzahlige Bits sind zwar im Hinblick auf den Relaisgedanken absurd, aber bei abstrakten Rechenoperationen vonnöten. Diese Situation entspricht zwar der Übermittlung eines der 26 Zeichen unseres Alphabets, allerdings tritt hier das Problem der unterschiedlichen Wahrscheinlichkeiten der einzelnen Wahlmöglichkeiten auf. Shannon führt hier den Begriff der Entropie in die Informationstheorie ein.


3. Die Entropie

Bisher wurde wir mit dem Münzwurf nur der seltene Fall betrachtet, dass alle Nachrichten gleich wahrscheinlich sind. Am Beispiel eines Skatblattes soll nun der weitaus häufigere Fall einer Ungleichverteilung der Wahrscheinlichkeiten beschrieben werden. Man stelle sich eine Farbe (z.B.Pik) vor. Es gibt vier Zahlenkarten, zwei männliche Karten (Bube, König), eine Dame und ein Ass. Die Übermittlung beinhaltet je nach gezogener Karte folgende Nachricht: (Z)ahl, (M)ann, (D)ame oder (A)ss. Diese treten mit folgenden Wahrscheinlichkeiten p = Anzahl der jew. Kartenart / Gesamtzahl der Karten auf.

p(Z)=0,5 p(M)=0,25 p(D)=0,125 p(A)=0,125

Die von Shannon entwickelte Gleichung zur Berechnung das Informationsgehalts dieses Ereignisses (H) sieht nun folgendermaßen aus:

H = -( p(Z)*log2 p(Z) + p(M)*log2 p(M) + p(D)*log2 p(D) + p(A)*log2 p(A) )

Die einzelnen Glieder dieser Summe repräsentieren den Informationsgehalt der einzelnen Nachrichten, aber ins Verhältnis der Wahrscheinlichkeit ihres Auftretens gesetzt. Zur näheren Erklärung sehen wir uns den Summanden mit der Dame an. Ihre Auftrittswahrscheinlichkeit ist p = 1/8 , d.h. in einem von acht Fällen wird sie, statistisch gesehen, gezogen. Oder anders gesagt, sie wäre (ideell) eine von acht gleichwahrscheinlichen Nachrichten. Somit beträgt ihr Informationsgehalt

log2 8 = 3bit . Oder auf p bezogen (Das Reziproken der Wahrscheinlichkeit entspricht der Anzahl der Karten, die man stat. ziehen muss, um eine Dame zu erhalten): log2 1/p Mit Hilfe der Logarithmusgesetze umgeformt: -log2 p also: -log2 1/8 = 3bit Durch diese Umformung erklärt sich auch das Minus vor der Klammer. Dieser Informationsgehalt der Dame von 3bit wird durch Multiplikation mit ihrer Auftrittswahrscheinlichkeit ins Verhältnis zu den Informationsgehalten der weiteren möglichen Nachrichten gesetzt: 1/8*3bit = 0,375bit
Nach Berechnung aller Summanden der oben beschriebenen Situation ergibt sich: H = 1,75bit
Die Größe H bezeichnet Shannon als die Entropie. Er entlehnt diesen Begriff aus der Thermodynamik. Dort ist er, stark vereinfacht gesagt, ein Mass für die Unordung, also die Vermischung eines Systems. Gibt es verschiedene Temperaturpotentiale, ist die Entropie niedriger als nach deren Ausgleich. In der Informationstechnik kann man die Entropie als den durchschnittlichen Informationsgehalt einer Nachricht deuten. In diesem Fall also 1,75bit.

4. Die Redundanz



Als Analogie zur Thermodynamik ist bei einer Gleichverteilung der Wahrscheinlichkeiten die Entropie am Höchsten. Man spricht auch von der
maximalen Entropie Hmax. Beim obigen Beispiel hätte dann jede Karte eine Wahrscheinlichkeit von 1/4, das ergibt:
Hmax= log2 4 = 2bit Diese Gleichung lässt sich relativ einfach aus allgemeinen Gleichung für H herleiten, indem man für alle Glieder dieselbe Wahrscheinlichkeit einsetzt. Die Differenz zwischen der tatsächlichen und der maximalen Entropie nennt man Redundanz. In unserem Fall beträgt sie 0,25bit oder in Prozent ausgedrückt 12,5. Die Übermittlung der Kartenziehungen wäre also zu 12,5% redundant, was erstmal sehr abstrakt ist, aber deutlicher wird, wenn man z.B. Text übermitteln will.

Beim Text kommen noch weitere wichtige Phänomene hinzu. Zum einen treten die Buchstaben des Alphabets mit verschiedener Wahrscheinlichkeit auf. Das wurde bereits geklärt. Aber noch dazu stehen die einzelnen Zeichen untereinander Wechselseitig in Wahrscheinlichkeitsabhängigkeiten. So ist es im Deutschen sehr gewiss, dass nach einem "q" ein "u" folgt oder nach einem "c" ein "h" bzw. "k". Man bezeichnet diese Abhängigkeiten allgemein als "Markoff-Prozesse" und deren Spezialfall als "ergodische Prozesse". Letztere repräsentieren bei einer genügend großen Probe immer die Eigenschaften des Ganzen. So kann ein kleiner Teil der zu übermittelnden Daten Aufschluß über die nachrichtentechnischen Spezifika der gesamten Datenmenge geben.

Diese beschriebenen Eigenschaften von z.B. Text bringen natürlich noch mehr "Ordnung (thermodynamisch gesprochen) in den Prozess der Nachrichten- bzw. Zeichenübermittlung und verringern somit die Entropie, was eine Erhöhung der Redundanz zur Folge hat. Nochmal: Information ist ein Maß für die Freiheit der Wahl. Shannon schätzt z.B. die Redundanz der englischen Sprache auf ca. 50%. Das heißt, die Hälfte der Zeichen ist nicht frei gewählt sondern steht in Abhängigkeiten und könnte somit weggelassen und wieder rekonstruiert werden. Die Redundanz hat somit Bedeutung für die Übermittlung in gestörten Kanälen (und kein Kanal ist ideal störungsfrei). Wäre unsere Sprache z.B. zu 0% redundant würde jede kleine akustische Störung ein Gespräch unmöglich machen, da wir unseren Gesprächspartner nicht mehr verstünden. Stattdessen können wir aber auch durch eine verrauschte Leitung bis zu einem gewissen Grad noch relativ gut telefonieren, da wir das nicht Verstandene anhand der Redundanz rekonstruieren. Die Redundanz ist also wichtig zur Optimierung des Kanals sowie für die Datenkompression.


Fazit



Das hier Dargestellte kann nur einen sehr vereinfachten Einblick in Shannons "Mathematische Theorie der Kommunikation" bieten, aber ich hoffe, dass zumindest ein guter Einstieg geboten wird.
Die Relevanz dieser Theorie ist, obwohl sie bereits in den 40er Jahren entstand, immer noch enorm, da sie das Fundament für die elektronische Datenverarbeitung gelegt hat. Datenübermittlung, Signalkodierung und -kompression beruhen zu einem guten Teil auf Shannons Gleichungen. Zudem wird die Informationstheorie auch in anderen Wissenschaftsgebieten angewandt, z.B. der Kybernetik, der Psychologie oder in der Systemtheorie, was ihre Universalität und ihren hohen Grad an Abstraktion zeitigt.

Marshall McLuhan – Das Medium ist die Botschaft (Johannes)

Die hochgradig konstituierende Bedeutung, die Marshall McLuhans 1964 erschienenes Buch „Die Magischen Kanäle“ für die Herausbildung der Medienwissenschaft als eigenständiger geisteswissenschaftlicher Disziplin besitzt, so wie wir sie heute kennen und studieren können, ergibt sich dem Leser vermutlich bereits beim ersten Blick auf den Untertitel „Understanding Media“, der im englischen Original der eigentliche Buchtitel ist. In diesem kurzen Beitrag soll ein Überblick über McLuhans Grundthese „Das Medium ist die Botschaft“ gegeben werden, der These mit der das erste Kapitel des besagten Buches überschrieben ist und auf dem seine weiteren Überlegungen fußen. Es ist an dieser Stelle wichtig zu betonen, dass dies nicht mehr als eine Einführung in McLuhans Theorien sein kann und soll und vermutlich auch die eine oder andere Frage aufwirft, die sich aus der Lektüre dieses ersten Kapitels allein noch nicht beantworten lässt. Weitere wichtige Thesen McLuhans, beispielsweise der Unterschied zwischen „heißen“ und „kalten“ Medien, werden hier nicht besprochen.

An den Anfang seiner Argumentation stellt McLuhan mit der Überschrift des ersten Kapitels die Aussage: „Das Medium ist die Botschaft“ (engl. „The Medium Is the Message“). Dieses erste Kapitel beruht auf der Zielsetzung, dass er anhand verschiedener Beispiele das gesellschaftlich weit verbreitete Missverständnis, den „Inhalt“ (engl.: „content“) eines Mediums für das Medium selbst zu halten, erläutern möchte. Zum Verständnis seiner Ausführungen ist es wichtig, die Bedeutung des Begriffs „Medium“ zu verstehen. McLuhans Begriff lässt sich in wenigen Kernthesen grob zusammenfassen:

  1. Ein Medium ist eine Ausweitung (oder Erweiterung) unserer eigenen Person.
  2. Die Auswirkung, also die „Botschaft“ die ein Medium darstellt, ergibt sich aus der Veränderung des Maßstabs, des Tempos oder des Schemas, die das Medium den Menschen bringt, nicht aus seinem „Inhalt“, denn …
  3. … der „Inhalt“ eines jeden Mediums ist wiederum ein anderes Medium.

Ich werde nun versuchen, diese noch recht abstrakten Thesen zu erläutern. In der ersten These erhält zunächst der Untertitel der englischen Originalausgabe („The Extensions of Man“) seinen Einzug in die deutsche Übersetzung. Dieser wurde im Titel der Übersetzung leider unterschlagen. McLuhans Medienbegriff steht in Tradition der Prothesentheorie, die davon ausgeht, dass sämtliche Erfindungen des Menschen lediglich Prothesen, also Erweiterungen der menschlichen Gliedmaßen, Organe und Sinne darstellen. So ist der Hammer eine Erweiterung der Faust, das Fernglas eine Erweiterung des Auges oder des Sehsinns und der elektrische Strom stellt eine Erweiterung unseres Nervensystems dar, um einige simple Beispiele zu nennen.

Im Begriff „Erweiterung“ wird auch deutlich, dass jedes Medium lediglich den Wirkungsgrad von schon vorhandenen Funktionen des Menschen erhöht oder beschleunigt, sprich erweitert, aber keine neue Funktion einführt. Die Faust ist schon existent, der Hammer erhöht nur ihre Kraft und das Fernglas ermöglicht es uns lediglich, Dinge deutlicher zu erkennen, die sich am äußersten Rande des Sehfeldes unseres Auges befinden. Der elektrische Strom erweitert den Wirkungsbereich des (elektrochemischen) Nervenimpulses, der von meinem Gehirn zu meinem Finger übertragen wird, um einen Lichtschalter zu betätigen, der wiederum den elektrischen Stromkreis einer Leitung schließt, sodass eine Glühbirne schließlich den Raum erhellt. Keine dieser Funktionserweiterungen führt also eine völlig neue Funktion ein.

So wird auch deutlich, dass es die sozialen und psychischen Auswirkungen auf uns sind, die die „Botschaft“ eines Mediums darstellen, nicht sein „Inhalt“. McLuhan erwähnt hierzu die Erfindung der Eisenbahn, die den Transport von Gütern nicht eingeführt, sondern lediglich sein Ausmaß erweitert habe, und dies unabhängig von der Fracht, die der Zug geladen habe und unabhängig von der Gegend in der er führe. Die Fracht dieses Zuges wäre hierbei als der „Inhalt“ des Mediums zu betrachten, der aber keinerlei Bedeutung für das Medium an sich, also seine „Botschaft“ hat.

Aus diesen Thesen ergibt sich nun der weit verbreitete Fehler, der uns bei der Analyse und Betrachtung von Medien und ihren Auswirkungen auf die Gesellschaft unterlaufen kann. Die Tatsache nämlich, dass ein Medium immer ein anderes Medium enthält, sprich zum „Inhalt“ hat, macht uns blind für das Medium, das wir eigentlich untersuchen wollen, da wir uns, anstatt auf das Medium selber, auf seinen „Inhalt“, also auf das eine Ebene tiefer liegende Medium konzentrieren. Dies wird besonders deutlich am Beispiel des elektrischen Lichts. Das elektrische Licht ist für McLuhan reine Information, da es für sich allein inhaltslos ist. Sobald es aber benutzt wird, um beispielsweise einen Reklametext auszustrahlen, wird es zum Medium. In diesem Fall nehmen wir das Licht aber nicht als solches wahr, sondern analysieren stattdessen vermutlich den Werbetext, also ein vollkommen anderes Medium, dass den „Inhalt“ des Mediums Licht bildet. Wir würden auf diese Weise nie Aussagen über das Licht als Medium machen, sondern nur über das Medium Werbetext sprechen. Genauso hat jedes andere Medium immer ein weiteres zum Inhalt. McLuhan gibt weitere Beispiele für diese Schachtelungen: „Der Inhalt der Schrift ist Sprache, […] das geschriebene Wort [ist] Inhalt des Buchdrucks […] und der Druck [ist] wieder Inhalt der Sprache“ und später: „Der Inhalt eines Films ist ein Roman, ein Schauspiel oder eine Oper“.

Interessant ist außerdem, dass ein Medium, so McLuhan, immer dann sichtbar wird, wenn es den Höhepunkt seiner Entwicklung erreicht. So beschreibt er das Phänomen, dass die (eigentlich unsichtbaren) Schallwellen knapp bevor ein Flugzeug die Schallmauer durchbricht, kurz sichtbar werden. Und auch die Erfindung des Films sieht McLuhan als Höhepunkt der Mechanisierung, die aus der industriellen Revolution hervorgegangen war: „Der Film brachte uns, durch bloße Beschleunigung der Mechanik, von der Welt der Folge und Verbindung zur Welt der schöpferischen Gestalt und Struktur. Die Botschaft des Mediums Film ist die des Übergangs von linearer Verbindung zur Gestalt. […] Wenn die elektrische Geschwindigkeit noch mehr von den mechanischen Filmsequenzen übernimmt, werden die Kraftlinien in Strukturen und Medien laut und deutlich. Wir kehren zur allumfassenden Form des Bildsymbols zurück“. Der Film stellt den technischen Höhepunkt der Serialisierung, der Aneinanderreihung und der Kontinuität dar, die die Botschaft des Mediums Buchdruck ist. Im Film ist diese Aufeinanderfolge der Einzelbilder so perfektioniert, dass sie als solche nicht mehr zu erkennen sind und wir nur noch den ablaufenden Film wahrnehmen.

Die elektrischen Medien, zu denen McLuhan in der Folge des Films das Radio und das Fernsehen zählt, bedeuten für unsere Gesellschaft etwas völlig Anderes, das wir mit unserer aus der Tradition des Gutenberg-Drucks stammenden rational-analytischen Herangehensweise nicht erklären können. Der Buchdruck hat unsere Gesellschaft so stark geprägt, dass wir von den ganzheitlichen Reizen der elektrischen Medien völlig überrumpelt worden sind. McLuhan betont dennoch, dass wir uns den Veränderungen, die diese Medien für unsere Gesellschaft bedeuten, nicht entziehen können. Aber wir können uns ihrer eigentlichen Botschaft bewusst werden und dieses Wissen für genauere Untersuchungen der Medien nutzen, bei denen es uns um das Medium selbst und nicht um seinen Inhalt geht.

Weiterlesen bei:
Marshall McLuhan: „Die magischen Kanäle. Understanding Media“, Düsseldorf u.a.: Econ 1992 [1964].

Einführung

Der Blog 'Understanding Media?' ist ein von Studenten der Medienwissenschaft an der Humboldt – Universität zu Berlin ins Leben gerufenes Studienprojekt. Ziel des Blogs ist die reflektierte Auseinandersetzung mit kanonischen Denkern der noch jungen Fachdisziplin, die am Lehrstuhl für Medientheorien unter Prof. Dr. Wolfgang Ernst behandelt wurden. In kurzen Beiträgen werden die Autoren, die sich allesamt der Frage nach den Medien widmen, vorgestellt. Interessierte sind herzlich dazu eingeladen, im Rahmen des Blogs an der Diskussion der Thesen teilzunehmen.

Der Versuch, den Begriff des Mediums umfassender zu definieren als ein ‚Dazwischen’, das als „Mitte, Mittel, Vermittlung und Milieu“ (Georg Christoph Tholen) technisch nur soweit in Erscheinung tritt, wie es grundlegende Funktionen zu erfüllen vermag (Speichern - Übertragen - Verarbeiten), dessen erzeugte Botschaften wiederum sehr wirksam über ihren eigenen Charakter hinwegtäuschen (Marshall McLuhan), soll an dieser Stelle nicht unternommen werden. Deshalb versehen wir den Titel des 1964 erschienenen Klassikers über Medien von Marshall McLuhan für diesen Blog mit einem Fragezeichen: ‚Understanding Media’ ist nicht erst seit Veröffentlichung des gleichnamigen Buches ein andauernder Prozess, der nicht nur im Rahmen einer (Medien-)Wissenschaft geführt wird, sondern Impulse aus einer Reihe anderer Disziplinen erhält (Philosophie, Medien - Kunst, Musik, Informatik).

Als Instanz kultureller Vermittlung und besonders in der Gestalt des vernetzten Computers prägen Medien die Wahrnehmung der Gegenwart, verwalten das Wissen über Vergangenes und eignen sich als Erfindungen von oft unvorhersehbarer Reichweite zur Spekulation über die Gestalt(ung) zukünftigen (Zusammen-)Lebens. Unsere Fragestellung, nicht zufällig im dynamischen Medium eines prinzipiell unabschließbaren Archivs angesiedelt, erläutert eine Perspektive auf Medien, die von ihrer apparativen und operativen Dimension her betrachtet (Wolfgang Ernst), selbst als ‚Perspektivmaschinen’ (Axel Volmar) der Gesellschaft erscheinen. Insofern steht die Theorie hier einer Medien - Kunst nahe, die seit ihrem Aufkommen den unbewussten, einseitigen Gebrauch von Medien sinnlich ad absurdum führt.

Quellen:
Tholen, Georg Christoph: Medium/Medien, In: Roesler, Alexander/Stiegler, Bernd (Hrsg.): Grundbegriffe der Medientheorie, Paderborn: Wilhelm Fink, 2005, S. 150 - 173
Kursbuch Medienkultur, Die maßgeblichen Theorien von Brecht bis Baudrillard, hrsg. von Claus Pias, Joseph Vogl, Lorenz Engell, Oliver Fahle, Britta Neitzel, Stuttgart: DVA (1999), 5. Auflage 2004