Claus Pias
Das digitale Bild gibt es nicht.
Über das (Nicht-)Wissen der Bilder und die informatische Illusion
Informationstheorie handelt nicht davon, was gesagt wird, sondern von dem,
was gesagt werden könnte. Unter informatischen Bedingungen sind nicht die
sogenannten "Inhalte" entscheidend, sondern die Anordnung und Verknüpfung von
Daten. Der fundamentale Unterschied zwischen digitalen und analogen Bildern ist,
dass digitale Bilder Information haben. Sie beschränken sich auf die
Endlichkeit einer Datenmenge, deren Informationsgehalt streng genommen das ist,
was nach maximaler, verlustfreier Kompression übrigbleibt. Mit dem Akt der
gewalttätigen Repräsentation, mit der Beschneidung der analogen Unendlichkeit
erkauft sich das Digitale gewissermaßen die Freiheit seiner Speicherbarkeit,
seiner Übertragbarkeit und seiner Prozessierbarkeit.
Der ganze Komplex der "Digitalisierung" und Vernetzung bedeutet dabei viel
mehr als eine Übersetzungsleistung vorhandener "Inhalte" in ein anderes
technisches "Medium". Die sogenannten "Inhalte", die Verkehrsformen und das
Wissen einer Disziplin überhaupt existieren nicht unabhängig von ihren
technischen Gegebenheiten, ihren Institutionen und Inszenierungsweisen.
Kunstgeschichte, wie wir sie kennen, wird nicht als digitalisierte zu haben
sein, sie gerät dabei zwangsläufig zu einer anderen und wir können nicht
absehen, wie diese aussieht.
<1> Bitte lassen Sie sich von dem merkwürdigen Titel und seiner ontologischen
Spekulation (auf den ich später noch zu sprechen komme) nicht irritieren, und
mich statt dessen mit einigen Bildern beginnen, die unserem Thema einer
"digitalen" oder "digitalisierten" Kunstgeschichte und ihren Forschungs-
und Informationssystemen viel näher stehen. [1]
<2> Diese Illustration stammt aus dem Buch "Kybernetik, die uns
angeht", das Anfang der 70er Jahre in der Reihe "Aktuelles Wissen"
erschien. Und als Legende können Sie vielleicht den hoffnungsvollen Satz
entziffern: "Student, Schülerin, Wissenschaftler und Manager: sie werden in
Zukunft zur Lösung ihrer Probleme bei einer Datenbank anfragen können, ohne
viel Zeit für Sucharbeit aufwenden zu müssen." Ohne dieses Diagramm nun im
Detail in die Geschichte oder Ikonographie von Wissensordnungen stellen zu
wollen, möchte ich Sie darauf hinweisen, dass hier anscheinend eine verloren
geglaubte Mitte wieder aufersteht - ein Ort der Verwaltung oder Regierung,
der ununterbrochen selbst mit den unterschiedlichsten und entferntesten
Provinzen in Verkehr steht, oder auch ein epistemisches Gravitationszentrum,
das die verschiedensten Wissenszusammenhänge in einer stabilen Umlaufbahn
hält. Und während um dieses Zentrum herum Geschäftigkeit und Leben
herrscht, Menschen rauchen und telefonieren, konzentriert lernen oder angeregt
diskutieren, strahlt diese Mitte eine gewisse Ruhe und Gelassenheit aus, eine
Souveränität, wenn man es so nennen will. Die Maschine geht ihren Gang, und
die Aufsichtsperson sieht ihr dabei zu oder liest Zeitung. Eine Nachtwache des
Weltwissens.
<3> Bemerkenswerterweise sieht man keine der Zielgruppen an einem Terminal bei
einer konkreten Datenbankanfrage. Sie alle benutzen noch so klassische Medien
wie Telefone und Druckerzeugnisse, von denen sie ja demnächst glücklich
entbunden werden sollen. Erinnern wir uns, dass nur wenige Jahre später Jean
François Lyotard in seinem Bericht über "Das postmoderne Wissen" eben
dieses neue Wissen nicht primär als geistesgeschichtliches, sondern erst
einmal als medien- und technikgeschichtliches Datum markierte, das dann erst
zum "philosophischen" Problem wird. Dieses Datum wird bezeichnet durch
"die Probleme der Kommunikation und die Kybernetik, die modernen Algebren und
die Informatik, die Computer und ihre Sprachen, die Probleme der
Sprachübersetzung und die Suche nach Vereinbarkeiten zwischen Sprachen - Automaten, die Probleme der Speicherung in Datenbanken, die Telematik und die
Perfektionierung von intelligenten Terminals." [2]
<4> Und erinnern
wir uns auch, dass Lyotard eine immer noch virulente Konsequenz zog: Unter
informatischen Bedingungen sind nicht die sogenannten "Inhalte"
entscheidend, sondern die Anordnung und Verknüpfung von Daten. Es geht nicht
mehr um das "Verstehen", das Dilthey zur Grundlage des Geistes der
Geisteswissenschaften erkoren hatte, sondern "um den Gebrauch von Terminals,
das heißt einerseits neue Sprachen und andererseits eine raffinierte
Handhabung jenes Sprachspiels, das die Befragung darstellt: Wohin die Frage
richten, das heißt, welcher Speicher ist für das, was man wissen will,
relevant?" So Lyotard 1979. Und ich möchte die Frage: "Was wollen wir
wissen?" für das Ende aufheben.
<5> Lassen Sie mich zwei weitere Abbildungen hinzufügen. Die erste stammt aus
einem Buch von Felix von Cube, das einige Jahre früher (1967) erschien und
illustriert eine neue Wissensordnung, in deren Zentrum die Kybernetik steht.
Hier sind es nicht mehr nur einzelne Berufe, deren Alltag durch ganz konkrete
kybernetische Hardware erleichtert wird, sondern es sind die unterschiedlichen
Wissenschaften selbst, die ein neues Zentrum gefunden haben.
<6> Den gleichen
Zusammenhang (lediglich anders dargestellt und mit etwas mehr Gewicht auf den ingenieurstechnischen
Feldern) zeigt eine Illustration von 1973.Sie stammt aus einem sowjetischen Jugendbuch namens
"Kleine Enzyklopädie
von der großen Kybernetik", das 1977 als Übersetzung in der DDR erschien.
Hier ist es kein Stern, sondern gewissermaßen der Sonnenaufgang einer
Theorie, in deren Strahlen die alten Disziplinen des Rechts, der Medizin
und der Philosophie mit den jungen der Ingenieurswissenschaften vereint
erstrahlen. Dass hier, in einem sowjetischen Buch, die Theologie fehlt, ist
nur allzu verständlich. Gleichwohl hat die Kybernetik nicht zuletzt
theologische Wurzeln. Schon Pindar nannte die göttliche Weltregierung
"Kybernetik". Das Neue Testament rechnet die "Kybernesis", die
Gemeindeleitung also, zu den Gnadengaben Gottes (1.Korinther, 12/28). Der
Kirchenvater Hippolyt beschreibt Christus als "Kyberneten", als Steuermann,
der das Schiff der Christenheit sicher über den stürmischen Ozean steuert.
<7> Und zugleich ist, über Platons Politeia und Aristoteles’
Politika und seit
Thomas von Aquin die gute Regierung eines guten Regenten "gubernatio"
genannt hat, die kybernetische Tätigkeit als politische Tätigkeit in die
Neuzeit gekommen. Und als eine solche Cybernétique findet sie sich noch bei
dem französischen Elektrophysiker André-Marie Ampère in der ersten Hälfte
des 19. Jahrhunderts. Bis dann Norbert Wiener dem Begriff eine andere und
programmatische Wende gab, auf die ich gleich zu sprechen komme. Denn seit
dieser Wende ist Kybernetik nicht mehr politische Theologie, sondern der Name
der vorerst letzten Universalwissenschaft. Und als solche löst sie ihre alten
Wissensmonopole nicht auf, sondern strukturiert sie um und integriert sie.
<8> Ich zeige Ihnen ein Bild, das 1958 gleich auf der ersten Seite der
zehnbändigen Technikenzyklopädie Epoche Atom und Automation prangte. Es ist
ein einsames Hirn, das als Weltbaumeister im All schwebt und von dort gezielt
die Industrialisierung vorantreibt. Dabei bleibt allenfalls merkwürdig, wie
der Übergang eines immateriellen Denkens in die Materialität gebauter
Fabrikarchitektur bewerkstelligt werden soll. Aus den Pfeilen werden
plötzlich die geschickten Hände eines Demiurgen (Weltschöpfers).
<9> Und ich zeige Ihnen ein weiteres Bild, das das Gehirn gegen sein
Äquivalent ersetzt, nämlich den Digitalcomputer. [3] Dies war allemal
legitim, zumal John von Neumann, der große Mathematiker und
Computerkonstrukteur des Zweiten Weltkriegs, ja just zu dieser Zeit sein
populärwissenschaftliches Büchlein The Computer and the Brain
veröffentlicht hatte, das der Metapher vom Elektronengehirn zum überragenden
Durchbruch verhalf - auch wenn es dies vielleicht gar nicht wollte. Statt
eines abstrakten Gehirns wacht nun ein Bürokrat im dunklen Anzug über die
Geschicke der Welt - oder genauer: er überwacht einen Computer, der diese
Geschicke kontrolliert und beginnt, den Globus mit Kabeln zu umspannen. Denn
nicht Materie oder Energie bilden den Stoff, aus dem kybernetische Träume
gemacht sind, sondern Information. Und damit nähere ich mich zaghaft dem
Thema dieser Veranstaltung.
<10> Denn nicht nur die Welt, sondern auch das Wissen unterliegt den gleichen
Verfahren der Kommunikation und Kontrolle. Eine Frau, wahrscheinlich eine
Bibliothekarin, nimmt hier den Platz des Bürokraten ein und blickt (als
flöge sie über den Saal) auf die Library of Congress in Washington hinab,
die Sitzreihen rund wie Breitengrade, deren Bestände am Regler in ihrer
zarten Hand liegen. Doch der besondere Clou der Kybernetik ist ja, dass es
sich immer um wechselseitige Regelungen handelt, um Rückkopplungsschleifen,
in denen - solange man jedenfalls die Regelungsebene nicht verlässt - ununterbrochen auch die Kontrolleure kontrolliert werden.
<11>
Sie sehen hier ein Diagramm, das die kybernetischen Hoffnungen auf neue
Formen der Lehre illustrieren soll. Vorne soll nun nicht mehr der Lehrer
stehen, der ein bestimmtes Niveau und ein bestimmtes Curriculum
"durchzieht", dem die Schüler zu folgen haben. Vielmehr wird, so
die Vision der frühen 70er, ein Zentralrechner mit Terminals die Leitung
übernehmen. Die Schüler bedienen das Gerät nach ihrem Tempo und ihren
Vorlieben und das Gerät stellt sich auf ihr Tempo und ihre Vorlieben ein. Im
Namen der Effizienz sollen Hierarchien durch Rückkopplungen ersetzt werden.
Gilles Deleuze hat dies bekanntlich als Ablösung der
"Disziplinargesellschaften" durch die "Kontrollgesellschaften"
beschrieben, durch Gesellschaften, in denen man nie mit etwas fertig wird und
wellenförmige Existenzen entstehen.
<12>
Und so lassen sich die Bilder
austauschen: Statt des Bürokraten, der einen Regelkreis von Computer und Welt
beobachtet, statt der Bibliothekarin, die einen Regelkreis von Computer und
Bibliothek beobachtet, sehen wir nun auch noch einen Lehrer, der einen
Regelkreis von Computer und Schülern beobachtet. Und man könnte diese Reihe
sicherlich endlos fortführen.
<13>
Es ist ganz offensichtlich, dass diese Konzepte der Kybernetik überall
lebendig sind, obwohl die Kybernetik wissenschaftshistorisch längst tot ist.
Oder besser: Ihr erster Körper ist irgendwann in den späten 70ern gestorben,
um dann als Gespenst wiederzukehren und heute überall zu spuken.
Doch davon will ich gar nicht sprechen, sondern vielmehr noch einen Schritt
zurück in die Geschichte wagen. Zurück in jene Zeit, als die Kybernetik noch
ein junges und schillerndes, ambitioniertes und grandioses Projekt war. Und
dieses Projekt macht erklärlich, warum die Begriffe der "Information" und des
"Digitalen" für dieses Jahrhundertprojekt so entscheidend waren.
<14> Mit der Kybernetik begann offiziell das, was wir heute alltäglich in
Stellenausschreibungen und DFG-Anträgen fordern: die sogenannte
Interdisziplinarität. Denn die legendären Gründungstreffen der Kybernetik,
die Macy-Konferenzen seit 1946, waren vor allem ein Auffangbecken für jene
völlig heterogenen Forschergruppen, die während des Zweiten Weltkriegs von
der 3US-amerikanischen Wissenschaftspolitik unter Vannevar Bush systematisch
gebildet wurden. Was während des Krieges als effizienter Einsatz vereinter
Kräfte zur Bildung von wissenschaftlichen Synergieeffekten gemeint war, webte
ein Netz von fächerübergreifenden Bekanntschaften und transdisziplinärem
Verständniswillen, das sich nach dem Krieg (nur) von Kriegs- auf
Friedenswissenschaften umstellen musste. So stammte die Gründungsmannschaft
der Kybernetik aus heterogenen Bereichen wie Anthropologie und
Sprachwissenschaft, Elektrotechnik und Soziologie, Neurobiologie und
Psychoanalyse, Wahrnehmungslehre und Mathematik.
<15> Diese Treffen, die Macy-Konferenzen eben, hatten aber drei gemeinsame
Theoriebausteine, aus deren Verschränkung die Kybernetik hervorgehen sollte.
Sie finden sich formuliert in drei Aufsätzen der 40er Jahre: 1. Warren
McCullochs "A Logical Calculus of the Ideas Immanent in Nervous Activity",
2. Norbert Wieners !"Behavior, Purpose, and Teleology" und 3. Claude
Shannons "Mathematical Theory of Communication". Diese lieferten die drei
theoretischen Anstöße, aus denen die Konferenzen eine universale Theorie der
Regulation, Steuerung und Kontrolle zu entwickeln suchten, die für Lebewesen
ebenso wie für Maschinen, für ökonomische ebenso wie für psychische
Prozesse, für soziologische ebenso wie für ästhetische Phänomene zu gelten
beanspruchte. Die eine (Shannons) ist eine letztlich geheimdienstliche,
statistische Theorie des Symbolischen. Die zweite (Wieners) ist eine nicht
deterministische und trotzdem teleologische Theorie der Rückkopplung, die an
Flakgeschützen entwickelt wurde. Und die letzte (McCulloch) ist eine
universale Theorie digitaler Maschinen.
<16> Lassen Sie mich wenigstens zu dieser letzten etwas mehr sagen, denn
Warren McCulloch ist in Deutschland sicherlich der am wenigsten Bekannte der drei.
Sein kaum zwanzig Seiten langer Text beginnt mit der größtmöglichen Geste,
nämlich eine Theorie zu schreiben "so general that the creations of God and
men almost exemplify it". Schon deshalb enthält der Text keinerlei
Fußnoten, sondern lediglich eine ebenso spärliche wie programmatische
Literaturliste von drei Büchern, die im Textverlauf nicht einmal zitiert
werden: Carnaps Logische Syntax der Sprache, Hilberts Grundzüge der
Theoretischen Logik und Russell/Whiteheads Principia Mathematica.
<17> Was Warren McCulloch daraus macht, ist allerdings rasant. Denn in einer
Mischnotation aus Carnap, Russell und eigenen Zeichen entwirft er eine Art
logisches Kalkül der Immanenz. Neuronale Interaktion wird
transkribiert in Aussagefunktionen und umgekehrt können dann
Aussagefunktionen in neuronale Interaktion transkribiert werden. Das heißt
erstens, dass es zum Verständnis eines beliebigen Stücks Nervengewebe
ausreicht, es als Verkörperung Boole’scher Algebra zu begreifen. Die
materielle Realität glibberiger Gehirnmasse ist allenfalls eine schlampige
Instantiation der wahren Ideen einer reinen und schönen Schaltlogik oder
Mathematik auf die 'Instrumente der Zeit', wie es bei Platon heißen würde.
Und dieses Konzept einer verkörperten Mathematik heißt zweitens, dass es den
logischen Notationen egal ist, worauf sie gespielt werden - ob auf Synapsen
oder auf Röhren, ob von Schaltern oder von Tintenstrichen. Deshalb konnten
McCullochs Begriffe zugleich neurophysiologische Begriffe, philosophische
Begriffe und computertechnische Begriffe sein. Denn es sind Begriffe, die
arbeiten und funktionieren, die zugleich theoretische wie praktische
Entitäten begründen, die neuronale Strukturen modellieren und zugleich
Artefakte konstruieren.
<18> So wie John von Neumann, McCullochs Aufsatz in der
Hand, Digitalcomputer konstruiert. McCulloch selbst ging aber, drittens,
philosophisch weiter. Denn wenn alle neuronalen Funktionen als Verkörperung
eines logischen Kalküls aufgeschrieben werden können, dann muss man wohl
zugeben, dass alles, was gewusst werden kann, in einem und durch ein logisches
Kalkül gewusst werden kann. Mit anderen Worten: Zu jedem denkbaren
Gedanken lässt sich ein Schaltungsnetz konstruieren, das ihn schaltet und
damit denkt. Der Verstand hat damit eine irreduzible symbolische Ebene, die
gleichwohl implementiert werden muss. McCulloch fordert daher nicht nur eine
"Physik der Kommunikation", sondern vor allem eine experimentelle
Epistemologie: "Epistemische Fragen [so schreibt er] lassen sich, wenn man in
den Begriffen der Kommunikation denkt, theoretisch mit Hilfe der kleinsten
Signale beantworten, die in Rechenmaschinen Aussagen in Bewegung darstellen".
<19> Und da haben wir es nun, das "Computergehirn" - nur eben anders als die
populäre Fassung es uns immer wieder vorführt. Denn bei McCulloch geht es
nicht um einen Vergleich zweier verschiedener Dinge (wie Original und Nachbau),
sondern in seiner Theorie fallen beide schlicht zusammen. Der Mensch ein
besonderer Fall der Informationsmaschine, und die Informationsmaschine ein
besonderer Fall des Menschen, und damit kollabieren diese beiden Kategorien. Wir
haben also 1943 eine Theorie, die den Unterschied (so müsste ich im heutigen
Kontext wohl sagen) zwischen Kunsthistorikern und Informationssystemen für die
Kunstgeschichte nicht mehr braucht.
<20> Und damit stellten sich historisch zugleich
Fragen nach der Informationsverarbeitung von Lebewesen wie auch Fragen danach,
ob Computer zum Beispiel lachen können, Neurosen haben oder Phantomschmerzen empfinden.
Vielmehr noch: Eine ganze Wissensordnung wird erschüttert, wenn man den Begriff
des Menschen in dieser Weise zu dekonstruieren beginnt. Schließlich gipfelte
das aufklärerische Projekt einstmals in der Frage "Was ist der Mensch?", und
gründete genau dafür die sogenannten Humanwissenschaften. So erst gerieten die
verschiedensten Phänomenzusammenhänge in den Bann eines funktionierenden,
wünschenden oder bezeichnenden Menschen, so wie sie nun in den Bann der
Information und Regelung geraten sollten. In diesem Sinne ist die Kybernetik
eine Art "Gegenwissenschaft", die die Humanwissenschaften in Frage stellt. Sie
ist eine Wissenschaft, die eine neue Ontologie aus dem radikalen Denken der
Technik und nicht aus der Radikalisierung der Philosophie entwickelt. Sie ist
eine Wissenschaft (und dieser Satz scheint mir wichtig), die denkt, ohne dabei
sogleich zu denken, dass es der Mensch ist, der denkt.
<21> Lassen Sie mich noch einmal von einer anderen Stelle aus anfangen, um in
einer Parallelaktion zur Frage nach der Bedeutung von digitalen
Informationssystemen für unsere Wissenschaft zu kommen. Die ganze
kybernetische Epistemologie funktioniert nur und ausschließlich auf der Basis
des Digitalen. Deswegen gibt es um diesen Begriff auch längere Diskussionen
auf den Macy-Konferenzen, auf die ich hier nicht eingehen will. Vielmehr will
ich Ihnen erstens an einigen Beispielen zeigen, was "es" ist das denkt, wenn
nicht 'der Mensch' denkt, und zweitens, wie das digitale Bild absolut klar und
präzise Warren McCullochs merkwürdige Theorie illustriert, die überall
transzendental-empirische Dubletten bildet. Wir kommen also wieder zu einem
unterhaltsameren Teil.
<22> Claude Shannon hat den staunenden Teilnehmern der siebten
Kybernetik-Konferenz von 1950 folgendes kleine Experiment vorgeführt, das
seine geheimdienstliche Herkunft aus der Kryptoanalyse wohl kaum verbergen
kann. Es ist ein wunderbares Beispiel für Informationstheorie und für das
seltsame neue Wissen, das unter digitalen Bedingungen entsteht. Da einige von
Ihnen es sicherlich kennen, fasse ich mich kurz.
Nehmen wir einmal an, wir hätten die üblichen Buchstaben des Alphabets
und ein zusätzliches Spatium. Das Alphabet ist ja glücklicherweise eines der
ältesten digitalen Medien, denn es kennt nur diskrete Zustände: So wie wir
keinen Finger zwischen Ring- und Mittelfinger haben (digitus), so gibt es auch
keinen Buchstaben zwischen A und B. Angenommen ein Zufallsgenerator pickt
völlig willkürlich einen Buchstaben nach dem anderen heraus. Dann ergäbe
sich beispielsweise eine solche Zeile:
1. XFOML RXKHRJFFJUJ ZLPWCFWKCYJ FFJEYVKCQSGHYD
<23> Nehmen wir nun an, dass die Zeichen nicht völlig zufällig gewählt
würden, sondern entlang ihrer Häufigkeit in der englischen Sprache.
Das heißt,
dass zum Beispiel das "E" häufiger getroffen würde als das "Z". Wir lesen
dann vielleicht:
2. OCRO HLI RGWR NMIELWIS EU LL NBNESEBYA TH EEI
<24> Nehmen wir nun an, dass der Computer auch noch darauf achtet, dass nie mehr
Konsonanten oder Vokale aufeinander folgen, als in der englischen Sprache
statistisch üblich. Das sähe es möglicherweise so aus:
3. ON IE ANTSOUTINYS ARE T INCTORE ST BE S DEAMY ACHIN
D ILONASIVE TUCOOWE AT TEASONARE FUSO
<25> Der nächste Versuch berücksichtigt nun Dreiergruppen von Buchstaben,
wieder gestaffelt nach ihrer Häufigkeit im Englischen:
4. IN NO IST LAT WHEY CRATICT FROURE BIRS GROCID
PONDENOME OF DEMONSTURES OF THE RETAGIN IS REGIACTIONA OF CRE.
<26> Der fünfte Versuch greift zufällig ganze Wörter aus einem englischen
Wörterbuch heraus und berücksichtigt auch wieder ihre Häufigkeit, nimmt
also mehr Artikel oder Präpositionen:
5. REPRESENTING AND SPEEDILY IS AN GOOD APT OR COME
CAN DIFFERENT NATURAL HERE HE THE A IN CAME THE TO OF TO EXPERT GRAY COME TO
FURNISHES THE LINE MESSAGE HAD BE THESE.
<27> Und der letzte Versuch berücksichtigt die Häufigkeit, mit der im
Englischen ein aktuell ausgewähltes Wort auf ein zuvor ausgewähltes Wort
folgt:
6. THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER
THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS
THAT THE TIME OF WHO EVER TOLD THE PROBLEM FOR AN UNEXPECTED.
<28> Damit sind wir plötzlich bei "reasonable english", wie Shannon es
kommentiert. Nach einigen statistischen Operationen beginnt die Sprache selbst
zu sprechen und nicht etwa ein kluger Kopf dahinter. Und damit sind wir
zugleich im Herzen der Informationstheorie. Denn diese - und das ist der
Grund für so viele Missverständnisse in ihrer Geschichte - hat überhaupt
gar nichts mit Sinn oder Bedeutung zu tun. Informationstheorie handelt nicht
davon, was gesagt wird, sondern von dem, was gesagt werden könnte. Sie ist in
diesem Sinne eine Theorie virtueller Ereignisse. Ihre Parameter sind die zur
Verfügung stehenden, diskreten Zeichen und die jeweilige Wahrscheinlichkeit
mit der ein bestimmtes Zeichen ausgewählt wird. Unwahrscheinliche Ereignisse
haben dabei eine hohe Information, erwartbare Ereignisse dagegen haben eine
geringe Information. Mit anderen Worten: Die höchste Information ist in dem
Buchstabengestöber des ersten Satzes enthalten, während der letzte Satz, der
ja fast sinnvolles Englisch ist, so gut wie keine Information mehr hat. Und
das läuft natürlich unserer alltäglichen Intuition einigermaßen entgegen.
Denn was ist das für ein seltsames Wissen, wenn aus statistischen Verfahren
ein verständlicher und sinnvoller Satz entsteht? Sie können das leicht auf
Fragen der digital(isiert)en Kunstgeschichte übertragen: Was wäre das für
ein Wissen, wenn eine Bilddatenbank mit statistischen Verfahren eine
einleuchtende Auswahl von Bildern träfe?
<29> Ich werde am Ende darauf zurückkommen, wenn es um die Informationssysteme
der Kunstgeschichte geht. Festzuhalten bleibt hier nur, dass die
Informationstheorie es ausschließlich mit technischen und nicht mit
semantischen Aspekten zu tun hat, dass aber dauernd semantische Irritationen
auftreten. Als sinnfreie Nachrichtentheorie bezieht sie sich zugleich auf
Kommunikation zwischen Maschinen und Maschinen und nicht bloß auf Maschinen
und Menschen. Sie zeigt aber zugleich, und das ist ihr großer
medientheoretischer Coup, dass es ein technischer Grund ist, auf dem die
semantischen Effekte erst sprießen. Aus diesem Grund habe ich Ihnen auch
Shannons Beispiel gezeigt.
<30> Lassen Sie mich nun von den Texten zur Frage der digitalen Bilder kommen
und mit einem kleinen Experiment beginnen. Sie sehen ein rotes Quadrat.
<31> Jetzt zeige ich Ihnen noch einmal ein rotes Quadrat, und Sie
sehen unterschiedslos ein rotes Quadrat.
Was sie nicht sehen können, weil es unterhalb der physiologischen
Distinktionsschwelle und erst recht unter dem Differenzierungsvermögen
aktueller Beamer liegt: Dies ist kein rotes Quadrat mehr, sondern es sind zwei
rote Rechtecke übereinander, die unterschiedliche Farben haben. Hier die Werte für Rot, Grün und Blau.
<32> Wir sehen gewissermaßen "a difference that makes no
difference" - aber
eben nur wenn wir sehen. Wenn allerdings der Computer beobachtet, wenn wir zum
Beispiel in einem Bildbearbeitungsprogramm eine Farbe gegen eine andere ersetzen
wollen, oder wenn wir mit einem Suchprogramm in einer Datenbank danach suchen,
dann wird diese "difference" von einem einzigen Bit eben doch plötzlich
Unterschied machen.
<33>
Hier zeige ich Ihnen den Scan des Roten Quadrats von Malewitsch. Das
Programm PowerPoint®, das ja inzwischen leider überall verwendet wird und
dringend einer kritischen, kunsthistorischen Analyse bedürfte, nährt nun
ununterbrochen die Illusion, dass digitale Bilder nichts anderes sind als Dias
im Rechner. Schließlich heißt der dortige Menüpunkt ja auch "Diaschau",
und man kann sogar das Klacken eines Projektors simulieren. Deshalb wechsle
ich nun, zumindest virtuell, das Programm.
<34>
In iView jedoch, einem simplen Katalogisierungstool, kann man unter DATEI
mehrere Aussagen über diesen Scan des Roten Quadrats finden: Zum Beispiel legt der
Medientyp "Bild" legt fest, dass es an diesen Daten nichts zu hören gibt,
dass sie auch keine Programmbefehle sind und so weiter. Wir lesen die Größe von 1.1MB
oder genauer: 1.187.669 Byte, das heißt 9.501.352 Ein/Aus-Differenzen (würde man
diese aufschreiben, mit 3mm breiten Einsen und Nullen, reichte der
Papierstreifen schon fast von hier nach Florenz).
<35> Das Bild hat einen Schöpfer namens GKON (Grafikkonverter), also das was
man einen "absoluten Leser" nennen könnte. Es hat einen Datei-Typ namens
TIFF, also ein standardisiertes Set von Regeln die bestimmen, wie die
Information aufzuschreiben ist. Und es hat eine Codierung namens LZW, die
bestimmt, nach welchem Algorithmus Information ermittelt wird. Zuletzt
erkennen wir mindestens ein medienhistorisches Datum: den 18. Mai 2002,
16:47:08 Uhr, das das Hier und Jetzt eines technischen Verbundes von
gedrucktem Bild, Lampen, Sensoren, A/D-Wandlern, Interfaces, Programmen,
Benutzern und so weiter bezeichnet. Darunter folgen zuletzt mehrere Angaben unter dem
uns allen merkwürdig vertrauten Stichwort MEDIEN (Höhe, Breite, Tiefe,
Kompression, Farbraum). Medien sind, zumindest für die Programmhersteller,
nicht die Bilder, sondern etwas, das eine Übersetzung von Informationen in
Bilder organisiert und formatiert oder (etwas heideggerianischer) diese
Übersetzung "verhält". Wenn man sich nun den Spaß
macht und die Medien
"manipuliert" (um ein arg in die Jahre geratenes Wort zu benutzen), geht
etwas schief.
<36>
Hier zum Beispiel habe ich beim Anzeigen der Information 8 statt 24 Bit
Farbtiefe auf einer entsprechend großen Fläche angewiesen (oben der Header).
Das ist, wie Sie merken, etwas ganz anderes, als das Bild in Graustufen zu
konvertieren, was ja mit einem Informationsverlust einhergeht (das Programm
Photoshop fragt sogar korrekt: "Wollen Sie die Farbinformation verlieren?").
Immerhin erkennen wir noch eine gewisse Gestaltanmutung - zumindest mit dem
Vorwissen, dass dieselben Daten gerade als Rotes Quadrat dargestellt wurden.
<37>
Etwas undurchschaubarer wird es jedoch, wenn man den "Medientyp" nicht
respektiert und die Farbangaben als Zahlen oder Buchstaben liest, wie ich es
hier mit einem Disk-Editor getan habe, der links die relative Adresse zeigt,
in der Mitte die hexadezimalen Werte gibt und rechts eine
Zeichensatzdarstellung versucht.
<38> Und dann könnte man (was im Konzept der Turing’schen Papiermaschinen
völlig legitim wäre) die ganze Hardware austauschen und statt des Computers
zum Beispiel Hanne Darboven zum Aufschreiben hinsetzen. Mit anderen Worten: Die
'Bilder' digitaler Daten sind absolut kontingent, und wir haben es mit
historisch extrem wandelbaren Verfahren und mit ebenso veränderlichen
materiellen Apparaturen zu tun, also kurzum mit medienhistorischen
Ereignissen. Lassen Sie mich in diesem Sinne ein medienhistorisches Beispiel
bringen - ein Beispiel an dem die Historizität von Daten und ihren
Inszenierungsweisen deutlich wird. Stellen Sie sich einen Empfänger vor, mit
dem wir kulturell und historisch gar nichts zu tun haben - so wie den
'Buschmann', der sich bei Panofsky das Leonardo’sche Abendmahl ansieht.
Nehmen wir an, dieser naivste Empfänger, den wir uns vorstellen können, sei
der Außerirdische.
<39>
Hans Freudenthal, der in den 60ern ein Buch mit dem Titel "Lingua
Cosmica" verfasste, hielt den Außerirdischen für einen Mathematiker
(was ja auch kein Wunder war - zumindest nicht für einen
Mathematikprofessor in Yale). Und Frank Drake hielt ihn wenig später für
einen Augenmenschen. [4] So kam wohl der folgende, seltsame Datensatz von
551 bit zustande.
<40> Wahrscheinlich sieht niemand, der diese Daten nicht schon kennt, was sie
darstellen. Die erste Frage eines Bildinterpreten (wobei wir schon
unbegründet annehmen, dass es 'Bilddaten' sind) müsste sich wahrscheinlich
auf das richten, was im Programm iView unter "Medien" stand: Höhe und
Breite des Zeilenumbruchs. Bei 551 Bit sind dies 19x29 Pixel als
Produkt zweier Primzahlen, denn Aliens sind - so wurde angenommen - informationstheoretisch
verwöhnt und gehen vom Unwahrscheinlichsten aus. So ergibt sich dann dieses
schöne Bildchen.
<41>
Wirklich gesendet wurde dann jedoch 1974 diese Version von 1679 Bit
mit gemächlichen 10 Bit pro Sekunde auf 2380 MHz, so dass sie in
ca. 25000 Jahren am Ziel sein wird:
<42>
Mir scheint hier erst einmal die Vorstellung interessant, digitale
Information sei geradezu naturgegeben an eine bestimmte Darstellung gekoppelt:
erstens an Ziffern von 0 und 1 in Leibniz’scher Tradition und zweitens, so
selbstverständlich wie nur Primzahlen als Kantenlängen, an schwarze
Kästchen auf weißen Flächen. An Pixelgrafik eben, die doch historisch
gerade erst erfunden war und begann die Vektorgrafik der Radarbildschirme
abzulösen.
<43> Sie alle kennen wahrscheinlich die Folgebotschaft, die 1977 mit Voyager I
und Voyager II auf zwei vergoldeten Schallplatten ins All ging. Bitte
verwechseln Sie diese Platten jedoch nicht mit der Pioneer-Sonde, die immer
wieder fälschlich abgebildet wird und von 1971 stammt.
<44>
Die Voyager-Platten von denen ich rede, begannen nicht mit freundlich
winkenden US-amerikanischen Durchschnittsmännern und -frauen, sondern
(medienwissenschaftlich viel klüger) mit der Bauanleitung für ihren
Plattenspieler selbst.
<45>
Und das Wunderbare ist, dass dieser Plattenspieler erst mal Bilder
abspielt. Die erste Platte ist eine Bildplatte, aber nicht, weil ein Bild
eingraviert ist, sondern weil digitale Informationen darauf enthalten sind,
die als Bilder dargestellt werden sollen. Der pfiffige Außerirdische braucht
nur die Platte an einem Motor zu befestigen, irgendwie zu entziffern, dass sie
auf 16,6 Umdrehungen läuft, den mitgelieferten Abtastkopf aus der Zubehörbox
zu nehmen und die Bilder irgendwie auszugeben. Wenn er jetzt noch das Signal
für den Zeilenumbruch richtig identifiziert, bekommt er als erstes ein
Testbild zu sehen, das nicht mehr sagt als dass Kommunikation kommuniziert: Er
sieht einen Kreis (und bitte beachten Sie das Copyright!), der deshalb als
universal durchgeht, weil Flüssigkeiten in der Schwerelosigkeit Kugeln
bilden, die so rund sind wie sonst nur Kreise in Künstlerlegenden. Und das
basiert natürlich auf der stillschweigenden Annahme, dass der Außerirdische
schon einen Farbmonitor der um 1970 neuesten Generation hat.
<46>
Und kaum sechs Bilder später folgt konsequent das nächste Testbild (ein
Farbspektrum der Sonne nämlich), an dem er feststellen kann, ob die folgenden
Vierfarbabbildungen auch farbecht rüberkommen. Farbmanagement ist selbst in den
Tiefen des Weltalls noch ein Problem.
<47>
Und ab dieser Klärung digitaler und visueller Diskursbedingungen folgen
dann so großartige Bilder wie zum Beispiel diese "Allegorie des
Geschmacks": lecken, essen, trinken - man beachte die Bissspur eines
NASA-Mitarbeiters im Thunfischbrötchen), zu der Forschungsleiter Carl Sagan
konstatiert: "Es erzählt der Milchstraße, dass wir von Brot, Wasser und
Eiscreme leben.". So verwundert es kaum mehr, dass Frauen das Feuer hüten und Männer derweil Kunst machen
und dass beides zusammen 'Kultur' sein soll.
<48>
Und welcher Außerirdische mag
nicht im spontanen Bildverstehen das Los hängengebliebener Autofahrer teilen: "Das Flottmachen festgefahrener Fahrzeuge mag eine Erfahrung
sein, die wir mit fremden Forschern teilen [...] im unvorstellbaren Schlamm
fremder Planeten steckengeblieben".
<49>
Nicht zuletzt enthielt eine zweite Platte 90 Minuten "Musik der Völker",
einige Audio-Samples und 60 Grüße in den verbreitetsten Sprachen der Welt
- diese aber wohlgemerkt analog. Nicht auszudenken
was passieren würde, wenn der Außerirdische auch die Grüße Kurt
Waldheims digital statt analog ausläse.
Wahrscheinlich würde er so seltsame Bilder von unserer Welt bekommen wie dieses hier, dass die deutsche
Audio-Datei "Herzliche Grüße an alle" als Bild mit primzahliger
Kantenlänge öffnet.
<50> Das alles mag Ihnen nun alles etwas abseitig vorkommen, und genauso banal
ist vielleicht die erste Konsequenz, die ich daraus zu ziehen möchte: Das
digitale Bild gibt es nicht. Wenn irgend etwas die Sache verfehlt, dann ist es
unangebrachter Essentialismus. Was es gibt, sind ungezählte analoge Bilder,
die digital vorliegende Daten darstellen: auf Monitoren, Fernsehern oder
Papier, auf Kinoleinwänden, Displays und so fort. Und diese Daten selbst können auf
verschiedenste Weisen entstehen: an Scannern oder in digitalen Kameras, an
Grafiktabletts oder auf Tastaturen, aus Algorithmen oder in Kalkülen. Es gibt
also etwas, das Daten ergibt (informationsgebende Verfahren), und es gibt
etwas, das Bilder ergibt (bildgebende Verfahren), aber diese Dinge sind
vollständig entkoppelt und gänzlich heterogen. Oder anders gesagt: Wir haben
es zwar dauernd mit ästhetischen (also: wahrnehmbaren) Ereignissen zu tun,
aber ein Bit Information hat trotzdem noch niemand in freier Wildbahn gesehen.
Man sollte sich auch nicht von der Darstellung der Datensätze als
Zahlenkolonnen täuschen lassen: Alphanumerische Zeichen sind um keinen Deut
näher an einer vermeintlichen "Wahrheit" der Daten als bunte Pixel.
<51> Lassen Sie mich daraus einen zweiten Punkt machen: Vielleicht lohnt es sich
hier, eine Unterscheidung wie die von "Form" und "Medium" zu benutzen, die
Fritz Heider in den späten 20er Jahren begründet und die Niklas Luhmann
weiterentwickelt hat. Das sogenannte "Digitale" wäre demnach ein Medium,
das selbst nicht beobachtbar ist, als dessen Form aber zum Beispiel verschiedenste
Bilder erscheinen. Als unbeobachtbares Medium mit beobachtbaren Formen
verbraucht es sich ebenso wenig wie "die Schrift" beim Verfassen von
Vorträgen oder Liebeslyrik oder "die Farbe" beim Verfertigen von
Sonnenuntergängen in Öl. Und ebenso wenig, wie man im Foto 'die Fotografie',
oder in Schriften 'die Schrift' sieht, sieht man beim digitalen Bild 'das
Digitale'.
<52> Aber alle Formen, die wir sehen können, sind Geschichte: Die
Liebesbriefe zerfallen, die Fotos werden schwarz, und die Daten von gestern
kann heute schon kein Computer mehr lesen. Denn der fundamentale Unterschied
zwischen digitalen und analogen Bildern ist, dass digitale Bilder Information
haben. Sie beschränken sich auf die Endlichkeit einer Datenmenge, deren
Informationsgehalt strikt nach Shannon das ist, was nach maximaler,
verlustfreier Kompression übrigbleibt. Und getreu ebendieser Theorie ist
Information ja nicht nur eine Kategorie jenseits von Materie und Energie,
sondern auch das, was völlig resistent gegen Sinn und völlig indifferent
gegen seine Form ist. Information bleibt, so Shannon, unabhängig von der
Materialität ihres Erscheinens erhalten. Deshalb hat zum Beispiel dieser Vortrag die
gleiche Redundanz auf dem Bildschirm seines Verfassers wie auf den Druckseiten
in der Hand eines Lesers oder in Ihrer aller Ohren - und zwar unabhängig
davon, wer ihn vorträgt. Ich zeige Ihnen hier einen Vortrag, den ich vor
einiger Zeit in Bochum gehalten habe als 8-Bit-Graustufen-TIFF.
<53> Die Information bleibt unverändert. Man kann diesen Umstand auch anders
illustrieren: Das Medium des Digitalen bringt verschiedenste Phänomene auf
den gleichen Nenner (nämlich einer Menge diskreter Zeichen aus einem
endlichen Vorrat derselben) und deshalb sind seine Formen logisch (aber nicht
historisch) austauschbar. Eine Sounddatei kann als Text angezeigt werden, eine
Textdatei kann als Bild betrachtet werden, und eine Bilddatei kann als Sound
abgespielt werden. Die Information bleibt gleich. Information hat keine
Materialität und sie hat keine Bedeutung. Zugleich aber tritt sie immer nur
in Formen gebunden in Erscheinung. Es gibt keine Daten ohne Datenträger. Es
gibt keine Bilder ohne Bildschirme. Alle Information ist an materielle
Technologien und historisch wandelbare Verfahren geknüpft.
<54> Und hier können wir nun plötzlich in aller Schärfe den McCulloch’schen
Beitrag zur Kybernetik wiedererkennen. Es gibt logische Operationen, aber es
gibt sie immer nur in verschiedenen Verkörperungen: aufgeschrieben auf
Papier, implementiert in Computerchips, ausgeführt in Gehirnzellen. Und
deshalb existiert jede Operation zugleich im Feld realer und idealer
Seinsverhältnisse, ist zugleich transzendental und empirisch, ist zugleich
zeitlos und braucht ihre Zeit, hat zugleich eine formallogische und eine
historische Existenz, was sich zunächst sehr platonisch anhört.
<55> Es ist aber - zumindest als Fußnote - nicht uninteressant, dass Warren
McCulloch, bevor er Neurobiologe wurde, zuerst einmal promovierter Philosoph
war und seinen Kant gelesen hatte. Und dort, in der Kritik der reinen
Vernunft, findet sich der Begriff der "Illusion", den ich in den Titel
meines Vortrags gesetzt habe. Es gibt, so schreibt Kant, einen "logischen
Schein", der bloß dadurch verschuldet wird, dass man ein "Stümper" (Kant)
ist und nicht ordentlich nachgedacht hat. Andererseits gibt es aber einen
"transzendentalen Schein", der auch nach seiner Aufdeckung mittels
transzendentaler Kritik nicht verschwindet. Das Problem mit dieser Art Schein
ist, dass eine transzendentale Logik zwar den Schein transzendenter Urteile
aufdecken, aber nie beseitigen kann. Und genau diese Art des Scheins, eines
Scheins der unvermeidlich und "natürlich" ist, der notwendig ist, damit die
Vernunft überhaupt arbeitsfähig ist, nennt Kant "Illusion". Diese
natürliche und unüberwindliche Illusion entsteht im Spannungsfeld der reinen
Sinne und des reinen Verstandes, die beide leider niemals rein zu haben sind.
Denn der reine Verstand würde gar keine Fehler machen können, da er bloß
nach seinen eigenen Gesetzen handelt und notwendig mit sich übereinstimmen
muss, und die reinen Sinne würden weder wahre noch falsche, sondern schlicht
gar keine Urteile haben. Und ich glaube, dass über dem, was man mathematisch
"Information" nennt, und dem, womit wir tagtäglich arbeiten, ein ähnliches
Verhältnis, eine unvermeidliche, notwendige und aus systemischen Gründen
niemals aufzudeckende "Illusion" waltet - eine Illusion, die die Vernunft
von Informationssystemen überhaupt nur arbeitsfähig hält.
<56> Der andere Aspekt der Theorie McCullochs und der Kybernetiker (und zugleich
mein dritter Punkt) ist, dass man etwas mit ihr machen kann, also zum Beispiel nicht
nur das Gehirn beschreiben, sondern auch Geräte bauen, die Gehirnen
äquivalent funktionieren. Lassen Sie mich dies etwas schärfer stellen: Die
analoge Welt und damit auch alle Formen sind kontinuierlich und damit
unendlich. Information dagegen ist radikal endlich und schon deswegen viel
besser beherrschbar. Und aufgrund dieser Endlichkeit sollte man vielleicht
einmal die Frage nach dem Nicht-Wissen von Bild- und anderen Daten stellen
statt immer nur nach ihrem Wissen.
<57> Wo entwirft gerade das Nicht-Wissen ein Terrain der Arbeitsfähigkeit? Aus dieser Richtung erscheint das Digitale
geradezu als methodisches oder systematisches Instrument des Vergessens. Je
nachdem, wie ich meinen Scanner einstelle, vergisst er gezielt für mich.
Zwischen den einzelnen Daten beginnen gewissermaßen die vergessenen
Kontinente des Realen, und zwischen zwei Abtastungen herrscht ein
Diskursverbot. Aber dieses Diskursverbot oder Nicht-Wissen ist zugleich die
Grundlage aller Produktivität digitaler Daten, von denen ja diese Tagung
handelt. Denn Daten sind, völlig anders als analoge Bilder, operabel. Mit dem
Akt der gewalttätigen Repräsentation, mit der Beschneidung der analogen
Unendlichkeit erkauft sich das Digitale gewissermaßen die Freiheit seiner
Speicherbarkeit, seiner Übertragbarkeit und seiner Prozessierbarkeit. Und
diese spezifische Operationalität ist weitgehend inkommensurabel für
menschliche Sinneskapazitäten. Denken Sie nur daran, wie viel Zeit es
erfordert, einen Text wie diesen hier mit seinen 38353 Zeichen Korrektur zu
lesen. Aber für den Code des unkomprimierten Malewitsch-Scans bräuchten wir
wahrscheinlich eine Woche, und um ihn zum Beispiel durch Nachrechnen auf Papier zu
"schärfen" oder die Farben zu korrigieren mehrere Monate.
Symbolverarbeitende Maschinen können, so heißt die Ratio, unendlich viel
besser, effizienter, schneller oder flexibler mit Informationen umgehen als
Menschen.
<58> Der vierte bemerkenswerte Punkt ist, dass Bilder, wenn sie als Information
vorliegen, plötzlich ein ganz anderes Wissen haben. Wenn man in aristotelischen
Kriterien denkt, also in den für uns grundlegenden Kriterien der Logik von
Identität und Negation, dann war das analoge Bild (wie zum Beispiel das Gemälde) weder
affirmativ noch negativ, sondern schlichtweg widerspruchsvoll. So galt mit
Aristoteles, dass Wissen sich nur im Sprachmedium ereignen kann, weil der
Grundoperator des Wissens die Negation ist. Der Gegensatz zwischen Bejahung und
Verneinung im sprachlichen Ausdruck ist der erste Gegensatz, dem dann alle
anderen folgen: "Alles, was die Vernunft überlegt und denkt, drückt sie als
Bejahung oder Verneinung aus", wie es in der Metaphysik heißt. Und genau hier
ändert sich nun etwas: Wenn Bilder Information sind, unterstehen auch sie
plötzlich einer Logik der Sprache, der Logik von diskreten Zeichen und ihren
Verknüpfungsregeln. Im Digitalen sind alle logischen Operatoren wie UND, ODER
und NICHT verfügbar, unabhängig davon, ob die Daten anschließend als Bild,
Ton oder Schrift dargestellt werden. Bilder scheiden also nicht mehr als Medium
des Wissens aus, sondern werden bis ins letzte Bit hinein der Logik selbst
gefügig. Es ist dies jedoch ein Wissen, mit dem Betrachter, die weiterhin nur
Farben und Formen und Gestalten sehen können und sehen werden, schon in
kleinsten Dosen kaum mehr umgehen können, das aber kompetenten Maschinen (alias
Computern) ungeahnte Möglichkeiten eröffnet.
<59> Lassen Sie mich die vier Punkte noch einmal nennen: 1. Das digitale
Bild gibt es nicht, sondern es gibt nur ein paradoxes Verhältnis Information
und Präsentation; 2. Über die Unterscheidung von Form und Medium
gelangen wir dafür zum Begriff der "Illusion"; 3. Digitale Daten
spannen eine Ökonomie von Vergessen und Verarbeitbarkeit auf; 4. Indem
digitale Datenverarbeitung die Differenz von Bild, Schrift und Zahl
unterläuft, führt sie ein neues Wissen herauf. Erlauben Sie mir daher zum
Schluss, als Medienwissenschaftler (und nicht als Kunsthistoriker) daraus
einige Spekulationen bezüglich der Forschungs- und Informationssysteme für
die Kunstgeschichte abzuleiten.
<60> Der ganze Komplex der "Digitalisierung" und Vernetzung bedeutet viel mehr
als eine Übersetzungsleistung vorhandener "Inhalte" in ein anderes
technisches "Medium". Die Hoffnung, dass man die immer unvollständigen
Diatheken gegen einen Breitbandzugang zu einem Bildserver in Marburg oder
Redmond tauschen kann, dass man die unbezahlbar gewordenen Institutsbibliotheken durch einen CD-Wechsler mit Volltexten ersetzt,
dass man die horrenden kunsthistorischen Druckkostenzuschüsse durch
Digitaldruck senkt, oder dass Studenten bessere Kunsthistoriker werden, wenn
das Material multimedial präsentiert wird, und dass die Grundannahmen oder
"das Wesentliche" trotzdem nicht verändert werden, halte ich für äußerst
trügerisch. Oder, um es mit Adorno zu sagen: "Keine Heimat überlebt ihre
Aufbereitung in (Heimat) Filmen". <61> Trotzdem zeichnet in vielen Konzepten (wie dem elektronischen Publizieren,
dem Verbund heterogener Katalogumgebungen und dem Datentausch, den neuen
Sacherschließungs- und Indexierungstechniken oder den computergestützten
Lehrkonzepten) eine gewisse Hoffnung ab, durch eine Art "Rationalisierung"
die Grundlagen für eine gesteigerte Flexibilität oder Effizienz zu schaffen,
ohne am "Wesentlichen" etwas zu ändern. Beispielhafter gesagt: Ein
gescanntes Urlaubsfoto sieht immer noch wie das Urlaubsfoto aus, ich es
kann leichter an die Strandschönheit heranzoomen, es nimmt viel weniger
Platz weg und ich kann es an die Verwandtschaft schicken ohne zur Post gehen
zu müssen. Aber das einzige, was von ihm geblieben ist, ist die Illusion
eines Motivs. Alles, aber wirklich alles andere hat sich grundlegend
geändert: die Technologien, die Gebrauchsweisen, die Präsentationsformen,
die beteiligten Institutionen und so weiter und so fort.
<62> Kulturtechniken wie Alphabetismus, Bibliotheken, analoge
Aufzeichnungsapparate oder digitale Rechenmaschinen verweisen eben nicht
einfach nur auf unterschiedlich effiziente Prozesse der Datenverarbeitung.
Vielmehr ziehen sie als medienhistorische Sachverhalte ihre ganz eigenen
Demarkationslinien im Verhältnis von Sagbarem und Unsagbarem, von Sichtbarem
und Unsichtbarem, von Ordnung und Differenzlosigkeit und damit jene Grenze,
die den historischen Stand eines Wissenszusammenhangs vom Außen seines
Nicht-Wissens trennt. Eine ähnliche Wendung betrifft auch die Institutionen,
die die Sammlung und Distribution des Wissens organisieren. Und sie betrifft
auch die Frage nach den Darstellungs- und Inszenierungsweisen des Wissens,
deren Besonderheit nur mit Rücksicht auf bestimmte mediale Bedingungen
angesprochen werden kann. Die sogenannten "Inhalte", die Verkehrsformen und
das Wissen einer Disziplin überhaupt existieren nicht unabhängig von ihren
technischen Gegebenheiten, ihren Institutionen und Inszenierungsweisen.
Vielmehr sind es genau diese Apparate, Institute und Poetiken, die all ihr
Wissen überhaupt erst erzeugen. Heinrich Dilly hat vor 25 Jahren solche
Fragen von Technik und Institution im historischen Rückblick verhandelt, und
ich befürchte aufrichtig, dass auch wir erst in 25 Jahren wissen können, was
die neuen Medien aus der Kunstgeschichte gemacht haben werden.
<63> Wir müssen unter der Prämisse eines medialen a priori von Wissenschaft
also mindestens zwei Dinge berücksichtigen. Erstens nämlich, dass die Medien
ein Eigenleben haben, dass sie eine je besondere Herkunft und eine damit
verbundene Rationalität haben, und dass sie diese ununterbrochen
mitkommunizieren. Das heißt zum Beispiel, dass Kunstgeschichte nicht so einfach vom
Dia eines Raffael auf den Scan eines Raffael umsteigen kann ohne sich Gedanken
zu machen, woher die Technologien digitaler Bildverarbeitung kommen, was ihre
besondere Logik ist, welche Formen des Wissens entstehen und prozessiert
werden, welche Institutionen entstehen und welche Darbietungsformen
praktiziert werden, wenn man sie betreibt.
<64> Zweitens müssen wir berücksichtigen, dass es in der Logik von Dispositiven im Allgemeinen (oder
dem Ausbau kunsthistorischer Informationssysteme im Besonderen) liegt, dass
sie zwar strategische Ziele formulieren, dass sie zugleich aber bei deren
taktischer Verwirklichung ununterbrochen unerwartete Ergebnisse zeitigen.
Michel Foucault hat wiederholt vorgeführt, welche neuen, unerwarteten Formen
der Devianz, der Abweichung, der Aus- und Einschließung jedes neue Dispositiv
mit sich bringt. Und wir alle beobachten heute schon so interessante Dinge wie
Dissertationen mit 1200 Abbildungen oder mit 11000 Fußnoten, seltsame
Verschiebungen von Informiertheit und Unwissen, merkwürdige
Unübersichtlichkeiten, akademische Subkulturen und andere Dinge mehr.
Verstehen Sie mich bitte nicht falsch: Ich sage nicht, dass es der Untergang
der Kunstgeschichte ist, wenn alle Bibliotheken als Volltext online wären,
aber ich sage auch nicht, dass es ihre größte Erfüllung wäre. Ich versuche
nur zu sagen, dass Kunstgeschichte wie wir sie kennen nicht als digitalisierte
zu haben sein wird, sondern dass sie dabei zwangsläufig zu einer anderen
gerät und dass wir nicht absehen können, wie diese aussieht.
<65> Aber ein Gedankenspiel mag erlaubt sein. Kunstgeschichte ist, so wissen wir
alle, eine schreibende Disziplin. Wir schreiben Texte über Kunstwerke oder
vielmehr über Bilder - auch, wenn wir über Skulptur, Architektur oder
Installationen schreiben. Denn der universitäre Alltag sieht, aller
Exkursionen zum Trotz, so aus, dass die Studierenden und wir selbst mit
Büchern (also Quellen und Sekundärliteratur) und mit Bildern aus Büchern
und mit Dias von Bildern aus Büchern arbeiten. In diesem Verbund von Bild und
Schrift entstehen kunsthistorische Texte. Diese Texte sind entlang von Bildern
und in bestimmten Poetologien konzeptualisiertes Wissen. Und umgekehrt werden
die Bilder selbst von der Poetologie unserer Texte konzeptualisiert. Bilder
sind etwas, dem Wissen unterstellt wird. Dies funktioniert alles sehr gut,
solange die Bilder in doppelter Hinsicht stabil sind. Stabil sind sie erstens,
weil Fotografien (trotz ihrer Reproduzierbarkeit) eine Technologie der
Einmaligkeit sind. Sie sind eine Einmaligkeit wegen der
physikalisch-chemischen Prozesse, die in dem einmaligen Augenblick ausgelöst
werden, in dem Licht auf den Film trifft und das latente Bild entsteht. Stabil
sind sie zweitens, weil man mit einem Dia, genau wie mit einem Gemälde, nicht
arbeiten kann. Oder genauer: das Dia ist analog, und deswegen kann kein
Computer mit ihm rechnen, und deswegen hat es keine Information, und deswegen
ist es im aristotelischen Sinne kein Medium des Wissens. <66> Lassen Sie mich versuchen, die Spekulation auf dem harten Boden der Physik
und der Technik weiterzutreiben. Ich glaube es ist ein bezeichnender Umstand,
dass sich das ganze digitale Konzept der Information bis ins Detail gegen das
Konzept der Entropie schreibt. Information ist, in ihrer mathematischen Formel
ausgedrückt, schlicht Entropie mit einem Minuszeichen davor. Der ganz
fundamentale Unterschied liegt jedoch in der Zeitlichkeit. Entropie ist, und
deswegen bildete sie die große Wolke des Pessimismus über dem späten 19.
Jahrhundert, ein ganz eindeutiger Zeitpfeil und damit der Inbegriff der
Geschichte. Es gibt kein Zurück in der Thermodynamik, sondern nur eine
ununterbrochene und irreversible Diffusion und Entwertung aller Ordnungen.
<67> Die Fotografie als prominentestes Medium der Kunstgeschichte ist darin geradezu
das Emblem der Entropie und also der Geschichte selbst. "Dasselbe
Jahrhundert", bemerkte Roland Barthes ja einmal, "hat die Geschichte und die
Photographie erfunden". Und Wolfgang Hagen hat es zuletzt in aller Klarheit
formuliert: "Chemische Fotografien sind [so] hoch entropisch, [dass] ein
zersprungenes Glas [...] nichts dagegen [ist]. [Es ist völlig] unmöglich,
einen bereits belichteten Film wieder in seinen ursprünglichen Zustand zu
versetzen. Nicht also am 'Referenten' des Bildes, sondern an der
Irreversibilität belichteten Materials haftet das 'Es-ist-so-gewesen' der
Fotografie - ein Strukturverlust, fixiert durch die 'Entwicklung' des
Bildes." Der Scan oder die digitale Fotografie sind das völlige Gegenteil,
weil sie vollständig reversibel sind. "Das beginnt mit dem Halbleiterchip,
der Lichtphotonen in berechenbaren Wechselwirkungsquerschnitten in
Elektronenladung wandelt. Abgespeichert oder nicht, augenblicks später ist
der Chip wieder 'resettet', eine geeignete Vorspannungs-Schaltung erledigt
das, und bereit für den nächsten 'Schuss'." Ordnung und Unordnung
lassen sich beliebig vermehren und wieder abbauen. Mir scheint dies zumindest
der Frage wert, inwiefern so etwas wie die Geschichtlichkeit einer Disziplin
in dem Geschichtsverhältnis ihrer Medien selbst haust.
<68> Dies betrifft den zweiten Punkt: In Informationssystemen ist es möglich,
mit allem zu rechnen. Mit Buchstaben konnte man, weil sie ja von Haus aus
digital sind, schon immer rechnen (von der antiken Musik über Raimundus
Lullus bis zu Claude Shannon und seinem statistischen Englisch). Mit Bildern
können wir erst jetzt rechnen, und es wird auch überall getan: im
Polizeiwesen, in der Medizin, der Physik, der Satellitenaufklärung usw. In
der Kunstgeschichte gibt es, wie bei vielen anderen Bilddatenbanken auch,
Ansätze dazu in den Verfahren des 'image based retrieval', also der
bildbasierten Datenbankabfrage und an einigen anderen Stellen. Der Punkt auf
den ich hinaus möchte ist, dass die Mehrheit dieser Verfahren sich an einem
Begriff der "Gestalt" orientieren. Und es steckt darin ein stark
anthropomorphisierender Zug, wenn man glaubt, Maschinen beibringen zu können,
so zu sehen wie Menschen- oder Kunsthistorikeraugen sehen. Historisch
betrachtet kommt dies sicherlich aus den unendlich oft kultivierten
Vorstellungen des "Elektronengehirns" und aus einer ganzen Tradition der
Technikphilosophie, die Apparate der Menschen als Ausweitungen der Organe 'des
Menschen' zu begreifen.
<69> Doch mit einem Techniktheoretiker wie Heidegger
müsste man wohl sagen, dass die Technik eben 'nichts rein Menschliches' ist.
Systematisch hingegen hängt dieses "Sehen" der Maschinen mit dem zusammen,
was ich "Illusion" genannt habe. Erinnern Sie bitte sich an die Beispiele:
es war doch viel angenehmer, das Rote Quadrat zu sehen als endlose
Zahlenkolonnen, und ich hoffe, dass es viel angenehmer ist, einem Vortrag
zuzuhören als ein wüstes Gestöber von Pixeln anzuschauen. Doch für den
Computer sind diese menschenverträglichen Formen völlig belanglos. Für ihn
sind die Pixel und der Vortrag, das Rote Quadrat schlicht dasselbe.
<70> Wenn wir also spekulieren und dabei medienbewusst bleiben wollten, so
müssten wir diesen illusorischen Charakter bedenken und die Chance der
radikalen Unähnlichkeit ergreifen. Diese Wissenschaft der illusorischen,
digitalen Forschungssysteme wäre dann vielleicht eine, die auf den medialen
Eigensinn ihrer Technologien setzt. Sie wäre eine in höchstem Maße
hypothetische und vorläufige Wissenschaft - eine Wissenschaft der
unzähligen möglichen und unmöglichen Konfigurationen von Daten. Sie wäre
vielleicht eine Wissenschaft, die nicht von der Geschichte der Künstler, der
Motive, der Formen oder der Materialien berichtet, sondern die eine Art
"experimentelle Epistemologie" berechnet. Als solche würde sie unablässig
Wissen produzieren, für das sie keine poetischen oder literarischen Formen
hat. Sie müsste sich unablässig fragen, was gewusst werden kann, ohne sich
darauf verlassen zu können, diese Frage philosophisch zu beantworten und ohne
Wahrheit zu reklamieren. Und sie könnte dies alles nur "in Laufzeit", in
der Aktualität einer Datenverarbeitung betreiben, denn in dieser Art der
Verarbeitung digitaler Information sind wir, wie ich betont habe,
symbolverarbeitenden Maschinen hemmungslos unterlegen.
<71> Dadurch würden wir (gewollt oder ungewollt) in jenes Bild passen, das die
Kybernetik vor 30 oder 40 Jahren von der Zukunft des programmierenden
Wissenschaftlers am Schaltpult gezeichnet hat. Zugleich aber würden wir uns
diversen Naturwissenschaften nähern, die heute längst implizit oder explizit
Computerwissenschaften sind. Denn diese arbeiten ja nicht etwa an der
sogenannten Natur, sondern an Softwaremodellen, und ihre Experimente sind
hauptsächlich Programmierarbeit. Heinz von Foerster, einer der
Gründungsmitglieder der Kybernetik in den 40ern, wollte ihr unter diesem
Gesichtspunkt eine "KybernEthik" zur Seite stellen. Denn digitale Maschinen
können und werden immer nur entscheidbare oder berechenbare Probleme lösen.
Und wir sehen in den verschiedensten Bereichen, nicht zuletzt der
Naturwissenschaften, wie sich mit den berechenbaren und berechneten Problemen
zugleich die unberechenbaren rasant vermehren. Und diese sind, Heinz von
Foerster folgend, eine Angelegenheit der Freiheit. Man müsste sich also fragen,
welche unberechenbaren Probleme in der Kunstgeschichte freigesetzt werden, wenn
so viele berechenbare erst einmal digitalen Forschungs- und Informationssystemen
übergeben werden können. Denn darin wird sich eine Freiheit zeigen müssen,
die manchmal vielleicht nicht einfach zu bewältigen sein wird.
|