Martin Warnke
Daten und Metadaten - Online-Ressourcen für die
Bildwissenschaft
Der Beitrag schlägt einen XML-Standard zur Kodierung von
bildwissenschaftlichen Forschungsdaten vor (PETAL), der die Speicherung, den
Austausch und die Publikation von Diskursen über Bild-Korpora gestattet, wobei
insbesondere die Bezugnahme auf Bilddetails erheblich vereinfacht wird.
<1> Obwohl die Kunst- und Bildwissenschaften zu den konservativsten Disziplinen
gehören, was die Verwendung digitaler Formate betrifft, gibt es trotz dieser
vorsichtigen Zurückhaltung der akademischen Bilderleute vor dem Medium des
Digitalen Anzeichen dafür, dass die Ära der
Diapositiv-Doppelprojektion ihrem Ende zugeht. Zu diesen Anzeichen gehören die
überall stattfindenden Digitalisierungs-Kampagnen der Betreuer großer und
bedeutender Bildarchive, dazu gehört das Buch des Herausgebers dieser
Kolloquiumsakten, zu dem ja einige von uns beigetragen haben [1], und dazu gehört natürlich auch das Kolloquium, das diese Publikation dokumentiert.
<2> Einen gewaltigen Schub, dem digitalen Bild zum Durchbruch zu verhelfen, hat
bekanntlich die Erfindung des WWW [2] in einem
Genfer Großforschungsinstitut für Elementarteilchenphysik, dem CERN, gegeben.
Weiter entfernt von der Bildwissenschaft konnte die Disziplin nicht sein, in der
Tim Berners-Lee das World Wide Web erfunden hat; und noch dazu: Was einmal von
Physikern ganz anders gedacht war, ist nun das Massenmedium zur Verbreitung von
Bildmaterial überhaupt geworden.
Kurz gesagt: die Bildwissenschaften waren nicht prägend an Standards zur
Verbreitung von Bildmaterial beteiligt.
<3> Der Grund für den Erfolg des Web aber waren die Standards, die gesetzt
wurden: HTTP, HTML und JPEG. Sie hatten das Zeug dazu, ein Medium für so
diverse Ausdrucksformen bereit zu stellen, wie wir sie im WWW finden.
Und vielleicht war die ursprüngliche Ferne zum Bild der Grund dafür, dass
das Web kein Eldorado für Bildersuchende ist, die Bildersuchmaschinen
funktionieren durchaus nicht zufriedenstellend [3].
Denn was bei den Allzweck-Suchmaschinen fehlt, sind Daten über die gesuchten
Daten, also Metadaten, die Aufschluss darüber geben, was denn da überhaupt zu
sehen ist und wonach detailliert zu suchen wäre. Die Beschriftung fehlt, denn
diese Arbeit macht sich natürlich ein normaler WebSite-Betreiber nicht, und sie
ist auch nicht mit den Standard-Methoden zu machen.
Man könnte sagen, das Web böte Proto-Daten zu den Bildern an, es ist durch
und durch sehr graue Literatur, und die ‚precision’, wie die Information
Retrieval-Leute sagen, die Treffsicherheit, ist oft sehr enttäuschend. Der
Parameter ‚recall’ dagegen, also die Ausbeute, ist meist gar nicht so
schlecht. So liefert beispielsweise Googles Bildersuche bei der Eingabe der
Suchbegriffe ‚Michelangelo Pieta’ nicht nur viele Bilder von Michelangelo
Buonarrotis Plastik, sondern eben auch anderes, und man weiß es nicht vorher.
<4> Entgegengesetzt liegt der Fall bei den spezialisierten Bilddatenbanken, der
‚Bildindex’ von Foto Marburg ist so ein
prominentes Beispiel. Thesaurierte Metadaten erlauben hier den gezielten Zugriff
auf Bilder, die precision ist erstklassig. Auch die Standardisierung über den
‚Dublin Core’ bietet eine passable
Grundlage, Metadaten über Kunstwerke mit den Bildern selbst abzuspeichern, etwa
das beherbergende Museum und die Datierung.
<5> Ich möchte nun im Folgenden eine weitere Variante von Metadaten ins Spiel
bringen, nämlich Diskurse über Bilddetails, Annotationen an und mit Bildern
und Texten, vergleichbar etwa Fußnoten und Randnotizen in und zu Texten, mit
denen Herausgeber eine kritische Edition begleiten, oder auch ähnlich dem
Lichtzeiger bei der Doppelprojektion, mit dem diskursiv zum nächsten Diapositiv
übergeleitet wird.
Wir haben in langjähriger Projektarbeit in dieser Weise gearbeitet, haben
mittelalterliche Weltkarten im Faksimile annotiert und transkribiert, haben Anna
Oppermanns rekursive Bilderfluten verzettelt und nun scheint es an der Zeit,
ein Resümee zu ziehen und nachzuschauen, was an dieser Arbeit übertragbar und
an die Arbeit anderer anschlussfähig sein könnte, anschlussfähig gerade auch
an die fulminanten Sammlungen der großen Bildarchive, von einer ganz anderen
Seite kommend.
<6> Anlass für unseren Zugang zu Bildern, der dem der Kataloge und Archive
komplementär ist, war die Vermutung, dass Kunsthistorikerinnen und
Kunsthistoriker nicht nur Bilder als monolithische Ganzheiten bearbeiten wollen.
Die Differenzqualitäten sind es, die sie am einzelnen Objekt interessieren,
oder, um mit Aby Warburg zu sprechen: "Der liebe Gott steckt im
Detail" - und ein Bilddetail ist eben ein Bild-Ausschnitt.
Ich will im Folgenden zeigen, wie solche annotierten Bilder in
detailversessener Verzettelung bei uns aussehen und wie diese Forschungsdaten
kodiert sind, mithin, was wir als Ergänzung zu bestehenden Kodierungsschemata
zur Diskussion stellen wollen.
Denn die Zeit ist reif für eine Debatte um die digitalen Formate der
Kunstgeschichte, gerade weil die Industrie Bilder hauptsächlich als das
begreift, was für den Rechteinhaber Nutzungsgebühren abwirft und dessen
Betrachtung vor allem kommerzielle Aspekte hat.
Die Zusammensetzung des Kolloquiums, für das dieser Beitrag geschrieben
wurde, scheint mir ideal geeignet für eine Verständigung auf dem Wege zu
alltagstauglichen Mindeststandards, die eine anschlussfähige Kodierung von
Metadaten in den Bildwissenschaften gestatten. Wir möchten unser Scherflein
dazu beitragen.
<7> Metadaten erschließen Daten. Ohne sie braucht man ein fabelhaftes
Gedächtnis, um auch Jahre später noch zu wissen, wie aus archivierten Daten
wieder Informationen werden sollen. Ein tragisches Beispiel eines Datenfriedhofs
ohne Metadaten sind die Speicherbänder der frühen Raumfahrtprojekte der NASA,
die deshalb unbrauchbar geworden sind, weil die NASA sie nicht beschriftet hat,
also niemand mehr herausbekommt, was sich eigentlich auf ihnen befindet.
Das menschliche Genom ist ein weiteres Beispiel. Es ist nicht lange her, da
wurde die Aufdeckung des Textes des menschlichen Genoms als ‚Entschlüsselung’
des Erbguts gefeiert. Nichts könnte irreführender sein, denn das einzige, was
bekannt ist, ist der Text des Genoms, nicht jedoch seine Bedeutung. Wir können
ihn jetzt nachbuchstabieren, aber nicht interpretieren und damit produktiv
nutzen, es gibt nur Daten, noch keine Information. Die Gilde der Genetiker hat
ihre eigentliche Aufgabe noch vor sich, sie hat zu beschreiben, was welcher Teil
der Aminosäuresequenzen bedeutet, sie hat Metadaten an die Daten zu heften.
Und natürlich ist das Word Wide Web ein Beispiel: es liefert, wie schon
vorgeführt, eher Protodaten als Metadaten, gut für einen ersten Einstieg, aber
ungeeignet für wissenschaftlichen Zugriff.
<8> Unsere Vision besteht nun darin, analog zu der Annotation der Bilder im
Ganzen in Datenbanken mit Metadaten, Bilddetails im Netz einfach und explizit zu
adressieren: dass man Bilddetails hervorheben und annotieren kann, dass
Diskurse über Bilder sich an Bildausschnitten festmachen lassen, dass Bilder
als strukturierte Objekte verwendbar werden. Man sollte sie zum Beispiel bei
Foto Marburg oder beim Getty Institute finden können, um sie anschließend
explizit mit Kommentaren an den gemeinten Stellen zu versehen und diese dann
auch veröffentlichen zu können, so dass mit Suchabfragen in jeder Sprache die
Metadaten zu formulieren und die Daten zu bezeichnen und über das Netz auch zu
erhalten wären.
Und wenn beides, das Archiv und der Kommentar, dann noch miteinander
verknüpfbar wären und wenn Studierende sich eigene Bilddiskurse auf den
Webservern ihres Instituts zusammenstellen und mit dem Original mühelos
verlinken könnten, dann wäre eine neue Qualität erreicht, die nicht zu Stande
kommen wird, wenn die Industrie allein alle Standardisierung besorgt.
<9> An der Kunst Anna Oppermanns hat unser Forschungsprojekt die detailversessene
Seite der gerade beschriebenen Vision realisiert. Nach etlichen Portierungen auf
jeweils andere Software-Plattformen [4] haben wir
nun einen Satz von Beschreibungselementen isoliert und in
plattformübergreifender XML-Syntax ausformuliert, einen Editor und einen
Browser dafür geschrieben, so dass wir nun beschreiben können, was unserer
Ansicht nach die Essentials einer Annotation von Bildern mit Bild oder Text sein
könnten. Wir haben das Ganze blumig PETAL - PicturE Text Annotation Language
- genannt:
<10> Die Kunst der 1993 verstorbenen international anerkannten Biennale- und
documenta-Teilnehmerin Anna Oppermann hat einzigartige zeitgeschichtliche
Dokumente in Form raumgreifender Arrangements hervorgebracht, die sie selbst
"Ensembles"
nannte. Der künstlerische Nachlass Oppermanns umfasst mehr als 60 Ensembles [5],
von denen zur Zeit aber nur noch drei öffentlich zugänglich sind, alle in
Hamburg. Sie sehen hier Bildschirm-Darstellungen unserer Aufbereitung des
Ensembles ‚Öl auf Leinwand’ [6] in der
Hamburger Kunsthalle.
<11> Die künstlerische Methode, mit der die Ensembles entstanden, kann man
verkürzt mit dem Begriff des Wachsens durch Abbilden und Erweitern umschreiben.
Ausgangspunkt für diesen erst mit dem Tod der Künstlerin endenden
Wachstumsprozess war dabei häufig ein alltäglicher Gegenstand, dem sie sich
durch wiederholtes Abzeichnen näherte.
Wählt man per Mausklick die im Bild mit ‚10165’ bezeichnete Leinwand, so
gelangt man zu folgendem Bildschirminhalt, der das entsprechende Detail des
Ensembles zeigt:
Gezeichnetes Abbild und Ausgangsobjekt wurden nebeneinander arrangiert und
erneut zu einem Ausgangsobjekt für weitere künstlerische Auseinandersetzung.
Skizzen, ebenso wie flüchtig notierte Gedanken und Einsichten dokumentieren die
beim Arbeitsprozess auftretenden Assoziationen.
<12> Die Anwahl von Objekt ‚10126’ (Flasche) liefert dann ein Foto der auch
realiter in das Ensemble integrierten Flasche:
Durch Ausschnittvergrößerungen und Detailabbildungen hob Anna Oppermann
bestimmte thematische Aspekte und Situationen hervor. Immer wieder neu
arrangiert, den räumlichen Gegebenheiten des jeweiligen Ausstellungsraums
angepasst, thematische Schwerpunkte hinzufügend und verschiebend, die bisherige
Arbeit ständig reflektierend, wuchsen die einzelnen Ensembles auf mehrere hundert bis zum Teil weit über
tausend Einzelelemente an. Dem Betrachter im
Museum wuchern diese überdimensionierten Zettelkästen aus einer Ecke des
Ausstellungsraums in überwältigender Fülle entgegen. Durch die
Annotationsmöglichkeiten, die PETAL bietet, kann man in der digitalen
Dokumentation der Ensembles deren Entstehungsprozess und die Zusammenhänge der
Einzelelemente nachvollziehbar machen.
<13> Hätte man nicht die Flasche, sondern die Abbildung oben links auf dem
vorletzten Bild angewählt (und: wie mühsam ist es, solche Sachverhalte verbal
auszudrücken!), wäre man bei folgendem Bild angelangt:
Ein Klick auf das am Boden liegende Bild liefert:
...und die Zeichnung unten in der Mitte des Bildes zeigt sich dann so:
<14> Neben Fotos und Zeichnungen findet man bei Anna Oppermann auch
Zeitungsausrisse, architektonische Elemente, plastische Objekte, Zitate aus
Wissenschaft und Literatur in Form handschriftlicher Notizen oder Fotokopien
sowie Fundstücke unterschiedlicher Art.
Inhaltliche Gruppierungen des Materials heißen bei uns ‚Gruppen’. Eine
davon versammelt Zeitungsausrisse, die die Künstlerin im Ensemble verwendet
hat:
Das Objekt in der zweiten Reihe von oben ganz links sieht dann
folgendermaßen aus:
Wie Sie sehen, ist der Text transkribiert. Dies erlaubt eine Volltextsuche im
Textbestand.
Auch Videos lassen sich zur Darstellung verwickelter Situationen verwenden
und annotieren, was an dieser Stelle zu zeigen allerdings zu weit führen
würde.
<15> Die von der Projektgruppe [7] angewandte
Methode digitaler Gegenstandssicherung verwendet zunächst die dem Werk
innewohnende Struktur der selbstbezüglichen Abbildung von Bildern und Texten.
Bilder sind Träger von Strukturinformationen, denn sie dienen als Auslöser
bildhafter Querverweise: die Benutzer des Systems wählen mit der Maus den
abgebildeten Gegenstand an, und das System präsentiert diesen als nächsten,
zusammen mit den zu ihm gehörenden Informationen, wie etwa der Transkription
der in oder auf ihm befindlichen Texten, einem hochaufgelösten Farbbild,
Maßangaben, Inventarnummer etc. Diese Operation ist auch umkehrbar, das heißt:
die Benutzer können sich anzeigen lassen, auf welchen Ensembleteilen ein ins
Auge gefasstes Objekt abgebildet wurde.
Was bisher gezeigt wurde, war die Ansicht unserer Daten und Metadaten im
eigens entwickelten Browser. Die Metadaten selbst sind mit einem speziellen
Editor kodiert worden, der das hier zur Debatte stehende XML-Format ‚PETAL’
erzeugt hat, das dann an- und abschließend vom Browser zu durchsuchen war.
<16> Metadaten sind Forschungsdaten, sie enthalten, was über das Kunstwerk
wissenswert erscheint: Maße, Datierung, Transkription, Bildstruktur,
Materialordnung, Sekundärmaterial. Hat man es mit so umfangreichen
Datenbeständen zu tun wie wir, dann lohnt der Einsatz spezieller Software, aber
immer wird man gängige Programme zur Datenerfassung verwenden:
Dateiverwaltungsprogramme (wir verwenden FileMaker Pro, es könnte auch
Microsoft Access o. ä. sein). Wie beim Bau von Web-Seiten kann man einen
Editor benutzen, aber auch ‚von Hand’ arbeiten, also alle Daten direkt in
Form des gewünschten Kodes, in diesem Fall PETAL, aufschreiben.
<17> Bei der Annotation von Bilddetails hilft uns ein selbst entwickelter Editor,
den wir ‚Pictlinker’ genannt haben: er erlaubt ein komfortables Verknüpfen
von Bildausschnitten mit anderen Bildern oder Texten. Aber auch das geht ‚von
Hand’, wie ich gleich am PETAL-Kode zeigen werde. Dieser PETAL-Kode entsteht
bei uns mit einem selbst geschriebenen Programm, das alle Daten integriert und
in geeigneter Form kodiert.
Liegen alle Informationen im PETAL-Format vor, bereitet sie ein anderes
Programm so auf, dass unser Browser sie effizient darstellen kann. Der Browser
ist in Lingo (von Macromedia) geschrieben, er läuft unter Windows und Mac OS.
Wir werden unsere Aufbereitung des Oppermannschen Ensembles zusammen mit dem
Browser in einer DVD-Buch-Kombination im Laufe des Jahres 2003 veröffentlichen.
Eine Web-Version werden wir anschließend in Angriff nehmen, um das Material
auch einer breiten Öffentlichkeit über das Internet zur Verfügung stellen zu
können.
<18> Was ist nun etwa ein Bildobjekt? Worauf hätte man sich einzulassen, wollte
man die erhobenen Daten im PETAL-Format ablegen und von einem Browser, zum
Beispiel unserem, darstellen lassen? Was im Browser so aussieht ...
sieht in PETAL (DTD)
folgendermaßen aus:
<pictureObject id="e45_0_9">
<title xml:lang="de">"Öl auf Leinwand", Aufbau Nationalgalerie Berlin 1983 (Ausschnitt)</title>
<title xml:lang="en">"Oil on canvas" assemblage Nationalgalerie Berlin 1983 (detail)</title>
<material ref="mixel_photo_canvas"/>
<dimensions>
<width value="60.0" unit="cm"/>
<height value="45.0" unit="cm"/>
<length value="0.0" unit="cm"/>
</dimensions>
<view id="v10047" direction="front">
<title xml:lang="de">45_0_9 von vorne</title>
<title xml:lang="en">45_0_9 from the front</title>
<img use="thumb" src="thumbs/10047.jpg"/>
<img use="normal" src="picts/10047.jpg"/>
<img use="magnification" factor="2" src="magnifications/10047.jpg"/>
Die Ähnlichkeit zu HTML ist nicht zu übersehen. Wer schon einmal versucht hat,
Bilddetails in HTML zu annotieren, wird allerdings feststellen, dass unser
PETAL-Kode sich auf das Wesentliche beschränkt und die Anwender von allen
HTML-spezifischen technischen Details entlastet. <19> Es folgen anschließend Anmerkungen zum Gesamtbild.
<annotation xml:lang="de">
<line>Inventarbezeichnung: 45_0_9</line>
<line/>
<line>Eine Gesamtansicht dieses Aufbaus zeigt die Leinwand<link ref="v10048"/>45_0_10.</line>
<line/>
<line>Eintrag auf dem Keilrahmen: Hacker Zitat, Anna Oppermann (s. <link ref="v10265"/>Rückseite).</line>
</annotation>
<annotation xml:lang="en">
<line>Inventarbezeichnung: 45_0_9</line>
<line/>
<line>A full view of this assemblage shows the canvas <link ref="v10048"/>45_0_10.</line>
<line/>
<line>Inscription on frame: Hacker quotation,
Anna Oppermann (see <link ref="v10265"/>reverse side).</line>
</annotation>
Mehrsprachigkeit ist angelegt, Referenzen auf andere Bildobjekte werden mit Hilfe von Inventarbezeichnungen gemacht, wo die Dateien auf dem Datenträger liegen ist hier nicht relevant.
<20> Nun kommen die positionsbezogenen Annotationen zu den Bilddetails:
<area order="1">
<rect left="0.234" top="0.472" right="0.322"
bottom="0.676">
<link ref="v10236"/>
</area>
<area order="2">
<rect left="0.536" top="0.612" right="0.582"
bottom="0.771">
<link ref="v10334"/>
<annotation xml:lang="de"><line>Verweisziel nicht
vorhanden.</line></annotation>
<annotation xml:lang="en"><line>Link target not available.</line></annotation>
</area>
<area order="3">
<rect left="0.014" top="0.802" right="0.196"
bottom="0.925">
<inscription id="5348">
<line>Der Mensch ist ein denkendes Wesen, aber seine großen Werke
werden vollbracht,
wenn er nicht</line>
<line>rechnet und denkt.</line>
</inscription>
</area>
<21> Das erste Bilddetail (<area order="1">) trägt einen Querverweis
auf ein anderes Bild-Objekt. Die Bemessungen erfolgen relativ zu den Bildmaßen,
das heisst: wie viele Pixel das Bild umfasst, spielt keine Rolle, verlinkt wird zu
einem Referenz-Code, wieder muss man den Datei-Pfad hier nicht notieren. Die
zweite Detail-Annotation (<area order="2">) muss beklagen, dass
sich das abgebildete Objekt nicht in der Sammlung befindet. Statt eines
Verweises auf ein anderes Objekt gibt es hier also nur einen Kommentar, die
Annotation ist textuell, nicht bildhaft.
<22> Im dritten Teil der Annotation (<area order="3">) wird ein Text
transkribiert.
Weitere Ansichten des Objekts, etwa die Rückseite, können sich anschließen:
...
</view>
.
<view id="v10265" direction="back">
...
</view>
</pictureobject>
Zur weiteren Arbeit mit Daten und Metadaten gehören Lichttische zum
detaillierten Bildvergleich, inhaltliche Gruppierungen von Bildern sowie
Video-Objekte mit ihren Beschreibungen, etwa Untertiteln.
<23> Man kann den PETAL-Kode von Hand erzeugen oder ihn aus Datenbanken errechnen.
Wir haben eine Mischtechnik verwendet, einschließlich der Arbeit mit dem Editor
"Pictlinker", mit dem Gruppen und Areas, also anklickbare Bereiche,
angelegt werden können. PETAL verlangt einen minimalen Kodierungs-Aufwand: Der
Kode eignet sich zur redundanzfreien Speicherung von Forschungsdaten, die auf
Bilddetails fußen, er kann aber auch von einem geeigneten Browser - etwa
unserem - dargestellt und automatisch in HTML umgesetzt werden.
<24> Ich schlage vor, dass alle Projekte, die auf der Grundlage von XML arbeiten,
ihre wechselseitige technische Anschlussfähigkeit erörtern. Wir sollten
Interesse daran haben, der scientific community unsere Ergebnisse zur Verfügung
zu stellen, und wir sind auch bereit dazu, unsere Software den noch
hinzukommenden Anforderungen anderer anzupassen.
Wir würden dadurch im Sinne eines open-source-Ansatzes alle profitieren,
unsere Arbeiten wären von allen benutzbar, wir würden dem Diskurs über
Bilder, der sich anschickt technisiert zu werden, Wege eröffnen, die sonst
verschlossen bleiben.
|