Scanroboter. Scanzentrum Bayerische Staatsbibliothek. Foto: Jürgen Keiper

Standardisierung und kulturelles Erbe: Nichts geht ohne Menschen - Ein Beitrag von Felix Sasaki

09.11.2015

Die erste Publikation der Deutschen Digitalen Bibliothek „Der Vergangenheit eine Zukunft – Kulturelles Erbe in der digitalen Welt“ erschien im März 2015. Mit Beiträgen unterschiedlicher Fachautoren thematisiert der von Paul Klimpel und Ellen Euler herausgegebene Sammelband Aufgaben und Rahmenbedingungen, denen sich Gedächtnisinstitutionen wie Museen, Bibliotheken oder Archive bei der Digitalisierung des kulturellen Erbes stellen.

Sukzessive veröffentlicht die Deutsche Digitale Bibliothek die einzelnen Beiträge ihrer Publikation auf der Webseite, wo sie gelesen, kopiert und heruntergeladen werden können – alle Inhalte sind mit der Creative Commons Lizenz CC BY 4.0 International lizenziert. Bereits veröffentlicht wurde die Bilderstrecke „Bilder der Digitalisierung“, die Jürgen Keiper der Publikation beisteuerte sowie sein Text "Das Erbe der Arche Noah: Archive, Wissen und Informationen" , der Beitrag Hermann Parzingers „Kulturelles Erbe und Digitalisierung“, "Erschließung, Vernetzung und Access" von Monika Hagedorn-Saupe und Werner Schweibenz und Skizzen zum Systemwechsel des kulturellen Gedächtnisses von Bernhard Serexhe.

__________________

Standardisierung und kulturelles Erbe: Nichts geht ohne Menschen

Felix Sasaki

Menschen entwickeln Standards

Für den Diskurs über die Digitalisierung des kulturellen Erbes ist die Frage von Standards fundamental. Der vorliegende Artikel diskutiert vor allem Motivationen: Warum wird Standardisierung beim kulturellen Erbe betrieben? Zudem beschreibt er aktuelle Herausforderungen und Potentiale für die Standardisierung.
Es gibt vier Motivationen, um Standardisierung im Bereich kulturelles Erbe zu betreiben:

  • Um neue Analysen von digitalen Artefakten zu ermöglichen;
  • Phänomene in digitalen Repräsentationen zu modellieren;
  • Nachhaltigkeit und Interoperabilität von digital erfassten Kulturgütern zu gewährleisten sowie  
  • Kultur durch ihre digitale Repräsentation vor dem Aussterben bewahren.

Im Folgenden werden diese Motivationen anhand von Personen beschrieben, die bei der Standardisierung für das kulturelle Erbe eine maßgebliche Rolle spielen. Daraus soll ein zentraler, genereller Aspekt von Standardisierung deutlich werden: Standards werden von Menschen entwickelt. Es braucht „Treiber“, um Standards voranzutreiben, und Communitys, um Standards zu bilden. Die technische Qualität eines Standards ist nur ein Aspekt, um seinen Erfolg zu gewährleisten.

Roberto Busa: Der Vater der digitalen Geisteswissenschaften

Roberto Busa war ein italienischer Jesuitenpater. Als einer der ersten nutzte er Computer für die Repräsentation von geisteswissenschaftlichen Texten. Busa konzentrierte sich auf das Werk von Thomas von Aquin. Zusammen mit dem Gründer von IBM, Tom Watson, diskutierte Busa, wie man dieses Werk in digitaler Form erfassen könnte. In einem Projekt, das sich über dreißig Jahre erstreckte, schuf Busa den Index Thomisticus: die digitale Erfassung der Schriften von Thomas von Aquin.[1]

Die Hauptmotivation für Busa bestand darin, neue Analysemöglichkeiten zu schaffen. Linguisten sollten in die Lage versetzt werden, in umfangreichen Texten schnell Beispiele für grammatische Phänomene zu finden. Literaturwissenschaftler konnten mit dem Index Thomisticus schnell Textpassagen auffinden und im Gesamtkontext analysieren.

Sowohl für Linguisten als auch für Literaturwissenschaftler bietet der Index Thomisticus Analysemöglichkeiten, die ohne die digitale Repräsentation nicht vorhanden gewesen wären. Standardisierung ist dabei auf verschiedenen Ebenen relevant, zum Beispiel für die Definition von Zeichenvorräten, um Schrift detailliert speichern und durchsuchen zu können oder zur Markierung von linguistischen Merkmalen wie Wortarten unter Nutzung eines standardisierten Merkmalsinventars. Standards sind in dieser Rolle für den eigentlichen Nutzer – also den geisteswissenschaftlichen Forscher – im besten Fall unsichtbar. Er muss sich nicht mit technischen Details befassen und kann die jeweilige wissenschaftliche Fragestellung vorantreiben.
Die Arbeit von Roberto Busa gründete einen neuen wissenschaftlichen Bereich, in dem verschiedene geisteswissenschaftliche Disziplinen die Nutzung digitaler Werkzeuge in den Blick nehmen: die digitalen Geisteswissenschaften beziehungsweise „digital humanities“.

Michael Sperberg-McQueen: Die Kodierung von Texten als Wissenschaftsgegenstand

Nicht immer sind in den digitalen Geisteswissenschaften Standards für den Wissenschaftler unsichtbar. Es gibt Bereiche, in denen die Standardisierung selbst zum Gegenstand des wissenschaftlichen Diskurses wird.

Der Literaturwissenschafter Michael Sperberg-McQueen hat sich nicht nur – in der Tradition Roberto Busas – mit der digitalen Erfassung von Texten beschäftigt, sondern auch mit Textstrukturierung. Was in einem Text sind die Metadaten, die Paragraphen, Absätze, Wörter; was sind typographische Einheiten? Bei diesen Fragen ist ein Standard sehr wichtig, an dem Michael Sperberg-McQueen intensiv mitgearbeitet hat: die Text Encoding Initiative (TEI).[2] Die TEI definiert ein XML-Format (XML steht für eXtensible Markup Language), um Texte mit entsprechenden Metadaten, sogenannten Auszeichnungen, zu versehen. Die TEI stellt eine große Zahl von Modulen bereit, die für verschiedene Gruppen von Geisteswissenschaftlern relevant sind, zum Beispiel für die Erstellung digitaler Editionen, für die schriftliche Erfassung gesprochener Sprache, für die Notation von Musik etc.

Die TEI dient zum einen als Hilfsmittel für den geisteswissenschaftlichen Forscher. Zum anderen ergeben sich aus der Textkodierung eigene Fragestellungen. Ein prominentes Beispiel, das insbesondere Sperberg-McQueen intensiv untersucht hat, ist die OHCH-Hypothese.[3] Nach dieser Hypothese wird Text als geordnete Hierarchie von Objekten aufgefasst. Viele Szenarien, mit denen Geisteswissenschaftler arbeiten, machen aber die Problematik dieser Hypothese deutlich: etwa kritische Editionen mit überlappenden Kommentaren; Transkription gesprochener Sprache unter Berücksichtigung von Unterbrechungen zwischen Sprechern; oder die linguistische Analyse nicht-hierarchischer Beziehungen zwischen grammatischen Konstituten. Dennoch ist es nachvollziehbar, dass diese Hypothese entstand: Die standardisierte Technologie XML erlaubt die Definition von hierarchisch geordneten Einheiten, nicht-hierarchische Beziehungen können jedoch nur in geringem Maße ausgedrückt werden. Aus dieser Problematik hat sich ein neues Forschungsthema entwickelt: Die Repräsentation von überlappenden Einheiten in der Textkodierung. In den Richtlinien der TEI sind weitverbreitete Lösungsansätze beschrieben.[4]

Sperberg-McQueen, TEI und XML zeigen nicht nur, wie standardisierte Formate (XML) einen Wissenschaftsgegenstand (überlappende Hierarchien) befördern können. Sperberg-McQueen und die TEI-Community waren selbst zentral an der Standardisierung von XML beteiligt, das 1998 vom World Wide Web Consortium (W3C) definiert wurde. Und auch in anderen Bereichen des kulturellen Erbes haben Personen und Standardisierungsthemen eine Sichtbarkeit erreicht, die weit über ihre jeweilige Community hinausgeht.

Eric Miller: Nachhaltigkeit, Identifikation und Interoperabilität für digital erfasste Kulturgüter

Die Bibliothekswelt kennt Standardisierung schon lange vor dem Beginn des digitalen Zeitalters. Klassifikationen sind ein wichtiges Mittel, um Objekte zu erschließen und auffindbar zu machen. Die Motivation zur Standardisierung lautet hier: Interoperabilität, Auffindbarkeit und Nachhaltigkeit. Auf Standards beruhende Erschließung erlaubt die Wiederverwendung von Erschließungsinformationen über Institutionsgrenzen hinweg.

Bibliothekarische Erschließung ist zumeist sehr detailliert und auf die Bedürfnisse von Bibliotheken ausgerichtet. Der Informationswissenschaftler Eric Miller hat viel dazu beigetragen, die Brücke zur allgemeinen Erschließung zu schlagen. Er führte lange den Vorsitz der „Dublin Core Metadata Initative“.[5] Die standardisierten Metadaten von Dublin Core stellen erheblich weniger Details zur Verfügung als die ursprünglich bibliothekarische Erschließung. Dublin Core ist jedoch weit verbreitet und wird auch außerhalb der Bibliothekscommunity in vielen Bereichen angewendet.

Eric Miller hat lange Zeit den Bereich Semantic Web im W3C verantwortet. Der Name „Semantic Web“ stammt aus einer Zeit, in der komplexe, formal-semantische Modellierung im Zentrum der zugrunde liegenden Technologie RDF (Resource Description Framework) stand.[6] Inzwischen ist der Fokus auf die Verlinkung von Ressourcen gerichtet – man spricht von Linked Data. Ein zentraler Standard hierzu sind URIs (Universal Resource Identifiers). Wenig technisch ausgedrückt sind URIs einfach Webadressen. Das Besondere an ihnen: Jedes Objekt – das heißt, nicht nur im Browser zu lesende Webseiten – kann durch eine URI beschrieben werden. Auch dieser Ansatz ist aus Bibliothekssicht nichts Neues: Bücher erhalten eindeutige Identifikatoren, zum Beispiel ISBNs (International Standard Book Number), um sie auffindbar zu machen und nachhaltig zu identifizieren, aber auch, um sie mit zusätzlichen Informationen (Autor eines Buches, relevante Themen etc.) zu verknüpfen.

Linked Data realisiert diese Funktionalitäten jedoch im größten verfügbaren Informationsraum: im Web. URIs identifizieren hier auch abstrakte Objekte – jede Ressource, die man im Web erfassen möchte. Tim Berners-Lee hat diesen Ansatz in einem Blog-Post auf den Punkt gebracht, durch die an den Leser gerichtete Aufforderung: „… give yourself a URI. You deserve it!“[7]

Die Nutzung des Web als Informationsraum hat für das kulturelle Erbe hohe Attraktivität. Das Web lebt vom Netzwerkeffekt: Sobald digitale Repräsentationen kultureller Artefakte durch URIs im Web eindeutig identifiziert sind, können Nutzer auf sie verlinken und die digitale Repräsentation nachnutzen. Dadurch werden Kulturgüter neu zugänglich, ohne dass die Kulturinstitutionen dies organisieren oder vorausplanen müssen.

Viele Bibliothekare haben die Chancen von Linked Data erkannt. In der „Library Linked Data Community Group“ werden entsprechende Use Cases diskutiert.[8] Projekte wie Europeana und die Deutsche Digitale Bibliothek folgen diesem Trend oder geben ihn vor: Sie stellen Informationen in zunehmenden Maße als Linked Data bereit. Wichtig ist dabei die Nutzung von standardisierten Vokabularen für die Beschreibung kultureller Artefakte, wie etwa beim Europeana Data Model.

Deborah Anderson: Das Kulturgut Sprache und Schrift vor dem digitalen Aussterben bewahren

Deborah Anderson vom Department of Linguistics in Berkeley leitet die „Script Encoding Initiative“.[9] Deren Hauptaufgabe liegt auf der standardisierten Kodierung von Schriftsystemen, die nicht so gebräuchlich sind wie das lateinische Alphabet, aber auch von weitverbreiteten asiatischen Schriftsystemen für Chinesisch, Koreanisch und Japanisch. Ihre Arbeit wird im Zusammenhang mit kulturellem Erbe und Standardisierung selten diskutiert, weil kulturelles Erbe und Sprache eher selten in Relation zueinander gesetzt werden. Dabei ist gerade Sprache von hoher Relevanz, um das kulturelle Erbe vieler Regionen in der Welt nachhaltig zu sichern.

Anderson ist Mitglied im Unicode-Consortium und setzt sich dafür ein, dass die entsprechenden Schriftsysteme im globalen Unicode-Zeichenvorrat erfasst werden. Dieser ist inzwischen auf nahezu jedem Computer verfügbar und ebenfalls im Web anwendbar.

Die standardisierte Repräsentation von Zeichen ist die Grundlage, um das Kulturgut Sprache langfristig digital zu erfassen. Dies zeigt beispielsweise die Ungleichheit bei Wikipedia:[10] Die Größe der einzelsprachlichen Ausgaben von Wikipedia schwankt erheblich. Angesichts der Tatsache, dass Wikipedia die umfangreichste Beschreibung menschlichen Wissens darstellt, ist diese Situation aus Sicht wenig repräsentierter Kulturen bedenklich. Möglicherweise droht ihnen langfristig sogar ein digitales Aussterben.[11]

Diese Problematik ist insbesondere für Europa relevant. Die Initiative META-NET hat in der „META-NET White Paper“-Serie[12] die Relevanz für Europa deutlich gemacht. Das Ungleichgewicht zwischen Sprachen besteht auch hier. Es betrifft ebenfalls die Verfügbarkeit und Qualität von Werkzeugen, zum Beispiel automatischen Übersetzungsprogrammen, um Inhalte zu übersetzen.

Welche Rolle kann Standardisierung spielen, um hier zu helfen? Die standardisierte Verknüpfung zwischen einzelsprachlichen Inhalten kann die Übersetzung beziehungsweise Anpassung an die jeweilige Kultur erleichtern. Wikipedia arbeitet an entsprechenden Technologien im Wikidata-Projekt.[13] Basis von Wikidata sind eindeutige Identifikatoren (= URIs) für Wikipedia-Artikel. Diese werden für jede einzelsprachige Version von Wikipedia separat zur Verfügung gestellt und via Wikidata miteinander verknüpft. Als nächster Schritt sollen Beziehungen zwischen einzelsprachigen Versionen auf der Inhaltsebene geknüpft werden, zum Beispiel zwischen Absätzen oder sogar Sätzen. Wenn diese Beziehungen in standardisierter Form ausgedrückt werden, könnten automatische Übersetzungstools mit größerer Qualität Inhalte für unterrepräsentierte Sprachen erzeugen. Dieses Anwendungsszenario liegt allerdings noch in der Zukunft.

Herausforderungen und Gelegenheiten für Standardisierung und kulturelles Erbe

Die digitale Erfassung von Texten, ihre Strukturierung, die nachhaltige Referenzierbarkeit kultureller Artefakte und die Sicherung des Kulturguts Sprache und Schrift – in all diesen Bereichen haben Standards bereits viel für das kulturelle Erbe geleistet. Es gibt aber immer noch Herausforderungen und Möglichkeiten zur Weiterentwicklung.

Industriegetriebene Standardisierung versus tiefgreifende Modellierung

Standardisierung wird hauptsächlich von Industrieunternehmen betrieben. Häufig trifft man dabei auf den Pareto-Effekt: 80 Prozent der Standardisierung können in 20 Prozent der Zeit erreicht werden; die restlichen 20 Prozent beanspruchen 80 Prozent der Zeit.

Industrieunternehmen reagieren auf diesen Effekt meist mit schneller Standardisierung. Die Markteinführung neuer Technologien ist wichtiger als die vollständige Modellierung beziehungsweise die Standardisierung aller Aspekte. Insbesondere die Auseinandersetzung mit Webtechnologien bedeutet deshalb für das kulturelle Erbe eine Herausforderung. Denn Wissenschaft und Kultur hat zu Recht den Anspruch, ihren Gegenstandsbereich zu 100 Prozent zu spezifizieren.

Standardisierung von Semantik - aber welche?

Diese Spannung zeigt sich in der Standardisierung von grundlegenden abgrenzbaren Objekten, welche sowohl für das kulturelle Erbe als auch für das Web als Ganzes relevant sind. Die Initiative Schema.org[14] wurde von globalen Suchmaschinenbetreibern auf den Weg gebracht, um solche Objekte wie Person, Institution, Ort, Produkt etc. zu definieren. Autoren von Webinhalten können auf dieser Basis strukturierte Informationen in Webseiten einbetten, die von den Suchmaschinen interpretiert werden und zu höheren Rankings in Suchergebnissen führen.

Aufgrund des 80/20-Effekts werden in Schema.org nur wenige Eigenschaften von Objekten im Detail spezifiziert. Datenmodelle wie das Europeana Data Model (EDM)[15] sind wesentlich ausdrucksstärker. Diese Spannung kann zum Teil durch Mappings zwischen Definitionen umgangen werden. Das heißt, die detaillierten Objektbeschreibungen werden auf die allgemeinen Beschreibungen abgebildet. Allerdings ist bei diesem Prozess ein Informationsverlust unvermeidbar.

Was sind Inhalte - die Grenzen der Objekte lösen sich auf

Stefan Gradmann hat vielfach darauf hingewiesen, dass traditionell insbesondere im Bibliotheksbereich kulturelle Artefakte nur von außen und als Ganzes betrachtet werden.[16] Das Buch hat ein Erscheinungsjahr, einen Autor, einen Verlag. Aber was steht auf Seite 13 im zweiten Absatz? Was denkt der eine Leser darüber, was ein anderer über die Kommentare des ersten? Diese Fragen verdeutlichen, dass auch Informationen aus dem kulturellen Erbe zunehmend in die Inhalte hinein gehen, ohne klare Grenzen und inklusive sozialer Netzwerke, in denen ebenfalls ein wissenschaftlicher Diskurs stattfindet. Für die Standardisierung bedeutet dies, dass die angesprochene Referenzierbarkeit auch für die kleinsten Einheiten, wie Kapitel, Absätze und Sätze, verfügbar sein muss.

Aus diesen Gründen sind Annotationstechnologien für digitale Artefakte, die eine tiefe Referenzierung erlauben, gegenwärtig ein relevantes Thema in Projekten wie DM2E (Digitised Manuscripts to Europeana).[17] Wieder ist es notwendig, diese Bestrebungen mit Anstrengungen aus der Industrie in Beziehung zu setzen, wozu in diese Jahr ein W3C-Workshop stattfand.[18] Nur so kann sichergestellt werden, dass das kulturelle Erbe im globalen Web nachhaltig wahrgenommen wird.

Persistenz - Kein Problem mehr

Persistente Identifikatoren dienen dazu, digital oder physisch verfügbare kulturelle Artefakte eindeutig und nachhaltig zu identifizieren. Sie werden oft von kulturellen Einrichtungen vergeben. Ein Beispiel: Die Wikipedia-Seite von „Johann Wolfgang von Goethe“
 
http://de.wikipedia.org/wiki/Johann_Wolfgang_von_Goethe
 
stellt eine Reihe von persistenten Identifikatoren bereit:
 
Normdaten (Person): GND: 118540238 | LCCN: n79003362 | NDL: 00441109 | VIAF: 24602065
 
Eine Frage ist: Welche Formate sollten derartige Identifikatoren haben? Lange war dies ein Streitpunkt zwischen den verschiedenen Communitys. Im Web sind die angesprochenen URIs die technische Grundlage für die eindeutige Identifikation. Communitys im Bereich des kulturellen Erbes setzten oft auf sogenannte DOIs oder andere Technologien (URNs, ARKs, etc.).
Diskussionen über ein Entweder-oder findet man inzwischen selten. Es ist allen Communitys klar geworden, dass man sich nicht entscheiden muss. Varianten von persistenten Identifikatoren, einmal als vollständige URI inklusive DOI, einmal als alleinstehende DOI, können nebeneinander bestehen. Die DOI Foundation gewährleistet die Persistenz für Domänen wie http://dx.doi.org, die als Präfix einer URI mit DOI-Identifikator dienen.[19]

Resümee

Standards und kulturelles Erbe gehen oft eine fruchtbare Beziehung ein. Häufig beweist das Ergebnis weit über die Grenzen des kulturellen Erbes hinaus die Relevanz dieser Beziehung.
Eine Frage blieb bisher aber unbeantwortet: Welche Organisationen entwickeln die Standards? Der Autor hat aufgrund seines persönlichen Hintergrundes das W3C in den Vordergrund gestellt. Es gibt jedoch zahlreiche Gremien in anderen Organisationen wie IETF, ISO, OASIS, TEI Consortium, Unicode Consortium etc., die für kulturelles Erbe relevante Standardisierung betreiben. Wichtig ist die Koordination zwischen diesen Organisationen, um Überlappungen bei den Standards zu vermeiden.

Für die Endnutzer der Standards sind diese Aspekte zumeist nicht wichtig. Sie möchten wissen: Für welchen Zweck muss ich welche Technologie einsetzen? Wenn ein Standard entsprechende Verbreitung gefunden hat, dann wirkt er oft nur im Verborgenen. Man nutzt ihn, ohne es zu merken – XML ist hierfür ein gutes Beispiel. Zu hoffen bleibt also, dass der Konsens über relevante Standards beim kulturellen Erbe lebhaft voranschreitet. Dann könnten viele Standards im Sinne von Yuri Rubinsky[20] „in den Tunneln von Disneyland“ unsichtbar ihr Werk tun.
 


[1]  Vgl. Korpus Thomisticum – Kurze Einführung, http://www.corpusthomisticum.org/wintrode.html (Letzter Aufruf: 26.09.2014).
[2]  Vgl. Ide, N./Sperberg-McQueen, C. M.: The TEI: History, goals, and future. Computers and the Humanities 29 (1) (1995), S. 5-15. Der TEI Standard, die sogenannten TEI Guidelines, sind verfügbar unter http://www.tei-c.org/ (Letzer Aufruf: 02.09.2014).
[3]  Vgl. DeRose, S. J./Durand, D. G./Mylonas, E./Renear A. H.: What is Text, Really?. In: Journal of Computing in Higher Education, 1.2 (1990), S. 3-26. sowie Renear, A. H./Mylonas E./Durand, D.G.: Refining our Notion of What Text Really Is: The Problem of Overlapping Hierarchies. In: Research in Humanities Computing, Oxford University Press 1996.
[4]  Vgl. TEI: 20 Non-hierarchical Structures. In: Guidelines for Electronic Text Encoding and Interchange, Version 2.7.0. Last updated on 16th September 2014, revision 13036. http://www.tei-c.org/release/doc/tei-p5-doc/en/html/NH.html (Letzter Aufruf: 01.09.2014).
[5]  Vgl. Dublin Core Metadata Initiative, http://dublincore.org/ (Letzter Aufruf: 01.09.2014).
[6]  Vgl. Manola, F./Miller, E.: RDF Primer, W3C Recommendation. 2004. http://www.w3.org/TR/2004/REC-rdf-primer-20040210/ (Letzter Aufruf: 01.09.2014).
[7]  Vgl. Berners-Lee, T.: Give yourself a URI. timbl’s Blog, 25.01.2006. http://dig.csail.mit.edu/breadcrumbs/node/71 (Letzter Aufruf: 01.09.2014).
[8]  Vgl. Vila Suero, D.: Library Linked Data Incubator Group: Use Cases. W3C Incubator Group Report 25 October 2011. http://www.w3.org/2005/Incubator/lld/XGR-lld-usecase-20111025/ (Letzter Aufruf: 01.09.2014).
[9]  Vgl. What is the Script Encoding Initiative? Department of Linguistics, University of California, Berkeley. Letzte Aktualisierung 13.09.2014. http://www.linguistics.berkeley.edu/sei/index.html (Letzter Aufruf: 20.09.2014).
[10]  Vgl. Sharma, A.: Multilingual User Generated Content at Wikipedia scale. Präsentation beim „Multilingual Web“-Workshop, 2014. http://www.multilingualweb.eu/documents/2014-madrid-workshop/2014-madrid-program (Letzter Aufruf: 01.09.2014).
[11]  Vgl. Kornai, A.: Language Death in the Digital Age. Präsentation bei META-FORUM 2012. http://www.meta-net.eu/events/meta-forum-2012/programme (Letzter Aufruf: 01.09.2014).
[12]  Vgl. Rehm, G./Uszkoreit, H.: The META-NET White Paper Series. 2011. http://www.meta-net.eu/whitepapers/overview (Letzter Aufruf: 01.09.2014).
[13]  Vgl. Wikidata Homepage, http://www.wikidata.org/ (Letzter Aufruf: 01.09.2014).
[14]  Vgl. Schema.org, http://schema.org/ (Letzter Aufruf: 01.09.2014).
[15]  Vgl. http://pro.europeana.eu/edm-documentation (Letzter Aufruf: 01.09.2014).
[16]  Gradmann, S.: Building Blocks of the Future Scholarly Web: Beyond and far beyond. Präsentation auf der APE conference 2010 in Berlin.
[17]  Vgl. Projekt-Webseite Digitised Manuscripts to Europeana (DM2E), http://dm2e.eu/ (Letzter Aufruf: 01.09.2014).
[18]  Vgl. Footnotes, comments, bookmarks, and marginalia on the Web, A W3C Workshop on Annotations, 2 April 2014, San Francisco, California. http://www.w3.org/2014/04/annotation/ (Letzter Aufruf: 01.09.2014).
[19]  Beispiele hierzu findet man unter Factsheet: DOI® System and Internet Identifier Specifications. Aktualisiert am 08.07.2013, http://www.doi.org/factsheets/DOIIdentifierSpecs.html (Letzter Aufruf: 01.09.2014).
[20]  Vgl. Rubinsky, Y.: Electronic Texts The Day After Tomorrow. SoftQuad Inc.,
http://xml.coverpages.org/rubinskyTomorrow.html (Letzter Aufruf: 01.09.2014).

__________________________________

Zum Autor

Prof. Dr. Felix Sasaki ist Senior Researcher am DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) und W3C-Fellow sowie Co-Leiter des am DFKI verankerten deutsch-österreichischen Büro des W3C (World Wide Web Consortium). Von 1993 bis 1999 studierte Felix Sasaki Japanisch und Linguistik in Berlin, Nagoya (Japan) und Tokio. Ab 1999 arbeitete er beim Department of Computational Linguistics and Text Technology an der Universität Bielefeld, wo er 2004 einen PhD zur Integration linguistischer, mehrsprachiger Daten auf Basis von XML und RDF abschloss. Felix Sasaki hat langjährige Erfahrung in verschiedenen Standardisierungsbereichen wie Internationalisierung, Web Services und Multimedia-Metadaten. Sein Hauptfokus liegt auf der Anwendung von Web-Technologien für die Repräsentation und Verarbeitung von multilingualen Informationen.

__________________________________

Links und Downloads:

Felix Sasaki: Standardisierung und kulturelles Erbe: Nichts geht ohne Menschen (PDF)
Erläuterung der Lizenz: CC BY 4.0 International
Namensnennung: Felix Sasaki: "Standardisierung und kulturelles Erbe: Nichts geht ohne Menschen", in: Der Vergangenheit eine Zukunft - Kulturelles Erbe in der digitalen Welt, eine Publikation der Deutschen Digitalen Bibliothek, hrsgg. von Paul Klimpel und Ellen Euler, iRights Media: Berlin 2015, Seite 84 - 94. CC BY 4.0 International

Die Bilderstrecke der Publikation: Die Bilder der Digitalisierung - "Der Vergangenheit eine Zukunft - Kulturelles Erbe in der digitalen Welt"

Gespräch mit den Herausgebern Ellen Euler und Paul Klimpel zum Erscheinen der Publikation: "Der Vergangenheit eine Zukunft - Kulturelles Erbe in der digitalen Welt": Die erste Publikation der Deutschen Digitalen Bibliothek

Präsentation der Publikation auf der Leipziger Buchmesse: Die erste Publikation, viele Gespräche und ein besonderer Jutebeutel: Die Leipziger Buchmesse

Die Publikation ist als Buch und als E-Book erhältlich, zusätzlich sind jedoch alle Inhalte mit der Creative Commons Lizenz CC BY 4.0 International lizenziert und können somit bei Namensnennung nachgenutzt und weiterverwendet werden. Bereits jetzt ist das Buch auf der Verlagsseite im E-Reader vollständig einsehbar.
 

 

Schlagworte: