Literaturversorgung und Informationssysteme: Von und für Communities

Ein Dossier auf Basis des Jahresberichts 2015

Damit wissenschaftliches Arbeiten gelingt, orientiert sich das Portfolio im Bereich der Wissenschaftlichen Literaturversorgungs- und Informationssysteme (LIS) an den unterschiedlichen Bedürfnissen der Forscherinnen und Forscher. Für viele Anforderungen sind bereits Standardwege etabliert. Doch gerade in Bezug auf digitale Vernetzungs- und Verbreitungsmöglichkeiten zeigen sich neue Herausforderungen. Auch 2015 konnte die Gruppe LIS mit ihren Aktivitäten flexibel den Förderbedarf einzelner Communities decken und ebenso Entwicklungsprozesse über Einzeldisziplinen hinaus aktiv mitgestalten.

„Die DFG handelt nach dem response mode. Es funktioniert jedoch nicht, für alle Belange aller Akteurinnen und Akteure ein und dieselbe Blaupause anzulegen“, sagt Gruppenleiterin Anne Lipp über die Förderstrategie bei den Wissenschaftlichen Literaturversorgungs- und Informationssystemen. „Wir müssen zu einem gewissen Teil offen für Experimentelles sein, gleichzeitig darf der strukturbildende Teil in unserer Förderung nicht zu klein werden.“ Eben dieser programmatische Balanceakt zwischen Stabilität und Flexibilität prägt die Arbeit im Förderbereich LIS.

Fachinformationsdienste für die Wissenschaft

Eine Illustration zum Selbstverständnis des Fachinformationsdienstes Pharmazie
Eine Illustration zum Selbstverständnis des Fachinformationsdienstes Pharmazie
© Universitätsbibliothek Braunschweig

Auf die Bildung von längerfristigen Strukturen zielt das Förderprogramm der „Fachinformationsdienste für die Wissenschaft“, das Wissenschaftlerinnen und Wissenschaftlern aller Fachrichtungen in Deutschland unabhängig vom Standort ihrer Tätigkeit einen möglichst schnellen und direkten Zugriff auf Spezialliteratur und forschungsrelevante Informationen ermöglichen soll. Seit 2012 lösen die Fachinformationsdienste schrittweise die früheren Sondersammelgebiete ab – dieser Umstrukturierungsprozess konnte 2015 erfolgreich beendet werden. Insgesamt 31 der disziplinspezifischen Dienste entstehen mittlerweile in so unterschiedlichen Fächern wie Bergbau und Hüttenwesen oder Jüdische Studien.

Erschließung und Digitalisierung

Buchseite: Ex Libris aus einem Werk der Bibliothek Trew
Ex Libris aus einem Werk der Bibliothek Trew
© Universitätsbibliothek Erlangen-Nürnberg

Auf bewährte Standards setzt auch das Programm „Erschließung und Digitalisierung“ mit seiner 2015 lancierten Ausschreibung zur „Digitalisierung und Erschließung der im deutschen Sprachraum erschienenen Drucke des 18. Jahrhunderts (VD 18)“. Bibliotheken beantragten Mittel, um ihre historischen Drucke und Zeitschriften digital bereitstellen und zu einem Gesamtkatalog des 18. Jahrhunderts beitragen zu können. In einer Pilotphase im Vorfeld der Ausschreibung wurden gemeinsame Standards und Workflows entwickelt – unter anderem galt es, durchschnittliche Seitenpreise zu ermitteln und eine zentrale Datenhaltung zu konzipieren.

Eine positive Förderentscheidung erhielt unter anderen die Universitätsbibliothek Erlangen-Nürnberg, in deren Bestand sich über tausend Drucke der naturhistorischen „Bibliothek Trew“ befinden. Der Mediziner Christoph Jacob Trew (1695–1769) aus Nürnberg war Leiter des dortigen Theatrum Anatomicum, er hinterließ eine der bedeutendsten naturkundlichen Privatsammlungen des 18. Jahrhunderts. Mit Ende der zweijährigen Förderung wird sie digital zur Verfügung stehen.

Analoges zu digitalisieren, bedeutet zunächst, eine andere Form der Darstellung zu wählen, die dann einen offenen Zugang zum Digitalisat über das Internet ermöglichen kann. „Was im Zuge der Digitalisierung allerdings wirklich neu für die Wissenschaft ist, ist die maschinengestützte Auswertung großer Datenmengen“, erläutert Anne Lipp.

Bei der Sammlung Trew in Nürnberg liegen die Vorteile digitaler Daten „im Kleinen“ auf der Hand: Wer sich mit einzelnen Folianten beschäftigen möchte, muss nicht extra nach Nürnberg reisen. Das historische Original wird zugleich seltener in verschiedene Hände genommen, was das Objekt schont. Und schließlich kann die systematische VD-18-Datenbank eine kriterien- oder schlagwortgeleitete Suche ermöglichen, um bestimmte Forschungsfragen zügiger zu bearbeiten.

Informationsinfrastrukturen für Forschungsdaten

Grafik zur Sichtbarkeit von Forschungsrohdaten
Die Grafik zeigt die Vielfalt der digitalen Daten in den Altertumswissenschaften
© Maurice Heinrich, IANUS c/o Deutsches Archäologisches Institut, Berlin

Öffnen (jpg)

Mit dem 2013 eingeführten Programm „Informationsinfrastrukturen für Forschungsdaten“ wurde ein Rahmen geschaffen, um solche datengestützte, rechnerbasierte Forschung betreiben zu können. Qualitätsgesicherte Forschungsdaten bilden hierbei die Basis für neue Infrastrukturen. Zu Forschungsdaten zählen zum Beispiel Messdaten, Laborwerte, audiovisuelle Informationen, Texte, Objekte aus Sammlungen und Proben, die in der wissenschaftlichen Arbeit entstehen, entwickelt oder ausgewertet werden. Ebenso werden methodische Testverfahren wie Fragebögen, Software und Simulationen darunter gefasst. Das Forschungsdatenprogramm richtet sich beispielsweise an Bibliotheken, Archive, Rechen- und Medienzentren in Kooperation mit Wissenschaftlerinnen und Wissenschaftlern – so arbeiten Datenverwaltung und Nutzerinnen oder Nutzer der Daten eng zusammen.

Ein Beispiel für ein disziplinspezifisches Angebot im Forschungsdatenmanagement ist das Projekt „IANUS – Forschungsdatenzentrum Archäologie & Altertumswissenschaften“, das sich seit 2015 in der zweiten Förderperiode befindet. Der künftige Dienst wird koordiniert vom Deutschen Archäologischen Institut (DAI) in Berlin, dessen Präsidentin Friederike Fless die besondere Bedeutung von Forschungsdaten für das Fach herausstellt: „Eine archäologische Grabung ist ein irreversibler Vorgang. Wenn man einmal durch die Schichten durch ist, ist alles weg. In diesem Moment müssen alle Informationen ausgesprochen sorgfältig dokumentiert sein.“

Gerade die langfristige Sicherung von Grabungsdaten stellt sich bereits jetzt als ein Problem heraus, wie Fless an Beispielen illustriert: „Wer kann schon noch eine Floppy Disk lesen? Oder 3-D-Rekonstruktionen der 1980er-Jahre jetzt noch mit modernen Programmen weiterverarbeiten?“, so die DAI-Präsidentin. „Für uns ist es dramatisch, dass viele digitale Daten in einer sehr alten Form vorliegen und auch nur ein einziges Mal vorhanden sind.“ Zudem gebe es noch ältere Archivalien wie Glasplattennegative oder Dias, die langfristig gesichert, das heißt vor dem Verfall geschützt werden müssen. Um dem doppelten Anspruch analoger und digitaler Daten gerecht zu werden, benötige man gute Sicherungskonzepte.

Eine Frage bei Diensten wie IANUS ist mitunter auch, wie man die Community dazu bringt, neue Organisationsformen zu akzeptieren. In der ersten Förderphase führte das Projektteam daher eine Stakeholder-Analyse durch, berichtet Fless: „Es stellte sich heraus, dass viele Archäologen ihre Daten auf heimischen Rechnern sichern, ein Teil immerhin auf einer externen Festplatte. Die wenigstens aber speichern sie in einem Rechenzentrum, und die allerwenigsten mit langfristiger Perspektive. Wir haben noch viel Sensibilisierungsarbeit vor uns!“

Das Forschungsdatenzentrum IANUS möchte nach Abschluss der Konzeptionsphase als IT-Service digitale Forschungsdaten sammeln, beschreiben, katalogisieren, migrieren, archivieren und – soweit möglich – online frei verfügbar bereitstellen. Dafür ist der Verbund aus Universitäten, Museen und Denkmalämtern auf die Mitarbeit der Fachgemeinschaft angewiesen: „Unsere Abfrage hat uns schließlich auch gezeigt: Der Bedarf, auf die Daten anderer zurückzugreifen, ist riesig, die Bereitschaft, eigene Daten einzustellen, sehen wir eher als einen längeren Lernprozess an“, resümiert Friederike Fless.

Infografik: Workflow Datenkuratierung
Die Grafik zeigt den vereinfachten Workflow zur Kuratierung und Archivierung von altertumswissenschaftlichen Forschungsdaten im IANUS-Projekt
© Maurice Heinrich, IANUS c/o Deutsches Archäologisches Institut, Berlin

Öffnen (jpg)

Das IANUS-Projekt ist ein Beispiel, das in die Kerbe der 2015 von der DFG vorgelegten „Leitlinien zum Umgang mit Forschungsdaten“ schlägt. Diese sind ein erster Ansatz, um mehr Verbindlichkeit für Forschungsarbeiten herzustellen.

Die Leitlinien liefern eine Richtschnur für einzelne Phasen eines wissenschaftlichen Projekts, in denen die Frage nach Daten zum Tragen kommt. So sei schon bei der Planung und Antragstellung zu bedenken, welche Art von Forschungsdaten das Projekt erzeugen wird und ob und wie diese Daten im Sinne der Nachnutzbarkeit auch für andere Wissenschaftlerinnen und Wissenschaftler zur Verfügung gestellt werden können. Konzepte für die Qualitätssicherung, den Umgang mit und die langfristige Sicherung der Forschungsdaten sind hier gefragt. In einem weiteren Schritt sehen die Leitlinien vor, die Daten so zeitnah wie möglich tatsächlich verfügbar zu machen und dies, in letzter Konsequenz und nach den Regeln guter wissenschaftlicher Praxis, für eine Dauer von zehn Jahren. Somit sind die Leitlinien ein Appell an die Fachgemeinschaften zu reflektieren: Welche Forschungsdaten sind besonders wertvoll? Wie lässt sich ihre Nachnutzbarkeit verbessern?

Dabei verzeichnet die Nachnutzbarkeit von Daten bisher noch sehr wenige Umsetzungsversuche, obwohl in zahlreichen geförderten Projekten hochwertige Daten entstanden sind, die nicht nur für die eine Ursprungsfrage interessant sein könnten. Mit der Ausschreibung „Forschungsdaten in der Praxis“ von 2015 sollen Wissenschaftlerinnen und Wissenschaftler dabei unterstützt werden, die Potenziale bereits bestehender und frei zugänglicher Forschungsdaten und Datenrepositorien für neue Fragestellungen auszuschöpfen. Dies ist besonders spannend mit Blick auf disziplinübergreifende Interessen: Neben der technischen Herausforderung, Daten aus verschiedenen Disziplinen gemeinsam auszuwerten, ist es auch anspruchsvoll, die Daten so systematisch zu beschreiben, dass sie vergleichbar und verknüpfbar werden.

47 Anträge gingen zum Stichtag auf die Ausschreibung ein, die bis Mitte 2016 begutachtet werden – im Anschluss wird sich zeigen, ob dieser experimentelle Ansatz gelingt. „Im Erfolgsfall kann ein solches Projekt eine positive Signalwirkung für den weiteren Ausbau und die Nutzung digitaler Informationsinfrastrukturen in der Wissenschaft entfalten“, sagt Stefan Winkler-Nees, der für die Ausschreibung zuständige DFG-Programmdirektor. „Wir wollten mit der Ausschreibung den Wert bestehender Repositorien betonen und das Potenzial von Data-Sharing sichtbar machen.“

Text- und Data-Mining

Magazin der Universitätsbibliothek in Frankfurt am Main
Die klassische Bibliothek - hier ein Magazin der Universitätsbibliothek in Frankfurt am Main
© Universitätsbibliothek Johann Christian Senckenberg Frankfurt/Main

Der Workshop „Bedarf und Anforderungen an Ressourcen für Text- und Data-Mining“ im Rahmen der Schwerpunktinitiative „Digitale Information“ der Allianz der deutschen Wissenschaftsorganisationen beschäftigte sich 2015 damit, wie Forscherinnen und Forscher Software für Text- und Data-Mining nutzen, um digital vorliegende Inhalte wie Publikationen oder Forschungsdaten zu analysieren. An die Durchsuchbarkeit von unstrukturierten Text- und strukturierten Datenquellen ist auch eine lizenzrechtliche Herausforderung gekoppelt, der sich die Allianz zuwendet.

Viele Debatten im Bereich jüngerer technischer Entwicklungen stehen noch am Anfang, sodass im Förderbereich LIS regelmäßig Formate wie Workshops und Expertengespräche dazu genutzt werden, sich mit Zukunftsthemen zu beschäftigen und Entwicklungen aktiv zu begleiten.

Nach Ergebnissen einer Umfrage der Allianz-AG, die 177 Wissenschaftlerinnen und Wissenschaftler dazu befragt hat, welche inhaltlichen und technischen Voraussetzungen seitens der Wissenschaft erfüllt sein müssen, gewinnt das Text- und Data-Mining immer mehr an Bedeutung – weil zunehmend umfangreichere und komplexere Inhalte verfügbar sind und die softwaregestützte Analyse zudem immer leistungsfähiger wird. In der Umfrage kam weiterhin der Wunsch nach einer möglichst vollständigen Text- und Datensammlung zum Ausdruck – dies ist bis dato aus lizenzrechtlicher Sicht noch nicht gegeben. Auch die Rolle großer Digitalisierungsbemühungen wie Google Books ist noch nicht abzusehen – und ebensowenig, welchen Einfluss sie auf wissenschaftliches Arbeiten nehmen werden.

Open Access

Wenn es um softwarebasiertes Durchsuchen wissenschaftlicher Artikeldatenbanken geht, ist im gleichen Atemzug der große Bereich des Open Access zu nennen, der durch das LIS-Förderprogramm „Open-Access-Publizieren“ abgedeckt wird. Publikationen können institutionengebunden oder disziplinspezifisch mit freiem Zugang veröffentlicht werden. Außerdem gibt es die Variante, bei kommerziellen Verlagen im Open Access zu publizieren. Letzteres ist mit Gebühren für die beitragenden Autorinnen und Autoren verbunden, die ihnen – entsprechend der DFG-Policy – durch einen universitären Publikationsfonds teilweise erstattet werden.

Nachhaltige Absicherung von Open-Access-Publikationsfonds

Hierzu fand im Jahr 2015 der Workshop „Nachhaltige Absicherung von Open-Access-Publikationsfonds“ statt. Expertinnen und Experten diskutierten über die strategische Bedeutung von Publikationsfonds, die Interaktion mit Verlagen und Dienstleistern und die Budgetierung und Finanzierung von entsprechenden Etats. Besonders virulent zeigt sich bei strategischen Workshops wie diesem immer wieder die Frage nach statistischen Kennzahlen zum Open Access.

INTACT – Transparente Infrastruktur für Open-Access-Publikationsgebühren

Mehr Preistransparenz im Open Access möchte deshalb das 2015 bewilligte Projekt „INTACT – Transparente Infrastruktur für Open-Access-Publikationsgebühren“ schaffen. Den Antrag in der Ausschreibung „Open-Access-Transformation“ hatten Universität und Universitätsbibliothek Bielefeld gemeinsam mit der Max Planck Digital Library gestellt. Projektziel ist es, empirische Kennzahlen zum öffentlich finanzierten Open-Access-Publizieren in Deutschland bereitzustellen. „Vielleicht spielen zukünftig auch transparente Preise eine Rolle bei der Frage, wo man als Wissenschaftlerin oder Wissenschaftler den eigenen Artikel platziert“, so Dirk Pieper, Projektleiter und stellvertretender Bibliotheksdirektor in Bielefeld. Doch geht es dem Projektteam nicht nur um eine Entscheidungshilfe für Autorinnen und Autoren – es ist gleichermaßen für das gesamte Publikationssystem zentral, Preise zu kennen und vergleichbar zu machen.

Unter dem Stichwort „Open-Access-Transformation“ hatte die Max Planck Digital Library ein viel beachtetes Whitepaper veröffentlicht, berichtet Dirk Pieper: „Aus dem Whitepaper geht hervor, dass die Erwerbungsetats der wissenschaftlichen Einrichtungen im Prinzip ausreichen, um einen kompletten Wechsel zum Open-Access-Publizieren zu ermöglichen.“ Um detailliertere Transformationsszenarien zu entwerfen, benötige man jedoch den genaueren Überblick über die Kosten.

Ein Problem sei, so Pieper, dass es aufgrund des föderalen Systems in Deutschland keine national verbindliche Open-Access-Strategie gebe. „Deshalb kommt es darauf an, dass außeruniversitäre Forschungseinrichtungen zusammen mit den Universitäten Zielsetzungen formulieren.“ Das 2015 bewilligte Projekt INTACT gibt einen Startschuss.

Wörterbücher „kleiner Sprachen“

Mit dem Projekt „Open-Access-Publikation verlinkter Wörterbücher für den weltweiten Sprachgebrauch“ liefert Antragsteller Martin Haspelmath vom Max-Planck-Institut für Menschheitsgeschichte in Jena schließlich ein Beispiel dafür, wie sich elektronisches Publizieren im Open Access mit der Sicherung und Kuration von Forschungsdaten wunderbar kombinieren lässt.

In einem Onlinejournal sollen Wörterbücher von den sogenannten Kleinen Sprachen veröffentlicht werden. Die Kleinen Sprachen werden nur von sehr wenigen Menschen gesprochen, sind aus typologischer Sicht jedoch enorm wichtig, um die weltweite Sprachvielfalt sowie Sprachverwandtschaften zu erforschen. Wörterbücher bilden einerseits die Lexik einer Sprache und die grammatische Beschreibung ihrer Wörter ab, andererseits wird die Bedeutung eines Wortes auch in unterschiedlichen Verwendungskontexten ausgewiesen. Linguist Martin Haspelmath erklärt, wie die Forscherinnen und Forscher zu ihrem Wissen kommen: „Sie bitten die tatsächlichen Sprecherinnen und Sprecher zum Beispiel, traditionelle Erzählungen ins Mikrofon zu sprechen. Und sie setzen sich immer wieder mit ihnen zusammen, um einzelne Bedeutungen zu erfragen.“ Diese Aufnahmen werden mühsam transkribiert, um Wort für Wort die Verwendungsweisen zu entschlüsseln und sie dann in den Einträgen abbilden zu können.

„Es ist schwierig, Verlage davon zu überzeugen, Wörterbücher Kleiner Sprachen zu publizieren, denn das Publikum dafür ist nicht gerade groß“, weiß Haspelmath. „Mit unserem Onlinejournal schaffen wir eine Umgebung für einen eigenen, mehr oder weniger automatisierten Veröffentlichungsprozess.“ Gleichzeitig biete die Online- im Gegensatz zur Printpublikation den Vorteil, auch Tondateien oder Bewegtbilder mit einbinden zu können. All dies kann dabei helfen, Forschungsdaten verschiedener Kleiner Sprachen besser miteinander zu vergleichen.

Zusatzinformationen

© 2010-2017 DFG Aktualisierungsdatum: 08.09.2016Sitemap  |  Impressum  |  Datenschutzerklärung  |  Kontakt  |  RSS Feeds

Textvergrößerung und Kontrastanpassung