Grafik3

Simone Görl, Johanna Puhl, Manfred Thaller

 

Empfehlungen für die weitere
Entwicklung der Wissenschaftlichen
Informationsversorgung des Landes NRW

 

Köln 2011

Vorwort

eLearning und Open Access sind wichtige Themen der zukünftigen Informationsversorgung wissenschaftlicher Einrichtungen. Sie können jedoch nur im Kontext eines Gesamtkonzepts der Informationsversorgung sinnvoll diskutiert werden. Beide Themen werden in dieser Studie daher vor allem in Wechselwirkung mit anderen Elementen einer integrierten Informationsversorgung der Hochschulen des Landes NRW diskutiert.

Zum Aufbau: Teil I versucht, ein in sich konsistentes Modell für die zukünftige Informationsversorgung wissenschaftlicher Einrichtungen zu entwickeln. Dies sind Interpretationen und Empfehlungen des Projektteams.

Teil II schildert den landesweiten (und teilweise nationalen) Sachstand. Er wurde zunächst vom Projektteam in vorbereitenden Gesprächsrunden und aus der Literatur erarbeitet und danach auf einem Workshop mit den Teilnehmern der vorherigen Runden diskutiert und auf Grund dessen überarbeitet. Diese Version der Ergebnisse wurde in einer letzten Phase des Projekts schließlich mit internationalen Experten erörtert.

Teil III schildert einerseits die Informations- und Bildungslandschaft in verschiedenen, mit NRW vergleichbaren, Regionen oder Ländern und andererseits die Reaktionen bei Experten dieser Regionen auf unseren Entwurf.

Soweit dem Textfluss zu Liebe keine geschlechtsneutralen Bezeichnungen verwendet wurden, steht die männliche Form für beide. „Hochschule” wird unterschiedslos für Universitäten und Fachhochschulen verwendet; es sei denn, es wird auf institutionelle Unterschiede hingewiesen.1

Wir danken dem Ministerium für Innovation, Wissenschaft und Forschung des Landes Nordrhein-Westfalen, das diese Studie finanziert hat.

 

Köln, im Frühsommer 2011      Simone Görl, Johanna Puhl, Manfred Thaller

 

 

1. Executive Summary

Manfred Thaller

In der Zeit bis 2025 wird die Informationstechnologie ihre Entwicklung zu einem räumlich und zeitlich hochverfügbaren Bestandteil der gesellschaftlichen Umwelt weiter fortsetzen, wobei jetzt noch bestehende Brüche zwischen unterschiedlichen Technologieebenen weiter überwunden werden.

Die Informationsinfrastrukturen der Hochschulen des Landes NRW müssen sich in diese Entwicklung einbringen: Im Interesse des Landes, das – ohne einzelne Einrichtungen zu bevorzugen – sie insgesamt als Wissenschaftssystem zum Nutzen der Bürger finanziert. Dies liegt auch im Eigeninteresse der einzelnen Hochschulen, die im Wettbewerb untereinander und mit den Hochschulen anderer Wissenschaftslandschaften nur bestehen können, wenn sie diesen Wettbewerb im Rahmen akademischer Exzellenz führen können, ohne von infrastrukturellen Mängeln abgelenkt zu werden.

Die nächsten fünfzehn Jahre werden in der Informationstechnologie auf allen Ebenen von der Konvergenz noch getrennter Lösungen geprägt werden. Dies ändert die Rahmenbedingungen für optimale organisatorische Lösungen. Das jetzige Denken in Begriffen separater Einrichtungen, die für sich jeweils alle Probleme der Bereitstellung der Informationstechnologie lösen, sollte daher ersetzt werden durch die Konzeption einer gemeinsamen technischen Basisinfrastruktur, auf der die spezifischen Dienste einzelner Fachabteilungen aufsetzen.

Die gilt sowohl innerhalb der Hochschulen, bei denen die Trennung der IT-Systeme einzelner Abteilungen aufgehoben wird, als auch zwischen den Hochschulen, die durch die Kooperation bei technischen Diensten, die unterhalb einer bestimmten Kapazität nicht effektiv betrieben werden können, erheblich gewinnen.

Die Bereitstellung der Information durch das wissenschaftliche Bibliothekssystem bleibt vom Betrieb der technischen Infrastruktur, auf der diese Information bereitgestellt wird, sachlich getrennt. Auch hier gibt es jedoch viele Problembereiche, deren Lösung in der Kooperation mehrerer Hochschulen, oder der Hochschulen des Landes insgesamt, besser gelingt als in einzelnen Einrichtungen.

Zur Unterstützung dieser technischen Konvergenz innerhalb der Hochschulen einerseits, zur Verbesserung ihrer Möglichkeiten bei der Bereitstellung der für ihre Wettbewerbsfähigkeit benötigten Infrastrukturen zusammen zu arbeiten, werden konkrete Empfehlungen für wesentliche Bereiche der Informationsversorgung gemacht. Unter Verzicht auf Details der Umsetzung sind sie im Folgenden zusammengestellt.

Grundsätzlich:

(1.1) Wir empfehlen, das Konzept im Bereich der Informationsinfrastrukturen unabhängig nebeneinander stehender Hochschulen zu Gunsten eines Schichtenmodells aufzugeben. Manche Infrastrukturen und Dienstleistungen sollten in Zukunft landeseinheitlich betrieben werden. Bei der Mehrzahl wird die gemeinsame kooperative Bereitstellung für eine Gruppe einander sachlich oder räumlich nahestehender Hochschulen sinnvoll werden. Einige Infrastrukturen und Dienstleistungen sind weiterhin am sinnvollsten in den einzelnen Hochschulen zu erbringen. Der Übergang zwischen beiden Modellen wird die volle Länge des zu Grunde liegenden Zeitraums von fünfzehn Jahren beanspruchen. Dieser Prozess sollte daher nicht durch eine einmalige punktuelle Reform unterstützt werden, sondern durch die langfristige Überprüfung aller Fördermaßnahmen darauf, ob sie den Wandel in die gewünschte Richtung unterstützten.

(1.2) Wir empfehlen ferner, innerhalb der Hochschulen die übergangslose Integration der digitalen Angebote der einzelnen Einrichtungen zu einem Angebot der Hochschule insgesamt energisch voranzutreiben.

(1.3) Da wir die Hochschulen des Landes als ein integrales System für die Bürger des Landes verstehen, empfehlen wir jedoch auch dringend, die Integration weiter zu treiben und auf oberster Ebene einen Gesamtauftritt der wissenschaftlichen Einrichtungen des Landes zu realisieren, der insbesondere alle im weitesten Sinne bibliothekarischen Ressourcen, die vom Steuerzahler finanziert werden, zu einer integrierten Ressource zusammen fasst.

Für den Bereich der allgemeinen IT-Basisdienste:

(2.1) Fördermaßnahmen zur weiteren Entwicklung aller IT bezogenen Infrastrukturen an den Hochschulen sind an eindeutige Kriterien für die effektive und explizite IT-Governance an den Hochschulen zu binden. Nur wenn der Ausbau der IT-Infrastruktur als Problem der Hochschulleitung erkannt wird, sind Verbesserungen möglich.

(2.2) Fördermaßnahmen müssen die Konvergenz der IT-Infrastrukturen innerhalb der Hochschulen befördern; sie sollten in keinem Fall die Unterschiede zwischen einzelnen Sparten hochschulinterner Einrichtungen betonen.

(2.3) Die Kooperation der Hochschulen leidet derzeit darunter, dass die kooperative Nutzung von Ressourcen scheinbar durch die Unabhängigkeit der Hochschulen behindert wird. Es besteht der Eindruck, dass jede Zusammenarbeit, bei der es zum Austausch geldwerter Leistungen kommt, als rein kommerziell und daher marktoffen organisiert werden muss. Die Hochschulen sind jedoch weiterhin öffentlich-rechtliche Einrichtungen. Wir empfehlen die Verbesserung der Kooperation beim Betrieb gemeinsamer Infrastrukturkomponenten nach dem Modell kommunaler Zweckverbände.

(2.4) Die Ausnutzung der zusammengefassten Marktmacht der Hochschulen des Landes durch koordinierte Beschaffungen ist energisch voranzutreiben.

Im Bereich der Informationsbeschaffung:

(3.1) Die Aktivitäten bei der Informationsbereitstellung, die bisher auf Bibliotheken, Medienzentren, eLearning-Zentren und andere Einrichtungen verteilt sind, sind an den einzelnen Hochschulen zu einem integrierten Angebot zusammen zu fassen.

(3.2) Es ist stärker als bisher zwischen der technischen und der sozialen Komponente der Informationsbeschaffung und der Beratung bei der Benutzung bereit gestellter Ressourcen zu unterscheiden. Die technischen Komponenten eignen sich genauso zur kooperativen Bereitstellung im Rahmen sachlich oder räumlich naheliegender Einrichtungen, wie dies bei den technischen Basisdiensten der Fall ist.

(3.3) Für die landesweiten Komponenten der kooperativen Informationsbereitstellung existiert im HBZ (Hochschulbibliothekszentrum) eine offensichtliche Trägereinrichtung. In der gegenwärtigen Organisationsform ist es innerhalb eines Systems der Kooperation zwischen den Hochschulen jedoch ein Fremdkörper, wenn es von diesen nicht beeinflusst wird. Wir empfehlen daher die Überführung in eine Konstruktion im Sinne eines „Zweckverbandes“, der vom MIWF und den Hochschulen des Landes gemeinsam betrieben wird.

(3.4) Die jetzige Struktur des Verbundkataloges ist ineffektiv. Zur Verbesserung des jetzigen Zustandes und zur Vorbereitung der Umstellung auf zukunftsweisende technische Lösungen werden konkrete Fördermaßnahmen empfohlen. Diese betreffen vor allem die Bereinigung der Dubletten in den Verbunddaten einerseits, eine radikale Vereinfachung der Erschließungsinformationen andererseits.

Übergreifende Maßnahmen:

(4.1) Für die Bereiche Langzeitarchivierung, eLearning und Open Access werden, innerhalb der voranstehend beschriebenen Strukturen, konkrete Maßnahmen empfohlen.

2. Ein Leitbild für die wissenschaftliche
Informationsversorgung des Landes NRW im Jahre 2025 – Empfehlungen

Manfred Thaller

Die folgenden Empfehlungen beruhen auf einer Reihe von allgemeinen Prämissen über die effektive und zukunftssichere Gestaltung von großflächigen Informationssystemen und deren Beziehung zu den Hochschulen des Landes.

(1) Wir gehen davon aus, dass die Informationstechnologie in Zukunft noch wesentlich mehr als bisher eine der Grundvoraussetzungen für das Funktionieren gesellschaftlicher Teilsysteme sein wird. Dies bedeutet, dass nur hochverfügbare, verlässliche Informationssysteme und Infrastrukturen von den Bürgern benutzt werden; wird diese Verlässlichkeit für die Informationsinfrastrukturen der Hochschulen nicht sichergestellt, werden diese nicht als für die Informationsgesellschaft relevante Einrichtungen wahrgenommen werden.

(2) Wir gehen ferner davon aus, dass für die Informationstechnologie das Gleiche gilt wie für alle anderen netzartigen Infrastrukturen: Der Wettbewerb findet durch die effektive Nutzung des Netzes statt; das Netz selbst wird von der öffentlichen Hand zur kompetitiven Nutzung bereitgestellt. Für die Hochschulen bedeutet dies, dass ein Modell gefunden werden muss, bei dem sie die gewonnenen Freiheiten nicht verlieren, sie jedoch gleichzeitig beim Aufbau hochschulübergreifender Strukturen unterstützt werden und auf derartige übergreifende Strukturen zugreifen können.

(3) Dies lässt sich auch auf den Vorschlag verdichten, dass die Sicherstellung der Informationsversorgung der Hochschulen nicht als die Förderung zusammenhanglos nebeneinander stehender Einrichtungen verstanden wird, sondern als konsequenter Aufbau eines landesweiten Forschungs- und Bildungssytems, das größer ist als die Summe seiner Teile.

(4) Als wesentlichen Trend der nächsten fünfzehn Jahre identifizieren wir die technische Konvergenz. Dies führt zu zahlreichen Einzelempfehlungen, die die stärkere Integration von informationstechnischen Infrastrukturen aus bisher getrennt agierenden organisatorischen Einheiten der Hochschulen betreffen. Weiterhin führen diese zu zusätzlichen Empfehlungen, die die Kooperation und den gemeinsamen Betrieb von Infrastruktureinheiten mehrerer Hochschulen zum Inhalt haben.

(5) Unter der „Informationsversorgung der wissenschaftlichen Einrichtungen“ verstehen wir alle organisatorischen und operativen Herangehensweisen zur optimalen Nutzung der neuen Informationstechnologien im engen Zusammenspiel mit der Fortführung bisheriger Informationen beschaffender oder verwaltender Einrichtungen. Das sind nach unserem Verständnis:

(6) Innerhalb dieser Gesamtmenge von Informationseinrichtungen unterscheiden wir nicht nach den derzeitigen organisatorischen Trägern; im Gegenteil gehen wir davon aus, dass viele organisatorische Trennungen ältere technische Entwicklungsstände widerspiegeln. Wir unterscheiden aber sehr stark zwischen der allgemeinen inhaltsagnostischen technischen Infrastruktur und der Bereitstellung und Verarbeitung der Information. Als saloppes Beispiel: Eine Verschmelzung der Serverlandschaften von Bibliotheken, Rechenzentren und Verwaltungen zu einer effizienten technischen Infrastruktur scheint uns mittelfristig unverzichtbar. Den Betrieb einer Bibliothek unter der Ägide des technischen Leiters des universitären Serverparks halten wir für genauso unsinnig, wie den Betrieb des Serverparks unter bibliothekarischen Gesichtspunkten.

(7) Ähnlich unterscheiden wir stark zwischen infrastrukturellen Leistungen, die die direkte Kommunikation mit den universitären Benutzern – Lehrende, Forschende, Studierende, Verwaltende – voraussetzen und solchen, die dies nicht tun. Ein Callcenter für die bibliothekarische Beratung wäre ein Unding; das gemeinsame Hosten bibliothekarischer Inhalte für mehrere Institutionen in einem gemeinsamen technischen Zentrum ist es nicht.

(8) Eine Strategie ohne Ziele ist eine Chimäre; nur wenn klar ist, was erreicht werden soll, kann diskutiert werden, wie dies am besten geschieht. In dieser Studie haben wir daher bewusst beschrieben, wie unseres Erachtens das Ergebnis eines fünfzehnjährigen Entwicklungsprozesses aussehen sollte. Dass auf dem Wege dahin viele Übergangsformen und Kompromisse nötig sein werden, ist offensichtlich. Sie vorwegnehmend beschreiben zu wollen, hätte für eine Studie der vorliegenden Art nur von der Darstellung des Zieles abgelenkt.

Die folgenden Seiten beschreiben unsere Annahmen zu den technischen Entwicklungen der nächsten fünfzehn Jahre und geben Empfehlungen, wie konsistent auf sie reagiert werden sollte. Diese Empfehlungen bauen auf den voranstehenden Prämissen auf; sie richten sich an den mit Hochschulinformationssystemen vertrauten Leser und gehen unmittelbar auf Detailprobleme ein. Eine verkürzte Darstellung des fachlichen Leitbildes, das aus diesen Prämissen abgeleitet wurde und der zu Grunde gelegten Szenarien findet sich im Abschnitt 2.5. unten.

2.1. Technologische Trends bis 2025

Die folgende Studie untersucht Trends bis zum Jahre 2025. Sie tut dies nicht, weil dies ein rundes Jahr wäre: Vielmehr spiegelt die Wahl des Zeitraumes die Überzeugung wider, dass fünfzehn Jahre jener Bereich sind, innerhalb dessen informationstechnische Voraussagen mit einiger Sicherheit gemacht werden können. Oder, genauer gesagt: Voraussagen über informationstechnische Entwicklungen, die bis zu einem Stadium der Reife gediehen sind, dass die alltäglichen Abläufe der Informationsversorgung in den Hochschulen praktisch beeinflusst.

Dies fußt auf zwei Annahmen:

Beide Annahmen sind nicht trennscharf genug, um Voraussagen über technische Details zu machen: Ob Userinterfaces des Jahres 2025 überwiegend auf Touchscreens abgestimmt sind, ob u.U. sogar die Tastatur als konfigurierbarer Teil eines Touchscreens realisiert wird und dadurch die Rahmenbedingungen für das Design von Interfaces radikal verändert werden, ist nicht vorhersagbar.

Allerdings halten wir dies für weniger relevant, als die uns eindeutig erscheinende Vorhersage, dass etwa die Texteingabe weiterhin wesentlich tastaturbestimmt sein wird und weder von der Stimmeingabe, noch von handschriftlicher Styluseingabe abgelöst werden wird. Beide letztere Varianten sind seit zehn Jahren prinzipiell verwendbar, zeigen nach dem zweiten oben angegebenen Kriterium jedoch keine Tendenzen, die bestehenden Eingabeformen flächendeckend zu verdrängen.

Die genannten Annahmen scheinen uns manche Szenarien, die in der Tat das Potential hätten, die Informationsversorgung wirklich radikal neu zu gestalten, auszuschließen. Derartige Szenarien, die wir explizit nicht berücksichtigen, sind insbesondere die folgenden:

Unter Ausschluss der genannten Szenarien halten wir die folgenden technischen Trends für die nächsten fünfzehn Jahre für prägend.

2.1.1. Trend I: Technologische Konvergenz

Auf den ersten Blick scheinen die Entwicklungen der letzten fünf Jahre eher eine Tendenz zur Diversifizierung anzudeuten.

Im Jahre 2005 gab es de facto nur zwei Betriebssysteme: Eines, das keine klare Trennung zwischen Systemkern und Userinterface hat (Windows) und eines, das diese klare Trennung aufwies (Unix) – auch wenn in einem Fall die Unterschiede in der Ausgestaltung des Interfaces (Apple seit Mac OS X) so gravierend sind, dass es als drittes Betriebssystem wahrgenommen wird. In den letzten Jahren entstanden aus der Notwendigkeit verschiedene mobile Devices zu unterstützen wieder deutlich voneinander abweichende Betriebssysteme.

Im Jahre 2005 gab es de facto nur mehr eine Grundform des Endgerätes: Verschiedene Laptops, Desktops oder Laptops und Desktops als Frontends für Rechnerkonfigurationen höherer und hoher Leistung stellten eine einheitliche Metapher des Zugangs zu Rechnerressourcen bereit. Auch hier haben die mobilen Devices erstmals wieder eine deutliche Diversifizierung eingeleitet.

Im Jahre 2005 schien schließlich, völlig unabhängig von den mobilen Devices, die Entwicklung praxisrelevanter Programmiersprachen abgeschlossen – unter anderem dadurch, dass die zunehmende Rechenleistung den Performanz-Nachteil von Scriptsprachen verwischte. Seitdem zeichnet sich wieder eine stärkere Diversifizierung der Sprachen ab.

Diese Diversifizierung einzelner Aspekte der technologischen Landschaft steht der Herausbildung einer voll integrierten konvergenten Informationslandschaft jedoch keineswegs im Wege. Dies wird dadurch erzwungen, dass zum Unterschied etwa zum Jahre 1995 mittlerweile zahlreiche Dienste existieren, die als genuin und zentral alltagsrelevant gelten und deren nicht-Erreichbarkeit – etwa auf einer neuen Endgeräteklasse – deren Erfolg in Frage stellt.

Dieses Prinzip sei an einem fiktiven Beispiel näher beschrieben:

Es ist klar, dass im Jahre 2025 erwartet werden wird, dass auch während Flugreisen ständiger Kontakt zu den gewohnten Informationsdienstleistungen gewährleistest ist. Im Folgenden sei aufgezeigt, dass diese Erwartung – die Erwartung nach der ständigen Verfügbarkeit informationstechnischer Leistungen, unabhängig von der dafür eingesetzten Technologie – innerhalb von mindestens drei Szenarien möglich ist, die derzeit bestehende technische Trends in unterschiedlicher Weise fortschreiben.

Allen genannten Szenarien ist allerdings gemeinsam, dass sie eine Interoperabilität von Informationsdiensten und -objekten voraussetzen, die wesentlich über der heutigen liegt. Hierin, nicht in der Frage, wie ein bestimmtes Kommunikationsprotokoll bedient werden kann, liegt die große Herausforderung für die weitere Entwicklung der Informationsversorgung im Allgemeinen und der der Hochschulen im Besonderen.

Diesen Entwicklungen gerecht zu werden, setzt erhebliche intellektuelle und finanzielle Investitionen voraus. Wir vermuten, dass sie in Zukunft als „mobile revolution“ oder Ähnliches bezeichnet werden wird, da sie letzten Endes darauf zurückzuführen ist, dass die Differenz zwischen hochmobilen (Smartphones), teilmobilen (Laptops) und stationären (PCs) Endgeräten verschwindet.

Sie als „Revolution“ zu bezeichnen scheint uns allerdings nur aus der Sicht eines auf Aufmerksamkeit bedachten karrierebewussten Medientheoretikers sinnvoll: Aus der Gesamtsicht der Entwicklung der Informationstechnologie der letzten 40 Jahre betrachtet, ist sie schlicht der nächste logische Schritt in einer organischen, iterativen Entwicklung ubiquitärer Informationsstrukturen. Die Ergebnisse und Verläufe des ersten dieser Schritte – die „PC Revolution“ – und des zweiten – „die Internetrevolution“ – scheinen uns daher eine solide Basis für die Beurteilung der weiteren Entwicklung.

Zusammenfassende These: Es ist nicht mit grundsätzlich neuen Formen der Informationsbereitstellung zu rechnen. Information, die nicht so bereit gestellt wird, dass sie auf allen Plattformen verfügbar ist, wird als amateurhaft und unzuverlässig gelten.

2.1.2. Trend II: Verfügbarkeit

Die Bereitstellung von „Rechenleistung“ – sei es als Prozessorleistung, sei es als Speicherkapazität – erfolgt zunehmend unabhängig von ihrer Inanspruchnahme. Dieser Trend ist offensichtlich und schlägt sich einerseits in der Virtualisierung von Serverleistung an den einzelnen Hochschulen, in hoher Aufmerksamkeit für die großflächige Verfügbarkeit von überörtlichen Ressourcen („Grid“, „Cloud“) wider.

Hier scheint uns der Blick auf die längerfristige Bedeutung dieser Trends jedoch ein wenig durch deren kurzfristige Erscheinungsformen getrübt. Dies gilt insbesondere für die Diskussion um das Paradigma des „Cloud Computing“. Auch wenn das National Institute of Standards and Technology selbst davor warnt, dass die Definition des Konzepts sich noch weiter entwickle, ist seine Definition derzeit wohl die Seriöseste:

„Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.“2

Laut dieser Erklärung liegt das Schwergewicht der Definition auf der Art und Weise, wie ein wohldefinierter Pool von Diensten verfügbar gemacht wird. Dagegen wird in der – durchaus auch in Informationseinrichtungen verbreiteten – popularisierten Form darunter häufig das Prinzip verstanden, dass informationstechnische Ressourcen von einem Anbieter bezogen würden, dessen technische Struktur nicht nur für den Endabnehmer, sondern auch für dessen Institution nicht transparent sind – woraufhin meist ein Verweis auf Amazon, Microsoft oder andere kommerzielle Anbieter erfolgt, häufig gekoppelt mit der Aussage, dass informationstechnische Leistung in Zukunft genauso anonym bezogen werden würde, wie Elektrizität heute. Dies scheint uns eine unsinnige Vermischung von Konzepten.

Die häufig bemühte Analogie zur Elektrizität wirkt nur auf den ersten Blick überzeugend: Schließlich wird Elektrizität vom Anbieter bereitgestellt und vom Kunden verbraucht, Information dagegen vom Kunden bereitgestellt und vom Anbieter verarbeitet, wonach sie oft bei ihm verbleibt – wenn die „Verarbeitung“ nicht ohnehin schon in ihrer Speicherung besteht. Der Anbieter von Rechenleistung hat also eine Verfügungsmöglichkeit über Eigentum des Kunden, die ein Anbieter von Elektrizität nie haben kann. (Ganz abgesehen davon, dass wir uns ja gerade dabei befinden, die zentrale Erzeugung von Elektrizität wieder durch eine weniger zentrale zu ersetzen.)

Vor allem aber wird übersehen, dass die durch die Namensgebung „Cloud“ implizierte strukturelle Transparenz des Informationssystems nur für den Abnehmer, nicht für den Anbieter gilt. Die suggerierte „weltweite Cloud“, in der die Information „irgendwo“ gespeichert wird, beschreibt günstigenfalls die Ansicht des Endkunden, der in der Tat nicht weiß, auf welchem Kontinent seine Daten gespeichert werden. Für den Anbieter dieser Leistung ist dies hingegen vollkommen klar und nachverfolgbar. Ohne der Versuchung erliegen zu wollen, hier durch scherzhaft anmutende Beispiele den seriösen Bereich zu verlassen: Es dürfte klar sein, dass die Bundeswehr derzeit kein Interesse daran hat, ihre Daten „in der Cloud“ zu speichern, wenn dies bedeuten kann, dass sie sich letzten Endes in Pakistan befinden.

Die Informationen der Hochschulen mögen weniger sensibel sein; bedenkt man, welch enormer Widerstand gegen das Prinzip des Open Access auf Grund von alten Copyright-Regelungen geleistet wird und wie viele durchaus sinnvolle Informationsdienstleistungen durch Datenschutzregelungen verhindert werden, ist es schwer vorstellbar, dass Hochschulen die Kontrolle über die von ihnen verwendeten und generierten Informationen so völlig abgeben.

Wir gehen in der folgenden Studie daher von folgenden Annahmen aus:

Während wir also davon ausgehen, dass die informationstechnischen Infrastrukturen der Hochschulen in deutlicher Abgrenzung zu sonstigen gesellschaftlich genutzten Informationsinfrastrukturen weiter bestehen werden, weisen wir allerdings darauf hin, dass die zunehmende Bildung weit gespannter und dadurch robusterer und ausfallssicherer Informationsinfrastrukturen sehr wohl eine gravierende Konsequenz für den weiteren Betrieb auch hochschuleigener Informationsinfrastrukturen haben wird.

Um bei der häufig verwendeten, wenn auch irreführenden Metapher der Elektrizitätsversorgung zu bleiben: Mehrstündige Stromausfälle in einer Hochschule würden heute den Hochschulbetrieb de facto weitestgehend lahm legen. Abgesehen von Lehrräumen ohne Tageslicht gibt es viele andere Aspekte des normalen Betriebs, die ohne funktionierende Stromversorgung nicht möglich wären. Ein mehrstündiger – auch unangekündigter Ausfall von zentral verwalteten IT-Leistungen – gilt jedoch nach wie vor als normal. Es gibt immer noch Hochschulbibliotheken, die es bei Arbeiten während des Wochenendes als normal ansehen, dass ihre Homepage anderthalb Tage nicht erreichbar ist. Dies entspricht durchaus einer gesamtgesellschaftlichen Situation:

Mehrstündige Stromausfälle, von denen einige tausend Bürger betroffen sind, haben einen Neuigkeitswert, der meist bis in die Tagesschau reicht. Der Ausfall von Informationsinfrastrukturen bleibt dagegen kaum kommentiert – es sei denn, er betrifft Dienste, die jetzt schon von der Allgemeinheit als funktionierend vorausgesetzt werden, wie etwa Google oder Amazon.

Wenn wir nach dem bisherigen jedoch davon ausgehen, dass es insgesamt zur Herausbildung auf der Cloud-Technologie basierender Informationsinfrastrukturen kommt, deren Ausfallssicherheit durch diese Technologien erheblich zunimmt, ist davon auszugehen, dass das vorübergehende Nichtfunktionieren von Informationsinfrastrukturen in naher Zukunft als ebenso nicht tolerierbar gilt, als heute das Nichtfunktionieren der Elektrizitätsversorgung.

Zusammenfassende These: Dies bedeutet in weiterer Folge, dass Informationsdienstleistungen, die nicht hochverfügbar sind, in Zukunft als strukturell defizient und de facto nicht verwendungsfähig angesehen werden. Information, die nach heutigen Maßstäben nicht hochverfügbar ist, wird in Zukunft als nicht verfügbar gelten.

2.1.3. Trend III: Bereitstellungsmedium

Fragt man heute nach der Bedeutung digitaler Angebote im Bereich wissenschaftlicher Publikationen, wird stets darauf verwiesen, dass dies stark von der Disziplin abhänge. Dabei wird meist prognostiziert, dass es in den jetzt weniger technologie-affinen Fächern, insbesondere den Geisteswissenschaften noch lange dauern werde, bis die Bereitstellung von Information in digitalen Zeitschriften und insbesondere Medien herausragende Bedeutung gewinnen werde.

Dass die digitalen Informationsmedien in den Natur- und Ingenieurwissenschaften, bei denen ältere Zeitschriften und Nachschlagewerke sehr rasch obsolet werden, schon sehr fortgeschritten ist, ist unübersehbar. Bei den dieser Studie u.a. zu Grunde liegenden Besuchen ausländischer Bibliotheken fiel auf, dass beispielsweise in der Bibliothek der technischen Universität Dänemarks3 Printmedien de facto verschwunden sind.

Diese in der hochschulinternen Diskussion vorgenommene Kontrastierung zwischen den Naturwissenschaften einer- und den Geisteswissenschaften andererseits, übersieht unseres Erachtens nach jedoch eine ganze Reihe von Trends, oder bewertet sie systematisch unter.

Beim Besuch gerade international bekannter öffentlicher Bibliotheken, auch und besonders des Auslandes, fällt auf, dass dort die digitalen Angebote für die Öffentlichkeit mittlerweile sehr viel stärker wahrgenommen werden, als die Printmedien. Das typische Bild einer öffentlichen Bibliothek des Auslandes zeigt eng besetzte Bildschirmarbeitsplätze und Bücherregale, zwischen denen Leere herrscht. Dies hat unzweifelhaft damit zu tun, dass nach unserem Eindruck die öffentlichen Bibliotheken des Auslandes mittlerweile in sehr hohem Maße eher als soziale Einrichtungen, denn als Bibliotheken im bisherigen Sinne wahrgenommen werden (Vgl. Kapitel 6 und 12) es zeigt aber doch auch, dass die digitale Vermittlung von Information auch im privaten Bereich, bei dem die rasche Vermittlung keineswegs den Stellenwert hat, wie in den Naturwissenschaften, mittlerweile mindestens genauso wichtig ist, wie die über Printmedien – und in manchen Ländern diese überholt zu haben scheint.

Ferner ist darauf hinzuweisen, dass die Initiative von Google zur systematischen Digitalisierung älterer Literatur mittlerweile ein Ausmaß erreicht hat, das nicht mehr vernachlässigt werden kann. Bei Hochrechnung der derzeitigen Trends, die sich auf Bibliotheken stützten, die zwischen sich nahezu die gesamte gedruckte Überlieferung abdecken, ist es unzweifelhaft, dass die Printmedien vor 1900 bis zum Jahre 2020 vollständig in digitalisierter Form vorliegen werden, abzüglich von Inselbeständen, bei denen betreuende Fachbibliothekare im Interesse der Erhaltung der eigenen Funktion die Digitalisierung verhindern werden. Es ist relativ schwer vorstellbar, dass der Widerstand der Verlage angesichts dieser Situation die Digitalisierung der Bestände zwischen 1900 und heute auf Dauer verhindern kann. Wofür es deutliche Anzeichen gibt: Der Verlag de Gruyter ist nachhaltig in die Bereitstellung von eBooks eingestiegen.4 Wichtiger aber noch, der Verlag stellt in Eigeninitiative das gesamte Verlagsprogramm rückwirkend in digitalisierter Form zur Verfügung:

„De Gruyter macht mehr als 50.000 hochwertige Titel aus über 260 Jahren Verlagsgeschichte verfügbar. Die Titel sind sowohl elektronisch (nur für Bibliotheken und Institutionen) als auch als Hardcover Reprint erhältlich. Falls eine Retrodigitalisierung notwendig ist, ist der gewünschte Titel in maximal 10 Wochen lieferbar“.5

Dies scheint uns vor allem deshalb signifikant, da de Gruyter zweifellos einer der Verlage ist, der von der öffentlichen Mehrfachsubventionierung hochwertiger geisteswissenschaftlicher Literatur in der Bundesrepublik mit am meisten profitiert hat. (Also dem System aus Steuermitteln erstellte wissenschaftliche Ergebnisse mit aus Steuermitteln stammenden Druckkostenzuschüssen zu publizieren, um die entstehenden ungemein hochpreisigen Publikationen anschließend ganz überwiegend durch aus Steuermitteln getragene wissenschaftliche Bibliotheken erwerben zu lassen.) Dass selbst hier die Bedeutung der digitalen Bereitstellung erkannt wird, halten wir für eines der wichtigsten Anzeichen der letzten Jahre für die Durchsetzung der digitalen Bereitstellung von Publikationen.

Schließlich ist unübersehbar, dass in den letzten beiden Jahren die Bereitstellung von eBooks auf dedizierten Lesegeräten in erheblichem Maße zugenommen hat. Obwohl diese Geräte nach wie vor offensichtliche Schwächen haben, scheint ihre Verwendung deutlich zuzunehmen (Verkaufszahlen potentieller Statussymbole scheinen uns im derzeitigen Stadium dieser Technologie weniger wichtig).

Trotzdem erscheint uns die Technologie der dedizierten eBook-Lesegeräte an sich nur ein – und keinesfalls der wichtigste – Aspekt des allgemeinen Trends. Ihrer Natur nach höchst allgemeine Geräte – deren Markt dem für PCs oder Videoplayer entspricht – werden fast mit Sicherheit nur als unterschiedliche Realisierungen einer gemeinsamen Basistechnologie ihr Potential ausschöpfen können. Die derzeitige Phase miteinander konkurrierender Plattformen für wechselseitig inkompatible eBook-Formate entspricht offensichtlich der Phase der zweiten Hälfte der 1980er Jahre bei der Etablierung von Standards für die Arbeitsplatzrechner. Eine Marktbereinigung steht also noch bevor.

Diese Technologie steht aber auch deshalb nicht im Zentrum unserer Überlegungen, weil unserem Erachten nach sehr scharf zwischen dem bevorzugten Medium für die Informationsbereitstellung und dem für die Informationsaufnahme zu unterscheiden ist.

Die Digitalisierung der Texte ist ein wichtiger Faktor für die weitere Entwicklung der Vertriebswege von Textpublikationen – und die Aussicht, bei einer Reise in einem einige hundert Gramm schweren Medium den Inhalt von einigen hundert für das augenblickliche Forschungsprojekt relevanten wissenschaftlichen Texte mit sich zu führen, hat offensichtlich das Potential den wissenschaftlichen Arbeitsprozess ebenso stark zu beeinflussen, wie die ständige Verbindung des mitgeführten Laptops mit den Internet. Nichtsdestoweniger haben wir erhebliche Zweifel, wieweit papiergebundene Information in den nächsten fünfzehn Jahren durch nicht-papiergebundene bei der Verwendung durch Benutzer oder Benutzerin vollständig ersetzt werden kann.

Der Grund dafür liegt in der Konfiguration typischer Arbeitsplätze. Beim Verfassen wissenschaftlicher Arbeiten sind Verfasser oder Verfasserin üblicherweise von einer Vielzahl von Texten umgeben. Der Arbeitsplatzrechner, in dem der eigene Text geschrieben wird, steht dabei meist in der Mitte und ist von mehr oder minder zahlreichen sekundären Texten umgeben, aus denen die verwendeten Informationen übernommen werden, etwa folgendermaßen:

Bild 6

Abbildung 1: Blickachsen zwischen einzelnen Informationsträgern

Das bedeutet, dass die sekundären Materialien, aus denen die Informationen entnommen werden, die in das neu zu produzierende Dokument integriert werden, im Idealfall so ausgerichtet werden, dass die Dokumente jeweils parallel zur Blickrichtung des Arbeitenden liegen (der seinen Kopf, ohne die Körperposition zu ändern, dem jeweils benötigten Stück zuwendet). Im Idealfall: Dass viele Dokumente nicht in der Idealposition liegen können, weil man versuchen muss, sie so zu arrangieren, dass eine Vielzahl davon gleichzeitig möglichst vollständig aufgedeckt ist, trifft zu; dass es eine Reihe von Disziplinen gibt, bei denen Informationen direkt am Bildschirm integriert werden müssen, weil sie schlecht oder gar nicht ausdruckbar sind (z.B. Simulationen von Prozessen, von denen für naturwissenschaftliche Studien Zahlenwerte abgelesen werden, oder Proto-Datenbanken, die in manchen geisteswissenschaftlichen Disziplinen den Zettelkasten ersetzt haben), ebenfalls.

Grundsätzlich stellt dieses Szenario dem Versuch, Informationen ausschließlich aus nicht-papiergebundenen Medien für die eigene Arbeit abzulesen, aber ein zweistufiges Hindernis entgegen.

Einerseits besteht der große Vorzug der derzeitigen Generation der Lesegeräte darin, dass es möglich ist, viele, ja sehr viele, Bücher mittels eines Displays mit sich führen zu können. Der Versuch, diese Texte gleichzeitig im Blick zu behalten würde jedoch erfordern, dass eine größere Anzahl derartiger Geräte parallel im Einsatz wäre – was zumindest kurzfristig weniger wahrscheinlich ist. Langfristig wird sich dies wohl dadurch lösen, dass der Arbeitsplatz der Zukunft zur Gänze mit einer hochauflösenden Präsentationsoberfläche bedeckt ist, auf der die relevanten Seiten dann mit einer an das jetzige iPhone angelehnten Verschiebelogik „übereinander“ oder nebeneinander positioniert werden können. Dies erwarten wir aber frühestens zum Ende der hier diskutierten Planungsperiode: Wie aus dem oben stehenden Blickachsenargument ablesbar, wäre es dazu notwendig, die Seiten stufenlos rotieren zu können. Zumindest bei Rasterbildern führt aber jede nicht orthogonale Rotation zu einer sofortigen Verschlechterung der Bildqualität, wegen der Notwendigkeit zusätzliche Bildpunkte zu interpolieren, was erst bei einem Umstieg auf sehr deutlich höhere Auflösungen nicht mehr bemerkbar ist. Dass die Endgeräte gleichzeitig eine massive Zunahme der Größe der Projektionsfläche und eine massive Erhöhung der Auflösung erleben werden, ist für uns derzeit nicht erkennbar.

Wir weisen allerdings darauf hin, dass diese Frage für die weitere Entwicklung der Informationsversorgung relativ wenig Relevanz hat: Entscheidend ist nicht, ob die jetzt in gedruckten Publikationen beim Endverbraucher ankommende Information gedruckt oder bei ihm auf dem Bildschirm dargestellt wird. Tendenzen hin zur immer stärkeren Verschmelzung von Druck- und Kopierausstattung machen es sehr wahrscheinlich, dass die Kosten des Ausdrucks auch großer Textmengen, bis hin zur dezentralen Erstellung gebundener Texte als Print-on-Demand, nochmals deutlich abnehmen werden. Ob die Information auf Papier oder am Bildschirm konsumiert wird, sollte dem Endnutzer überlassen bleiben: Aufgabe der Informationsversorgung – und damit alleinig relevant für deren Planung – ist, dafür zu sorgen, dass sie bei ihm ankommt. Und dass dies noch in wesentlich höherem Maße als heute digital geschehen wird, ist eindeutig absehbar.

Ein interessantes Ergebnis der Interviews mit Informationseinrichtungen in der ersten Phase dieser Studie ist der – allerdings bei unstrukturierten, freien Interviews nicht quantitativ präzise festmachbare – Eindruck, dass auf die Frage, welche Bedeutung Print- vs. Nonprint-Medien im Jahre 2025 nach Ansicht der Interviewpartner haben würden, Personen die diese Entwicklung mit Unruhe oder negativ zu bewerten schienen, tendenziell einen höheren Nonprint-Anteil annahmen, als Personen die dieser Entwicklung eher positiv gegenüberstanden.

Unseres Erachtens besteht die primäre Aufgabe der bibliothekarischen Komponenten der Informationsversorgung der Hochschulen im Jahre 2025 also in der Bereitstellung digital transportierter Informationsobjekte.

Einwände von Seiten hierarchisch hochstehender Angehöriger der Universitäten, die die Bedeutung der Haptik des Mediums für seine Rezeption und Interpretation betonen, sollten nicht ernst genommen werden: Sie beruhen üblicherweise auf Arbeitssituationen, wo die Informationsversorgung de facto durch studentische Hilfskräfte durchgeführt wird, ein direkter Kontakt mit dem praktischen Ablauf der Informationsversorgung also nur bedingt gegeben ist. Insoweit erinnert die Diskussion frappierend an die Debatten der 1980er Jahre über den Wert der Textverarbeitung in der Wissenschaft, bei dem die retardierenden Argumente – auf intellektuell durchaus hohem Niveau – üblicherweise von hierarchisch hochstehenden Angehörigen der Universitäten vorgebracht wurden, bei denen druckreife Typoskripte in frühen Karrierephasen durch Ehefrauen und in späteren durch Sekretariate angefertigt wurden.

Zusammenfassende These: Während auch das Büro des Jahres 2025 nicht papierlos sein wird, wird die auf dem Papier stehende Information nahezu ausschließlich digital in das Büro transportiert. Einrichtungen, die die Informationsbereitstellung an einem von einem anderen Präsentationsmedium abgeleiteten Paradigma ausrichten werden als liebenswerte, aber nicht alltagstaugliche, Relikte wahrgenommen.

2.1.4. Trend IV: Informationserschließung

Von allen technischen Trends am schwierigsten abzuschätzen scheint uns die weitere Entwicklung des Semantic Web.

Einerseits sind die Argumente für die semantischen Technologien offensichtlich; nicht ohne Grund hat die Vision6 von Tim Berners-Lee, James Hendler and Ora Lassila berechtigten Einfluss entwickelt. Andererseits ist diese Vision mittlerweile zehn Jahre alt und es ist äußerst mühsam festzustellen, welche reale Bedeutung sie tatsächlich hat. Im Vergleich dazu: Das Konzept des WWW wurde von Tim Berners-Lee 19897 vorgelegt – und zehn Jahre später war es zwar wesentlich weniger entwickelt als heute, aber offensichtlich Realität und dabei rasend schnell immer wichtiger zu werden. In einer Antwort auf die Frage nach der realen Bedeutung des Semantic Web wird im Scientific American, der 2001 den üblicherweise als Startpunkt der öffentlichen Diskussion zitierten Aufsatz veröffentlichte, 2007 in einer Darstellung, die als so zentral galt, dass sie 2009 wieder veröffentlicht wurde, festgehalten:

„Perhaps the most visible examples, though limited in scope, are the tagging systems that have flourished on the Web. These systems include del.icio.us, Digg and the DOI system used by publishers, as well as the sets of custom tags available on social sites such as MySpace and Flickr. In these schemes, people select common terms to describe information they find or post on certain Web sites. Those efforts, in turn, enable Web programs and browsers to find and crudely understand the tagged information—such as finding all Flickr photographs of sunrises and sunsets taken along the coast of the Pacific Ocean. Yet the tags within one system do not work on the other, even when the same term, such as „expensive,” is used. As a result, these systems cannot scale up to analyze all the information on the Web.“ 8

Das ist vor allem deshalb interessant, weil Systeme wie del.icio.us, MySpace und Flickr mittlerweile als typische Web 2.0 Anwendungen gesehen werden – und das Web 2.0 beschreibt eben jene Entwicklungen, die das WWW zwischen 2001 und 2011 tatsächlich genommen hat, nicht die, die von der Vision des Semantic Web vorgesehen waren. Es ist aber auch deshalb interessant, weil diese Tagging Systeme – die zwar Semantic Web Konzepte und Datenstandards nutzen, aber ohne weiteres auch mit anderen Datenformaten hätten realisiert werden können – das unseres Erachtens zentrale Problem des Semantic Web ansprechen: Die Gewinnung der semantischen Kategorisierung für Inhalte.

Die Semantic Web Community, weite Teile der Information Retrieval Forschung älterer Schule und Teile der bibliothekarischen Community haben einen Ansatz gemeinsam: Sie gehen davon aus, dass Systeme wie die Google Suchmaschine schlecht funktionieren und deshalb durch einen besseren Ansatz ersetzt werden müssten. Bei Betrachtung von Teilen der Diskussion gewinnt man den Eindruck, dass hier eine gewisse Blindheit vorliegt – Google befriedigt die Informationsbedürfnisse einer großen Zahl von Nutzern und weitreichende Strategien darauf auf zu bauen, dass dies nicht so sei, ist für den neutralen Beobachter zumindest ein wenig weltfremd; bestenfalls scheint sie stark ideologisch geprägt, weil sie den Erfolg der Google-Suchmaschine als einen Angriff auf als fundamental angesehene Wahrheiten betrachtet.