Thomas R. Köhler
Die leise Revolution des Outsourcing
Thomas R. Köhler
Die leise Revolution des
Outsourcing
IT-Services aus dem Netz
Bibliografische Informationen Der Deutschen Bibliothek – Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
Thomas R. Köhler
Die leise Revolution des Outsourcing
IT-Services aus dem Netz
F.A.Z.-Institut für Management-, Markt- und Medieninformationen, Frankfurt am Main 2007
ISBN 978-3-89981-433-0
Bookshop und weitere Leseproben unter:
www.fazbuch.de
Copyright |
F.A.Z.-Institut für Management-, Markt- und Medieninformationen GmbH Mainzer Landstraße 199 60326 Frankfurt am Main |
Gestaltung/Satz |
F.A.Z. Marketing/Grafik |
Satz Innen |
Nicole Jäger |
Alle Rechte, auch des auszugsweisen Nachdrucks, vorbehalten. |
Inhalt
Einleitung
1 Technologieinnovationen und die Folgen
1.1 Die neuen Spielregeln der Netzwerkökonomie
1.2 Die Folgen des technologischen Wandels für Unternehmen und Gesellschaft
2 Wirtschaft im Umbruch
2.1 Betriebliche Leistungserstellung im Wandel
2.2 Die Softwarebranche als Innovator
2.3 Die Telekommunikationsbranche erfindet sich neu
2.4 Die Entwicklung des IT-Service-Marktes
2.5 Innovative Geschäftsmodelle: Vorboten der Zukunft
2.6 Gemeinsame Erfolgsfaktoren
2.7 Fazit
3 Missverständnis Outsourcing
3.1 Make or Buy
3.2 Core vs. Non Core – Die Frage nach der Kernkompetenz
3.3 ICT als Kernkompetenz
3.4 Outsourcing-Modelle im Überblick
3.5 Probleme und Grenzen herkömmlicher Outsourcing-Konzepte
4 Networked IT – für ein neues Verständnis von ICT
4.1 Auflösung des Asset-Gedankens
4.2 Produkte/Applikationen werden durch Services ersetzt
4.3 Notwendigkeit zum Besitz von Assets verschwindet
4.4 The Network is the computer [TM]
4.5 Servicebausteine, Preisgestaltung und SLAs –Geeignete Dienste und Abgrenzung
4.6 Digitale Vernetzung als Grundlage für effiziente Arbeitsprozesse (geo Flexibilisierung)
4.7 Skaleneffekte/Spezialisierungsvorteile und Flexibilisierung
4.8 Hohe Sicherheit mit überschaubarem Aufwand
4.9 Der Weg zur „networked IT”
4.10 Dienstleister und „networked IT”
4.11 Die neue Rolle der IT-Organisation
5 IT-Outsourcing der Zukunft
Glossar
Stichwortverzeichnis
Der Autor
Die kurze Geschichte der Informationsverarbeitung im Unternehmen wird begleitet von Missverständnissen und Irrwegen. Kostengesichtspunkte dominieren vielfach den Blick auf die betriebliche IT. Mit immer weniger Input (finanzielle Mittel, Personen) immer mehr an Leistung erbringen – so lassen sich die Vorgaben für die IT-Leitung in folge einer kostenzentrierten Sichtweise zusammenfassen. Ein klassischer Zielkonflikt, von dem man lange Jahre annahm, dass er am einfachsten lösbar wäre, wenn man die Informationsverarbeitung möglichst weitgehend auslagert. Die Gründe für eine solche Vorgehensweise liegen auf der Hand: Ein spezialisierter Outsourcing-Dienstleister profitiert von Skaleneffekten oder zumindest von geringeren Lohnkosten, wenn er etwa Programmierleistungen in Ländern mit geringerem Lohnniveau erbringen lässt. Damit kann dieser nun – so die Theorie – die geforderten Leistungen kostengünstiger erstellen und einen Teil des Kostenvorteils an das auslagernde Unternehmen weitergeben. Quasi nebenbei erhoffte man sich in vielen Unternehmen, auf diesem Wege Probleme in IT-Organisation und im Zusammenspiel zwischen IT und anderen Unternehmenseinheiten gleich mit outsourcen zu können und, vor allem mit Blick auf die Börse, die Zahl der Mitarbeiter (den so genannten „Headcount”) durch diese Maßnahme ebenfalls reduzieren zu können. Die scheinbar überflüssig gewordenen IT-Mitarbeiter wandern entsprechend in ein neues Arbeitsverhältnis beim Outsourcing-Dienstleister und verschwinden von der Payroll.
Auch die Diskussion um den Wertbeitrag der IT, in der unter dem Schlagwort „IT does not matter” (Nicholas Carr) und den von McKinsey, der Gartner Group und anderen Beratern betriebenen Studien, die einen Zusammenhang zwischen IT-Ausgaben und Unternehmenswert verneinten, einen negativen Höhepunkt fand, lieferte Argumente für die großflächige Auslagerung der – folgt man deren Argumenten – nur als Commodity wahrgenommenen betrieblichen Informationsverarbeitung.
Soweit die Theorie. In der Praxis funktioniert das Modell des klassischen IT-Outsourcings aus verschiedenen Gründen zumeist nicht oder nur sehr unbefriedigend, wie zahlreiche Pressemeldungen der letzten Jahre ebenso wie regelmäßige Umfragen unter Verantwortlichen in auslagernden Unternehmen immer wieder belegten und aufs Neue belegen.
Probleme, die bereits bei der Erstellung einer – als Grundlage für den Outsourcing-Vertrag notwendigen – vollständigen und hinreichend präzisen Leistungsbeschreibung entstehen können, werden etwa geflissentlich ausgeblendet. Scheint diese Hürde durch sorgfältige Vorbereitung noch überwindbar, birgt sie dennoch eine weitere system-immanente Gefahr. Die in einer solchen Vereinbarung einmalig zu Vertragsbeginn definierten Anforderungen und Kriterien behalten für die gesamte Laufzeit der Vereinbarung, d.h. für drei, fünf oder gar sieben Jahre, ihre Gültigkeit. Eine spätere Änderung der Vereinbarung ist zwar im Regelfall nicht unmöglich, aber aufgrund der Ausgangslage praktisch immer unwirtschaftlich und mit Auseinandersetzungen zwischen auslagerndem Unternehmen und Dienstleister verbunden. Fraglich ist, ob eine solche Vorgehensweise im 21. Jahrhundert noch Platz hat und dem schnellen Wandel in den globalisierten Beschaffungs- und Absatzmärkten noch gerecht werden kann.
Der gravierendste Nachteil rückt aber erst langsam ins Bewusstsein. Mit der Auslagerung eines Großteils oder gar der gesamten betrieblichen Informationsverarbeitung geht auch jedes daraus möglicherweise entstehende Differenzierungsmerkmal im Wettbewerb verloren. Dieser lässt sich in beinahe allen Industriezweigen finden. Auch in so bodenständigen Branchen wie zum Beispiel Transport und Logistik lässt sich ein solcher Wertbeitrag der IT aufspüren. Während die traditionelle Kernkompetenz eines Logistikunternehmens der sichere, zuverlässige und zeitgerechte Transport eines Gutes von A nach B ist, steckt die eigentliche Differenzierung zum Wettbewerb in einem intelligent gestalteten warenbegleitenden Informationsfluss, etwa durch ein innovatives Track-and-Trace-System. Diese Erkenntnis steht im krassen Gegensatz zu der eingangs angesprochenen undifferenzierten und daher unvollständigen Sicht auf IT als reine Commodity.
Ein IT-Outsourcing, das nun derartige, für das Unternehmen als wesentlich identifizierte Bereiche tangiert, würde die Schaffung von Wettbewerbsvorteilen nicht zulassen, sondern das Unternehmen bestenfalls auf einen „Stand der Technik” festschreiben.
Doch es sind nicht nur die Mängel in herkömmlichen Outsourcing-Modellen, die eine Neuorientierung nötig machen. Auch die Rahmenbedingungen für die IT-Leistungserstellung haben sich durch den technologischen Wandel der letzten Jahre substantiell verändert. Bandbreitenstarke Datenverbindungen und neue Modelle der Serviceerbringung verändern die Spielregeln und nehmen Einfluss auf die Entscheidung zwischen Eigenerstellung und Fremdbezug im Bereich der betrieblichen Informationsverarbeitung.
Es gibt also gute Gründe, IT-Outsourcing aus einer neuen Perspektive zu betrachten.
Dieses Buch leistet einen Beitrag zu dieser Debatte, indem es die Auswirkungen des technologischen Wandels der ersten Dekade des 21. Jahrhunderts auf unternehmensinterne Informationsverarbeitung wie externe Bereitstellungsmöglichkeiten von IT-Leistungen diskutiert und daraus ein Modell für eine neue Form von IT-Outsourcing entwickelt.
Dieses „networked IT” genannte Modell hilft, den bisherigen Zielkonflikt um IT-Outsourcing aufzulösen und die Frage nach der IT-Kernkompetenz neu zu stellen – für eine intelligentere Form von IT-Leistungserstellung.
Thomas R. Köhler |
München 2007 |
Wie hat sich wohl der erste Besitzer eines Faxgerätes gefühlt?
Besitzerstolz über die exklusive Erwerbung, wie man sie etwa beim ersten Eigentümer eines neuen Sportwagens aus deutscher oder italienischer Produktion voraussetzen kann? Wohl kaum.
Unter dem Stichwort Netzeffekt oder Netzwerkeffekt erschließt sich ein Phänomen, das prägend ist für die vernetzte Gesellschaft: Der Nutzen eines Gutes oder Services steigt mit der Anzahl der anderen Verwender an. Je mehr Personen etwa einen Telefonanschluss haben und daher darü-ber für einen Teilnehmer erreichbar sind, umso wertvoller ist der Zugang zu dieser Struktur. Dies gilt natürlich auch für das eingangs beschriebene Faxgerät oder etwa den E-Mail-Dienst – beides sind etablierte Dienste, deren Einsatz im Business längst nicht mehr wie in den Anfangstagen von der Frage begleitet wird, ob es sich aufgrund der möglichen Reichweite eventuell lohnt, sondern durch die erdrückende Reichweite eher noch zu einem Zwang für die noch nicht Dienstnutzer wird, sich anzuschließen.
Betrachtet man das, was in der Fachwelt mit Netzwerkeffekt bezeichnet wird, näher, so lassen sich darunter folgende Zusammenhänge subsumieren: das Gesetz von Sarnoff einerseits, das Gesetz von Metcalfe und das Gesetz von Reed andererseits.
Das Gesetz von Sarnoff – benannt nach David Sarnoff, einem früheren Vorstand des amerikanischen Unternehmens RCA – bezieht sich auf Übertragungsnetzwerke, wie sie bei TV und Rundfunk vorkommen, so genannten Broadcast-Netzwerken. Bei dieser Form der Kommunikationsbeziehung steht ein Anbieter mit einer Vielzahl von Abnehmern in einer Beziehung (1:N). Das Gesetz von Sarnow besagt nun, dass der Wert des Netzes proportional zu der Anzahl der Nutzer zunimmt. Dies gilt – bei einer 1:N Beziehung natürlich auch im Internet, etwa bei dem Wert, der einer Werbefläche zuerkannt werden kann. Ausgeklammert bleibt die Frage, was an den Netzwerkrändern passiert, etwa wenn ein einzelner Nutzer oder Kunde „Offline” – d.h. jenseits der Reichweite des Netzwerkes – als Multiplikator eines Dienstangebotes wirkt.
Nach dem als Erfinder des Ethernet-Standards geltenden Bob Metcalfe ist das Metcalfesche Gesetz benannt. Metcalfe geht in seiner Betrachtung von einer direkten Beziehung zwischen beliebigen Nutzern aus, d.h. im Unterschied zu Sarnoff kommuniziert in diesem Modell jeder Teilnehmer eines Netzes mit jedem anderen 1:1. Es entsteht eine Beziehung zwischen gleichen, so genannten Peers. Damit sind N*(N-1) bidirektionale Verbindungen möglich. Beispiele für derartige Kommunikationsstrukturen wären das Postnetz, das Telefonnetz und der E-Mail-Verkehr. Der Wert eines solchen Netzes steigt entsprechend mit der Teilnehmerzahl im Quadrat an.
Mit Metcalfe kann auch das Phänomen der kritischen Masse erklärt werden. Hat ein solches Netzwerk einmal eine bestimmte kritische Größe erreicht, dann wird es damit quasi unwiderstehlich für andere und zieht weiteres Wachstum nach sich. Das bedeutet auch, dass etwa der zweite Anbieter eines inkompatiblen Netzes gegenüber einem ersten bereits erstarkten Netz kaum noch eine Chance hat, da ein neuer Nutzer – wenn er die Wahl hat – praktisch immer zu dem erheblich nutzenstärkeren Netz tendieren wird. Damit ist auch erklärt, warum es nur ein E-Mail-System gibt – und das trotz der Nachteile durch fehlende Authentifizierung und der Flut unerwünschter Werbebotschaften (SPAM).
Erweitert man nun das Metcalfesche Gesetz um einen Effekt, der durch die Bildung von Gruppen hervorgerufen wird, so erhält man das so genannte Gesetz von Reed. David P. Reed ist Professor am MIT Media Lab und gilt als Erfinder des UDP-Protokolls. Gruppen oder Communities entstehen autonom aus Personen mit gleichen Interessen, können aber auch von Unternehmen eingerichtet werden, um mit Lieferanten oder Kunden zu kommunizieren oder um etwa gemeinsam neue Produkte oder Dienste zu entwickeln.
Aufgrund der Gruppeneffekte wächst nach diesem Gesetz der Wert des Netzes exponentiell. Hintergrund ist die Beobachtung, dass es Möglichkeiten für 2N*(N-1) Gruppen innerhalb einer Netzstruktur aus N Teilnehmern gibt.
Dieses so genannte Gesetz von Reed wurde zuerst zitiert in: „The Law of the Pack”, Harvard Business Review (February 2001) pp 23–4.
Damit scheint das Thema Netzwerkeffekte aber noch nicht vollständig geklärt. Zu diskutieren wäre etwa die Frage, ob einzelne Verbindungen stets die gleiche Wertigkeit besitzen (wie etwa von Metcalfe angenommen) beziehungsweise – geht man von unterschiedlicher Wertigkeit aus – auf welchem Wege eine Bewertung der einzelnen Verbindungen vorgenommen werden könnte. Ungeachtet der hier noch offenen Fragen gilt:
Alle Betrachtungsweisen oder Gesetzmäßigkeiten zum Netzwerkeffekt haben einen zentralen Zusammenhang gemeinsam: der Wert eines Netzwerks hängt nach diesen Regeln von der Zahl der Teilnehmer ab. Während Sarnoff mit seinem broadcastorientierten Konzept auf Content fokussiert und Metcalfe die 1:1 Kommunikation bewertet, setzt Reed auf die Community-Effekte, die sich innerhalb einer Infrastruktur ergeben können, und gilt damit als einer der Wegbereiter der Konzepte rund um soziale Netzwerke, die gerne auch unter dem Schlagwort Web2.0 gefasst werden.
Betrachtet man die Geschichte des Internets, so lassen sich Belege für eine zeitweise Dominanz aller drei Gesetzmäßigkeiten finden.
In einer frühen Phase war das Internet eher ein Werkzeug für den Zugriff auf einzelne Ressourcen (etwa durch Zugriff auf Rechner in Forschungseinrichtungen), während zunehmend der Austausch von Informationen (etwa durch E-Mail) an Bedeutung gewann. In der aktuellen Phase ist zumindest die öffentliche Diskussion (Stichwort: Social Networks und Web2.0) bereits dominiert von Gruppeneffekten, von denen Privatnutzer wie Unternehmen gleichermaßen profitieren können.
Besonders innerhalb von Unternehmensnetzen lässt sich die Wirksamkeit der geschilderten Effekte belegen. Besonders stark wissensorientierte Unternehmen, wie etwa größere Unternehmensberatungsgesellschaften und alle sehr großen Organisationen profitieren überproportional davon. Das in einem solchen Unternehmen vorhandene Wissen erreicht jeden Mitarbeiter. Unnötige Doppelarbeiten werden vermieden, da – etwa in einem global agierendem Großunternehmen – das vorhandene Wissen jeden Mitarbeiter erreicht.
Hinterfragt man diese Gruppen aber genauer, so stellt man fest: Gleichheit ist eine Illusion, zumindest wenn es um die Beteiligung an Communities geht. Wenn Sie ein Online-Diskussionsforum besuchen und dieses eine Anzeige über die Zahl der Nutzer, die gerade „online” sind, enthält, ist Ihnen das vermutlich bereits aufgefallen: Die Anzahl der Besucher der Plattform ist meistens signifikant höher als die Zahl der Beitragenden in den Diskussionen. Dies gilt in unternehmensinternen Foren im Intranet großer Unternehmen gleichermaßen wie in Interessengruppen im privaten Umfeld im öffentlichen Internet. Jakob Nielsen benennt auf seiner Website zum Thema „Participation Inequality” (http://www.useitcom/alertbox/participation_inequality.html) einige wichtige Fakten:
• 90 Prozent der User einer solchen Seite verhalten sich rein passiv, sind so genannte „Lurker”, d.h. sie besuchen die Seite und lesen die Beiträge, aber liefern keinerlei eigene Beiträge oder Kommentare.
• 9 Prozent der Nutzer lesen überwiegend und liefern gelegentlich eigene Beiträge.
• 1 Prozent der Besucher partizipieren tatsächlich intensiv und liefern gleichzeitig den Großteil aller Beiträge.
Die Verteilung der Beiträge auf die User folgt demnach einer so genannten Zipf-Verteilung. Nach George Kingsley Zipf ist das so genannte Zipfsche Gesetz (von ihm in den 1930er Jahren entdeckt) ein Modell, mit dem man bei bestimmten Größen, die in eine Rangfolge überführt werden, deren Wert aus dem eigenen Rang der Größe abschätzen kann. Diesem wiederum liegt die bekannte Pareto-Verteilung zugrunde. Das Pareto-Prinzip – als „80-zu-20 Regel” in der Wirtschaft gut bekannt – findet sich auch hier als Grundlage wieder.
Diese von Nielsen beobachteten Effekte bei Web-Communities lassen sich auch rückblickend in Vorläufermedien wiederfinden.
In einer frühen Studie von Whittaker (Quelle: Steve Whittaker, Loren Terveen, Will Hill, and Lynn Cherny (1998): „The dynamics of mass interaction,” Proceedings of CSCW 98, the ACM Conference on Computer-Supported Cooperative Work (Seattle, WA, November 14–18, 1998), S. 257–264), der über 2 Millionen ausgewertete Usenet-Nachrichten zugrunde liegen, kommt er zu ähnlichen Ergebnissen für diese Urform der Online-Community.
Auch wenn Usenet- Newsgroups auch innerhalb von Unternehmen inzwischen häufig durch reine Webforen abgelöst wurden, ist die von Whittaker gemachte Analyse interessant, weil sich lediglich das Medium, aber nicht die Rahmenbedingungen einer Beteiligung geändert haben und die große Zahl der untersuchten Nachrichten weitergehende Rückschlüsse zulässt.
Im Rahmen der untersuchten rund 2 Millionen Beiträge kamen 27 Prozent von Nutzern, die nur einen einzigen Beitrag, ein so genanntes Posting, verfasst hatten. Im Gegensatz dazu zeichneten nur rund 3 Prozent der Nutzer für rund 27 Prozent der Nachrichten verantwortlich. Ein zufällig herausgegriffener Beitrag konnte mit gleicher Wahrscheinlichkeit von einem der 19.000 hochaktiven Beitragenden oder von einem der 580.000 einmaligen Verfassern stammen. Das bedeutet: Ein Meinungsbild einer Gemeinschaft anhand von Beiträgen deuten zu wollen ist gefährlich, weil eine kleine Gruppe quasi die Meinungsführerschaft durch eine Vielzahl von Beiträgen übernimmt, während die „schweigende Masse” der (passiven) User vielleicht gänzlich andere Vorstellungen hat.
Ein anderes besonders deutliches Beispiel des Ungleichgewichts in der Beteiligung an Online-Community-Aktivitäten findet sich im Rezensionssystem von Amazon. Bei mehreren hundertausend Reviews von Lesern gibt es im deutschsprachigen Raum mehrere einzelne Beteiligte, die jeweils mehr als 1.000 Rezensionen geliefert haben (http://ama-zon.de/gp/customer-reviews/top-reviewers.html/). Der Spitzenreiter in den USA (eine ehemalige Büchereiangestellte) hat (zum Zeitpunkt der Recherche dieses Buches) mehr als 13.000 Rezensionen verfasst.
Eine Zahl, die unvorstellbar erscheint, wenn man voraussetzt, dass die Bücher tatsächlich gelesen wurden.
Ebenfalls ein Ungleichgewicht weisen im allgemeinen Wikis, (siehe Glossar) auf. Unter den (zum Zeitpunkt der Recherche) rund 67.000 Autoren bei der Online-Enzyklopädie Wikipedia (siehe: http://en.wiki-pedia.org/wiki/Wikipedia:About), die für rund 4,6 Millionen Beiträge in mehr als 100 Sprachen verantwortlich zeichnen (durch das Prinzip des freien Editierens können auch mehrere Autoren an einem Wikipe-dia-Artikel mitwirken), liefern die 1.000 aktivsten Autoren rund zwei Drittel der Einträge. Setzt man noch die Nutzerzahl von Wikipedia dazu ins Verhältnis (30 Millionen allein für die englischsprachige Ausgabe) dann wird die Dominanz der wenigen bei diesem als Partizipationsmedium gestarteten Projekt extrem.
Abbildung 1: Übersicht der Top-Rezensenten bei Amazon.com
Auch bei anderen Fällen von „User Generated Content”, wie derartige Aktivitäten gerne zusammenfassend genannt werden, also etwa bei Weblogs oder Blogs, gibt es ähnliche Missverhältnisse. Eine Betrachtung und Bewertung, die dieses Ungleichgewicht nicht berücksichtigt, muss daher in die Irre führen. Dies sollten vor allen Dingen Unternehmen in zweierlei Hinsicht berücksichtigen, mit Fokus auf das Intranet – unter Bezug auf die Mitarbeiter des Unternehmens – einerseits und das öffentliche Internet – mit Blick auf die Kunden und deren Meinungsbilder – anderseits.
In beiden Fällen kann es, wie in den geschilderten Beispielen, dazu kommen, dass einzelne Mitarbeiter oder Kunden als Meinungsführer die inhaltliche Diskussion bestimmen und leise Stimmen oder weniger extreme Aussagen dahinter verschwinden bzw. gar nicht erst geäußert werden. Eine einfache statistische Auswertung führt damit naheliegenderweise zu einem verzerrten oder vollkommen falschen Bild dessen, was man eigentlich erzielen möchte.
Aber auch wenn durch diese Feststellung die Wachstumseuphorie bzw. Netzwerkwerteuphorie einen Dämpfer erhält, sind die grundlegenden Auswirkungen auf die Art und Weise, wie wir wirtschaften und miteinander kooperieren, unbestreitbar.
Neuere Betrachtungen des Netzwerkeffektes, wie etwa bei Weiber (Weiber, R: Was ist neu an der New Economy? Die empirischen Gesetze der Netzwerkökonomie. Vortrag Uni Trier, 25.11.2003) sehen den Kern (in Anlehnung an Metcalfes Überlegungen) der Debatte in so genannten „fiktiven Netzwerken”, nämlich bei allen „Gütern, die aufgrund ihres Charakters in einer Vermarktungs- und Nutzungsbeziehung stehen, wodurch sich ein fiktives Netwerk zwischen den Benutzern bildet” und unterscheiden in:
• Direkte Netzwerkeffekte: Der Nutzen eines Gutes steigt dadurch an, dass andere Personen das gleiche Gut einsetzen.
• Indirekte Netzwerkeffekte: Komplementäre Güter (wie Service, Ersatzteile, Zusatzteile, etc.) werden günstiger und sind besser verfügbar aufgrund der steigenden Nutzerzahl des Orginalproduktes.
Und helfen damit in der Praxis weiter als die reine Diskussion, wie genau nun sich der Nutzen mit einem zunehmenden Teilnehmer ver-ändert.
Netzwerkeffekte – wie hier beschrieben – können sowohl im Internet wie auch im Intranet festgestellt werden, d.h. diese sind auch innerhalb der Unternehmensgrenzen nutz- wie beobachtbar.
So setzt etwa das Unternehmen British Telecom (BT) für interne Zwecke ein Wissensmanagementsystem auf Basis eines Wikis ein.
Direkte Netzwerkeffekte – wie eben geschildert – vergrößern den Wert von Wissensdatenbanken und anderen verfügbaren „nichttangiblen” Unternehmensresourcen. Durch die oben benannten indirekten Netzwerkeffekte werden diese Systeme effektiver und besser nutzbar.
Das so genannte Mooresche Gesetz (oder Moore’s Law) beschreibt den technischen Fortschritt bei integrierten Schaltkreisen. Demnach findet alle 12–18 Monate eine Verdopplung der Komplexität oder Packungsdichte statt. Die Folge ist ein entsprechender Anstieg der Prozessorleistung. Ursprünglich gab Gordon Moore – studierter Chemiker und Mitgründer des Prozessorherstellers Intel – in einem 1965 veröffentlichten Aufsatz in der Zeitschrift Electronics (ftp://download.intel.com/research/silicon/moorespaper.pdf) an, seiner Beobachtung nach wäre von einem 12-Monatszeitraum der Verdopplung der Kapazitäten bei integrierten Schaltkreisen auszugehen. Rund zehn Jahre später korrigierte er den Zeitraum auf 18 Monate. In Fachkreisen wie in der Presse wurde aus dieser Beobachtung sehr schnell das so genannte Mooresche Gesetz.
Abbildung 2: Moores Law Orginalskizze (Quelle: Intel-Archiv)
Tatsächlich haben sich in den letzten Jahrzehnten die Produkte der Halbleiterindustrie in etwa in der von Moore ermittelten Geschwindkeit weiterentwickelt – bei entsprechend sinkenden Kosten –, auch wenn wiederholt Zweifel an der dauerhaften Gültigkeit dieser „Gesetzmäßigkeit” geäußert wurden, war bis dato keine Verlangsamung festzustellen. Jüngste Fortschritte bei der Prozessorproduktion, etwa durch UV-Lithographie und Strained-Silicon-Verfahrenstechnik sowie neuartige Trigate-Transistoren, lassen ein weiteres Wachstum gemäß der Mooreschen Prognose zumindest für die nächsten zehn Jahre erwarten.
Andere Betrachtungen der Entwicklung der Computerindustrie, die etwa die Leistungsentwicklung von Standard-PCs über die Jahre vergleichen, ermitteln ähnliche Innovationszyklen.
Es ist also insgesamt zu erwarten, dass die Rechen- wie Speicherleistung weiterhin stark wachsen und mit dem Anstieg der Übertragungskapazitäten (siehe Gesetz von Gilder) Schritt halten wird.
Einen ähnlichen technischen Fortschritt wie in der Halbleiterindustrie ist auch bei der Kommunikation zu beobachten. Formuliert wurde das zugrunde liegende so genannte „Gildersche Gesetz” oder „Gesetz von Gilder” von George Gilder aufgrund empirischer Beobachtung. Demnach verdreifacht sich die Bandbreite alle 12 Monate.
George Gilder ist ein amerikanischer Journalist und Publizist und galt als einer der Propheten der New Economy. Demnach werden seine Thesen der „unlimitierten Bandbreite” heute eher kritisch gesehen. Dennoch lässt sich seine Beobachtung nachvollziehen.
Offen bleibt indes, auf welchen Bereich diese Gesetzmäßigkeit angewendet werden kann. Betrachtet man etwa die Durchsatzwerte an wesentlichen Internetknoten, so lässt sich bei DE-CIX (Deutscher Commercial Internet Exchange in Frankfurt/Main www.decix.de – dem Austauschknoten des Providerverbandes „ECO”) 2004/2005 eine Verdopplung nach 14 Monaten feststellen (Pressemittelung des Betreibers aus dem Februar 2005) während ein Blick auf 2005/2006 eine mehr als Verdreifachung des Internettraffics belegt (siehe http://www.decix.de/info/traffic.html), die allerdings durch die Aufnahme neuer Peeringpartner nach oben verzerrt sein dürfte.
Nach einer Befragung des ECO Verbandes aus dem Jahr 2005 erwarten die im Rahmen der Untersuchung mit dem Titel „Internet Agenda 2005” befragten Experten eine Verhundertfachung des Internetdatenverkehrs innerhalb von zehn Jahren.
Fragen Sie doch einmal in Ihrem eigenen Unternehmen bei der IT-Leitung oder dem Netzwerkverantwortlichen nach, welchen Zuwachs Ihr Datentraffic über die letzten Jahre genommen hat – Sie werden überrascht sein.
Überrascht deswegen, weil die vermutlich deutliche Volumensteigerung kostenseitig wohl kaum negativ zu Buche geschlagen hat. Im Gegenteil. Die Kosten für Bandbreite sinken – ähnlich wie die Kosten für Halbleiterbausteine (s.o.) – laufend und überkompensieren den Mehrverbrauch dabei im Regelfall deutlich.
Im Privatkundengeschäft gelingt es etwa den Anbietern von Breitbandanschlüssen regelmäßig nur den ARPU (Average Revenue per User/ durchschnittlichen Umsatz pro Nutzer) einigermaßen zu halten, indem der Kunde zum mehr oder weniger gleichen Preis immer höhere Bandbreiten (und die zugehörige Flatrate) erhält.
Auch bei den Bandbreiten für Unternehmensanbindungen gibt es ein ähnliches Bild, wenngleich dieses nicht derartig intensiv im Licht der Öffentlichkeit diskutiert wird.
Sollte Gilder mit seiner Prognose von der unlimitierten Bandbreite also doch Recht behalten? Technologisch wie auch kommerziell ist davon auszugehen. Technologisch durch immer neue Durchbrüche bei der Übertragungskapazität, etwa bei der Nutzung vorhandener Glasfaserinfrastrukturen, und kommerziell durch den weiterhin starken Wettbewerb und die Notwendigkeit der Anbieter, aus fallenden Marktpreisen für angebotene Bandbreiten resultierende Umsatzverluste zu kompensieren.
Betrachtet man rückblickend die letzten Jahre, so lässt sich eine Entwicklung feststellen, die Gilder bestätigt. Betrachtet man nur den Ausschnitt des Privatkundenmarktes, so lässt sich sogar festhalten, dass das Bandbreitenwachstum mit ADSL2+ und VDSL (mit bis zu 16 bzw. 25/50Mbit/s) inzwischen den Anforderungen des durchschnittlichen Nutzers davongeeilt ist. Websurfen oder E-Mailen funktioniert mit 16Mbit/s nicht merklich besser als mit 6Mbit/s. Lediglich bandbreitenhungrige neue Anwendungen (wie etwa HD-Video im Rahmen von TriplePlay-Angeboten) nutzen die angebotenen Top-Bandbreiten tatsächlich aus.
Bei weiterer Zunahme bandbreitenstarker Zugänge, die in einzelnen Ländern über FTTH (Fiber to the Home, Glasfaser bis zum Haus) bereits die 100Mbit/s Marke überschritten haben, sollten bis dahin nicht noch neue besonders bandbreitenhungrige Anwendungen auftauchen, wirkt aus Sicht des Kunden das Versprechen von „unlimitierter Bandbreite” tatsächlich, als wäre es bereits eingelöst.
Nicht vergessen werden darf aber, dass sich – im Privatkundensektor, wie auch in Teilen des Geschäftskundensektors – die Bandbreitendiskussion weitgehend um den so genannten Downstream, d.h. die Maximalgeschwindigkeit, mit der Inhalte aus dem Netz hin zur Endstelle gelangen können, fokussiert. Nachbesserungsbedarf besteht zumeist noch beim Upstream (aus Kundensicht die Bandbreite in Senderichtung), der im Regelfall nur einen Bruchteil des Downstreams ausmacht und vielfach in der Werbung etwa gar nicht auftaucht. Bisher wurde dieser Upstream besonders im Privatkundenmarkt stiefmütterlich behandelt, ging man doch – weithin zu Recht – davon aus, dass der Endanwender eher passiver Konsument von Medieninhalten (Abruf von Internetangeboten) wäre und nur in geringem Maße Daten versendet (etwa Aufrufe von Webseiten und eigene E-Mails oder Chatbotschaften).
Diese Rechnung der Anbieter geht aber bei einem weniger passiven Nutzungsverhalten der Anwender nicht mehr auf:
Peerto-Peer Anwendungen wie Tauschbörsen oder Skype (Audio- und Video-Kommunikation als peer-to-peer) sowie VoIP-Calls profitieren von einem höheren Upstream. Web2.0-Anwendungen, als typische Mitmach-Dienste, sorgen ebenfalls für erhöhten abgehenden Verkehr. Hinzu kommt, dass neue Dienste, die etwa eine Datensicherung im über das Internet erreichbaren Rechenzentrum eines Providers erlauben, durch einen bandbreitenstarken Upstream erst sinnvoll möglich werden, ebenso wie viele Anwendungen im Homeoffice.
Die besonderen Eigenschaften so genannter nichttangibler oder digitaler Güter beeinflussen ebenfalls die Wirtschaft massiv.
Von digitalen Gütern oder „nicht tangiblen/anfassbaren Gütern” spricht man bei Produkten und/oder Dienstleistungen, die in Form von Daten dargestellt, übertragen und verarbeitet werden können. Neben den in Kapitel 2.2 weitergehend diskutierten Softwareprodukten können beispielweise auch Medienprodukte, Telekommunikationsdienstleistungen, Wertpapierkursinformationen, Dienstleistungen elektronischer Marktplätze und andere elektronische Dienstleistungen dazu zählen.
Zu den wichtigsten Attributen digitaler Güter zählen:
• Einfache Duplizierbarkeit
• Original und Kopie sind nicht unterscheidbar
• Geringe Vertriebskosten (insbesondere beim Vertrieb über das Internet)
Im Kontext mit digitalen Gütern wird auch häufig auf das für digitale Güter typische Risiko des schnellen Veraltens hingewiesen. Bei einem Teil dessen, was unter digitalen Gütern verstanden wird, wie etwa Börsenkursinformationen oder der Zugriff auf die Übertragung eines bestimmten Sportereignisses, mag die geringe Halbwertszeit in der Natur der Inhalte liegen, in anderen Fällen liegt – bei näherer Betrachtung – der Verdacht nahe, die geringe Halbwertszeit liege an den Gütereigenschaften selbst.
Das Internet
Aus Sicht des Jahres 2007 mag es vielleicht verwundern, das Internet in der Auflistung der Innovationen noch explizit erwähnt zu sehen.
Nach der kurzen (Schein-)Blüte der New Economy sah es zunächst danach aus, als wäre die Revolution bereits vorüber. Heute weiß man, dass damals in vielen Sektoren die kritische Masse an Usern schlicht nicht erreicht war, bzw die Ausstattung mit leistungsstarken Anbindungen nicht weit genug verteilt war. Neue Geschäftsmodelle, wie etwa die Bereitstellung von Anwendungen im Internet unter dem Label des ASP – Application Service Providing – mussten daher zunächst fast zwangsläufig scheitern.
Die Wiederentdeckung des Internet – unter dem vom Verleger Tim O’Reilly geprägten Schlagwort des Web2.0 – wird zwar teilweise bereits als „neue Internetblase” bezeichnet. Dabei wird verkannt, dass die Ausgangssituation heute eine völlig andere ist als noch Ende der 90er Jahre. Praktisch alle Unternehmen und weite Teile der Bevölkerung sind online. Das Internet hat sich beruflich wie privat zu einem ganz selbstverständlichen Medium entwickelt.
Die gängigsten Standards für Nachrichtenaustausch, Zugriffe auf andere Inhalte und Übertragung von Dateien sind längst etabliert und haben jeder für sich die kritische Masse erreicht.
Allerdings wird dabei die zunehmende Reformunfähigkeit zum Problem. Das zugrundeliegende Protokoll TCP/IP kennt keine Priorisierung möglicherweise wichtigen Traffics und behandelt so zeitkritische Anwendungen wie die Übertragung von Sprache und Video genauso gut oder gleich schlecht wie etwa Downloads oder den E-Mail-Verkehr. Die Folge: Qualitätsbeeinträchtigungen der wichtigsten Anwendungen sind – auch wenn im Allgemeinen hinreichend viel Bandbreite zur Verfügung steht – nicht auszuschließen.
Auch die Erweiterung des Adressraums (IPV6) kommt seit Jahren nicht von der Stelle. Das diskutierte „Internet der Dinge” muss Makulatur bleiben, bis diese Fragestellungen gelöst sind. Während bis dato der verfügbare Adressraum durch geschickte Mehrfachnutzung bei Providern wie privaten Adressräumen ausreichend ist, wird die fehlende Reformfähigkeit langsam zur Bedrohung für den E-Mail-Dienst. Je nach Quelle sind rund 70 Prozent bis über 90 Prozent des weltweiten E-Mail-Aufkommens als Spam zu klassifizieren.
Der inzwischen von Cisco Systems übernommene Sicherheitsanbieter Ironport berichtet etwa von der Steigerung des täglichen Spamaufkommens von 30 Mrd. auf 50 Mrd. Nachrichten (im Zeitraum Juli 2005 bis Juli 2006). Der Aufwand, diese unerwünschten Botschaften auszufiltern, wird – auch dank immer ausgefeilter werdender Techniken der Spammer – immer größer. Ein schnelle Behebung des Problems ist jedoch nicht in Sicht. Dazu wäre eine grundlegende, wenngleich unaufwendige Änderung im Mailstandard weltweit nötig. Diese ist nicht abzusehen.
Geht es nun um die Vernetzung von Standorten oder von Standorten mit eigenen Dienstleister-Rechenzentren, bieten vom Provider bereitgestellte Netze auf IP-Basis, die einen Qualitätsicherungsmechanismus mitbringen, etwa durch Priorisierung des Datenverkehrs für bestimmte Anwendungen einen entscheidenden Mehrwert für Unternehmen.
Webbrowser
Die Entwicklung von HTML/HTTP und vor allem die Entwicklung des graphischen Webbrowsers seit den Pioniertagen von Mosaic und später Netscape Navigator, Internet Explorer und Firefox hat den entscheidenden Schub für die rasche Verbreitung des Internet in Bevölkerung wie Unternehmen gegeben. Auch aus Unternehmen ist er inzwischen nicht mehr wegzudenken: Als universelle Benutzerschnittstelle wurde er längst zum Bestandteil zahlreicher Unternehmensanwendungen, nicht nur beim Zugriff auf das Internet oder auf ein spezielles Intranetangebot, sondern auch als Frontend für Applikationen in Vertrieb und Service oder ganz einfach als Benutzerschnittstelle zu zentralisierten Anwendungen, wie etwa bei der Steuerung der Rufumleitungen einer Telefonanlage. Auch eine zunehmende Zahl von Hardwaredevices, von Endgeräten aller Art, bietet eine Webschnittstelle als Bedienoberfläche an.
Gleichzeitig taugt das Browserfrontend auch als Ersatz für spezielle Benutzerinterfaces oder Clientprogramme bestehender Anwendungen. Etwa als Webmailsystem, das – ohne eigenen Rechner von einem beliebigen Gastsystem aus – den Zugriff auf etwa das eigene Exchange-Postfach erlaubt oder als Frontend für Standard-ERP-Anwendungen.
Bei der obigen Darstellung des Netzwerkeffektes wurde bereits darauf hingewiesen:
In der digitalen Wirtschaft existieren deutliche Tendenzen, Marktführerschaft überproportional zu belohnen. So zieht das stärkste Netzwerk oder der stärkste Marktplatz auch die meisten neuen Teilnehmer an.
Auf der Applikationsebene wird das Dateiformat der meistverwendeten Applikation zum Defacto-Standard. Der Lieferant eben dieser Applikation kann – aufgrund der bei digitalen Gütern vernachlässigbaren Grenzkosten – zudem eine erheblich höhere Rendite als der zweite Anbieter am Markt einfahren, da er mit erheblich höheren Stückzahlen rechnen kann und ihm vom jedem Stück fast der gesamte Umsatz als Rendite übrig bleibt, auch entsprechend mehr in die Weiterentwicklung investieren.
Die Folge: Es bildet sich vielfach etwas, was die Ökonomie als „natürliches Monopol” bezeichnet. Ein Standard, eine Applikation für einen Anwendungszweck etc.
Dies erklärt auch das Bestreben von Internet-Startup-Unternehmen zunächst einen möglichst hohen Marktanteil zu erringen und erst im zweiten Schritt über Erlösgenerierung nachzudenken.
Da der Begriff des Monopols überwiegend mit negativen Assoziationen belegt ist, sei jedoch darauf hingewiesen, dass Schwarzmalerei in diesem Zusammenhang nicht unbedingt angebracht ist. Setzt sich etwa ein offener Standard für ein Dateiformat oder eine Transaktionsplattform durch und wird durch die Macht der Userzahlen zum Defacto-Monopolanbieter, kann dies auch zum Nutzen von Unternehmen wie Endverbrauchern gereichen. Ein Standarddateiformat ist eine wichtige Voraussetzung für Kollaboration und ein hochfrequentierter Marktplatz ist im Regelfall auch ein hoch effizient funktionierender Markt.
Allerdings kann eine solche Marktkonstellation ebenfalls bedeuten, dass, wenn etwas als mängelbehaftet gilt, es kaum möglich ist, den Dienst oder den Standard abzulösen oder zu verbessern. Man denke etwa an den E-Mail-Standard und die bis dato ungelöste Spam-Problematik, wie im vorherigen Abschnitt beschrieben.
In Verbindung mit der Internetökonomie ist zunehmend von einem Phänomen die Rede, das mit „the long tail” bezeichnet wird. Nach einem viel beachteten Artikel von Chris Anderson im Wired Magazin 2004 (http://www.wired.com/wired/archive/12.10/tail.html) und einem später erschienen darauf basierenden Buch wird eine interessante Eigenschaft der Onlinewelt, nämlich der praktisch unbegrenzte Regalplatz, herausgestellt.