Impressum
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über www.dnb.de abrufbar.
© 2021 Stefanov, Alexandra; Bünte, Claudia; Schubert, Till-Hendrik
Weitere Mitwirkende: Carina Schmidt, Oliver Oest, Tinkerbelle GmbH Herstellung und Verlag: BoD – Books on Demand GmbH, Norderstedt ISBN: 978-3-75345157-2
Woran denken Sie, wenn Sie „Digitalisierung Made in China“ lesen? Immer wenn wir mit unseren Freunden und Bekannten über China reden, erhalten wir Reaktionen wie:
Ertappen Sie sich vielleicht selbst manchmal dabei, wie Sie (bewusst oder unbewusst) solche Glaubenssätze haben?
Unser westliches Bild von China ist von eher negativen Schlagzeilen und Klischees geprägt und wir haben noch viel Halbwissen, wenn es um das Reich der Mitte geht. Wir bemerken oft nicht, wie dort mit großen Schritten die Zukunft der Digitalisierung entsteht: Mit dem Bezahlen über Gesichtserkennung, mit KI-basierten virtuellen ÄrztInnen in sogenannten „One-Minute-Clinics“, mit Schnellladestationen für Smartphones in fast jedem Restaurant in den chinesischen Metropolen, mit QR-Codes im Supermarkt, über die zu jedem Produkt Zusatzinformationen (z.B. zur Lieferkette oder Herkunft der Ware) aufgerufen werden können – um nur einige Beispiele zu nennen.
Mit dem Ziel, mehr Verständnis für diese Digitalisierung „Made in China“ zu schaffen, haben wir mit über 20 ExpertInnen aus den Bereichen Digitalisierung, Chinawissenschaften, Unternehmensberatung, PR- und Marketing, Start-up-Gründung und Innovationsforschung gesprochen, die in diesem Buch ihr Wissen, ihre Erfahrungen und ihre wertvollen Learnings aus Chinas Digitalwelt mit Ihnen teilen.
Unsere Absicht mit dem vorliegenden Buch ist nicht, China zu idealisieren, sondern aufzuzeigen, welche Entwicklungen sich dort in der Digitalisierung vollziehen. Entwicklungen, denen wir im Westen wenig Beachtung schenken, während China dabei ist, auch unsere digitale Zukunft mitzubestimmen und zu prägen. Es geht uns nicht darum, Angst vor China zu schüren. Vielmehr möchten wir unsere LeserInnen für das Thema chinesische Digitalisierung sensibilisieren und zum Nachdenken anregen.
China ist ein riesiges, facettenreiches Land mit einer Bevölkerung von 1,4 Milliarden Menschen, einer jahrtausendealten Geschichte und Kultur und einer wachsenden, starken Wirtschaft. Auf den folgenden Seiten wird es unmöglich sein, mehr als nur einen kleinen Teil dieser Aspekte abzudecken. Auch die chinesische Digitalisierung ist derart komplex, dass wir davon lediglich einige wichtige Themen aufgreifen und behandeln können. Wir fokussieren uns hier besonders auf die wirtschaftlichen Aspekte und hoffen, einen Beitrag dazu leisten zu können, Ihnen einen Einblick in die aktuellen Entwicklungen zu geben und Sie zu inspirieren, sich weiter mit den Fortschritten in China zu beschäftigen, um am Puls der Zeit zu bleiben und sich auf die digitale Zukunft vorzubereiten. Wir möchten Ihnen anhand von konkreten Beispielen und Praxistipps aus Wirtschaft, Handel und Marketing aufzeigen, was Sie von der Digitalisierung in China für sich, für Ihre Unternehmen und für die Märkte in Europa lernen können.
Alexandra Stefanov, Prof. Dr. Claudia Bünte, Till-Hendrik Schubert
April 2021
Digitalisierung und digitale Transformation entwickeln sich weltweit zu einem relevanten Wirtschaftsfaktor. Besonders der aktuell neusten Technologie innerhalb der digitalen Werkzeuge, der Künstlichen Intelligenz, wird vorhergesagt, die Wirtschaft, das globale Mächteverhältnis, die Art und Weise, wie wir in Zukunft arbeiten werden und die Gesellschaft zu verändern.
Das McKinsey Global Institute (MGI) berechnet global bis 2030 einen durchschnittlichen Anstieg des Bruttoinlandsprodukts (BIP) um 1,2 Prozentpunkte pro Jahr allein durch Künstliche Intelligenz - ein beeindruckender Einfluss einer einzigen Technologie auf das BIP: Die Dampfmaschine hatte einen Anstieg der Auswirkungen auf das BIP von 0,3 Prozentpunkte, Industrieroboter von 0,4 Prozentpunkte und Informations- und Kommunikationstechnologien von 0,6 Prozentpunkte (McKinsey & Company, 2018, S. 23). Bereits vor der Corona-Krise wurde geschätzt, dass der globale KI-Markt bis 2025 einen Wert von etwa 90 Milliarden US-Dollar haben wird, davon 43 Milliarden in den USA und weitere 20 Milliarden in Europa und im asiatischpazifischen Raum. Das wäre eine Verachtfachung von 2019 bis 2025, von 2016 bis 2025 sogar eine Verachtundzwanzigfachung (Brand, 2018). China schätzt den Umsatz bis 2025 in seinem aktuellen Fünfjahresplan allein für das eigene Land auf 52 Milliarden Euro (Webster, Creemers, Triolo, & Kania, Full Translation: China's 'New Generation Artificial Intelligence Development Plan', 2017). Diese Entwicklung wird auch in Nordeuropa und damit für Deutschland vorhergesagt: Laut einer Studie von PwC dürfte bis zum Jahr 2030 das deutsche BIP allein dank KI um 9,9 Prozent steigen (PwC, 2017, S. 7). Alle Quellen gehen also von einer hohen Wachstumsrate der Wirtschaft durch Künstliche Intelligenz aus.
Waren über weite Teile des 19. und 20. Jahrhunderts Öl und seine Derivate wie Kerosin und Benzin die Treibriemen der weltweiten Wirtschaft, sind es nun Daten: Die drei weltweit größten Unternehmen nach Marktkapitalisierung fußten noch im ersten Quartal 2008 ihre Angebote hauptsächlich auf Öl: Exxon Mobil (Platz 1) und Petrochina (Platz 2) fokussierten klar auf Öl, General Electrics (Platz 3) deckte Öl-basierte Segmente wie Energie, Öl und Gas, Luftfahrt, Gesundheit, Transport und Licht ab (Financial Times, 2018). Nur zehn Jahre später hatte sich das Bild komplett gewandelt. 2018 waren Apple, Alphabet (der Mutterkonzern von Google) und Microsoft die weltweiten Top-3-Unternehmen (Financial Times, 2018). Deren Portfolios fußten bereits fast ausschließlich auf Daten – Kundendaten, Bilddaten, Bewegungsdaten, Kaufdaten, Suchdaten, etc. Deshalb wird allgemein gesagt, dass Daten das neue Öl des 21. Jahrhunderts seien. Die folgende Abbildung zeigt denselben Trend mit noch aktuelleren Daten: Unter den acht größten Unternehmen 2020 findet sich mit Saudi Aramco nur noch ein Unternehmen, das nicht hauptsächlich von Software, Daten und Consumer Insights lebt (siehe Abbildung 1).
Abbildung 1: Unternehmen mit der größten Marktkapitalisierung 2005 vs. 2020 (Bocksch, 2020)
Neue Unternehmen und neue Geschäftsmodelle generieren also scheinbar plötzlich Mehrwert für KundInnen und alte Industrien verlieren an Bedeutung, wobei aber insgesamt der Wert der Unternehmen steigt. Dieser Trend zeigt sich in allen Regionen weltweit.
McKinsey untersuchte 2019 die Geschwindigkeit, mit der verschiedene Branchen eine Digitalisierung erfahren, ihr Fokus waren dabei USA, China und Europa und solche Industrien, die ICT-Technologie nutzen, also „Information and Communication Technologies“ (siehe Abbildung 2).
Abbildung 2: Adaption von digitalen Werkzeugen nach Branchen (Eigene Darstellung in Anlehnung an (McKinsey Global Institut, 2019, S. 2))
Dabei definierten die Berater, welche Digitalisierungsleistungen eine Branche durchführen sollte, um 100 % zu erreichen. Bei den untersuchten Branchen lagen Reise und Handel weit vorne – allerdings erreichten sie mit 51 % und 46 % gerade mal die Hälfte des definierten Digitalisierungsoptimums - gefolgt von Automobil- und Telekommunikationsmontage, Finanzdienstleistungen, Fast Moving Consumer Goods (FMCG) und Medienangebote. Das Gesundheitswesen liegt dieser Analyse zufolge genau in der Mitte der Digitalisierungsfortschritte. Geschäftliche und professionelle Dienstleistungen sowie Arzneimittel und Medizinprodukte liegen dagegen weit unter dem Durchschnitt. Es lohnt sich also, gerade im Bereich der digital weiter fortgeschrittenen Branchen zu lernen, welche Vor- und Nachteile eine Digitalisierung haben kann und welche Elemente daraus „Best Practice“ für die eigenen Anwendungen sind. Außerdem sollte mit einberechnet werden, dass selbst weit fortgeschrittene Branchen immer noch „Luft nach oben“ haben.
Blickt man mit der Linse „Industrialisierung“ auf die wirtschaftliche Entwicklung, gibt es vereinfacht gesagt vier große Entwicklungsphasen, einige nennen sie auch „vier industrielle Revolutionen“ (Abbildung 3): Mit „Industrie 1.0“ wird dabei die oben bereits erwähnte Phase bezeichnet, die durch die Dampfkraft ab 1750 einsetzte, mit „Industrie 2.0“ ist die Nutzung und Verbreitung von elektrischer Energie ab ca. 1890 gemeint, die u.a. Massenproduktion an Montagebändern nach sich zog. „Industrie 3.0“ meint die anschließende Entwicklung der Automatisierung über Roboter und den Einsatz von Computern (ab ca. 1970). In der „Industrie 4.0“, in deren Phase wir uns heute befinden, steht die Digitalisierung im Vordergrund. Diese Phase wiederum spaltet sich auf in eine „frühe Phase“, das Internet, und eine aktuelle Phase, die Künstliche Intelligenz. Im aktuellen Entwicklungsstadium hat die Künstliche Intelligenz einen Reifegrad erreicht, der es ermöglicht, aus unstrukturierten Daten Erkenntnisse, also Insights zu generieren und darauf aufbauend das eigene Angebot effektiver und effizienter zu gestalten. Aber was ist Künstliche Intelligenz eigentlich?
Abbildung 3: Industrie 4.0 (Eigene Darstellung in Anlehnung an (Inray Industrie Software, 2020))
Künstliche Intelligenz ist eine Teildisziplin der Informatik. In bisherigen Computerprogrammen wurden Daten durch einen vorher programmierten Rechenablauf analysiert - so entstand ein Ergebnis (siehe Abbildung 4). Da Computerprogramme diesen Rechenablauf deutlich schneller als Menschen absolvieren können, ergab sich seit den 1970er-Jahren ein deutlicher wirtschaftlicher Vorteil für Firmen, Computer anzuschaffen und zu nutzen.
Künstliche Intelligenz analysiert ebenfalls Daten, allerdings ist sie in der Lage, mit einer Hypothese für eine Verbesserung des eigenen Rechencodes die Daten mehrfach, wie in einer Schleife, zu analysieren. Statt statischem Code entsteht so ein Algorithmus, der über Zeit „lernt“. Wenn beispielsweise in den Daten andere, zusätzliche Infos enthalten sind, die ein starrer Code nicht erkennen könnte, könnte eine KI über die Analyse dieser Informationen und einer selbstständigen Anpassung des Algorithmus zu einem ggf. besseren Ergebnis kommen als ein starrer Code, der sich nicht verändert. Vereinfacht gesagt hat man immer eine Künstliche Intelligenz vor sich, wenn diese selbstständig lernfähig ist (Bünte, Künstliche Intelligenz - die Zukunft des Marketing, 2018, S. 6), unabhängig davon, ob Menschen in diesem Lernprozess involviert sind oder nicht. Allerdings ist das vorherige Handeln von Menschen notwendig, damit die Software eigenständig lernen und Lösungen finden kann. Denn die Systeme müssen zunächst mit den für das Lernen relevanten Daten und Algorithmen versorgt werden. Außerdem sind Regeln für die Analyse des Datenbestands und das Erkennen der Muster aufzustellen. KI bezieht sich dabei insgesamt auf ein sehr großes Forschungsgebiet, das eine Reihe von Techniken umfasst, mit denen Computer lernen und Probleme lösen sollen.
Dieses selbstständige Lernen wiederum ist ein neuer Quantensprung für die Effektivität und Effizienz, denn einmal aufgesetzt, muss jetzt theoretisch nicht mal mehr ein Mensch dabeisitzen, wenn eine KI lernt und sich weiterentwickelt UND die Entwicklung kann ggf. besser sein als ein Mensch dies programmieren könnte. Das ist das große Potenzial, das in KI gesehen wird.
Abbildung 4: Traditionelles Computerprogramm vs. künstlich-intelligentes Lernen (eigene Abbildung in Anlehnung an (Hilse, 2019))
KI, AI, Machine Learning, Deep Learning … häufig werden diese Begriffe synonym verwendet, obwohl diese Gleichsetzung nicht ganz richtig ist. KI oder Künstliche Intelligenz ist dasselbe wie AI, also Artificial Intelligence.
Machine Learning (ML) dagegen ist NICHT dasselbe wie KI. Machine Learning ist ein Teilbereich von KI. Genauso wie jeder Dackel ein Hund ist, aber nicht jeder Hund ein Dackel, so ist jedes Machine Learning eine KI, aber nicht jede KI ist Machine Learning. Mithilfe von ML werden IT-Systeme befähigt, auf Basis vorhandener Daten und vorgegebenen ersten Algorithmen Muster und Gesetzmäßigkeiten zu erkennen und eigenständig Lösungen zu entwickeln. Maschinelles Lernen beschäftigt sich mit dem selbstständigen Erschließen von Zusammenhängen auf Basis von Beispieldaten.
Die aus den Daten gewonnenen Erkenntnisse lassen sich verallgemeinern und auf neue Probleme oder für die Analyse bisher unbekannter Daten verwenden. Mit den passenden Daten und definierten Regeln können Systeme durch maschinelles Lernen u.a. folgendes tun:
Deep Lerning wiederum ist ein Teilbereich von maschinellem Lernen. Deep Learning ist eine Variante zu lernen, nämlich über künstliche neuronale Netze, ähnlich wie das menschliche Gehirn aufgebaut ist. Sehr vereinfacht gesagt besteht ein solches Netzwerk nicht aus linear miteinander verknüpften Annahmen, sondern aus Netzen von Annahmen. Mittels eines Probedatensatzes und eines vorher definierten Ergebnisses prüft nun die KI, ob die Verknüpfungen richtig gesetzt sind oder ob durch Anpassungen der Verknüpfungen ein besseres Ergebnis erzielt werden kann. Mithilfe dieser Anpassungen lernt das System. Es heißt deshalb „deep learning“, also „tiefes Lernen“, weil die Verbindungen der Daten stark, also „tief“, verknüpft sind.
KI ist gegenüber menschlichen Analyse- und Lernfähigkeiten deutlich effektiver und effizienter. Dort, wo ausreichend Daten vorhanden sind, kann ein KI-gestütztes System Prozesse optimieren, repetitive Aufgaben übernehmen, Ressourcen gezielter und nachhaltiger einsetzen, Zeit sparen und Verschwendung minimieren. Ein sehr typisches Beispiel ist die Analyse von Röntgenbildern. Eine Röntgenärztin sieht in ihrem Berufsleben vielleicht 10.000 Bilder – so wächst ihre Erfahrung im Erkennen von Krebszellen über Zeit und sie lernt aus ihrer Erfahrung, Krebszellen auch zu erkennen, wenn sich bestimmte Muster wiederholen. Eine KI kann über Computervision, eine Art von Künstlicher Intelligenz, die Deep Learning verwendet, ebenfalls visuelle Daten analysieren. Allerdings ist die Kapazität einer KI, Röntgenbilder zu erfassen, um ein Vielfaches größer als die eines Röntgenarztes. Außerdem ist die Geschwindigkeit, aus dem „gesehenen“ Muster neue Krebsmuster zu erkennen, deutlich höher. In diesem Beispiel ist eine KI, die mit Röntgenbildern trainiert wurde, Krebs zu erkennen, also effektiver und effizienter als ein Mensch.
KI wird in vielen Bereichen, die Menschen beherrschen, entwickelt. Künstliche Intelligenz kann heute schon sehen, riechen, anfassen, schmecken, lesen, schreiben, rechnen, sprechen – die Liste ist lang. Anders als ein Mensch lernt Künstliche Intelligenz diese Teilfähigkeiten aber nicht gleichzeitig, sondern in getrennten Systemen. Computer Vision sieht z.B. in der Regel „nur“, aber spricht nicht gleichzeitig. Diese Trennung ist zu Beginn der praktischen Anwendung von KI vor einigen Jahren nötig gewesen, damit ein Computer überhaupt in der Lage ist, EINE dieser menschlichen Fähigkeiten im Laufe der Zeit zu erlernen. Daher spricht man auch von „schwacher“ KI, also der Fähigkeit, eine Funktion menschlicher Leistungen nachzubilden. Die sogenannte „starke“ KI, also eine KI, die mehrere Systeme gleichzeitig kombiniert, kann etwas sprechen, sehen und anfassen. Wann der Tag da ist, an dem eine Maschine alle Fähigkeiten, die ein Mensch hat, nachbilden kann, ist noch nicht klar, aber es gibt schon einen Begriff dafür – die sogenannte Singularität. Interessant ist nun, dass viele der o.g. Anwendungen erst in den 2000er-Jahren programmiert wurden und auch erst vor ein paar wenigen Jahren für eine breite Öffentlichkeit erste Erfolge sichtbar wurden. Diese Erfolge - etwa, dass ein Computer einen Hund von einem Muffin unterscheiden kann - wirkten zunächst noch sehr fehlerhaft und ungenau. Aber, anders als ein Mensch, lernt KI exponentiell. D.h. es beginnt gefühlt sehr langsam, die Lernerfahrung wird aber immer schneller, und zum Schluss überholt eine KI die menschlichen Fähigkeiten nicht nur rasant schnell (exponentiell), sondern schlägt sie auch um Längen. Menschen neigen dazu, exponentielles Wachstum zu unterschätzen. Der Tag der Singularität könnte also schneller kommen, als sich das der Eine oder Andere heute vorstellen kann (Siehe Abbildung 5, Abbildung 6).
Abbildung 5: Gefühltes versus tatsächliches Wachstum von KI – Grafik 1 (Urban, 2015)
Abbildung 6: Gefühltes versus tatsächliches Wachstum von KI – Grafik 2 (Urban, 2015)
Wie oben bereits erwähnt, gibt es bereits Anstrengungen, alle Fähigkeiten des Menschen über KI nachzubilden. Das umfasst das Sprechen und Hören (kennt jeder von z.B. Siri und Alexa), das Schreiben und Lesen (z.B. DeepL oder Roboterjournalismus-Angebote wie z.B. von Retresco), das Sehen und Bilder verarbeiten (z.B. von Intel), sich bewegen und das Umfeld verstehen (autonome Fahrversuche von z.B. Google) und das Lernen (jede KI). Auch riechen können KI-gestützte Anwendungen, nur nicht über Riechzellen, wie die menschliche Nase. Vielmehr analysiert die KI von z.B. Symrise die Bestandteile z.B. eines Parfums, sie weiß, wie diese Kombination für Menschen riecht und trifft Annahmen darüber, wie eine andere Kombination der Inhaltsstoffe eines Duftes dann vermutlich riechen wird.
Abbildung 7: Menschliche Fähigkeiten und ihre Entsprechungen innerhalb der KI (Bünte, Die chinesische KI-Revolution: Konsumverhalten, Marketing und Handel; Wie China mit künstlicher Intelligenz die Wirtschaftswelt verändert, 2020, S. 57)
Das enorme Potenzial von KI für die Wirtschaft wurde bereits weiter oben dargelegt. Daher hinterlegen alle großen Wirtschaftsländer ihre KIEntwicklung mit eigenen Zielen, Strategiepapieren und Budgets.
Gewisse rechtliche Rahmenbedingungen für KI müssen erst geschaffen werden – denken wir etwa an die zu ändernden Straßenverkehrsordnungen im Zuge des Autonomen Fahrens. Daher ist die intensive Unterstützung der jeweiligen Regierung eines Landes notwendig.
Das Bundeswirtschaftsministerium hat dazu eine inhaltliche „Strategie Künstliche Intelligenz“ veröffentlicht (Bundesministerium für Wirtschaft, 2018), die als Handlungsrahmen und Prozess der Bundesregierung zu verstehen sei, deren Fortschritt regelmäßig auf der Internetseite www.ki-strategie-deutschland.de dokumentiert wird (Bundesministerium für Wirtschaft, 2018, S. 3). Darin steht folgende Absichtserklärung: „Wir wollen Deutschland und Europa zu einem führenden KI-Standort machen und so zur Sicherung der künftigen Wettbewerbsfähigkeit Deutschlands beitragen.“ (Bundesministerium für Wirtschaft, 2018, S. 8). „Artificial Intelligence (AI) made in Germany“ solle „zum weltweit anerkannten Gütesiegel werden“ (Die Bundesregierung, 2020). Auf der genannten Internetseite werden rund 100 Initiativen genannt, die im ersten Jahr der Strategie initiiert worden sind und jetzt unterstützt werden. Im Vergleich zum chinesischen Fünf-Jahresplan zu Künstlicher Intelligenz (Webster, Creemers, Triolo, & Kani, Full Translation: China's 'New Generation Artificial Intelligence Development Plan', 2017) wirkt die deutsche Strategie zwar deutlich weniger detailliert ausgearbeitet – das ist vor dem Hintergrund der sich ständig und schnell wandelnden Materie „Künstliche Intelligenz“ aber kein Nachteil, denn eine Strategie muss sich an die sich verändernden Rahmenbedingungen anpassen können. Aber es kommt auch auf die konsequente Umsetzung der Absichtserklärung in der Strategie an.
Die Einparteienregierung in China hat einen expliziten und sehr detaillierten KI-Fünf-Jahresplan ausgearbeitet mit dem Ziel, bis 2030 weltführend bei KI zu sein (Webster, Creemers, Triolo, & Kania, Full Translation: China's 'New Generation Artificial Intelligence Development Plan', 2017). Dieser Plan geht bis auf Stadtverordnetenebene und den Lehrplan von Schulen und Universitäten herunter ins Detail. Dass die Regierung auch in der Lage ist, den Plan in die Tat umzusetzen, sieht man am Beispiel von Shenzhen. In der 11 Millionen-Nachbarstadt von Hongkong bestimmte die Stadtverwaltung 2010, dass alle Stadtbusse und (privaten) Taxis auf E-Fahrzeuge umzurüsten seien. 2016 fuhren dann auch schon über 16.000 Busse elektrisch. Shenzhen belegt damit einen Weltrekord (Ingenieur.de, 2018). Eine Durchgriffskraft, die in einem europäischen demokratischen Staat kaum vorstellbar ist. Zum Vergleich: Die Bundesregierung setzte 2010 das Ziel, bis 2020 sollten auf deutschen Straßen 1 Million Elektroautos fahren (Bundesregierung, 2011, S. 10). Stand September 2020 sind es aber maximal 245.000 Fahrzeuge – und das auch nur, wenn man alle seit 2003 zugelassenen Fahrzeuge zusammenzählt (KBA, 2020).
Allein auf Unternehmensseite wurden daher in den USA z.B. im Jahr 2016 schätzungsweise 26 bis 39 Milliarden US-Dollar investiert, der Großteil davon durch Tech-Giganten (McKinsey Global Institute, 2017, S. 5). Die Stanford University hat ein jährliches KI-Budget von 6,3 Milliarden US-Dollar (Wolff & Yogeshwar, 2019) und China investiert 1,76 Milliarden US-Dollar in nur einen einzigen Technologiepark (Neuerer, 2018). Dem eigenen Ziel, bis 2030 weltführend bei KI zu sein, stellt man in China offenbar hohe staatliche Investitionen entgegen. Das IDA Science and Technology Policy Institute berechnet aus zwei Veröffentlichungen ein Gesamtinvest von sechs Milliarden US-Dollar in 2018 (Colvin, Liu, Babou, & Wong, 2020, S. 27). Dagegen wirken die 3,3 Milliarden US-Dollar (Bundesministerium für Wirtschaft, 2018, S. 5), die die deutsche Regierung bis 2025 über acht Jahre verteilt in KI investieren will, vergleichsweise gering. Die USA wollen in den nächsten Jahren eine Milliarde pro Jahr in die KI-Grundlagenforschung stecken (Kratsios & Liddell, 2020).
China gibt zwar in etwa so viel Geld für die Grundlagenforschung von KI pro BürgerIn und Jahr aus wie Deutschland (Colvin, Liu, Babou, & Wong, 2020, S. 27), (Bundesministerium für Wirtschaft, 2018, S. 5) – aber Chinas Gesamtbevölkerung ist rund 17-mal größer als die Bevölkerung Deutschlands. ExpertInnen attestieren China daher, Europa in der Digitalisierung rund drei bis fünf Jahre voraus zu sein (Bünte, 2020, S. 17).
Die Auswirkungen dieses Fokus in China kann man heute schon in der Wirtschaft ablesen. Davon handeln die nächsten Kapitel.
Es wird viel diskutiert über KI – und viel kolportiert. Doch welche Aussagen stimmen wirklich bei KI? Werden wir alle vom Terminator abgeholt? Ist KI schon besser als ein Mensch? Wie werden wir in Zukunft arbeiten und klaut uns KI den Arbeitsplatz? In diesem Kapitel geht es um die wichtigsten Mythen rund um Künstliche Intelligenz und wie sie in die Wirklichkeit passen.
Weit gefehlt. Die KI ist schon da, um zu bleiben. Häufig unbemerkt, bauen viele Unternehmen Künstliche Intelligenz in ihre Tools und Angebote ein. Ohne Anspruch auf Vollständigkeit hier mal ein paar Beispiele:
Internetsuche
Google setzt KI bereits seit mehreren Jahren ein, denn je besser die Antworten der Suche sind, umso öfter kommen NutzerInnen zurück und nutzen Google. Und je mehr NutzerInnen, je mehr Werbeeinnahmen. Der Suchalgorithmus von Google, „RankBrain“, ist KI-basiert. RankBrain versucht, bei bisher unbekannten Suchanfragen vermutlich gewünschte Suchergebnisse anzuzeigen, indem der Algorithmus die Suchanfrage mit bereits bekannten, bedeutungsähnlichen Suchanfragen verknüpft. Die Ergebnisse der Suche zeichnet Google auf und nutzt sie fürs Training von RankBrain. Das merkt der Nutzende nicht in der Oberfläche von Google, aber die Ergebnisse werden besser (Schreiner, 2020).
Sagen Sie „Cheese“!
Nutzen Sie ein Smartphone? Mit Kamera? Dann nutzen Sie mit großer Wahrscheinlichkeit Künstliche Intelligenz. Die Kamera erkennt z.B. Lichtverhältnisse und optimiert automatisch die Belichtung. Einige Kameras sind schon in der Lage, z.B. bei Texten auf einer Wandtafel im schiefen Winkel die Visualisierung automatisch zu optimieren und die Verzerrung zu korrigieren. Dazu muss die Kamera-KI zunächst erkennen, dass das Motiv ein Text ist, und mit optimalen Textdarstellungen vergleichen, um korrekt anpassen zu können (Prophoto, 2021). Dieselben Kameras glätten Wangen, Stirn und Kinn bei Selfies, erlauben verschiedene Lichtsetzungen bei Portraitfotos und sagen vorher, wo sich ein sich bewegendes Motiv in der Millisekunde befindet, in der auf den Auslöser gedrückt wird. Bei Wind oder sich unvorhergesehen bewegenden Motiven wie etwa laufenden Kindern ein Schärfevorteil.
Putzperle unter Strom
Was braucht man, um gründlich putzen zu können? Genau: Gute Augen. Und die werden bei Staubsaugerrobotern immer besser. Sie kartographieren Wohnungen selbständig und umfahren Hindernisse, die bei der ersten Kartographierung gar nicht im Weg waren, mühelos. Fast 170.000 Patente für maschinelles Sehen wurden bis Anfang 2019 registriert, das ist fast die Hälfte aller KI-Patente (Schreiner, 2020).
Mal das mal auf!
Google bietet mit „Quickdraw“ eine spielerische Möglichkeit für NutzerInnen, die Bilderkennung von Google zu trainieren (Google, 2021). Denn Bilderkennung von Fotos klappt mittlerweile schon recht gut, aber handschriftliche Zeichnungen werden bisher noch schlecht erkannt. Bei Quickdraw gibt der Computer einen Begriff vor, z.B. „Hose“. NutzerInnen haben dann 19 Sekunden Zeit, per Maus ein Bild einer Hose zu malen. Die KI versucht, die Zeichnung zu erkennen. Die dabei generierten Daten werden in einer Datenbank gespeichert. Über Zeit lernt die KI, wie Menschen zeichnen.
Was gucke ich denn mal heute Abend
„Menschen, die das gekauft haben, haben auch das gekauft“. Was bei Amazon zu Beginn des Jahrhunderts noch als einfacher Vergleich begann, läuft heute mittels KI. Nicht nur bei Amazon und Google, auch bei Streamingprogrammen im Internet, wie z.B. Netflix. Netflix sammelt Nutzungsdaten ihrer KundInnen, die in den KI-Algorithmus fließen. Also was geschaut wird, in welcher Reihenfolge, wann, wie lange, usw. Mit dieser Kenntnis der Vorlieben eines individuellen Nutzungsprofils wählt der Algorithmus dann passende Inhalte aus UND optimiert sogar die Präsentation – die Vorschaubilder. Und Netflix ist nicht alleine, auch YouTube, Spotify, Facebook, Twitter oder Instagram nutzen diese Varianten des Deep Learning (Schreiner, 2020).
Diese Beispiele haben alle einen Punkt gemeinsam: NutzerInnen merken gar nicht, dass eine KI aktiv ist. Die Anwendung wird einfacher, besser, individuell passender – also bequemer. Und: Man kann sie auch nicht ausstellen. So schleicht sich langsam, aber sicher KI in unser Leben, ohne dass wir es notwendigerweise merken oder ändern können.
„Die Zukunft war früher auch besser!“
Karl Valentin
Nein. KI ist genau wie alles andere, was Menschen erfinden, erst mal ein Ding, das Hilfe braucht und NICHTS alleine kann. Ein Mensch muss den Computer zusammenbauen, den Stecker in die Steckdose stecken, einen ersten Algorithmus anlegen und diesen mit Daten füttern. Ab dann kann KI einiges selbständig oder zusammen mit Menschen tun, nämlich lernen – und das schneller als manche Menschen. DAS macht KI so interessant für die Wirtschaft. Aber wie lernt eine KI eigentlich?
KI sind vereinfacht ausgedrückt adaptive Systeme. Sie lernen, sich anzupassen, während sie arbeiten (Bünte, Die chinesische KI-Revolution: Konsumverhalten, Marketing und Handel: Wie China mit Künstlicher Intelligenz die Wirtschaftswelt verändert, 2020, S. 69). Dabei werden grob drei Arten des Computerlernens unterschieden (Abbildung 8):
Abbildung 8: Lernarten Künstlicher Intelligenz (Bünte, Die chinesische KI-Revolution: Konsumverhalten, Marketing und Handel: Wie China mit Künstlicher Intelligenz die Wirtschaftswelt verändert, 2020, S. 69)
Besonders bekannt ist das Beispiel aus der frühen Trainingsphase einer Bilderkennungs-KI. Hier sollte ein Algorithmus erkennen, ob ein vorgegebenes Foto ein Blaubeermuffin oder ein Hundegesicht ist. Hat die Maschine erst einmal erkannt, dass der wesentliche Unterschied zwischen Hundegesicht und Gebäck in der Symmetrie liegt, entwickelt sie daraus einen Algorithmus. Je mehr Daten ihr dabei zur Verfügung stehen, desto mehr kann sie dieses Muster verfeinern. Theoretisch kann ein Algorithmus hier „unsupervised“ arbeiten, also ohne, dass ein Mensch korrigierend in die Ergebnisse des Computers eingreift. Diese Lernmethode dauert in der Regel länger, führt aber auch zu Ergebnissen. An dieser Stelle müssen wir als Gesellschaft entscheiden, wie unabhängig ein Algorithmus arbeiten soll. Das Kapitel „Diskriminierung“ zeigt, dass ein aktives Eingreifen von Menschen in die Entwicklung einer KI wichtig ist. Sonst ist KI, wenn nicht „supervised“, irgendwann tatsächlich eine Black Box.
„Denken macht intelligent – Leben klug“
Peter Tille
Nein. KI ist eben nicht diskriminierend. Das zeigen viele Studien. Wer nämlich wirklich diskriminiert, ist der Mensch, der die Maschine steuert. Häufig, ohne es zu wissen oder zu wollen. Aber eben dennoch. Wer diskriminiert wird? Z.B. Frauen oder People of Colour. Hier die Fakten:
Tatsächlich gibt es zahlreiche Studien, die feststellen, dass Künstliche Intelligenz diskriminieren kann. Und das sehr breit, vor allem nach Geschlecht (Männer positiver als Frauen) und ethnischer Herkunft (hellerer Hauttyp positiver als dunklerer Hauttyp).
Zu einer möglichen Bevorzugung nach Alter finden sich dagegen weniger Belege. Entweder, weil hier weniger Diskriminierung vorkommt, oder, weil dieser Bereich für Forschende noch nicht so interessant ist wie Diskriminierungen nach Geschlecht und Hautfarbe. Die nachgewiesenen Diskriminierungen finden in allen wichtigen KI-Bereichen statt, so etwa in der Bilderkennung und in der Textverarbeitung.
Bilderkennung
Google musste erst im April öffentlich lernen, dass ihre Vision Cloud dunkle Hauttypen offenbar negativer besetzt. Ein Foto (siehe Abbildung 9), das eine weiße Hand mit einem Corona-Fiebermessgerät zeigt, wurde von Google als „elektrisches Gerät“ erkannt, dasselbe Foto mit einer dunkelhäutigen Hand wurde als „Waffe“ gelabelt. Google entschuldigte sich und korrigierte den Algorithmus.
Abbildung 9: Bilderkennung von Fiebermessgeräten (Ben-Aharon, 2019)
Die Forscherin Buolamwini untersuchte bereits 2015 IBM, Microsoft und Facebook bezüglich deren Fähigkeiten, Gesichter zu erkennen und stellte fest, dass alle drei Firmen besser darin waren, Männer zu erkennen als Frauen, und Menschen mit hellerem Hauttyp besser als Menschen mit dunklerem Hauttyp. Die schlechteste Gesichtserkennung zeigten alle drei Algorithmen bei dunkelhäutigen Frauen (Ben-Aharon, 2019).
In Asien sind Gesichtserkennungs-KIs deutlich besser und schneller darin, asiatische Menschen zu erkennen und beispielsweise ihr Alter korrekt zu schätzen als europäisch aussehende Menschen. Der Grund liegt auf der Hand: Die Trainingsdaten für KI von asiatischen Anbietern sind zum überwiegenden Teil asiatische Gesichter.
Auch im Innovationsbereich selbstfahrender Autos diskriminieren Algorithmen bei der Bilderkennung. Sie erkennen dunkle Hautfarben von FußgängerInnen schlechter, mit potenziellen Auswirkungen auf die Gesundheit dieser im Falle eines Unfalls (Cuthbertson, 2019).
Texterkennung
Linzer Forscher zeigen aktuell, dass Ergebnisse von Suchmaschinen, die Deep Learning nutzen, besonders verzerrt in Bezug auf das Geschlecht sind. Bei Fragen wie etwa nach dem Einkommen einer Pflegekraft oder nach einem Synonym für „schön“ warfen die getesteten Suchmaschinen vor allem Antworten im Zusammenhang mit Frauen aus, Männer kamen erst weit hinten vor. Umgekehrt lieferte etwa die Suche nach „CEO“, oder „Programmierer“ überwiegend männlich konnotierte Antworten. Den Grund für die besondere Verzerrung von Deep Learning-Algorithmen sehen die Forschenden darin, dass diese potenteren Algorithmen nicht nur den Begriff an sich, sondern auch verwandte Begriffe suchen. Und da „Pflegekraft“ häufig im Zusammenhang mit „Oberschwester“ gebraucht wird, kommt der Algorithmus nach dem Gesetz der Wahrscheinlichkeit zum Schluss, „Pflegekraft“ müsse weiblich sein (Science@ORF.at, 2020).
2018 verwarf Amazon sein von Machine Learning gestütztes Bewertungstool, das das Unternehmen zur automatischen Auswahl von BewerberInnen nutzen wollte. Der Grund: Der Algorithmus hatte sexistische Tendenzen und bewertete Männer grundsätzlich mit einer höheren Punktzahl als Frauen. Das Machine Learning-System habe sich dieses Fehlverhalten selbst beigebracht und das Attribut, männlich zu sein, sehr hoch gewichtet. Das System sollte BewerberInnen auf einer Skala von eins bis fünf Sternen einsortieren (Nickel, 2018).
Auch eine aktuelle Studie der HTW Berlin untersuchte KI-Lösungen, die in Personalabteilungen automatisch Zeugnisse von BewerberInnen analysiert. Geprüft wurden die Lösungen von Google Natural Language API, Amazon Web Service Comprehend, IBM Watson Natural Language Understanding und Microsoft Azure Cognitive Service. Ziel war es, zu testen, ob Arbeitszeugnissätze bei einer Änderung des Geschlechts oder des Nachnamens der ProbandInnen unterschiedlich bewertet werden. Die Formulierung „stets zu unserer vollsten Zufriedenheit“ steht z.B. eigentlich immer für die Note eins. Im Test stellte sich heraus, dass bei allen KI-Anbietern Zeugnisse von Männern positiver zusammengefasst wurden als die von Frauen, obwohl in den Zeugnissen immer vergleichbare Einschätzungen enthalten waren. Keine der Lösungen war dagegen negativer gegenüber ausländisch klingenden Namen oder deutlich positiver gegenüber akademischen Titeln eingestellt. Die ForscherInnen der Studie raten deshalb auch dazu, „keine der getesteten Dienstleistungen in einem HR-Kontext zu nutzen, da alle vier die Notwendigkeit eines Fairnessbewusstseins vernachlässigen. Arbeitgeber, die diese Dienstleistungen integrieren, würden systematisch geschlechtsspezifische Prozesse mit ethischen Risiken einführen.“ (Folkerts, Schreck, Riazy, & Simbeck, 2019).
Der Schaden für die Wirtschaft, wenn diese Bevorzugung bzw. Benachteiligung unbemerkt oder unbehoben bliebe, kann groß werden. Studien kommen regelmäßig zum Ergebnis, dass Unternehmen mit einer diversen Belegschaft nach Alter, Geschlecht und Herkunft erfolgreicher sind als einseitig zusammengestellte Belegschaften. Und: Eine Gesellschaft, die z. B. erst viel Geld ausgibt, um Mädchen und Jungen gleichermaßen zu schulen und später auszubilden, um dann einen großen Teil des Potenzials der Frauen nicht einzusetzen, verbrennt unnötig Ressourcen.
Aber warum ist Künstliche Intelligenz tendenziell diskriminierend? Grundsätzlich ist richtig, dass Künstliche Intelligenz neutral ist. Sie ist nicht per se gegen Frauen, Schwarze oder Alte. Dass sie im Ergebnis dennoch diskriminieren kann, hat zwei Gründe:
Faktor 1: Datenqualität
Erstens ist relevant, WIE eine KI lernt. Sie lernt über Daten. Dabei stützt sie sich auf Muster, die in den Trainingsdaten relevant sind. Untersuchungen haben z. B. gezeigt, dass eine Computer Vision Hunde als Wölfe kennzeichnete, sobald sie vor einem verschneiten Hintergrund fotografiert wurden. Denn dann war die Wahrscheinlichkeit höher, dass ein Wolf auf dem Foto abgebildet ist. Auch Kühe wurden als Hunde gekennzeichnet, wenn sie an Stränden standen – denn (fotografierte und im Internet veröffentlichte) Kühe stehen seltener am Strand als Hunde. Sind die Daten voreingenommen, ist es automatisch auch die KI, wenn kein Mensch in der Trainingsphase des Algorithmus gegensteuert.
Faktor 2: Stellenwert von Diversität im Team
Zweitens ist wichtig, WIE die IT-Teams, die einen Algorithmus trainieren, selbst zusammengesetzt sind. In Europa und den USA sind diese Teams überwiegend weiß und männlich, was es unwahrscheinlich macht, dass Ergebnisse, die andere Gruppen diskriminieren, in der Entwicklungsphase überhaupt gesucht, geschweige denn gefunden und angegangen werden. Wenn die Menschen, die die KI trainieren, selbst einen „blinden“ Fleck haben, fällt ihnen nicht auf, wenn eine andere Gruppe nicht neutral genug behandelt wird. Wie schnell das geht, konnte man zuletzt bei VW erleben. Dem deutschen und wahrscheinlich hauptsächlich hellhäutigen Marketingteam war nicht aufgefallen, dass ein Werbespot auf dunkelhäutige Menschen diskriminierend wirkte. Jürgen Stackmann, hochrangiger Manager bei VW, stoppte deren Verbreitung (Slavik, 2020).
Zusammengefasst kann man sagen: Diskriminiert der Mensch, diskriminiert die KI – und das schadet letztendlich der Wirtschaft und löst richtigerweise ethische Diskussionen aus. Unternehmen, die KI entwickeln, sollten deshalb anfangen, formelle Prozesse einzurichten, um diese Art von Fehlern schon bei der Entwicklung dieser Systeme zu testen, zu identifizieren und zu melden.
Aktuell fällt erst auf, dass etwas nicht stimmt, wenn Externe, Betroffene sich melden. Aber zu dem Zeitpunkt, zu dem sich jemand beschwert, sind viele bereits unverhältnismäßig stark von der verzerrten Leistung des Modells betroffen – und das Unternehmen selbst in der Kritik, diskriminierend zu sein. Unternehmen, die zugekaufte KI-Lösungen einsetzen, müssen sich und ihre Dienstleister fragen, wie neutral die Ergebnisse sind, statt weiter ethisch grenzwertige Black Box-Lösungen zu nutzen.
„Künstliche Intelligenz hat keine Chance gegen natürliche Dummheit“
Ohne Namen
Nein. KI kann heute schon sehen, sprechen, tasten, riechen und schmecken. Ja, wirklich (Bünte, Die chinesische KI-Revolution: Konsumverhalten, Marketing und Handel: Wie China mit Künstlicher Intelligenz die Wirtschaftswelt verändert, 2020, S. 197 ff). Nur eben noch nicht alles gleichzeitig, so wie ein Mensch. Bei all den genannten Fähigkeiten einzeln ist die künstlich-intelligente Anwendung aber fast immer schon besser als der Mensch. Oder können Sie 10.000 Röntgenbilder in einer Minute analysieren, zusammenfassen und eine Diagnose stellen? Oder 30 Körbe empfindliche Erdbeeren vom Feld pflücken, in nur drei Minuten? KI kann das – heute schon. Hier mal die wichtigsten menschlichen Sinne und Fähigkeiten, ausgeführt von KI:
Sehen
KI kann heute schon schneller und besser bestimmte Bilder erkennen und analysieren als Menschen. Diese KI unterstützt z.B. eine Röntgenärztin bei der Diagnose einer Krankheit, hilft Werbeagenturen dabei, das passende Stockfotomotiv zu suchen, ohne mühsam in Bildbänden zu blättern, und unterstützt mittels Gesichtserkennung die Polizei, bestimmte Personen in einer Menge wiederzuerkennen, die gesucht werden. Die zeitliche Verteilung der Aufgaben für den Menschen wird sich ändern: Weniger Schauen, Lesen, Diagnostizieren – mehr Planen der nächsten Schritte und Besprechen und Betreuen der betroffenen PatientInnen für die Röntgenärztin. In Werbeagenturen heißt das, weniger Bilder suchen, dafür mehr Ideen zur Strategie und Kreativität beitragen. Bei der Polizei weniger Streife laufen und mehr interne Tätigkeiten, um z.B. TäterInnen zu identifizieren bzw. zu verhaften.
Hören und sprechen
Der aktuelle Stand dieser KI ist am besten abzulesen an den Fähigkeiten der Sprachassistenten wie „Alexa“ von Amazon, „Google Home“ von Google, „Siri“ von Apple, „Tmall Genie“ von Alibaba und „Xiaowei“ für WeChat von Tencent. Die KI dieser Systeme sind in der Lage, natürliche Sprache zu hören, den Kontext der Sprache zu verstehen, in ihren angeschlossenen Systemen nach einer sinnvollen Antwort zu suchen und diese in gesprochener Sprache wieder auszugeben. Dass das noch nicht völlig ausgereift ist, hört man am besten, wenn man Alexa bittet, einen Witz zu erzählen. Alexa ist zwar in der Lage, einen Witz vorzulesen, allerdings schafft sie es noch nicht, die für die Pointe nötige Pause einzulegen, um dem Witz den letzten nötigen Pfiff zu geben.
Auf der anderen Seite stellte Google mit „Duplex“ schon auf der Entwicklerkonferenz 2018 einen Sprachassistenten vor, den man von einem echten Menschen nicht mehr unterscheiden kann (Grubb, 2018). Die von Alan Turing postulierte Singularität scheint zumindest in diesem „Narrow Skill“ der Sprache erfüllt. Insbesondere der Anruf des KI-Assistenten in einem Restaurant, um einen Tisch zu reservieren, ist nicht mehr von einem Menschen unterscheidbar. Dies liegt daran, dass die KI das menschliche Verhalten in einem solchen Gespräch kopiert, obwohl sie dieses Verhalten eigentlich nicht selber braucht: Die KI plant Pausen ein, bevor sie auf die Fragen der Restaurantmitarbeiterin antwortet, um so zu suggerieren, dass sie vor der Antwort überlegt. Außerdem baut sie für Menschen typische Brummtöne ein wie „äh“ oder „hm“. Dadurch erscheinen Stimme und Verhalten natürlich und menschlich.
Google hat Duplex 2019 in den USA eingeführt, zunächst testweise und nur, um Tischreservierungen in Restaurants vorzunehmen. Seitdem ist Google Duplex live in 48 von 50 Staaten, in Neuseeland, UK, Canada und Australien. Im Moment kann man mit Duplex eine Reservierung in einem Restaurant vornehmen, Kinokarten online kaufen oder einen Termin für einen Haarschnitt vereinbaren. In Zukunft könnte der KI-basierte Sprachdienst noch viel mehr leisten - beispielsweise einen Termin beim Arzt reservieren oder andere, aufwändigere Verabredungen treffen (Callaham, 2020).