Sensordatenanalyse, Predictive Maintenance, Gesichtserkennung, Chatbots, Sprachassistenten, Autonomes Fahren, Pflegeroboter – in IT- und anderen Fachmagazinen werden über diese Themen ebenso flächendeckend berichtet wie in Publikumsmedien. Gemeinsamer Nenner dieser neuen Anwendungen bildet die Technologie rund um Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI). Wie ist dieser Hype zu erklären? Schließlich reicht die KI-Forschung bis zurück in die Mitte des letzten Jahrhunderts. Die meisten Algorithmen und multivariaten statistischen Methoden sind – von wenigen neuen Verfahren abgesehen – uralt. Warum treten KI-basierte Anwendungen erst jetzt massenhaft auf?
Der Grund für erste markttaugliche Verwendungen liegt im enormen Fortschritt, den die Informationstechnologie (IT) in den letzten Jahren genommen hat. Heute steckt in einem durchschnittlichen Smartphone mehr Rechnerleistung als in einem NASA-Computer aus der Zeit der ersten Mondlandung. Ebenso lassen sich heute exponentiell mehr Daten intelligent verarbeiten als früher – und das fast in Echtzeit. Die Gründe hierfür: schnellere, in Cluster geschaltete Rechner, verbesserte Speicher (In-Memory, Cloud) sowie die Möglichkeit, in kurzer Zeit individuelle Softwarelösungen zu entwickeln. Big-Data-, Business-Intelligence bzw. Business-Analytics- und Predictive-Analytics-Lösungen wären ohne diese Weiterentwicklungen nicht denkbar.
Dennoch ist bei diesem Boom Vorsicht geboten. Denn KI umfasst sehr komplexe Anwendungen aus Mathematik, Informatik und Neurologie, nicht zu vergessen philosophische und ethische Diskussionen. Was bis vor einigen Jahren nur in Forschungsbereichen globaler IT-Firmen, Hochschulen und Instituten untersucht, thematisiert und getestet wurde, läuft Gefahr, zwischen Halbwissen und Verschwörungsszenarien zu verschwinden. Einige Begriffsklärungen können hier helfen.
KI – was ist das eigentlich?
Bisher gibt es weder eine vollumfängliche und allgemein gültige Definition der menschlichen noch der künstlichen Intelligenz. Dessen ungeachtet, ist das Ziel von KI-Versuchen, das menschliche Gedächtnis, seine Lernprozesse und sein problemlösungsorientiertes Verhalten nachzubilden. Hinsichtlich ihrer Funktionalitäten basiert KI zusammengefasst auf Verstehen, Fühlen und Handeln:
„Verstehen“ umfasst das Verarbeiten des Inputs, zum Beispiel durch Sprachverarbeitungsprogramme, die Geschriebenes, Gesprochenes und die Sprache an sich verstehen. Ist der Input verstanden, kann die KI sinnvolle Antworten finden, also das angeeignete Wissen kommunizieren und Menschen bei ihrer Entscheidungsfindung helfen. Unter „Fühlen“ wird das Erfassen von Eindrücken aus der Umwelt verstanden, etwa durch maschinelles Sehen, Sensoren oder Mikrofone. Nach Identifizierung, Analyse und Verarbeitung dieser Informationen können Veränderungen in ihrem Umfeld automatisch identifiziert, gekennzeichnet und berichtet werden; gegebenenfalls kann auch mit Programmbefehlen darauf reagiert werden. „Handeln“ definiert die Umsetzung der eingegebenen und sensorisch erfassten Informationen in Aktionen. Robotik-Lösungen stellen hierfür die benötigte Hardware, damit das Handeln für die Software möglich gemacht wird (autonome, humanoide oder Service-Roboter). Grundsätzliche Voraussetzung sämtlicher KI-Projekte ist, dass sich die eingegebenen oder anderweitig erfassten Daten und Vorgänge algorithmisch abbilden und verarbeiten lassen. Insofern handelt es sich also immer um sogenannte geschlossene Systeme, deren Grenzen von den erfassten Daten und dargestellten Prozessen gebildet werden.
Vom Schachcomputer zur selbstlernenden Maschine
Ein einfacher Schachcomputer tat vor 30 Jahren genau das, was er sollte: Unter Beachtung der Schachregeln errechnete er die jeweils optimalen Spielzüge je nach eingestellter Spielstärke beziehungsweise Berechnungsdauer binnen weniger Sekunden. Die Grenzen dieses geschlossenen Systems markierten die Schachregeln. Mittlerweile berücksichtigen handelsübliche Schachprogramme bereits ganze Bibliotheken verschiedener Eröffnungen, Varianten und vollständiger Spielpartien. Auf prädikatenlogischer Basis berechnen sie unzählige Varianten, um die nächstbesten Züge zu ermitteln. Auch hierbei handelt es sich um ein geschlossenes System, denn die verwendeten logischen Aussagen und Regeln sind formale Sprachen zur Wissensrepräsentation. Mit ihnen findet eine logische Anwendung der bereits vorhandenen, eingespeisten Wissensinformationen und Regeln statt, die nicht erlernt und erkannt, sondern nur ausgeführt werden.
Machine Learning (ML) – alter Wein in neuen Schläuchen?
Einen scheinbar neuen Weg, Computer sinnvolle Prozesse entwickeln zu lassen, ohne sie speziell dafür zu programmieren, beschreibt das maschinelle Lernen. So innovativ ist dieser Weg allerdings nicht. Denn deren Grundlagen fußen im Wesentlichen auf Forschungen im Bereich Mustererkennung, die bereits vor fast vierzig Jahren durchgeführt wurden. Erst seit der Möglichkeit, Daten parallel in Grafikprozessoren (GPU) exponentiell schneller zu verarbeiten, erlebt ML seit 2010 einen wahren Boom.
Bei ML generiert der Rechner – ähnlich wie ein Mensch – Wissen aus Erfahrung und findet eigenständig Lösungen für neue und unbekannte Probleme. Ein Programm analysiert hierzu zahlreiche Beispiele – je mehr, desto besser. Mit Hilfe selbstlernender Algorithmen wird versucht, in den Daten bestimmte Muster und Gesetzmäßigkeiten zu erkennen. Das Ziel maschinellen Lernens ist die intelligente Verknüpfung von Daten, um Zusammenhänge zu erkennen, Rückschlüsse zu ziehen und Prognosen zu treffen. Hierbei kommen multivariate statistische Verfahren zum Einsatz. Sie ermitteln die wahrscheinlich beste Lösung und merken sich gegebenenfalls richtige Entscheidungen via persistenter Speicherung, um derartige richtige Urteile beim nächsten Mal wieder zu fällen. Typische Anwendungen auf ML-Basis sind zum Beispiel „Next-best-offer“-Möglichkeiten im Rahmen der intelligenten Warenkorbanalyse eines Webshops.
Künstliche neuronale Netze (KNN)
Eine weitere KI-Variante – die der Neuronalen Netze – ist ebenso älter als angenommen, denn sie reicht bis in die vierziger Jahre des 20. Jahrhunderts zurück. Erst mit dem beginnenden IT-Hype Mitte der achtziger Jahre begannen Forscher diese Modelle, die sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns orientierten, weiter zu entwickeln. Die Grundidee: Informationsverarbeitung basiert auf der Interaktion vieler einfacher Verarbeitungselemente und erfolgt in hohem Maße parallel. Nach dem Vorbild des menschlichen Gehirns simulieren KNN ein Netzwerk aus miteinander verbundenen Neuronen und lernen aus Erfahrung, indem sie die Verbindungsstärke der simulierten Neuronenverbindungen verändern. Auf diese Art und Weise können sich Maschinen Fähigkeiten wie Sehen, Hören, Sprechen, Lesen und Schreiben aneignen. Für diese Fähigkeiten sind allerdings umfangreiche Test- bzw. Trainingsläufe notwendig, an deren Ende ein abstrahiertes Modell miteinander verbundener Neuronen steht. Dank der antrainierten speziellen Anordnung und Verknüpfung dieser Neuronen lassen sich dann Anwendungsprobleme aus verschiedenen Bereichen (Statistik, Technik, Wetter usw.) computerbasiert lösen. Je höher die Anzahl der Schichten eines KNN ist, desto schneller und genauer können die Ergebnisse ermittelt werden.
Üben, üben, üben!
Bei Deep-Learning-Modellen werden große Datenmengen bereitgestellt und das Computerprogramm klassifiziert diese via Cognitive Computing anhand von Attributen, die es aus Bildern, Texten oder akustischen Signalen filtert. Der wesentliche Unterschied zum Machine Learning besteht im Training, denn die relevanten Merkmale werden aus den Daten automatisch extrahiert. Außerdem verbessert das Deep-Learning-Netz die Ergebnisse, sobald weitere Daten hinzugefügt werden. Hieraus folgt: Übung macht den Meister. Die Trainingszeit dieser Prozesse hängt von der verfügbaren Rechenleistung ab, sie reicht von wenigen Stunden bis zu mehreren Tagen. Dank enormer Datenmengen und erweiterter Rechenkapazität sowie durch die Nutzung von KNN erzielen Deep-Learning-Modelle bei manchen Aufgaben bereits heute genauere Ergebnisse als Menschen.
Das beweisen zum Beispiel die Erfolge des KI-Systems AlphaZero von Google. Die KI-Entwickler von AlphaZero haben ihrer neuen Software nur die Grundregeln des Schachspiels gezeigt. Den Rest hat sich die KI selbst beigebracht, indem sie mithilfe selbstlernender Algorithmen und immenser Rechenkraft immer wieder gegen sich selbst angetreten ist und aus ihren Fehlern gelernt hat. Die Erfolge waren beeindruckend: Ende 2017 hat die selbstlernende Software sämtliche führende Programme für Schach und Go geschlagen. Gegen menschliche Spieler ist sie gar nicht erst angetreten. Trotz dieser Erfolge gilt es zu beachten, dass KI nur in geschlossenen Systemen funktioniert, das heißt, sämtliche Bedingungen und Regeln lassen sich, so komplex sie auch sein mögen, beschreiben. Für Spiele und Szenarien trifft das zu. In der realen menschlichen Lebenswelt mit unvorhersehbaren zukünftigen Ereignissen ist das nicht der Fall.
KI-Lösungen für Unternehmen
Die Zeit KI-basierter Business-Anwendungen hat quasi erst begonnen. In manchen Online-Shops mehren sich spracherkennende und schreibende Chatbots bzw. sprechende virtuelle Agenten ebenso wie „Next-best-offer“-Angebote. In immer mehr Privathaushalten gehören sprachbasierte Informationsassistenten (Alexa, Siri etc.) längst zum festen Bestandteil der Einrichtung. In der Fertigung eröffnet die intelligente Sensordatenerfassung völlig neue Möglichkeiten zur Steigerung der Produktqualität oder zur Instandhaltung und Wartung von Maschinen sowie Geräten. Unter bestimmten Rahmenbedingungen und in spezifischen Situationen bieten KI-Anwendungen auch kleinen und mittelständischen Unternehmen interessante Möglichkeiten zur Optimierung von Geschäftsprozessen oder zur Entwicklung neuer Geschäftszweige. Das zeigt die wachsende Vielfalt an Einsatzmöglichkeiten im Handel, in der Industrie und im Dienstleistungsbereich. Eigene Erfahrungen mit einem Handelsunternehmen haben gezeigt, dass es für seinen Kundendienst enorme Produktivitätsquoten erzielt, indem es Teile von Hotline-Anfragen bereits von einem Chatbot bearbeiten lässt. Das verkürzt nicht nur die Reaktionszeiten, sondern entlastet auch die Service-Mitarbeiter und führt zu höherer Kundenzufriedenheit.
Künstliche Intelligenz intelligent nutzen
Immer mehr Großkonzerne stecken bereits mitten in der Entwicklung von KI-Anwendungen oder nutzen sie bereits. Denn ihr Einsatz im Kundenservice, im Marketing und Vertrieb, in der Produktionssteuerung, im Risikomanagement oder Personalwesen erweist sich zunehmend als besonders erfolgsträchtig. Kleinere Betriebe und mittelständische Firmen schrecken vor einer Investition in derart disruptionsfördernde Technologien noch zurück. Das hat weniger technologiephobe Gründe, sondern ist oft durch wirtschaftliche Fragen motiviert: „Lohnt sich die eigene Entwicklung einer KI-Lösung für meine Firma? Realisiere ich das mit einem IT-Partner? Individualentwicklung oder Standardlösung? Wie sieht die Anbindung an meine vor- und nachgelagerten IT-Systeme aus? Wie sieht mein ROI aus?“
Hier hilft das Gespräch mit der eigenen IT-Abteilung und die Beratung durch einen externen IT-Partner weiter. Kreative Workshop-Methoden sind eine weitere Möglichkeit, sich den KI-Technologien mit neuen Denkweisen, wie etwa Design Thinking, zu nähern. Unternehmen erhalten auf diese Weise nicht nur Orientierungshilfen inmitten der neuartigen KI-Welt. Sie erhalten darüber hinaus einen versierten externen Sparringspartner zum wirtschaftlichen Ausloten neuer Geschäftsmodelle durch eigene KI-Anwendungen. Die Themen reichen von Ideengenerierung, Definition des konkreten Projektziels und vorhandener technischen Möglichkeiten bis hin zur Prototyp-Erstellung und -Testing. Von den erarbeiteten Ergebnissen zur Produktivsetzung ist es dann oft nur ein kleiner Schritt.
Web-basierte KI-Plattformen bieten an dieser Stelle einen technisch wie wirtschaftlich interessanten Lösungsweg, ohne dass eigenes IT-Entwickler-Know-gestellt werden muss. IBM Watson ist eine der avanciertesten Lösungen in diesem Bereich. Unternehmen können auf dieser KI-Plattform die unterschiedlichsten Microservices für Ihren Bedarf auswählen, ohne dafür eigene umfangreiche Investitionen – etwa in Softwareentwicklung, Rechner- oder Speicherkapazität – tätigen zu müssen. Dadurch können sie sich voll und ganz auf das kunden- bzw. projektspezifische Training der Anwendungen konzentrieren. An die Sicherheit der Daten ist dabei ebenso gedacht, denn die Datenhoheit verbleibt DSGVO-konform beim Kunden.
Weitere Informationen: www.mip.de/ki
Die mip Management Informationspartner GmbH ist seit 30 Jahren ein zuverlässiger Partner und Ideengeber für mittelständische sowie große Unternehmen, die ihre Unternehmensdaten intelligent verknüpfen und profitabel einsetzen wollen. Mit dem Hauptsitz in München und einer Niederlassung in Stuttgart agiert das Unternehmen vom Süden Deutschlands aus im gesamten deutschsprachigen Raum. Die Schwerpunkte liegen seit der Firmengründung 1988 in den Bereichen Data Warehouse und Business Intelligence. Heute berät die mip GmbH mittelständische sowie große Unternehmen und entwickelt für diese nutzenorientierte Datenanalyse-Lösungen als Basis für die digitale Transformation. Dabei stehen Data-Warehouse-, Business- und Predictive-Analysis- sowie Enterprise-Search-Lösungen im Vordergrund. Strategische Partnerschaften mit großen Herstellern und spezialisierten Häusern sorgen für den technologischen Unterbau.
mip Management Informations Partner GmbH
Fürstenrieder Straße 267
81377 München
Telefon: +49 (89) 589394-0
Telefax: +49 (89) 589394-50
http://www.mip.de
Geschäftsführerin
Telefon: +49 (89) 589394-12
Fax: +49 (89) 589394-50
E-Mail: ursula.fladeruf@mip.de
Marketing Manager
Telefon: +49 (89) 589394-31
E-Mail: Gabriela.Bargen@mip.de