Eine Übersicht der KI Trends und Einflussfaktoren
- KI Forschung & Innovation…
- …versa Praxistauglichkeit
- Budgets im Aufwind
- KI/ML Spezialisten
- Daten sind das neue Öl
- Industrialisierung – Machine Learning DevOps
- Architekturen, Open Source und Ökosystem
- KI/ML Infrastruktur
- Ergonomie, Transparenz, Erklärbarkeit
Faktor 7: Architekturen, Open Source und Ökosystem
KI/ML Anwendungen können vollständig mit leistungsfähiger Open Source Software realisiert werden. Auch die großen Digitalkonzerne und Initiativen wie Open AI stellen ihre Werkzeuge zumindest teilweise offen zur Verfügung.
Die Herausforderung wird auf Sicht eher darin liegen, einen aktuellen Überblick zu behalten und für die eigenen Anforderungen die besten Werkzeuge zu evaluieren. Als hilfreich werden sich hoffentlich Austauschformate für Modelle erweisen (z.B. ONNX), wobei dies bei sehr spezifischen und optimierten Implementierungen seine Grenzen findet.
Nach wie vor finden sich KI/ML und verwandte Frameworks – gemessen an Weiterentwicklung und Größe der Community – schwerpunktmäßig in der Python Welt. Im Bereich Big Data und Stream Processing bewegen sich die entsprechenden Apache Open Source Projekte (z.B. Spark, Flink, Kafka, Cassandra) in der Java/Scala Welt. (Quelle: Comparison of top data science libraries for Python, R and Scala)
Wir sehen derzeit die dringendste Aufgabe darin, diese Hemispheren möglichst nahtlos und unter Nutzung ihrer jeweiligen Stärken miteinander zu integrieren – zum Beispiel für die (nahe) Echtzeit Verarbeitung großer Datenmengen und die Parallelisierung von Optimierung / Training sowie Vorhersagen auf Basis unterschiedlicher Modellklassen. „Nebenbei“ erfordert dies auch eine entsprechende Weiterbildung der Data Science Teams.
Faktor 8: Bessere und spezielle KI / ML Infrastruktur
– „…since 2012, the total amount of compute used in the largest AI training runs […] has grown by more than 300.000x…” (Quelle: AI and Compute, Open AI, 05/2018)
Durch massiv wachsende, integrierte und automatisierte „Machine Learning as a Service“ Angebote erleichtern die großen Cloud Anbieter (Amazon, Google, Microsoft, IBM) die Realisierung von Anwendungen (mehr Details hier: MLaaS). Dabei können sowohl fertige Plug-and-Play Services genutzt als auch individuelle Konfigurationen nach Bedarf (siehe ML DevOps) schnell herauf- und heruntergefahren werden.
Gerade in Proof of Concept- oder Pilot-Phasen vermeidet dies langes Warten auf interne Infrastruktur, sofern Vorbehalte und rechtliche Bedenken nicht im Wege stehen. Hohe Automation, Controlling und kluge Taktiken helfen dabei, die Kosten nicht ausarten zu lassen, was leicht passiert, wenn ein Data Science Team erst einmal skalierbare Ressourcen zur Verfügung hat. Bei einer entsprechend hohen Anzahl von Projekten oder sehr trainingsintensiven Anwendungen kann eine dedizierte Machine Learning Infrastruktur oder ein hybrider Ansatz die bessere Variante darstellen.
Parallel nimmt das Rennen um bessere KI/ML Hardware immer mehr an Fahrt auf. Nachdem bisher in der breiten Masse immer noch CPUs und GPUs die Arbeitspferde der Wahl sind, scheinen FPGAs, ASICs (z.B. Googles TPUs) am Bedeutung zu gewinnen (Machine Learning Shifts More Work To FPGAs, SoCs). An der vordersten Innovationsfront hat zumindest die Medienpräsenz von Neuromorphen und Quanten Computern zugenommen und es sind erste nutzbare Prototyping Plattformen entstanden (18 Most Interesting Facts About Quantum Computers | 2019 Edition).
Faktor 9: Ergonomie, Transparenz, Erklärbarkeit
Die Schaffung von Akzeptanz für Vorhersagen und Empfehlungen von KI/ML Modellen ist kein neues Thema, hat aber durch die Ausweitung der Anwendungen, insbesondere in sensiblere Bereiche wie medizinische Diagnostik, autonomes Fahren oder industrielle Steuerung an Bedeutung gewonnen.
Verbindung zu aktuellen Forschungsthemen: „Explainable AI“ oder auch „Transparent AI“ werden daher ebenso zu den zentralen Themen gehören, wobei es verschiedenste Lösungsansätze von der einfachen Ermittlung der Wichtigkeit von Features für Modelle, für einzelne Vorhersagen bis zur Verknüpfung neuronaler und (ggf. leichter interpretierbarer) symbolischer KI gibt. (Diverse Quellen: 1, 2, 3)
Expertenprofil von Arvin Arora
KI-Experte, Speaker und Trainer Arvin Arora ist seit 25 Jahren in der IT-Branche tätig und blickt auf umfangreiche Erfahrungen zurück. Seine Expertise umschließt dabei die Bereiche Artificial Intelligence, Data Science/Machine Learning, Industrieprozesse sowie agile Softwareentwicklung.
Im Besonderen setzt er sich mit der Anwendung und Übertragung innovativer Machine Learning Modelle und Verfahren aus der Forschung in die industrielle Praxis auseinander. Als Mitbegründer und derzeitiger Geschäftsführer der AIM und inserve GmbH fallen vielfältige Aufgaben in seinen Verantwortungsbereich. Zu diesen zählen der Aufbau von Data Science Teams und die Realisierung von Lösungen.
Agile IT Management GmbH (AIM) wurde im Jahr 2016 in Hannover gegründet und unterstützt seitdem Unternehmen bei der Steigerung der Lern- und Anpassungsfähigkeit ihrer Teams (Agile, DevOps) und ihrer Systeme (Artificial Intelligence/Machine Learning). Das Ziel ist wachsende Komplexität und Geschwindigkeit zu meistern, die Wettbewerbsfähigkeit zu steigern und die beteiligten Menschen zu entlasten. AIM unterhält drei Standorte in Hannover, Osnabrück und Mannheim.
AIM Agile IT Management GmbH
Habichtshorststraße 1
30655 Hannover
Telefon: +49 (511) 874590-50
http://www.agile-im.de
Director Marketing, Partner Manager
E-Mail: plehrbach@agile-im.de
E-Mail: aarora@agile-im.de