News & Blog

DATA Festival Highlights: Cloud, Demokratisierung, ML, KI

Der erste Tag des Data Festivals 2021 ist vorbei und es gab viele spannende Vorträge mit guten Einblicken und viel Mehrwert. Das digitale Event fand auf 2 „virtuellen Bühnen“ statt und fast 2000 Leute aus 66 Ländern waren am ersten Tag bei den Vorträgen dabei. Es gab außerdem die Möglichkeit, sich an „virtual Booths“ sich mit den Speakern und Sponsoren auszutauschen.

Cloud und Demokratisierung der Daten

Die Cloud spielt eine immer wichtigere Rolle und ist gerade für KI-Anwendungen ein Türöffner. Für manche ist die Cloud nur ein weiterer virtueller Server, aber richtig eingesetzt fungiert diese als Herzstück einer ganzheitlichen Daten-Strategie. Auch der weniger technisch ausgerichtete Begriff der „Demokratisierung von Daten“ war ein oft genanntes Thema. Diese bedeutet nichts anderes, als dass analytische Services, besser und schneller zu den Endanwendern gebracht werden sollen. Dataiku dazu: Anstatt mehr Analysten einzustellen, ist es besser, dafür zu sorgen, dass alle Mitarbeiter mehr Analysen nutzen. Eine weitere, eher visionäre Aussage war: „Bring code to the data, instead of data to the code”.

Sehr beeindruckende Infos gab es gleich zu Beginn beim DATA festival von Misko Flury von Tableau Software. 92 % der Unternehmen scheitern dabei, Data Analytics im praktischen Einsatz zu skalieren. Die anderen 8 % haben dagegen extreme positive Effekte. Mehr Wachstum, bessere Neukundengewinnung und eine höhere Kundenbindung. Doch wie schaffen Unternehmen es, zu diesen zu gehören?

  • Es sollte nicht nur ein altes Tool durch ein Neues ersetzt werden, sondern es sollten stattdessen mehr Prozesse in die Analyse einbezogen werden.
  • Datenanalysen sollen nicht nur einem kleinen Kreis zur Verfügung stehen, sondern allen im Unternehmen, die Entscheidungen treffen.
  • Prozesse sollten nicht von Tools bestimmt werden, stattdessen lohnt es sich „Best-of-Breed-Lösungen“ für alle Anwendungsfälle zu suchen.
  • Es geht nicht nur um Technik, sondern vor allem um „Daten-Kultur“ und Weiterentwicklung der Fachabteilungen

Bedeutung von KI und Machine Learning

Warum ist Machine Learning so wichtig? Mit dieser Fragestellung beschäftigte sich Jan Zawadski von Car.SW Org. by VW. Es ist wichtig, eine KI-Strategie zu entwickeln und diese konsequent umzusetzen. KI ist in seinen Augen mehr als nur ein „neues“ Werkzeug. Dadurch können Produkte entwickelt werden, die vorher nie möglich gewesen wären. Durch Einfügen von Daten in den Algorithmus können schnell Muster erkannt werden und viele weitere Handlungsentscheidungen abgeleitet werden. Das Ganze wird große Auswirkungen auf Produkte und Dienstleistungen haben.

Der wichtigste Trend in den nächsten Jahren wird das sogenannte „Deep Learning“ sein, nicht Blockchain wie viele vielleicht denken. Die Marktkapitalisierung von KI-Unternehmen beträgt bereits über 2 Trillionen US-Dollar und soll in der nächsten Dekade auf 30 Trillionen anwachsen. Eine riesige Chance und gleichzeitig zeigt der Trend, wie wichtig diese Themen in den nächsten Jahren für alle Unternehmen werden. Wegschauen wird da immer schwieriger:

Data is the main value driver!

No data, no AI

Doch wie kann KI der Industrie helfen? Damit beschäftigte sich Jan R. Seyler von der Festo AG & Co. KG, insbesondere mit autonomen Systemen. Diese können selbst lernen, eigene Entscheidungen treffen und auf unvorhersehbare Ereignisse reagieren. Gerade bei komplexen Aufgaben ist dies von entschiedenem Vorteil.

Systeme machen Fehler und lernen daraus, dadurch wird nie derselbe Fehler wiederholt. Das kann zu entscheidenden Informationsvorteilen führen und bringt mehr Effizienz in den Betriebsablauf.

Natürlich gab es auch weitere Themen, die Stichworte sind hier „Data Lakehouse“, „Data Factory“ und „Data Supply Chain“ – sicherlich Begriffe, die uns noch öfter begegnen werden.

Möchten auch Sie mehr Daten besser nutzen? Wir bei Trevisto unterstützen Sie gerne umfassend beim gesamten Prozess: von der Strategie über Softwareauswahl bis zur Implementierung von modernen Cloud-Lösungen und BI-Tools. Sprechen Sie uns gerne an!

News & Blog

Mehr Daten schneller analysieren mit Cloud-Datenbanken

Mehr Daten schneller analysieren – Warum eine Cloud-Datenbank den Unterschied machen kann.

Kenne dich und deinen Gegner, dann wirst du gewinnen! Dieses Zitat lässt sich in einem weniger aggressiven Kontext auch auf die Welt der Daten übertragen: für einen echten Informationsvorteil sind nämlich zwei Perspektiven wichtig:

  • Interne „Datensilos“ müssen aufgelöst und Daten systemübergreifend analysiert werden
  • Genauso müssen aber auch extern verfügbare Informationsquellen hinzugezogen und genutzt werden

Die Herausforderungen der „Big Data“ Analysen

Ein klassisches Data Warehouse kann hier an Grenzen stoßen, wenn die Datenquellen zunehmend dynamisch und unstrukturiert sind: denn es setzt voraus, dass Daten vor der Speicherung transformiert, strukturiert und dadurch nutzbar gemacht werden. Für viele Anwendungsfälle ist dies auch weiterhin entscheidend.

Es gibt aber auch eine zunehmende Menge an nicht strukturierten Daten, deren Aufbereitung viel Zeit- und Ressourcenaufwand mit sich bringt. Dazu gehören unter anderem Messergebnisse von Sensoren, Wetterdaten, Textdateien aller Art, Informationen aus Internet-Seiten und zunehmend auch Bild-, Sprach- oder Videodateien. Nicht alle Daten werden für jede Analyse benötigt und nicht alle lassen sich mit vertretbarem Aufwand in die tabellenartige Struktur klassischer Datenbanken umwandeln. So liegen semi-strukturierte Informationen oft in einem JSON- oder XML-Format vor, was einen Vorteil bei Schreibzugriffen und Zugriffen über Schnittstellen (APIs) bietet, die Daten aber nicht so vorhersehbar macht wie Daten in klassischen Datenbanken.

Neben den vielfältigen Formaten ist die immer größere Menge der Daten eine Herausforderung, die skalierbare Speicher erfordert. Große Datenmengen müssen oft kurzfristig abgerufen analysiert und genauso schnell wieder gelöscht werden. Es wäre unverhältnismäßig aufwändig, hierfür eigene Server auf- und wieder abzubauen sowie Datenbanken zu administrieren.

Zudem ersetzen dynamisch abgerufene Datenströme (sogenannte „Dataflows“) zunehmend die klassischen statisch gespeicherten Daten. Dadurch werden schnellere Analysen möglich, die aber wiederum Ressourcen benötigen und voraussetzen, dass die Aufbereitung der Daten nicht unverhältnismäßig viel Zeit verbraucht. Gerade in Bereich der fortschrittlichen Analysemethoden, oft als „KI“ oder „Machine Learning“ bezeichnet werden, ist oft eine andere Art der Aufbereitung notwendig als bei der klassischen Modellierung eines Data Warehouse.

Alle diese Aspekte in einem zunehmend dynamischen Umfeld selbst zu verwalten ist sehr aufwändig und teuer. Services aus der Cloud, die für vielseitige Anwendungsfälle genutzt werden können, stellen hier eine Lösung da, um die praktische „Umsetzungslücke“ in vielen Unternehmen zu schließen. Unsere Erfahrung mit Snowflake als einem auf Skalierbarkeit und fortschrittliche Analysen ausgelegten Cloud Data Warehouse bei einem Kunden der Finanzbranche zeigte, dass dies den Unterschied machen kann, um tatsächlich Mehrwert aus Daten zu gewinnen.

Die Cloud als Lösung

Entscheidende Faktoren sind dabei:

  • Die schnelle Anbindbarkeit neuer interner und externe Datenquellen
  • Die dynamische Skalierung der Datenmenge im Speicher und der Verarbeitung von Daten für Analysen
  • Es müssen nicht mehr alle Daten in eine strukturierte Form gebracht werden, um diese analysieren zu können: dank virtuellen Zugriffsschichten lassen sich auch nicht strukturiert gespeicherte Daten vielseitig nutzen
  • Fortgeschrittene, z.B. KI-basierte Analysemethoden lassen sich als Service nutzen und können bei Bedarf schnell skalieren, ohne internen Aufwand zu erzeugen
  • Nicht zuletzt kann auf die Daten auch weiterhin in der Form eines klassischen Data Warehouse zugegriffen werden, wenn dies benötigt wird

Damit trägt die Cloud maßgeblich dazu bei, echten Mehrwert aus Daten zu ziehen – ganz nach dem Motto „Playtime is over“ des diesjährigen DATA Festivals: https://datafestival.de/. KI und Datenanalyse sollen nicht nur bei Konferenzen eine Rolle spielen, sondern ganz real Prozesse im Unternehmen verbessern.

In unserem konkreten Anwendungsfall konnten Entscheidungen im Kreditbereich damit deutlich fundierter, schneller und zuverlässiger getroffen werden – ein ganz realer Vorteil des viel diskutierten „Big Data“ wurde dank dem Snowflake Data Warehouse in der Cloud erfolgreich umgesetzt.

Möchten auch Sie mehr Daten besser nutzen? Wir bei Trevisto unterstützen Sie gerne umfassend beim gesamten Prozess: von der Strategie über Softwareauswahl bis zur Implementierung von modernen Cloud-Lösungen und BI-Tools. Sprechen Sie uns gerne an!

News & Blog

Systeme, Daten und Prozesse

IT-Systemlandschaften: eine ganzheitliche Betrachtung ist entscheidend.

Eine leistungsfähige IT-Systemlandschaft beeinflusst die zukünftige Wettbewerbsfähigkeit von Unternehmen maßgeblich. Dass die eingesetzten Systeme hinsichtlich der Digitalisierung zahlreiche Anforderungen erfüllen müssen, ist mittlerweile hinlänglich bekannt. Es geht beispielsweise um die Verarbeitung großer Datenmengen in Echtzeit und um eine weitreichende Vernetzung entlang der gesamten Wertschöpfungskette. Eine IT-Systemlandschaft hat jedoch noch andere Komponenten, als Hard- und Software. Hierzu zählen Methoden, Prozesse und Daten. Nur wenn all diese Aspekte ganzheitlich betrachtet werden, lässt sich eine zukunftssichere Ausrichtung der IT sicherstellen.

Im Überblick: Komponenten einer IT-Systemlandschaft

Der Begriff „IT-Systemlandschaft“ ist weit gefasst. Häufig werden Begriffe wie IT-Landschaft, IT-Infrastruktur oder Anwendungslandschaft synonym genutzt. Eine einheitliche Definition existiert nicht. Es kann jedoch festgehalten werden, dass sich in der Praxis verschiedene Betrachtungsperspektiven etabliert haben:

  • IT- und Systemarchitektur: beschreibt den grundlegenden Aufbau und das dynamische Zusammenspiel aller Komponenten
  • Hardware-Infrastruktur: Fokus auf die eingesetzten physisch-technischen Komponenten und deren Zusammenwirken
  • Software-Infrastruktur: Betrachtung der eingesetzten Software-Systeme inklusive der Schnittstellen
  • Methoden und Prozesse: übergreifende Steuerung von IT-bezogenen Abläufen (derzeit insbesondere Bereitstellung und Digitalisierung von Daten); Definition der angewandten Methoden

Selbstverständlich sind performante Hardware, moderne Systeme und reibungslose Prozesse von hoher Bedeutung. Ein Aspekt wird jedoch gerne vernachlässigt: die Daten.

Daten müssen ins Zentrum der Aufmerksamkeit rücken

Vermutlich ist es historisch bedingt, dass Daten kaum als integraler Bestandteil einer IT-Systemlandschaft wahrgenommen werden. Tatsächlich wurden Daten in der Vergangenheit eher als Bestandteile der Software-Systeme betrachtet, die es zu verarbeiten und zu speichern galt. Im Zuge der Digitalisierung hat sich das Blatt jedoch gewendet. Daten sind mittlerweile ein zentrales Wirtschaftsgut mit hohem Wert. Gleichzeitig stellen sie den Dreh- und Angelpunkt für innovative digitale Technologien wie KI und Analytics dar. Richtig genutzt tragen sie außerdem zu Produktivitätssteigerungen, Transformation, Optimierung und Differenzierung bei.

Die reine Existenz von Datensätzen reicht selbstverständlich nicht aus, um sämtliche Potenziale zu erschließen. Daten müssen in geeigneter Weise verarbeitet, gespeichert, transportiert, bereitgestellt, abgesichert und analysiert werden. Hierfür sind geeignete Methoden und Prozesse erforderlich. Ein Beispiel sind ETL-Prozesse (Extract, Transform, Load), bei denen Daten aus mehreren, meist heterogenen Quellen in einer zentralen Datenbank zusammengeführt werden. Klassisch sind solche Abläufe etwa beim Einsatz von Data-Warehouses. Auch die Digitalisierung analoger Informationen (Stichwort „papierloses Büro“) erfordert definierte Prozesse. Nicht zuletzt sind Methoden notwendig, die eine reibungslose Kommunikation der eingesetzten Systeme sicherstellen.

Fazit: ganzheitliche Betrachtung ist essenziell

IT-Landschaften zeichnen sich heute zumeist durch hohe Komplexität aus. Eine ganzheitliche und grundlegende Betrachtung sämtlicher Ressourcen und Technologien ist daher von entscheidender Bedeutung. Nur wenn ein vollständiger Überblick gewährleistet ist, lassen sich vorhandene IT-Fähigkeiten zur Erreichung von Geschäftszielen korrekt bewerten. Gleichzeitig kann abgeleitet werden, welche Capabilities notwendig sind, um die zukünftige Anpassung von Geschäftsmodellen und deren IT-Unterstützung zu realisieren.

News & Blog

Digitalisierung und Künstliche Intelligenz

Wie wird sich die Arbeitswelt durch KI und Digitalisierung verändern?

Die Entwicklung von Technologien hat in der Geschichte bereits mehrfach für eine Veränderung in der Arbeitswelt gesorgt. Aktuell halten Digitalisierungstechnologien wie Robotik und KI Einzug in Unternehmen. Doch welche Auswirkungen werden sich daraus ergeben? Fallen ganze Berufsgruppen weg oder werden sich lediglich die Aufgaben ändern? Entstehen Konflikte zwischen Arbeitgebern und Arbeitnehmern? Wenn ja, wie lassen sich diese vermeiden?

Revolution oder Evolution?

Im 18. Jahrhundert wurde Muskelkraft in der Produktion mit der Einführung mechanischer Anlagen durch Dampf und Wasser ersetzt. Anfang des 20. Jahrhunderts verbreitete sich der Taylorismus und das Fließband in der Industrie für eine stärkere Aufteilung in geistige und körperliche Arbeit. In den 1970er Jahren traten schließlich die Elektronik und IT ihren Siegeszug in Unternehmen an, um die Produktion zu automatisieren. All diese Umbrüche hatten Gemeinsamkeiten: Sie veränderten unsere Arbeitsweise und sorgten für mehr Effizienz. Einzelne Berufsgruppen wurden obsolet, andere entstanden neu. Insbesondere war jedoch zu beobachten, dass einfache Vorgänge durch Maschinen übernommen wurden, wodurch sich Arbeitnehmer höher qualifizierten Aufgaben zuwenden konnten. Derzeit befinden wir uns inmitten der Digitalisierung. Es stehen Behauptungen im Raum, wonach KI und Robotik schon bald Millionen von Jobs vernichten könnten. Doch handelt es sich tatsächlich um eine Revolution, bei der komplette Berufsbilder verschwinden?

Keine Jobkiller, sondern neue Werkzeuge

Selbstverständlich sorgt die aktuelle Phase der Digitalisierung für Veränderung in Unternehmen. Es sind neue Werkzeuge verfügbar, die sich bereits heute dazu eignen, bestimmte Aufgaben weitgehend eigenständig zu erfüllen. So ist KI beispielsweise in der Lage, standardisierte Kundenanfragen in einer Versicherung zu bearbeiten oder einfache kaufmännische Vorgänge autark abzuwickeln. Die Bediener des Werkzeugs sind aus heutiger Sicht jedoch nach wie vor Menschen in den entsprechenden Berufsgruppen – hier etwa ein Versicherungs- oder Bürokaufmann. Bis auf Weiteres werden Berufe durch die Digitalisierung also nicht ersetzt. Vielmehr ergibt sich eine Veränderung inhaltlicher Art. Einfache Aufgaben werden durch Technologien wie KI übernommen, wodurch sich Arbeitnehmer auf wertschöpfende Tätigkeiten konzentrieren können. Dies betrifft beispielsweise standardisierte Vorgänge oder wiederkehrende Aufgaben. Anstatt fortlaufend Standardabläufe zu bearbeiten, entsteht Raum für kreative Aufgaben. Dies führt einerseits zu einer steigenden Produktivität, andererseits auch zu einer deutlich höheren Motivation. Arbeiten nach „Schema F“ liegt schließlich den wenigsten Mitarbeitern.

Den Übergang vom „Standardsachbearbeiter“ zum Bediener digitaler Technologien sinnvoll zu gestalten, liegt in der Verantwortung der Unternehmen. Zunächst gilt es, Technologien wie KI so zu entwickeln und einzusetzen, dass eine möglichst hohe Anwenderorientierung gegeben ist. Zudem müssen Szenarien und Aufgaben identifiziert werden, in denen „Digitalisierung“ tatsächlich Sinn macht. Werkzeuge wie KI sollten nicht aus Prestigegründen oder zum Selbstzweck eingesetzt werden. Sie müssen einerseits einen wirtschaftlichen Mehrwert generieren und dürfen andererseits den menschlichen Arbeiter nicht ausbremsen.

Sowohl in Büroberufen als auch in technischen Berufsbildern sollte das Personal nicht einfach mit der Digitalisierung konfrontiert werden. Hierdurch wären Ängste und Konflikte vorprogrammiert. Unternehmen müssen ihre Mitarbeiter sensibilisieren, die Vorteile der Veränderung aufzeigen sowie bei der Einführung digitaler Werkzeuge beteiligen. Zudem sind Qualifizierungsmaßnahmen erforderlich. Entsprechende Weiterbildungen müssen sich einerseits mit der sinnvollen und korrekten Bedienung neuer Systeme befassen, andererseits den Einstieg in Aufgaben mit höherem Qualifikationslevel erleichtern.

Arbeitgeber in der Pflicht

News & Blog

Mehrwerte aus Daten: KI und Data Science

KI und Data Science: Herangehensweise entscheidet über Projekterfolg

Künstliche Intelligenz (KI) und Data Science gelten als künftige Erfolgsfaktoren in der Wirtschaft. Zwar liegen wertvolle Daten in großer Menge vor. Die Mehrwerte aus realisierten Data-Science-Projekten sind bis dato jedoch eher gering. Vielen Unternehmen fällt es außerdem schwer, einen Einstieg in das Thema zu finden. Woran liegt es, dass der Nutzen von KI im Mittelstand noch nicht ausgeschöpft wird?

Künstliche Intelligenz: Enorme Potenziale für den Mittelstand

Fachkräftemangel, hohe Produktions- und Logistikkosten, globaler Konkurrenzdruck – Mittelständler sehen sich im operativen Geschäft mit zahlreichen Herausforderungen konfrontiert. Mittlerweile könnte KI eingesetzt werden, um diesen Problemen zu begegnen. Erfolgreich umgesetzte Projekte zeigen, dass künstliche Intelligenz in der Lage ist, Fertigungsabläufe zu optimieren, Logistikprozesse besser zu planen, Personal zu entlasten oder eine vorausschauende Wartung zu realisieren. Zudem kann KI Muster in Daten erkennen. Entsprechende Algorithmen sind also „kleine Data Scientists“, die beispielsweise das Kundenverhalten analysieren, Qualitätsprobleme identifizieren und Maßnahmen empfehlen.

Als künstliche Intelligenz marktfähig wurde, war sie aus Kosten- und Komplexitätsgründen Großunternehmen vorbehalten. Rechenleistung und Machine-Learning-Algorithmen haben sich in der jüngeren Vergangenheit jedoch rasant weiterentwickelt, wodurch mittlerweile auch kleine und mittlere Unternehmen von KI-Technologien profitieren können. Voraussetzung ist jedoch das Vorhandensein sinnvoller Business Cases, klar definierter Ziele und Transparenz hinsichtlich des ROI. Hier setzt das KI-Starter-Paket von Trevisto an.

Mehrwert der Daten schrittweise erschließen

Mit dem „Starterpaket Künstliche Intelligenz“ von Trevisto lassen sich Daten- und KI-Projekte strukturiert angehen. Zunächst werden geeignete Business Cases im Unternehmen identifiziert und priorisiert. Angelehnt an das klassische Projektmanagement erfolgt zudem eine klare Zieldefinition. Die Business-Ziele werden mit einer Zielfunktion verknüpft. Für Investitionssicherheit sorgt eine Bewertung des Optimierungspotenzials. Sie zeigt nicht nur mögliche Kostensenkungen auf. Es werden auch Umsatzpotenziale bewertet. Dies gilt für direkte Umsatzzuwächse ebenso wie für indirekte Umsatzsteigerungen, die etwa durch den Einstieg in neue Geschäftsfelder realisierbar sind.

Beginnen Sie klein

Mit intelligenten Daten-Analysen, Machine Learning und KI-Anwendungen müssen selbstverständlich Unternehmensziele erreicht werden. Es lohnt sich also, Zeit in die Definition zu investieren, um einen klaren Fahrplan zu erhalten. Die Messbarkeit von Ergebnissen sollte ebenfalls gewährleistet sein. Da künstliche Intelligenz jedoch immer noch neu und schwer greifbar ist, empfiehlt sich ein Vorgehen in kleinen Schritten. Es reicht zu Beginn aus, einzelne Arbeitsschritte mit KI zu verbessern oder Daten aus einem bestimmten Bereich auszuwerten. Trevisto bietet aus diesem Grund kleine, agile Projekte, die mit einem Proof of Concept einhergehen. Auf diese Weise lassen sich die Beteiligten im Unternehmen

abholen. Auch die Mehrwerte werden transparent. Zudem ermöglichen die Ergebnisse aus den Proof of Concepts eine belastbare Einschätzung des Kosten-Nutzen-Verhältnisses bei einer späteren Skalierung.

In Summe wird deutlich: Ein externer „Anschub“ kann in vielen Fällen hilfreich sein. Der Ansatz von Trevisto ermöglicht es Mittelständlern, einen sinnvollen Einstieg in die Bereiche Data Science und künstliche Intelligenz zu finden. Es entstehen greifbare Ergebnisse für solide Investitionsentscheidungen.

News & Blog

Künstliche Intelligenz vs. Analytik

KI vs. Analytik: Wo liegen die Unterschiede?

Der Siegeszug neuer Technologien geht mit einigen Wirrungen rund um Begriffsdefinitionen einher. Dies gilt auch für die Auswertung und Interpretation von Daten. Aktuell befinden sich insbesondere die Bereiche Analytik und künstliche Intelligenz auf der Agenda von Entscheidern. Um Projekte erfolgreich umzusetzen, ist es jedoch wichtig, die Unterschiede zwischen diesen Ansätzen genau zu kennen.

Hypothesen vs. Training

Um die Unterschiede zwischen Analytik und KI zu verstehen, müssen wir uns zunächst mit einer Begriffsdefinition beschäftigen. Im Allgemeinen ist unter Analytik die systematische Untersuchung von Sachverhalten oder Gegenständen zu verstehen. Hierzu werden Hypothesen aufgestellt und überprüft. Mögliche Ergebnisse werden also von vorne herein als gegeben betrachtet. Mithilfe von Daten wird lediglich überprüft, ob die Hypothesen zutreffen. Die Grenze ist bei diesem Ansatz also die eigene Vorstellungskraft. Die Gewinnung völlig neuer Erkenntnisse ist kaum möglich. Davon abgesehen entsteht ein hoher Zeitaufwand.

Künstliche Intelligenz leitet vorhandene Tatsachen in den Daten hingegen selbstständig ab. Es werden also Zusammenhänge sichtbar, die im Rahmen der Analytik möglicherweise im Verborgenen geblieben wären. Die Leistungs- und Interpretationsfähigkeit der KI hängt jedoch entscheidend von den zugrunde liegenden Trainingsdaten ab. Problematisch ist in diesem Kontext die algorithmische Voreingenommenheit (sog. Algorithmic Bias). Sie entsteht, wenn menschengenerierte Daten verarbeitet werden, die naturgemäß weit verbreitete Vorurteile widerspiegeln. Möglicherweise wird die KI auch mit einseitigen Informationen, etwa aus einer bestimmten Zielgruppe, versorgt. Infolge dessen kann eine Diskriminierung von Minderheiten oder Personengruppen entstehen. Ein Beispiel wäre die Benachteiligung von älteren Bewerbern im Rahmen eines maschinellen Auswahlverfahrens.

Text…

Bias nicht in jedem Fall „schädlich“

Dass Daten für sich selbst sprechen, hat nicht nur Nachteile. Bias ist in vielen Fällen sogar gewollt. Ein Beispiel ist die Analyse des Bestellverhaltens von Kunden. Hier kann künstliche Intelligenz etwa selbstständig erkennen, dass Bestellungen überwiegend von Montag bis Freitag eingehen. Die Wahrscheinlichkeit, dass ein Kunde in diesem Zeitraum erneut bestellt, ist also höher. Zudem ist Bias sichtbar und erklärbar – etwa über Analysen in Tensorboard oder Shap-Values. Die Kunst besteht darin, Daten richtig zu interpretieren und die künstliche Intelligenz optimal anzupassen. Hierbei können sich Unternehmen von Trevisto unterstützen lassen.

Text…

Balance als zentrale Herausforderung

Fassen wir zusammen, so ist künstliche Intelligenz der Analytik überlegen, da sie ohne Hypothesen auskommt. Wichtig ist jedoch ein ausgewogenes Setup von KI-gestützten Analysen zu realisieren. Trevisto bietet verschiedene Verfahren an, um die Funktionsweise und die Reaktion von KI zu analysieren. In der Bilderkennung werden hierbei beispielsweise Bildbereiche markiert, die für eine Unterscheidung zwischen Tierarten relevant waren. Selbstverständlich müssen Vorgehensweise und Ergebnisse abhängig von der Problemstellung individuell betrachtet werden. Im Ergebnis lässt sich „Bias“ signifikant minimieren, ohne jedoch die Aussagekraft der Ergebnisse zu beeinträchtigen.

Text…

News & Blog

Geschäftsmodell: aus analog wird digital

Die digitale Transformation geht für Unternehmen mit zahlreichen Herausforderungen und Chancen einher. Neue Technologien ermöglichen es nicht nur, Prozesse effizienter zu gestalten. Selbst der Entwicklung völlig neuer Lösungsangebote für Kunden steht nichts im Weg. Doch wie gelingt es, ein Geschäftsmodell digital auszugestalten? Welche Voraussetzungen müssen erfüllt sein, um die enormen Potenziale zu erschließen?

Digitale Transformation: Herausforderung insbesondere für etablierte Player

Durch die voranschreitende Digitalisierung haben sich die Rahmenbedingungen für Unternehmen deutlich verändert. Traditionsunternehmen, die über Jahrzehnte hinweg ihre Produkte oder Dienstleistungen erfolgreich verkauft haben, sehen sich plötzlich von Technologie-Start-ups bedroht, die mit ihrem neuen Geschäftsmodell eine ganze Branche auf den Kopf stellen. Ein prominentes Beispiel ist Uber. Der Fahrdienstvermittler ist komplett digital aufgestellt. Er produziert und besitzt keine Fahrzeuge. Dennoch stellt Uber das etablierte Taxigewerbe massiv infrage. Ein weiteres Beispiel ist Netflix. Der Streaming-Dienst hat den klassischen Videoverleih mittlerweile verdrängt. Die Online-Buchungsplattform Airbnb ist innerhalb weniger Jahre zum größten Übernachtungsanbieter geworden, ohne auch nur eine einzige Immobilie zu besitzen. All dies zeigt, dass sich derzeit insbesondere Plattformen, Abonnement-Modell sowie Pay-per-Use-Dienste stark auf dem Vormarsch befinden.

Zunehmend erkennen hierzulande auch etablierte Unternehmen die Chancen, die mit einem digitalen Geschäftsmodell verbunden sind. Die Transformation vom klassischen Hersteller von Produkten zum Anbieter kundenzentrierter Lösungen geht jedoch mit mehreren Herausforderungen einher.

Aus analog mach digital: ohne Daten geht gar nichts

Um die Digital-Konkurrenz auf Abstand zu halten, ist eine Transformation im eigenen Unternehmen erforderlich. Es gilt, ein neues Geschäftsmodell zu etablieren, bevor es der Wettbewerb tut. Für Industriebetriebe bedeutet dies unter anderem, dass sie neben dem klassischen Ingenieurswissen auch IT-Kompetenz aufbauen müssen. Zudem sind neue Strategien, eine höhere Flexibilität, eine ausgeprägte Vernetzung und ein Wirtschaften in neuen Ökosystemen erforderlich.

Die Basis für all diese Aktivitäten ist das Sammeln, das Analysieren, das Interpretieren und das Verwerten von Daten. Um ein Digital-Geschäftsmodell neu zu entwickeln oder bestehende Modelle zu justieren, müssen zunächst geeignete Datenquellen erschlossen werden. Im zweiten Schritt ist es erforderlich, die Daten so zu nutzen, dass Mehrwert für den Kunden entsteht. Hierbei muss die Service-Orientierung im Vordergrund stehen. Es gilt, eine Sichtweise zu etablieren, die sich stärker an Kundenbeziehungen orientiert. Auch die Individualisierbarkeit von Produkten und Services spielt eine zunehmend wichtige Rolle. Nur wenn die Hürden auf diesem Weg bekannt sind, können sie aus dem Weg geräumt werden.

Für Unternehmen, die ihre Transformation voranbringen möchten, hält Trevisto spezielle Workshops zur Ideengenerierung und dem Verfolgen von erarbeiteten Lösungsansätzen bereit. Dieser. ermöglicht es, ein Digital-Geschäftsmodell von Grund auf neu zu entwickeln. Doch auch bestehende Szenarien können auf diese Weise überprüft und bei Bedarf angepasst werden.

News & Blog

KMU plus Energy Intelligence

Energie: KMU können Effizienz durch KI deutlich steigern

In Zeiten ständig steigender Strompreise ist Energie ein bedeutsamer Kostenblock in kleinen und mittleren Unternehmen. Gerade hier ist das Bewusstsein über Einsparungsmöglichkeiten jedoch noch gering ausgeprägt. Nun soll KI dabei unterstützen, die Effizienz zu steigern und die Potenziale zu erschließen. Am 01.12.2018 startete ein Pilotprojekt gefördert vom Bundesministerium für Wirtschaft und Energie.

Enorme Einsparpotenziale bei Energie

Laut Expertenschätzungen liegt das Kosteneinsparpotenzial von KMU bei Energie im Bereich von 5 bis 20 Prozent der Gesamtkosten. Die Bestrebungen zur Steigerung der Effizienz und zur Kostensenkung halten sich bei kleinen und mittelständischen Unternehmen bisweilen dennoch in Grenzen. Während verschiedenste Sensoren unter der Flagge „Smart Home“ immer stärker in Privathaushalte Einzug halten und dort für Einsparungen sorgen, sind entsprechende Infrastrukturen in KMU noch kaum vorhanden.

Nun startete das Projekt „KMU plus Energy Intelligence“ in Parsberg, mit dem diese Rückstände aufgeholt werden sollen. Der erste Bürgermeister der Stadt, Josef Bauer, begrüßte die Projektbeteiligten am 1. Februar 2019. Die Gesamtkonzeption der Systemlösung übernimmt die Nürnberger Trevisto AG. Das spezialisierte IT-Unternehmen ist außerdem für die Entwicklung und Umsetzung der Systemarchitektur verantwortlich.

KI und vernetzte Systeme als Basis

Ziel des Projekts ist die Entwicklung einer modularen Energie-Management-Lösung für kleine und mittlere Unternehmen als Mehrwert im Zuge einer ganzheitlichen digitalen Transformation. Durch mehr Effizienz im Umgang mit Energie soll die Wettbewerbsfähigkeit im produzierenden Gewerbe nachhaltig gesteigert werden. Zunächst wird eine sukzessive Vernetzung aller relevanten Kommunikationssysteme in den beteiligten Unternehmen umgesetzt. Der Hintergrund: Ohne eine geeignete IT-Infrastruktur können die Algorithmen des Systems nicht arbeiten. In diesem Kontext müssen beispielsweise Sensoren eingesetzt werden, deren Anschaffung sich aufgrund der Einsparungen jedoch schnell rechnet.

Die Energy Intelligence Lösung selbst wird modular aufgebaut sein, um einen stufenweisen Ausbau des Systems zu ermöglichen. Hinsichtlich der Funktionsweise des Systems spielt KI (künstliche Intelligenz) eine wichtige Rolle. Die KI analysiert Daten aus dem Betrieb in Echtzeit. Daraus leitet sie wiederum Handlungsempfehlungen für die Produktion ab. Auf diese Weise lassen sich unter anderem teure Spitzenlastzeiten vermeiden.

KMU-gerechte Lösung

Bei dem KI-Projekt zur Steigerung der Energie-Effizienz stehen die speziellen Bedürfnisse von kleinen und mittelständischen Unternehmen klar im Fokus. So werden sämtliche Ebenen des Energie-Managements – von der Datenerfassung und -verarbeitung bis zur Bedienung und Überwachung – KMU-gerecht ausgestaltet. Vorhandene Daten aus den Bereichen Logistik, Produktion und Energie werden sinnvoll vernetzt und bewertet. Optimierungsmaßnahmen können durch die Unternehmen dann in Eigenregie eingeleitet werden. Zudem unterstützt die Energy Intelligence Lösung Betriebe bei der Umsetzung eines Energiemanagementsystems nach ISO 50001. Diese befasst sich neben der Erfassung von Energieflüssen und der Bewertung der aktuellen Effizienz ebenfalls mit konkreten Verbesserungsmaßnahmen.

Das Projekt „KMU plus Energy Intelligence“ wird vom Bundesministerium für Wirtschaft und Energie gefördert.

Verbund-Partner des Projektes sind:

Trevisto AG, BUILD.ING Consultants + Innovators GmbH, TH Nürnberg, Fraunhofer IIS, MC-Tech Metallbau GmbH

News & Blog

Künstliche Intelligenz im Sport

KI im Sport – Stand der Technik und Einsatzmöglichkeiten

Künstliche Intelligenz hält nicht nur in Unternehmen Einzug. Auch im Sport existieren mittlerweile interessante Anwendungsmöglichkeiten für KI. Insbesondere bei Auswertungen, Prognosen und im Talentscouting sind die Potenziale enorm. Ein weiterer spannender KI-Ansatz befasst sich mit der Optimierung der Rasenpflege in Sportstätten.

Optimierung von Training, Strategie und Aufstellung

Künstliche Intelligenz ist in der Lage, sowohl einzelne Sportler als auch Teamverantwortliche zu unterstützen. So existieren Trainings-Apps in Verbindung mit Fitnessarmbändern schon einige Jahre. Bisher waren die Wearables jedoch vorrangig für reine Analysen zuständig. Neue Trainingslösungen kombinieren die Sensordaten nun mit KI, um aus Fitnessarmbändern vollwertige Personal Trainer zu machen. Die Geräte sind in der Lage, ihren „Träger“ immer besser kennenzulernen. Kombiniert werden die persönlichen Nutzerdaten mit einer Datenbank, die umfangreiche Informationen über andere Anwender beinhaltet. Im Ergebnis entsteht ein maßgeschneiderter Trainingsplan.

Denkbar ist außerdem, dass künstliche Intelligenz im Sport schon bald als Entscheidungshilfe für Teamaufstellungen und Strategien fungiert. Zudem existieren bereits Algorithmen, die detaillierte Prognosen über Leistungssteigerungen und Verletzungsrisiken von Spielern liefern. So gelang es einer Abteilung des Nationalen Forschungsrats CNR (Italien), die Verletzungswahrscheinlichkeit mit einer Treffergenauigkeit von immerhin 50 Prozent vorherzusagen. Hierfür wurden Spieler eine Saison lang mit GPS-Geräten ausgestattet, die Daten wie Kreislaufstärke, Beschleunigung und zurückgelegte Strecken sammelten. Die Auswertung der Daten ergab, dass eine Korrelation zum Verletzungsrisiko besteht.

Spielanalysen und Talentscouting der neuen Generation

Was künstliche Intelligenz im Sport bereits leisten kann, zeigt auch das Beispiel der Scouting-Lösung „JAAI Scout“. Sie nutzt KI-Technologien,um zehntausende Scouting-Reports zu analysieren, Profile von Spielerpersönlichkeiten zu erstellen und Informationen aus sozialen Netzwerken und Internetseiten zu extrahieren. Hinzu kommen neuronale Netze, mit denen das Potenzial und die Marktwertentwicklung von Spielern prognostiziert werden können. Entscheidungen über millionenschwere Transfers lassen sich dank KI also transparenter und rationaler treffen.

Im amerikanischen Sport, insbesondere beim American Football und Baseball, gehört künstliche Intelligenz im Übrigen bereits zum Talentscouting-Alltag. Außerdem ermöglicht es KI in Verbindung mit Sensoren im Football-Helm mittlerweile, Gehirnerschütterungen deutlich genauer und schneller zu erkennen. Darüber hinaus verbessert künstliche Intelligenz in Form von Chat-Bots das Fan-Erlebnis. Auch zur Erfolgsmessung im Sport-Sponsoring kommen Algorithmen zur Anwendung, die die Markensichtbarkeit über TV-Übertragungen, Social Media und Online-Streams exakt erfassen. Unter anderem werden hierbei Logos auf Kleidungsstücken oder Bechern automatisch erkannt.

Mix aus IoT und KI verbessert die Rasenpflege

KI im Sport dreht sich aber nicht nur um Verbesserung beim Training und Wettkampf, sondern auch um die Verbesserung der Rahmenbedingungen. Bei Rasensportarten wie Golf, Fußball oder Rugby kommt es hinsichtlich eines guten Spiels vor allem auf die richtige Rasenpflege des Greenkeepers an. Trevisto hat hier einen Ansatz für die Optimierung der Rasenflächen für Sportstätten entwickelt. Die KI-Lösung hat das Potenzial, das Greenkeeping zu revolutionieren. Der Ansatz kombiniert Bilddaten der Rasenfläche, die von einer Drohne aufgenommen werden, mit Daten aus Umweltsensoren. Letztere geben Aufschluss über Niederschlag, Temperatur und Salze. Die Informationen werden kabellos übertragen, wodurch auf eine komplizierte Infrastruktur vor Ort verzichtet werden kann. Hinzu kommen weitere Daten – etwa aus lokalen Wetterberichten. Auf diese Weise ist die Lösung in der Lage, den sogenannten Plant Health Index zu berechnen und Maßnahmen für die Rasenpflege zu empfehlen.

Der KI-Ansatz nutzt darüber hinaus neuronale Netze, um Zusammenhänge in den gesammelten Daten zu erkennen. Hierdurch ist es nicht nur möglich, das Krankheitsrisiko von Rasenflächen zu ermitteln – ein Beispiel wäre Pilzbefall bei feuchtem, warmem Wetter. Auch eine Empfehlung für die optimale Bekämpfungsstrategie kann abgeleitet werden. Abweichungen vom Optimalzustand des Rasens werden durch die neuronalen Netze auf allen erfassten Ebenen sofort erkannt, wodurch sich zielgerichtete Gegenmaßnahmen einleiten lassen. So werden nicht nur bestmögliche Rahmenbedingungen für Rasensportarten geschaffen. Durch den gezielten Einsatz der Pflegemaßnahmen und die Steigerung der Ressourceneffizienz wird auch der Nachhaltigkeit Genüge getan.

News & Blog

Künstliche Intelligenz schafft Zeit für das Wesentliche

Zeit für Relevantes durch KI

Künstliche Intelligenz gilt als Schlüsseltechnologie der digitalen Revolution. Sie ist kein Zukunftsthema, sondern bereits in unserem persönlichen Alltag präsent – etwa in Form von Sprachassistenten. Auch in der Geschäftswelt hält KI zunehmend Einzug. Entgegen der landläufigen Meinung wird sie Menschen in naher Zukunft jedoch nicht ersetzen, sondern lediglich Teilgebiete übernehmen, die bislang nicht automatisiert werden konnten. Hierdurch steigt die Effizienz und es entstehen Freiräume für wertschöpfende Tätigkeiten.

Starke KI ist bis auf Weiteres Zukunftsmusik

Wer sich nicht nur Pauschalurteile bildet, sondern sich näher mit künstlicher Intelligenz befasst, wird auf zwei Ausprägungen stoßen: die schwache und die starke KI. Bei der schwachen KI handelt es sich um Systeme, die klar definierte Aufgabenstellungen übernehmen. Ein tieferes Verständnis für die Problemlösung ist jedoch nicht möglich. Das Ziel der starken künstlichen Intelligenz, die auch Superintelligenz genannt wird, ist es, die intellektuellen Fähigkeiten von Menschen zu erlangen oder diese zu übertreffen. Bis heute ist es nicht gelungen, eine starke KI zu entwickeln. In Expertenkreisen wird kontrovers diskutiert, wann eine Superintelligenz Realität werden könnte. Die Zeitspanne reicht von 40 bis 80 Jahren. Das „Schreckgespenst“ superintelligenter Computer liegt also in ferner Zukunft. Bis auf Weiteres steht uns nur die schwache KI zur Verfügung. Wird diese sinnvoll eingesetzt, kann sie das Arbeitsleben jedoch zum Positiven verändern und die Effizienz in Unternehmen steigern.

Mehr Effizienz durch Künstliche Intelligenz

Wir leben in einer Zeit des Fachkräftemangels und globalen Wettbewerbsdrucks. Qualifizierte Mitarbeiter agieren teils an der Grenze ihrer Belastbarkeit. Dennoch fehlen Kapazitäten für wertschöpfende Tätigkeiten und eine kundenzentrierte Vorgehensweise. Es gilt daher, bestehende personelle Ressourcen bestmöglich einzusetzen. Dies gelingt nur, wenn das Personal von Routineaufgaben entlastet wird. Exakt an dieser Stelle setzt künstliche Intelligenz an. Insbesondere bei standardisierten Vorgängen, die sich in hoher Frequenz wiederholen, spielt sie zunehmend ihre Stärken aus. So wird KI beispielsweise genutzt, um Kunden-Mails einer Sentimentanalyse zu unterziehen. Auch das Vorsortieren von E-Mails anhand definierter Kriterien kann durch entsprechende Systeme realisiert werden. Durch das Zusammenfassen von Texten, etwa von Nachrichten, unterstützt künstliche Intelligenz die Konzentration auf das Wesentliche.

In der Medizin können KI-basierte Anwendungen ebenfalls für Effizienz sorgen – etwa, indem sie auffällige Bereiche in Röntgen- oder Ultraschallbildern hervorhebt. Für Anwälte analysieren KI-Lösungen Texte und markieren auffällige Passagen, die im zweiten Schritt wiederum durch menschliche Experten geprüft werden. Ähnliches gilt für Unternehmenskennzahlen, Börsendaten und viele weitere Bereiche.

Ohne Menschen geht es nicht

Zusammengefasst wird klar: Der Mensch wird durch KI-Systeme nicht überflüssig. Er wird benötigt, um die Ergebnisse der künstlichen Intelligenz mit seiner Erfahrung in einen Kontext zu setzen. Gleichzeitig erfolgt eine Entlastung von Routinetätigkeiten, die von den meisten Mitarbeiterinnen und Mitarbeitern ohnehin als langweilig oder gar belastend wahrgenommen werden. In der Versicherungsbranche könnten Chatbots beispielsweise Standardanfragen zum Vertrag beantworten, während sich die menschlichen Experten mit komplexen Problemfällen oder der Kundenakquise beschäftigen. Der Trend geht also klar in Richtung höher qualifizierter Aufgaben, was für Arbeitnehmer keineswegs einen Nachteil darstellt. Unternehmen und das Bildungswesen werden jedoch gefordert sein, diesem Umstand durch Qualifizierungsangebote Rechnung zu tragen.