Maschinenlernen für Unternehmen verständlich machen
Die Forschung konzentriert sich darauf, prädiktive Werkzeuge zu entwickeln, die ihre Entscheidungen erklären.
― 9 min Lesedauer
Inhaltsverzeichnis
- Die Bedeutung von maschinellem Lernen
- Adoptionsprobleme im maschinellen Lernen
- Die Rolle der akademischen Forschung
- Den Design Science Research-Prozess definieren
- Prädiktive Analytik
- Der Bedarf an Methodologien in der prädiktiven Modellierung
- Prädiktive Modelle erstellen und Ergebnisse interpretieren
- Anwendungsbeispiel: Preisvorhersage in der Sharing Economy
- Originalquelle
- Referenz Links
Prädiktive Maschinelles Lernen wird für Unternehmen immer wichtiger, da es viele Geschäftsbereiche verbessern kann. Trotzdem sind viele Entscheidungsträger in verschiedenen Branchen zögerlich, moderne ML-Methoden zu nutzen, weil sie denken, diese Systeme seien "Black Boxes". Das bedeutet, dass sie komplex sind und nicht klar zeigen, wie sie zu ihren Schlussfolgerungen kommen. Um dieses Problem anzugehen, finden wir, dass die Forschung sich mehr darauf konzentrieren sollte, prädiktive ML-Tools zu entwickeln, die ihre Vorhersagen den Nutzern erklären können.
Trotz der jüngsten Verfügbarkeit von Tools, die bei der Entwicklung solcher Systeme helfen, hat es an Forschung gefehlt, wie man interpretierbare prädiktive Modelle erstellt. Wir glauben, dass diese Forschungslücke besteht, weil es nicht genügend Anleitungen gibt, wie man diese Tools effektiv bauen kann. Daher stellen wir eine Methodik vor, die Wissen aus verschiedenen Forschungsbereichen mit modernen Techniken zum Verständnis von maschinellem Lernen kombiniert. Wir werden diesen Ansatz demonstrieren, indem wir uns die Preisvorhersagen in der Sharing Economy, speziell bei Airbnb, anschauen.
Die Bedeutung von maschinellem Lernen
Maschinelles Lernen (ML) spielt eine zentrale Rolle im digitalen Zeitalter und beeinflusst viele Aspekte des täglichen Lebens. Von Smartphones bis zu sozialen Medien unterstützen ML-Techniken eine Vielzahl von Geschäftsabläufen. Die meisten ML-Algorithmen sind darauf ausgelegt, Vorhersagen basierend auf gesammelten Daten zu treffen. Dieser Prozess umfasst überwachtes Lernen oder prädiktives Modellieren, was mindestens zwei Datensätze erfordert: einen zum Trainieren und einen zum Testen. Die Trainingsdaten helfen dem ML-Algorithmus, Muster zu lernen, während die Testdaten überprüfen, wie genau das gelernte Modell ist.
Wenn ein Modell gute Genauigkeit zeigt, kann es für Vorhersagen in der realen Welt genutzt werden. Dieser Aspekt des überwachten Lernens ist entscheidend für Unternehmen und treibt Anwendungen wie prädiktive Wartung, Betrugserkennung und personalisierte Empfehlungen voran. Infolgedessen wächst der globale Markt für maschinelles Lernen schnell, was auf sein grosses Potenzial für Unternehmen hinweist.
Adoptionsprobleme im maschinellen Lernen
Trotz der vielversprechenden Möglichkeiten, die maschinelles Lernen bietet, haben viele Organisationen noch nicht vollständig fortschrittliche ML-Algorithmen übernommen, da sie Bedenken hinsichtlich ihrer Komplexität haben. Viele Entscheidungsträger betrachten diese Algorithmen als zu kompliziert und fürchten, dass sie die Gründe hinter den Vorhersagen der Systeme nicht verstehen können. Diese Wahrnehmung führt zu Unsicherheit, wenn es darum geht, sich auf Entscheidungshilfesysteme zu verlassen, insbesondere wenn die Begründung unklar ist.
Die Zögerlichkeit bei der Übernahme von ML-Tools kann ernsthafte Folgen für Unternehmen haben, da sie daran hindert, Technologien zu nutzen, die ihre Wettbewerbsfähigkeit verbessern könnten. Um dieses Problem zu überwinden, sollte die Forschung sich darauf konzentrieren, Tools bereitzustellen, die es einfacher machen, ML-Modelle zu interpretieren und zu verstehen.
Die Rolle der akademischen Forschung
Die akademische Forschung hat eine wichtige Rolle dabei zu spielen, Organisationen zu helfen, ML-Tools zu übernehmen. Forscher sollten sowohl Werkzeuge entwickeln, die helfen, Modelle zu interpretieren, als auch Beispielanwendungen, die diese Tools integrieren. Derzeit gibt es verschiedene Tools, die bei der Interpretation von ML-Modellen helfen können, wodurch es für Nutzer einfacher wird, zu verstehen, wie Vorhersagen gemacht werden.
Ein wichtiges Tool, das Aufmerksamkeit erregt hat, ist SHAP, das effektiv die Bedeutung verschiedener Eingangsvariablen im Hinblick auf die Ausgaben eines ML-Modells berechnet und visualisiert. Es hilft, Black-Box-Modelle transparenter zu machen, sodass Nutzer sehen können, wie verschiedene Faktoren Vorhersagen beeinflussen.
Um effektive prädiktive Tools zu erstellen, sollten wir uns auf Design Science Research (DSR) konzentrieren. Dieser Ansatz zielt darauf ab, praktische Lösungen zu schaffen, die die organisatorischen Fähigkeiten erweitern und wertvolle Einblicke bieten. Dennoch gab es bisher nur begrenzte Forschung darüber, wie man vorhersageorientierte Artefakte unter Verwendung der Tools zur Interpretation von Black-Box-Modellen entwickelt.
Den Design Science Research-Prozess definieren
DSR ist ein wesentlicher Bestandteil der Forschung im Bereich Informationssysteme, das sich auf die Schaffung nützlicher Artefakte konzentriert, die Organisationen helfen. Bei der Entwicklung eines Artefakts ist es wichtig, sicherzustellen, dass es einen praktischen Zweck erfüllt und gleichzeitig theoretische Einblicke bietet. Die meisten Methoden für DSR folgen spezifischen Phasen, die idealerweise Folgendes umfassen sollten:
- Problemidentifikation: Das Problem klar definieren, das das Artefakt ansprechen soll.
- Konzeptualisierung: Einen klaren Ansatz entwickeln und Ziele für das Artefakt festlegen.
- Umsetzung: Das Artefakt erstellen und testen.
- Bewertung: Die Leistung und den Einfluss des Artefakts bewerten.
- Verstehen: Werkzeuge verwenden, um zu interpretieren und zu erklären, wie das Artefakt funktioniert.
- Veröffentlichung: Ergebnisse mit der breiteren Gemeinschaft teilen.
Dieser Prozess hilft Forschern, praktikable und wertvolle Artefakte zu entwickeln, die zu besseren organisatorischen Praktiken führen können.
Prädiktive Analytik
Prädiktive Analytik ist ein spezifischer Bereich innerhalb des maschinellen Lernens, der sich auf das Treffen von Vorhersagen basierend auf Daten anstelle von theoretischen Modellen konzentriert. Es stützt sich auf datengetriebene Methoden, um prädiktive Modelle zu erstellen, ohne unbedingt strengen theoretischen Hintergründen zu folgen.
Bei der prädiktiven Modellierung basieren Bewertungen oft auf Out-of-Sample-Vorhersagen, die mithilfe von Metriken bewertet werden, die für den Problemtyp geeignet sind, wie zum Beispiel den mittleren absoluten Fehler für Regressionsaufgaben oder die Genauigkeit für Klassifikationsaufgaben.
Die zunehmende Verfügbarkeit von Daten in den letzten Jahren hat dazu geführt, dass Forscher die Bedeutung der prädiktiven Modellierung betont haben, wodurch sie sowohl für die akademische Forschung als auch für praktische Anwendungen in verschiedenen Bereichen relevant wird.
Der Bedarf an Methodologien in der prädiktiven Modellierung
Um effektive prädiktive Modellierungsanstrengungen sicherzustellen, wurden verschiedene Methodologien vorgeschlagen, um Forscher und Praktiker zu leiten. Viele bestehende Methodologien sind jedoch nicht speziell auf die Bedürfnisse von Organisationen zugeschnitten, die maschinelles Lernen übernehmen wollen. Dies schafft eine Lücke, die geschlossen werden muss, um eine bessere Integration von maschinellem Lernen in Unternehmen zu erreichen.
Durch die Bewertung der aktuellen Methodologien können wir wesentliche Phasen für die Durchführung von Forschungen extrahieren. Diese Phasen können Forscher dabei unterstützen, prädiktive Modelle zu erstellen, die sowohl effektiv als auch Interpretierbar sind.
Prädiktive Modelle erstellen und Ergebnisse interpretieren
Bei der Entwicklung maschineller Lernartefakte ist es wichtig, den Fokus auf das Verständnis der Vorhersagen zu legen, die sie machen. Das bedeutet, Modelle nicht nur als Genauigkeitsraten zu betrachten, sondern auch die Einblicke zu berücksichtigen, die sie bieten.
Nach der Erstellung eines Modells sollten Forscher einen geeigneten Algorithmus auswählen und Daten zum Trainieren sammeln. Die Qualität des Modells hängt vom gewählten Algorithmus und den verwendeten Daten ab. Es ist wichtig, die Daten in Trainings- und Testdaten zu unterteilen, um Overfitting zu vermeiden und die Nützlichkeit eines Modells in realen Anwendungen sicherzustellen.
Sobald ein Modell trainiert ist, muss es bewertet werden, um seine Effektivität zu bestimmen. Bewertungsmetriken können helfen, festzustellen, wie gut das Modell im Vergleich zu Benchmarks oder anderen Modellen abschneidet.
Das Verständnis sollte die letzte Phase sein, in der Forscher Interpretationswerkzeuge wie SHAP verwenden, um Einblicke zu gewinnen, wie das Modell zu seinen Vorhersagen gelangt. Lokale und globale Interpretationen können helfen, zu identifizieren, welche Merkmale Vorhersagen beeinflussen und wie.
Anwendungsbeispiel: Preisvorhersage in der Sharing Economy
Um die vorgeschlagene Methodik zu demonstrieren, können wir ein reales Beispiel für die Preisvorhersage in der Sharing Economy, insbesondere für Airbnb-Angebote, in Betracht ziehen. Viele Gastgeber haben Schwierigkeiten, den richtigen Mietpreis festzulegen, besonders wenn sie neu auf dem Markt sind. Die Entwicklung eines maschinellen Lernmodells, das Mietpreise empfiehlt und gleichzeitig Erklärungen liefert, kann Gastgebern helfen, informierte Entscheidungen zu treffen.
Problemdefinition
In diesem Beispiel entsteht das Problem, weil Gastgeber versuchen, wettbewerbsfähige Preise für ihre Angebote festzulegen, ohne vorherige Erfahrung. Das Cold-Start-Problem ist hier besonders ausgeprägt, da neue Gastgeber nicht genügend Informationen haben, um angemessene Preispunkte festzulegen.
Ziele
Die primären Ziele dieses Modells wären:
- Ein Artefakt zu erstellen, das geeignete Startpreise auf Basis verschiedener Merkmale vorhersagt.
- Gastgebern Einblicke in die Entscheidungsfaktoren zu geben, die den Preis beeinflussen.
Konzeptueller Ansatz
Der konzeptionelle Ansatz umfasst Datensammlung, -bereinigung, -erkundung und -vorbereitung der Daten für das Modelltraining. Darüber hinaus beschreibt er, wie die endgültige Ausgabe Empfehlungen und Erklärungen für Gastgeber liefern sollte.
Datensammlung
Daten können aus verschiedenen Quellen gesammelt werden, wie der Airbnb-API, die Zugang zu Merkmale von Wohnungen, Preisinformationen, Standortdaten und mehr bietet. Die Daten sollten umfangreich genug sein, um eine Vielzahl von Angeboten abzudecken, damit das Modell robust ist.
Datenaufbereitung
Sobald die Daten gesammelt sind, müssen sie bereinigt und für die Modellierung vorbereitet werden. Dazu gehört der Umgang mit fehlenden Werten, Ausreissern und das Engineering neuer Merkmale, die für das jeweilige Problem relevant sind. Die Struktur der Daten sollte die Entwicklung eines prädiktiven Modells unterstützen.
Modelltraining und -bewertung
Das Modell kann mit verschiedenen Algorithmen trainiert werden. Es ist wichtig, das Modell mit geeigneten Leistungsmetriken zu bewerten, um sicherzustellen, dass es zuverlässige Vorhersagen liefert. Durch das Testen des Modells gegen einen Validierungsdatensatz können wir seine Stärken und Schwächen identifizieren.
Vorhersagen verstehen
Die Verwendung von Tools wie SHAP hilft, die Vorhersagen des Modells zu interpretieren. Durch SHAP-Visualisierungen können Gastgeber sehen, wie verschiedene Merkmale den vorhergesagten Preis beeinflussen, was ihnen ermöglicht, ihre Angebote entsprechend anzupassen.
Fazit und praktische Implikationen
Durch die Anwendung der entwickelten Methodik können Forscher zur breiteren Akzeptanz von maschinellem Lernen in Organisationen beitragen. Die Erstellung interpretierbarer prädiktiver Modelle verbessert die Entscheidungsprozesse für Nutzer und erleichtert ein besseres Verständnis komplexer Algorithmen.
Insgesamt fördert die Integration von erklärbaren prädiktiven Modellen in die Geschäftspraxis nicht nur Innovation, sondern ermutigt auch Organisationen, datengestützte Methoden für bessere Ergebnisse zu nutzen.
Zusammenfassend bietet die Entwicklung erklärbarer prädiktiver maschineller Lernartefakte Organisationen die notwendigen Werkzeuge, um informierte Entscheidungen zu treffen. Indem Entscheidungsträger die Faktoren verstehen, die Vorhersagen antreiben, können sie diese Einblicke nutzen, um ihre Strategien zu verbessern und bessere Geschäftspraktiken in verschiedenen Branchen zu fördern.
Titel: Designing Explainable Predictive Machine Learning Artifacts: Methodology and Practical Demonstration
Zusammenfassung: Prediction-oriented machine learning is becoming increasingly valuable to organizations, as it may drive applications in crucial business areas. However, decision-makers from companies across various industries are still largely reluctant to employ applications based on modern machine learning algorithms. We ascribe this issue to the widely held view on advanced machine learning algorithms as "black boxes" whose complexity does not allow for uncovering the factors that drive the output of a corresponding system. To contribute to overcome this adoption barrier, we argue that research in information systems should devote more attention to the design of prototypical prediction-oriented machine learning applications (i.e., artifacts) whose predictions can be explained to human decision-makers. However, despite the recent emergence of a variety of tools that facilitate the development of such artifacts, there has so far been little research on their development. We attribute this research gap to the lack of methodological guidance to support the creation of these artifacts. For this reason, we develop a methodology which unifies methodological knowledge from design science research and predictive analytics with state-of-the-art approaches to explainable artificial intelligence. Moreover, we showcase the methodology using the example of price prediction in the sharing economy (i.e., on Airbnb).
Autoren: Giacomo Welsch, Peter Kowalczyk
Letzte Aktualisierung: 2023-06-20 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2306.11771
Quell-PDF: https://arxiv.org/pdf/2306.11771
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.