In unserem Glossar erklären wir Begriffe, die auf unserer Übersichtsseite zum Thema Business Analytics zum Einsatz kommen. Unser Glossar wird laufend erweitert und in regelmäßigen Abständen aktualisiert. Sollte dennoch einmal ein erklärungswürdiger Begriff fehlen, kontaktieren Sie uns einfach und reichen den Begriff nach.
Diese Handlungsvorschrift definiert verschiedene Einzelschritte, die für die Lösung eines Problems notwendig sind. Umgesetzt in Programmiersprache, kann ein Algorithmus in ein Computerprogramm eingefügt werden. Die Analyse von Algorithmen sind ein zentrales Thema bei der Informatik. Meist wird sie jedoch theoretisch durchgeführt, ohne den Algorithmus in eine Programmiersprache zu übertragen.
Artificial Intelligence oder auch AI (deutsch: Künstliche Intelligenz oder KI) befasst sich mit der Automatisierung von intelligentem Verhalten und ist eng mit Machine Learning (deutsch: Maschinelles Lernen) verknüpft. Dabei wird gemeinhin zwischen schwacher und starker KI unterschieden. Die Grundlage für Artificial Intelligence sind gute Daten.
Eine Balanced Scorecard beschreibt ein Konzept, welches die Messung, Dokumentation und Steuerung der Aktivitäten eines Unternehmens im Hinblick auf die Vision und Strategie ermöglicht.
Unter Big Data versteht man die rasche und effiziente Analyse einer Riesenmenge an relevanten Daten, die zu groß sind um sie mit herkömmlichen Methoden der Datenverarbeitung oder manuell auszuwerten.
Business Analytics beschreibt die Fähigkeiten, Technologien und Praktiken für die fortlaufende Untersuchung der bisherigen Geschäftsentwicklung, um wertvolle Erkenntnisse zu gewinnen und die Geschäftsplanung voranzutreiben.
Als Business Intelligence wird der Prozess der Aufbereitung von Daten zu aussagefähigen Informationen bezeichnet. Business Intelligence (BI) erhöht die Transparenz und verbessert Steuerbarkeit und Effizienz der Organisation.
Unter Churn versteht man die Abwanderungsquote, mit Churn Management versucht man daher die Abwanderung der Kunden zu vermeiden.
Gruppen (Cluster) werden definiert und deren Daten analysiert, um Strukturen zu entdecken. Ein erforschendes Verfahren, das verschiedene Verfahren anwendet und anschließend das passende Resultat auswählt.
In diesem Bereich der Unternehmensführung laufen Daten des Rechnungswesens und anderer Quellen zusammen. Hauptaufgabe ist die Kontrolle, Steuerung und Planung des Unternehmens, vor allem der Finanzen.
CRISP-DM steht für CRoss-Industry Standard Process for Data Mining, ist damit ein Standard-Prozess-Modell für das Data Mining und beschreibt sämtliche Phasen, die während eines Projektes durchlaufen werden. Die Phasen sind: Geschäftsziele, Datenuntersuchung, Datenaufbereitung, Modellierung, Auswertung und Implementierung.
Customer Intelligence ist im Kern ähnlich der Business Intelligence nur dass in diesem Ball der Kunde im Fokus steht.
Unter Customer Analytics (deutsch: Kundenanalyse) versteht man die Analyse des eigenen Kundenstamms, um bspw. profitable Kunden seines Unternehmens zu identifizieren oder Interessen der Kunden herauszufinden um entsprechende Angebote bereitstellen zu können.
Die rechnergestützte Analyse von Datenbeständen mit Methoden, die Erkenntnisse aus Informatik, Mathematik und Statistik verwenden. Ziel ist es, in Big Data Muster, Zusammenhänge und Trends zu erkennen.
Data Science bezeichnet grob die Extraktion von Wissen und Informationen aus bestimmten vorhandenen Daten, sowohl strukturiert als auch unstrukturiert.
Unter Data Warehousing (oder Data Warehouse) versteht man die Zusammenführung unterschiedlicher Daten aus verschiedenen Quellen an einem zentralen Ort bzw. in einer zentralen Datenbank.
Vorhandene Datensätzen werden mit weiteren Informationen angereichert. Das ermöglicht die strukturierte Auswertung von Daten für Analysen und Prognosen.
Unter Digitalisierung versteht man vereinfacht gesagt die Umwandlung analoger Inhalten zu digitalen Inhalten mit dem Zweck diese Daten für eine elektronische Datenverarbeitung verfügbar zu machen.
Descriptive Analytics beschäftigt sich mit Daten aus der Vergangenheit und versucht Auswirkungen auf die Gegenwart herzustellen.
Forecasts sind Vorhersagen für die Zukunft, die auf Zahlen, Daten und Fakten aus der Gegenwart und der Vergangenheit und der Analyse von Trends beruhen.
Kohorten sind Gruppen von Personen, die gemeinsam ein bestimmtes Ereignis erlebt haben und sich dadurch von anderen Bevölkerungsgruppen abgrenzen lassen.
Basierend auf vorhandenen CRM- und Rechnungsdaten werden hier Prognosen und Wahrscheinlichkeiten zu möglichen Abwanderungen/Kündigungen erstellt.
Machine Learning (deutsch: Maschinelles Lernen) bezeichnet Verfahren, bei denen Computer-Algorithmen aus Daten lernen, beispielsweise Muster zu erkennen oder gewünschte Verhaltensweisen zu zeigen, ohne dass jeder Einzelfall explizit programmiert wurde.
Statistische Methoden durchleuchten die Vorlieben von Personen zu verschiedenen Objekten eines Bereichs, um grundlegende Strukturen aufzudecken.
Predictive Analytics umfasst eine Vielzahl statistischer Techniken bei denen aktuelle und historische Fakten analysiert werden, um Vorhersagen über zukünftige oder unbekannte Ereignisse treffen zu können.
Prescriptive Analytics liefert Handlungsempfehlungen für das Eintreten oder Nichteintreten bestimmter Ereignisse.
Statistische Verfahren prüfen die Zusammenhänge zwischer einer abhängigen Variable und einer oder mehreren unabhängigen Variablen. Ziel ist die Erkennung von Ursachen, Wirkung von Veränderungen bei Variablen zu ermitteln und die Erstellung von Prognosen.
Retention-Angebote zielen auf Zurückgewinnung ab. Beispiele dafür sind unter anderem Handynetzbetreiber, die auf eine Kündigung reagieren oder Arbeitgeber, die Gefahr laufen MitarbeiterInnen zu verlieren.
RFM-Analyse ist ein Modell zur Berechnung der Kundenqualität. RFM steht für Recency, Frequency, Monetary (deutsch: Aktualität, Häufigkeit und Monetären Wert). Nach diesen Attribute zum Kaufverhalten werden in einer CRM-Datenbank sämtliche Kunden bewertet.
Text Mining beschreibt Algorithmus-basierte Analyseverfahren zur Entdeckung von Bedeutungsstrukturen aus un- oder schwach strukturierten Textdaten. Mit statistischen und linguistischen Mitteln werden aus Texten Strukturen erschlossen, die es den Benutzern ermöglichen, Kerninformationen möglichst schnell zu erkennen. Es ist unter Umständen sogar möglich, aus Text-Mining Hypothesen zu generieren, zu überprüfen und zu verfeinern.
Ermittelt langfristige Trends, ergründet Ursachen und beschreibt Einfluss auf ein Unternehmen und relevante Märkte.