Kategorie: Data Science

Artificial Intelligence

Ein wunderbarer Überblick über das Thema „Künstliche Intelligenz KI“ (Artificial Intelligence) inklusive der gesellschaftlichen, wirtschaftlichen und ethischen Voraussetzungen, um KI zur neuen Erfolgswelle der Digitalisierung zu machen. Viele Beispiele runden dieses Thema ab.

The Role of R for Data Science

Autorin: Sarka Brodinova This blog post looks at R from a data science point of view. In order to fully understand the role of R for Data Science, let’s first start with an explanation of what Data Science is and what R is.

Natural Language Processing für Topic Modeling in Python

In Verbesserte Workflows mit Natural Language Processing (NLP) beschrieben Sophie und Oliver, wie Firmen NLP für die Auswertung von Tätigkeitsberichten von Feldtechnikern nutzen können. Eine weitere Anwendung für NLP ist Topic Modeling. Zum Beispiel die Extraktion von Themen aus Nachrichtenartikeln*. Hier versucht ein Algorithmus, aus Nachrichtentiteln Themen zu extrahieren.

Requirements Engineering – Der Weg zu klaren Anforderungen

Unvollständige, inkonsistente oder unzureichend abgestimmte Anforderungen sind mitverantwortlich für das Scheitern vieler Projekte. Obwohl diese Erkenntnis nicht neu ist, wird dem Requirements Engineering in der Praxis oft zu wenig Aufmerksamkeit geschenkt. In diesem Beitrag gehe ich näher auf die Herausforderungen beim Requirements Engineering ein. Der Fokus liegt dabei auf der ersten Hauptaufgabe: der Anforderungsermittlung.

Was ist Modellbildung und Simulation?

Modellbildung und Simulation beschreibt neben Theorie und Experimenten eine Methodik, Probleme zu lösen. Der Begriff „Modell“ wird in vielen Anwendungsgebieten verwendet und bezeichnet dabei oft sehr unterschiedliche Angelegenheiten. Es gibt unter anderem Datenmodelle, Architekturmodelle oder statistische Modelle. In diesem Artikel ist bei einem Modell immer die Rede von einem Simulationsmodell.

Verbesserte Workflows mit Natural Language Processing (NLP)

Natural Language Processing (NLP) ist der Oberbegriff für das Erkennen, Erzeugen und Darstellen natürlicher Sprache durch den Computer. Für ein Unternehmen kann die Befähigung Texte automatisiert zu verarbeiten  sowohl massive Zeitersparnis bedeuten, als auch gänzlich neue Möglichkeiten eröffnen.

Self-Service-BI mit IBM Cognos Analytics

Das nachfolgende Thema des eigenständigen Zugriffs auf die Daten des Unternehmens verdeutlicht den steigenden Wunsch der Fachanwender schnell und effektiv Auswertungen in den verschiedenen Bereichen durchzuführen. Neben der geeigneten Bereitstellung von Daten in einem Warehouse, wird dieser Zugriff vor allem durch die Nutzung von einfachen und intuitiven Reporting-Tools ermöglicht. Der Markt ist facettenreich und lebendig:… Weiter »

Second Level Data Mart – Fluch oder Segen

drei-schichten DWH Architektur mit second level data mart

Im Rahmen vieler DWH Projekte kommt an einem Punkt sehr häufig die Frage auf, ob ein Second Level Data Mart (SLDM) sinnvoll einzusetzen ist oder nicht. In diesem Blogbeitrag möchte ich kurz die Vor- und Nachteile aus meiner Erfahrung beschreiben und zeigen, was aus meiner Sicht die beste Entscheidung ist.

Scrum oder Kanban? So finden Sie die richtige Methode für Ihre Arbeit

Agile Managementmethoden sind in aller Munde. Die einen schwören auf Scrum, die Anderen meinen Kanban ist das einzig Richtige. Wer hat nun Recht? Betrachten wir nun die beiden Prozessmethoden und lernen deren Stärken und Schwächen kennen. Ziel beider Methoden ist die Produktivität zu steigern. Dazu sollen Leerläufe und Doppelgleisigkeiten vermieden werden. Abläufe und Prozesse sollen ständig… Weiter »