Kategorie: Data Science

Natural Language Processing für Topic Modeling in Python

In Verbesserte Workflows mit Natural Language Processing (NLP) beschrieben Sophie und Oliver, wie Firmen NLP für die Auswertung von Tätigkeitsberichten von Feldtechnikern nutzen können. Eine weitere Anwendung für NLP ist Topic Modeling. Zum Beispiel die Extraktion von Themen aus Nachrichtenartikeln*. Hier versucht ein Algorithmus, aus Nachrichtentiteln Themen zu extrahieren.

Requirements Engineering – Der Weg zu klaren Anforderungen

Unvollständige, inkonsistente oder unzureichend abgestimmte Anforderungen sind mitverantwortlich für das Scheitern vieler Projekte. Obwohl diese Erkenntnis nicht neu ist, wird dem Requirements Engineering in der Praxis oft zu wenig Aufmerksamkeit geschenkt. In diesem Beitrag gehe ich näher auf die Herausforderungen beim Requirements Engineering ein. Der Fokus liegt dabei auf der ersten Hauptaufgabe: der Anforderungsermittlung.

Was ist Modellbildung und Simulation?

Modellbildung und Simulation beschreibt neben Theorie und Experimenten eine Methodik, Probleme zu lösen. Der Begriff „Modell“ wird in vielen Anwendungsgebieten verwendet und bezeichnet dabei oft sehr unterschiedliche Angelegenheiten. Es gibt unter anderem Datenmodelle, Architekturmodelle oder statistische Modelle. In diesem Artikel ist bei einem Modell immer die Rede von einem Simulationsmodell.

Verbesserte Workflows mit Natural Language Processing (NLP)

Natural Language Processing (NLP) ist der Oberbegriff für das Erkennen, Erzeugen und Darstellen natürlicher Sprache durch den Computer. Für ein Unternehmen kann die Befähigung Texte automatisiert zu verarbeiten  sowohl massive Zeitersparnis bedeuten, als auch gänzlich neue Möglichkeiten eröffnen.  

Self-Service-BI mit IBM Cognos Analytics

Das nachfolgende Thema des eigenständigen Zugriffs auf die Daten des Unternehmens verdeutlicht den steigenden Wunsch der Fachanwender schnell und effektiv Auswertungen in den verschiedenen Bereichen durchzuführen. Neben der geeigneten Bereitstellung von Daten in einem Warehouse, wird dieser Zugriff vor allem durch die Nutzung von einfachen und intuitiven Reporting-Tools ermöglicht. Der Markt ist facettenreich und lebendig:… Weiter »

Second Level Data Mart – Fluch oder Segen

drei-schichten DWH Architektur mit second level data mart

Im Rahmen vieler DWH Projekte kommt an einem Punkt sehr häufig die Frage auf, ob ein Second Level Data Mart (SLDM) sinnvoll einzusetzen ist oder nicht. In diesem Blogbeitrag möchte ich kurz die Vor- und Nachteile aus meiner Erfahrung beschreiben und zeigen, was aus meiner Sicht die beste Entscheidung ist.

Scrum oder Kanban? So finden Sie die richtige Methode für Ihre Arbeit

Agile Managementmethoden sind in aller Munde. Die einen schwören auf Scrum, die Anderen meinen Kanban ist das einzig Richtige. Wer hat nun Recht? Betrachten wir nun die beiden Prozessmethoden und lernen deren Stärken und Schwächen kennen. Ziel beider Methoden ist die Produktivität zu steigern. Dazu sollen Leerläufe und Doppelgleisigkeiten vermieden werden. Abläufe und Prozesse sollen ständig… Weiter »

Dynamisches Extrahieren von REST/JSON nach MySQL mit Pentaho Data Integration 7.0

Ein Tutorial Dieses Tutorial zeigt Schritt für Schritt, wie mithilfe von Pentaho Data Integration (PDI) Daten von einer REST-Schnittstelle abgezogen und weiterverarbeitet werden können. Im Rahmen der Arbeit mit Pentaho Data Integration stellt sich einem möglicherweise die Aufgabe, nicht nur Datenbanken als Datenquelle anzubinden, sondern Daten direkt von Quellen im Internet abzuziehen. Für diesen Zweck… Weiter »

Crate – Haben neue Datenbanken Zukunft?

Interview mit Claus Matzinger, Integrations Engineer bei Crate.IO GmbH, www.crate.io, zum Thema neue Datenbanken Claus arbeitet seit einem Jahr bei Crate.IO am jungen Standort Berlin in einem Team von 18 Entwicklern und Entwicklerinnen, welche auf drei Standorte – San Francisco, Berlin und Dornbirn – verteilt sind. Crate.IO wurde 2013 von Jodok Batlogg, Christian Lutz und… Weiter »