Datenmigration mit Exasol: Vom DWH zur High-Performance-Cloud-Plattform
b.telligent-Berater Simon hat das „Lift and Shift“ mit Exasol getestet und erläutert in diesem Beitrag, wie die Cloud-Migration Stück für Stück gelingt.
Handfestes Know-how, Tipps & Tricks und die Insights unserer Datenprofis findest Du hier in unseren Blogbeiträgen
Entscheidend im Smart Manufacturing sind eine skalierbare Edge-Plattform und die Fähigkeit, geschäftsrelevante Use Cases schnell umzusetzen. Mit Azure IoT Operations und Microsoft Fabric bietet Microsoft zwei revolutionäre Technologien, die Echtzeiteinblicke in die Produktion ermöglichen. In diesem Blogbeitrag zeigen wir Dir, wie Du mit diesen Lösungen das Potenzial von Use Cases wie Predictive Maintenance, Prozessoptimierung und generativer KI heben und diese von bloßen Konzepten zu echten Werttreibern entwickeln kannst.
b.telligent-Berater Simon hat das „Lift and Shift“ mit Exasol getestet und erläutert in diesem Beitrag, wie die Cloud-Migration Stück für Stück gelingt.
Nicht immer hinterlassen Nutzer ausreichend personalisierte Informationen entlang ihrer Customer Journey. Beispielsweise können neue Nutzer hinzukommen oder bestehende Kunden beim Surfen von Online-Angeboten nicht angemeldet sein. Nicht personalisierte Empfehlungssysteme, wie der Vorschlag häufig gemeinsam gekaufter Produkte, bieten Unternehmen in diesem Fall trotzdem Möglichkeiten für Empfehlungen. Je individueller diese jedoch auf den Kunden zugeschnitten werden, desto besser. Deshalb werden im Folgenden Verfahren vorgestellt, die deutlich stärker personalisiert sind und die Präferenzen der Kunden erlernen. Zum Verständnis dieser Methoden ist es hilfreich, sich das Problem als dünnbesetzte Matrix vorzustellen.
Wer Datenauswertungen mithilfe namhafter Visual Analytics Tools wie Tableau oder Qlik Sense erstellen möchte, gerät schnell an die Grenzen der Anwendungen – spätestens, sobald er mit unstrukturierten oder unvollständigen Datenbeständen arbeitet. Um Frust vorzubeugen, haben wir beide Tools hinsichtlich ihrer Möglichkeiten zur Datenvorbereitung getestet und eine kurze Liste von Best Practices erstellt.
Wie viel kostet mich der Einsatz des Tools? Wer soll damit arbeiten: Marketeers oder IT-Profis? Und kann ich meine Daten auch in der Cloud verwalten? Bei der Auswahl des passenden Tools für Visual Analytics spielen viele Faktoren eine Rolle. b.telligent-Berater Daniel Erlhöfer erläutert in diesem Blogbeitrag die technische Seite von Tableau und Qlik Sense: Worin liegen die Unterschiede in der Datenvorbereitung beider Tools?
Es ist vermutlich ein großes Maß an Zustimmung zu erwarten, wenn man die Zielsetzung eines zeitgemäßen Kampagnenmanagements heute wie folgt umschreiben würde: Im Fokus des Marketings muss die individualisierte und konsistente Interaktion mit dem Kunden über seine bevorzugten Kanäle stehen - natürlich mit relevanten Botschaften zum jeweils optimalen Zeitpunkt. So wenig diese Aussage inzwischen auch überraschen mag, sie demonstriert doch, dass hinter jedem dieser Adjektive eine mögliche Fehlerquelle für eine kundenorientierte Kampagnenstrategie steckt.
Neuronale Netze werden erfolgreich auf so ziemlich jeden Datentyp angewandt: Bilder, Audio, Texte, Videos, Graphen usw. Nur wenn es um Tabellendaten geht, sind baumbasierte Ensembles wie Random Forests und Gradient Boosted Trees immer noch sehr viel verbreiteter. Wenn man diese erfolgreichen Klassiker durch neuronale Netze ersetzen will, dürfte Ensemble Learning immer noch eine Schlüsselidee sein. Dieser Blogbeitrag erklärt, warum das so ist. Dazu gibt’s ein Notebook mit den praktischen Details.
Mehr als ein Jahr nach der Einführung der Datenschutz-Grundverordnung (DSGVO) fällt es vielen Unternehmen noch immer schwer, die Themen Data Warehouse (DWH) und Datenschutz unter einen Hut zu bringen. Die in den Unternehmen vorherrschende kundenzentrierte Datenmodellierung ist hierbei eine besondere Herausforderung. Sie führt bei vielen Anforderungen der DSGVO zu großen Problemen in nahezu allen datengetriebenen Prozessen. Doch warum ist es so schwer, die beiden Themen miteinander zu vereinen?
SAP BW stellt als Business-Intelligence-Paket viele Möglichkeiten für ein performantes Reporting bereit – birgt jedoch auch zahlreiche Hemmnisse, die die Performance merklich verlangsamen. Am Beispiel von in der Anwendung verfügbaren Berichtsfiltern zeigt dieser Beitrag, wie kleinste Adaptionen die Leistung von SAP BW mindern und wie eine performante Einstellung der Filtermöglichkeiten zu besseren Ergebnissen führen kann.
Bestärkendes Lernen hat den schlechten Ruf, riesige Datenmengen zu benötigen, sodass Agenten nur mit simulationsgenerierten Daten realistisch trainiert werden können, also z. B. in einem Computerspiel. In diesem Artikel gehen wir anhand eines kleinen, leicht verständlichen Beispiels der Frage nach, wie die Bayes-Statistik hier Abhilfe schaffen kann. Im zweiten Teil dieser Blog-Serie schauen wir uns an, wie das in der Praxis mit TensorFlow Probability, einem brandneuen Tool von Google, möglich ist.
In den vergangenen Jahren gab es immer wieder Nachrichten und Gerüchte über die Zukunft von SAP BusinessObjects.
Mittlerweile gibt es interessante Neuigkeiten!
Am 04.03.2019 hat SAP das Support Package 07 für die „SAP BusinessObjects Business Intelligence Platform 4.2“ (SBOP BI 4.2) veröffentlicht. Dabei handelt es sich laut Aussage von SAP um das letzte Feature Pack für das Release 4.2. Ein Support Package 08 ist zwar geplant, wird aber ein reines Maintenance Release darstellen, das „nur“ Bugfixes und keine neuen Funktionserweiterungen beinhaltet.
Endlich: Der Startschuss zur Digitalisierungsstrategie ist gefallen und das Marketing soll ein wichtiger Baustein werden. Im Zuge der Strategie wurde beschlossen, eine Customer Data Platform (CDP) zur Bildung der 360 Grad Kundensicht und Automatisierung von Marketing Journeys im Realtime Umfeld zu nutzen. Eine Entscheidung, die, neben dem nicht geringen Investment wesentlich die Marketing-Prozesse und Bereiche (Online, E-Mail, E-Commerce und CRM) eines Unternehmens beeinflusst. In diesem dritten und letzten Part meiner CDP-Serie möchte ich daher auf die korrekte Auswahl und Bewertung des passenden CDP-Tools eingehen.
Anders als bei Marketing-Automation-Lösungen wird nicht nach Funktionsumfang wie Enterprise bzw. Best-of-Breed unterschieden, sondern nach dem funktionsseitigen Schwerpunkt der Customer Data Platform. Das heißt, je nachdem, wie die Anforderungen definiert sind, kann man bereits im Vorhinein eine Auswahl der richtigen CDP-Art durchführen.
Insgesamt lassen sich drei verschiedene Kategorien von Customer Data Platforms unterscheiden:
Diese komplette und schrittweise schnelle Demo zeigt Ihnen, wie man eine existierende Datenquelle intern mit einer modernen Cloud-Warehouse-Lösung wie Snowflake verbindet: