MarkLogic 10 erweitert den Data Hub durch die Integration von maschinellem Lernen zur intelligenteren Datenintegration
Der MarkLogic Data Hub ist auf die Multi-Model-Datenbank von MarkLogic aufgesetzt – unabhängig davon, ob er in der Cloud oder in einer Vor-Ort-Installation ausgeführt wird. Die NoSQL-Datenplattform bietet Flexibilität und Skalierbarkeit, ohne dass dies zu Einschränkungen bei der für Unternehmen erforderlichen Sicherheit und Datenkonsistenz führt. Mit seinen neuen Funktionen wird Data Hub 5.0:
- Intelligenter: Künstliche Intelligenz ist die Grundlage wichtiger Fähigkeiten von Data Hub 5.0. Integriertes maschinelles Lernen, das direkt bei den Daten im Kern der Datenbank erfolgt, kann eingesetzt werden, um wichtige Aufgaben wie Betrugserkennung, Personalisierung, Diagnosen und Kundendienst zu optimieren.
- Einfacher: Die in Data Hub 5.0 orchestrierten Datenflüsse sind mit wenig oder gar keinem Programmieraufwand anpassbar und machen es so für den Endnutzer einfacher, Datenquellen abzubilden und Prozessabläufe zu deren Abgleich und Zusammenführung zu definieren und auszuführen. Dabei wird die Prozesslogik so nah wie möglich bei den Daten selbst abgelegt, um Leistungsfähigkeit und Kontrolle zu gewährleisten. Data Services vereinfachen den Datenzugriff und verbessern die Agilität, indem lediglich die Aspekte (oder Facetten) der Daten gezeigt werden, die Endnutzer und Entwickler tatsächlich benötigen. Durch Bereitstellung einer fein granularen Überwachung von Anforderungen, die an den MarkLogic Data Hub gesendet werden, wird dessen optimale Ausnutzung vereinfacht.
- Sicherer: MarkLogic 10 und Data Hub 5.0 verbessern sowohl die Sicherheit als auch die Governance durch neue Eigenschaften wie automatische Verfolgung der Herkunft, verbesserte Sicherheit von über Graphen verknüpfter Daten und feiner granulare Trennung von Aufgaben.
MarkLogic hat neue Standards für den modernen Data Hub gesetzt. Mit Data Hub 5.0 und MarkLogic 10 bietet das Unternehmen eine Lösung für eine der dringendsten Herausforderungen in heutigen Unternehmen: die schnelle und intelligente Wertschöpfung aus disparaten Daten bei gleichzeitiger Ermöglichung eines ganzheitlichen Ansatzes für Datensicherheit und Governance. Im Gegensatz zu anderen Methoden der Datenintegration ermöglicht der MarkLogic Data Hub Unternehmen nicht nur die Analyse sondern auch den Betrieb des tatsächlichen Geschäfts.
„MarkLogic setzt auch weiterhin alles daran, ständig die Grenzen des Möglichen zu erweitern, um unseren Kunden den schnellen und sicheren Zugriff auf ihre Daten und Analysen zu gewährleisten, die sie für ihr Geschäft benötigen“, erläutert CEO Gary Bloom. „Für Unternehmen, die an modernen und intelligenten Methoden zur Integration und Zusammenstellung von Daten und zur Wertschöpfung mithilfe von Daten interessiert sind, gibt es derzeit keine Alternative. Mit der Erweiterung der Data Hub Plattform und der Multi-Model-Datenbank durch maschinelles Lernen setzt MarkLogic den Standard, mit dem Unternehmen ihre gegenwärtigen und zukünftigen Datenanforderungen bewältigen und dafür eine intelligente Technologie zur Datenintegration nutzen können.“
Die Marktposition und Expertise von MarkLogic bei der Unterstützung großer Organisationen hinsichtlich der Ausführung geschäftlicher Kernfunktionen führt zu einer sehr hohen Nachfrage nach den Produkten und Cloud-Services von MarkLogic, inklusive des MarkLogic Data Hub Service – einem vollautomatisierten Data Hub in der Cloud. MarkLogic überzeugt beim Preis-Leistungs-Verhältnis für Unternehmen, die auf eine Integration ihrer Daten angewiesen sind. Die Lösung sorgt für niedrigere Gesamtbetriebskosten (Total Cost of Ownership – TCO) durch mehr Flexibilität, verringerte Komplexität und genaue Preisprognosen, mit denen unvorhergesehene Kosten für die Cloud vermieden werden. Finanzinstitute, Pharmaunternehmen, Behörden und andere Organisationen profitieren vom MarkLogic Ansatz zur Vereinfachung der Datenintegration in der Cloud, bei Installationen vor Ort und in hybriden Umgebungen. In Folge dessen ist es diesen und vielen anderen Organisationen gelungen, unternehmenskritische Projekte schneller, intelligenter und sicherer abzuwickeln und dabei ihre Systeme mit Blick auf die Weiterentwicklung von Cloud-Technologien sowie geschäftliche Änderungen zukunftssicher zu machen.
Weitere Informationen zu MarkLogic 10 und MarkLogic Data Hub 5.0 finden Sie hier.
Datenintegration zählt zu den schwierigsten IT-Herausforderungen. Unser Ziel ist die Vereinfachung dieser Integration. Der MarkLogic Data Hub ist eine hochgradig differenzierte Datenplattform, die Reibungsverluste bei jedem einzelnen Schritt des Datenintegrationsprozesses minimiert und Unternehmen so schnell wie noch nie eine 360º-Perspektive ermöglicht. Durch die Vereinfachung der Datenintegration unterstützt MarkLogic Unternehmen bei der Steigerung der Flexibilität, bei der Senkung von IT-Kosten, sowie bei der sicheren Freigabe ihrer Daten.
Weltweit vertrauen Unternehmen beim Umgang mit ihren geschäftskritischen Daten auf MarkLogic. Hierzu gehören 6 der 10 wichtigsten Banken, 5 der weltweit größten Pharmaunternehmen, 6 der 10 wichtigsten Verlage, 9 der 15 größten US-Regierungsbehörden und viele mehr. Neben dem Hauptsitz im Silicon Valley verfügt MarkLogic über Niederlassungen in den USA, Europa, Asien und Australien. Weitere Informationen finden Sie unter www.marklogic.com.
© 2019 MarkLogic Corporation. MarkLogic und das MarkLogic Logo sind Marken oder eingetragene Marken der MarkLogic Corporation in den USA und anderen Ländern.
MarkLogic (Deutschland) GmbH
Herzogspitalgasse 24
80331 München
Telefon: +49 (89) 71042-2151
http://de.marklogic.com/
PR für MarkLogic (DACH)
Telefon: +49 (821) 3496047
E-Mail: gerlinde@speakeasystrategies.com
Senior Marketing Manager
E-Mail: leyla.singer@marklogic.com
MarkLogic führt den Pharma Research Hub für die Beschleunigung der Arzneimittelforschung ein
Der Pharma Research Hub von MarkLogic nutzt maschinelles Lernen und weitere moderne Technologien wie Semantik, Fuzzy Matching, Ranking nach Relevanz und umfassende Metadaten zum Verwalten, Organisieren und Abrufen von Informationen. Als vollständig verwalteter Cloud-Service lässt sich der Pharma Research Hub binnen weniger Minuten einrichten und kann Daten zehn Mal schneller erfassen als spezifisch entwickelte Lösungen – und das ganz ohne IT-Verwaltungsaufwand.
„Wissenschaftler, die herkömmliche Technologien nutzen, haben lediglich Zugriff auf einen Bruchteil der vorhandenen Daten. Damit steigen Fehlerwahrscheinlichkeit und Zeitaufwand, was Verluste in Höhe von mehreren Hundert Millionen US-Dollar zur Folge haben kann. Noch schwerer wiegen verpasste Gelegenheiten, das Leben von Menschen zu verändern, weil die Entwicklung von Arzneimitteln zu viel Zeit in Anspruch nimmt“, erklärt Bill Fox, Vice President of Vertical Strategy Group sowie Chief Strategy Officer of Healthcare and Life Sciences bei MarkLogic. „Wir bieten Forschern einen Cloud-basierten Service, mit dem sich hohe Datenvolumen in ihrer ursprünglichen Form spielend leicht kombinieren lassen, so dass die Beziehung zwischen diesen Daten verständlich wird und diese benutzt werden können, um lebensrettende Wirkstoffe schneller zu entwickeln.“
MarkLogic kooperiert mit fünf der weltweit größten Pharmaunternehmen sowie mit weiteren führenden Unternehmen aus der Gesundheitsbranche. Zur Unterstützung dieser Unternehmen bei der Bewältigung ihrer Herausforderungen im Geschäftsbetrieb und in der Datenverarbeitung setzt MarkLogic seit langem auf seine Data Hub-Technologie und ermöglicht damit:
- Die Suche nach und die Visualisierung von Beziehungen: Anzeige, Navigation und Durchsuchung der Datencluster durch Nutzung sämtlicher inhärenter Beziehungen. Die Visualisierung dieser in Daten enthaltenen Beziehungen, wie beispielsweise die Verbindungen zwischen einem Wissenschaftler, Einrichtungen und Kollegen oder aber die Beziehung zwischen einem Gen, einem bestimmten Molekül und einem Stoffwechselvorgang können Entdeckungen beschleunigen.
- Nutzung von maschinellem Lernen: Nutzer verbessern ihre Suchergebnisse mit Daten von höherer Qualität. Die Smart Mastering-Funktion von MarkLogic verwendet maschinelles Lernen, um verwandte und duplizierte Elemente zu finden, zu konsolidieren und einen Wissensgraphen aus allen Daten zu konstruieren. Beim Laden von Daten werden Regeln für die Datenqualität angewendet. Solche hochwertigen, gemasterten Daten verfeinern die Suchergebnisse erheblich und verbessern nachgelagerte Bioinformatik und KI-Analysen.
- Laden beliebiger Pharmadatensätze: Der Pharma Research Hub ermöglicht das Laden beliebiger pharmazeutischer Daten – Veröffentlichungen, Autoren, Arzneimittel, Gene und Vieles mehr. Unternehmen erhalten somit schnellen Zugriff auf konsolidierte Informationen zur Auswertung für Studienzwecke.
„Der technologische Fortschritt ermöglicht die Lösung zahlreicher Datenanalyseprobleme bei gleichzeitiger Berücksichtigung der strengen Regulierungsanforderungen im Gesundheitswesen. Wir erwarten daher ein starkes Wachstum bei Lösungen für die Datenverwaltung in der Pharmaforschung“, meint Alan Louie, Life Sciences Research Director bei IDC. „Diese neuartige, branchenspezifische Technologie verspricht bereits auf kurze Sicht deutlichen Mehrwert und sorgt zugleich für eine Neudefinition von Best Practices, die den Fortschritt der Branche über Jahrzehnte hinweg prägen werden.“
Mit dem Pharma Research Hub werden die Best Practices verschiedener Kunden standardisiert und erweitert. Die zugrundeliegende Data Hub Plattform von MarkLogic findet bereits seit fast zwei Jahrzehnten in äußerst komplexen Unternehmen Verwendung. Die Plattform ist für Petabytes konzipiert, lässt sich jedoch auch kosteneffizient für kleine Datensätze skalieren. Im Gegensatz zu Daten, die in einem Hadoop®-Data Lake gespeichert werden, dessen Befüllung Jahre dauert, bis sich ein geschäftlicher Nutzen einstellt, ist diese Plattform von Anfang an sicher und kontrolliert.
Weitere Informationen zumMarkLogic Pharma Research Hub finden Sie hier.
Datenintegration zählt zu den schwierigsten IT-Herausforderungen. Unser Ziel ist die Vereinfachung dieser Integration. Der MarkLogic Data Hub ist eine hochgradig differenzierte Datenplattform, die Reibungsverluste bei jedem einzelnen Schritt des Datenintegrationsprozesses minimiert und Unternehmen so schnell wie noch nie eine 360º-Perspektive ermöglicht. Durch die Vereinfachung der Datenintegration unterstützt MarkLogic Unternehmen bei der Steigerung ihrer Flexibilität, bei der Senkung von IT-Kosten sowie bei der sicheren Freigabe ihrer Daten.
Weltweit vertrauen Unternehmen beim Umgang mit ihren geschäftskritischen Daten auf MarkLogic. Hierzu gehören 6 der 10 wichtigsten Banken, 5 der weltweit größten Pharmaunternehmen, 6 der 10 wichtigsten Verlage, 9 der 15 größten US-Regierungsbehörden und viele mehr. Neben dem Hauptsitz im Silicon Valley verfügt MarkLogic über Niederlassungen in den USA, Europa, Asien und Australien. Weitere Informationen finden Sie unter www.marklogic.com.
© 2019 MarkLogic Corporation. MarkLogic und das MarkLogic Logo sind Marken oder eingetragene Marken der MarkLogic Corporation in den USA und anderen Ländern. Hadoop ist eine eingetragene Marke der The Apache Software Foundation. Alle anderen Marken sind Eigentum der jeweiligen Besitzer.
MarkLogic (Deutschland) GmbH
Herzogspitalgasse 24
80331 München
Telefon: +49 (89) 71042-2151
http://de.marklogic.com/
PR für MarkLogic (DACH)
Telefon: +49 (821) 3496047
E-Mail: gerlinde@speakeasystrategies.com
Senior Markting Manager DACH
E-Mail: leyla.singer@marklogic.de

MDR als regulatorisches Monster für Softwarehersteller – kommt es den Patienten zugute?
Spätestens seit dem PIP Skandal im Jahre 2010, bei dem der Hersteller der inzwischen insolventen Firma Poly Implant Prothèse jahrelang Brustimplantate aus nicht für Medizinprodukte zugelassenem Industriesilikon herstellte, steht die Transparenz und Patientensicherheit von Medizinprodukten in der Kritik. Dem möchte jetzt die Medical Device Regulation (MDR), die ab Ende Mai 2020 in Kraft tritt, entgegenwirken: Medizinprodukte sollen sicherer und höheren Anforderungen gerecht werden. Besonders für Hersteller medizinischer, zulassungspflichtiger Software stellen die neuen Regularien eine große Herausforderung dar. „Durch die strengeren Klassifizierungen, die die MDR mit sich bringt, wird der Spielraum, den wir heutzutage haben, etwas enger“, erklärt Stefan Becher, Vorstand der BAYOONET AG. Viele Softwareprodukte, die bisher Klasse I waren, würden vermutlich mindestens Klasse IIa zugeordnet und verpflichteten sich damit, über eine sogenannte Benannte Stelle eine CE-Zulassung für ihr Produkt zu beantragen. Zudem müssten durch die MDR Produkte, die bisher nicht als Medizinprodukt galten, nun die Anforderungen, die an ein solches gestellt werden, erfüllen. Dies bedeute für Unternehmen, sich nun neuen Themen, wie etwa dem Risikomanagement, zu widmen und sich den zukünftigen Regularien unterwerfen zu müssen. „Durch die MDR müssen Softwarehersteller in der Lage sein nachzuverfolgen, an wen die Software raus geht, um sie im Notfall zurückrufen zu können“, so Becher. Dafür müsse alles genauestens dokumentiert werden.
Anhand des konkreten Beispiels der zertifizierten Software mint Lesion belegte Dr. Matthias Baumhauer, Geschäftsführer der Mint Medical GmbH, dass diese Dokumentation immer sehr aufwändig ist. Er führte durch die verschiedenen Prozesse und Normen und die damit einhergehenden Veränderungen. So müsse mittlerweile nicht nur ein Testplan vorgelegt und die Durchführung der Tests dokumentiert, sondern es müssten auch viel umfangreichere Nachweise zur Bewertung der klinischen Wirksamkeit des Medizinprodukts – beispielsweise anhand kostspieliger und langwieriger klinischer Studien – erbracht werden. Insgesamt führe das Prozedere aber zu stark verbesserten Abläufen und zu einer höchstwertigen Qualität. Der Dokumentationsaufwand spiegele sich jedoch auch in den sehr hohen Kosten wider. Deshalb sei es durch die neuen Regelungen der MDR insbesondere für kleine Unternehmen schwierig, Innovationen auf den Europäischen Markt zu bringen.Formularbeginn
Doch kommen diese ausgeprägten regulatorischen Vorgaben auch wirklich den Patienten zugute? Bei der Diskussionsrunde stimmten die Referenten und das Publikum überein, dass auch die MDD bislang sehr gute und für die meisten Fälle ausreichende Vorgaben enthalte, dass aber natürlich eine konsequente Umsetzung dieser Normen notwendig sei, um eine Wirkung für die Bevölkerung zu haben.
Bei der anschließenden TEN.-TED.-Befragung hielten etwa 55% der TEN.-Teilnehmer die Neuklassifizierung von Software durch die MDR für gerechtfertigt und nötig für den Verbraucherschutz. Allerdings sieht Stefan Becher die neuen Anforderungen kritisch: „Ich bin mir sicher, dass jemand, der sich bisher nicht an die Regularien gehalten hat, dies bei der MDR auch nicht tun wird.“ Auch sahen zwei Drittel der Anwesenden durch den hohen Kostenaufwand der MDR eine Existenzbedrohung für kleine und mittelständische Unternehmen. „Ich finde es sehr schade, dass durch die MDR neue Innovationen im Europäischen Markt verloren gehen könnten“, bedauert Stefan Becher. Deshalb waren sich 80% aller Anwesenden einig: Die EU solle, ähnlich der Food and Drug Administration in den USA, lieber Hürden für den Marktzugang von Innovationen abbauen, statt aufzubauen. Das Abschlusswort der Diskussion hatte Dr. Matthias Baumhauer: „Meiner Meinung nach sollten klinische und akademische Partner insbesondere mit kleineren Unternehmen zusammenarbeiten, um es diesen zu ermöglichen, sich mit wirtschaftlich vertretbarem Aufwand an die Regularien halten zu können.“ Insgesamt erscheint auch hier ein sinnvolles Maß hilfreich. Bei Software, die direkt zur Diagnose- und Therapieentscheidungen beiträgt, sollten hohe Qualitätsansprüche greifen und schnelle „Bastellösungen“ nicht mehr eingesetzt werden können. Für die Akzeptanz von Patienten und Ärzten für den Einsatz von Software bei der medizinischen Entscheidungsfindung sind aber Normen für die Qualität und deren Durchsetzung von grundlegender Bedeutung.
Die Gotthardt Healthgroup AG bietet mit der TEN.-Convention Entscheidern der Gesundheits- und Pharmabranche eine Plattform, aktuelle Entwicklungen zu diskutieren und Projekte zu initiieren. Die nächste Veranstaltung findet am 26. September 2019 erstmals im alten Hallenbad Heidelberg statt. Weitere Informationen finden sich unter www.twitter.com/TEN_Event und auf http://www.ten-event.de/.
Gotthardt Healthgroup AG
Hauptstraße 90
69117 Heidelberg
Telefon: +49 (6221) 673000-0
Telefax: +49 (6221) 673870-6
http://gotthardt.com/
Telefon: +49 (6221) 673000-0
Fax: +49 (6221) 673870-6
E-Mail: jana.schreier@gotthardt.com

Preise im Wert von insgesamt 25.000 Euro winken den Gewinnern des Telematik Awards 2019 – zehn Tipps für eine erfolgreiche Bewerbung!
Die Teilnahme an der Ausschreibung bis hin zum Ticket für die feierliche Verleihung ist wie immer vollkommen kostenlos. Um alle Telematik-Anbieter bei ihrer Einreichung zu unterstützen, gibt die Redaktion der Fachzeitung Telematik-Markt.de zehn wichtige Tipps für ihre Bewerbung.
In Verbindung mit der Verleihung werden Preise im Wert von insgesamt ca. 25.000 Euro vergeben. Die Teilnahme an der Ausschreibung, die Bewerbung und die Teilnahme an der feierlichen Verleihungsveranstaltung sind kostenlos. Kostenlos sind selbstverständlich auch bei der Vergabe der zum Preis ausgegebenen Signets, Urkunden, Pokale etc.
Natürlich obliegt die Bewertung der Einreichungen allein der Fachjury. Die nachfolgenden Tipps helfen dabei, dass Bewerbungen optimal in das Bewertungsprozedere gegeben werden. Teilnehmer der Ausschreibung sollten vor allem daran denken, dass sie ihre Bewerbung nicht als überschwänglichen Werbeprospekt der Jury übergeben. Alle Mitglieder dieser Fachjury haben einen exzellenten Überblick auf die Branche, auf die Technologien und können darüber hinaus auch sehr realistisch den Markt einschätzen – womit wir bereits beim ersten Tipp sind:
Tipp #1 – Bitte keine Werbung einwerfen
Geben Sie Ihrer Einreichung nicht den Anschein und das Aussehen einer vertriebsmäßigen Präsentation. Achten Sie auf die Ansprache, konzentrieren Sie sich auf Fakten und Daten, vermeiden Sie Superlative und eine zu werbliche Schreibweise. Einreichungen, die erkennbare Werbetexte ohne handfeste Informationen zum System/Produkt enthalten, laufen Gefahr gedanklich "aussortiert" zu werden.
Tipp #2 – Fakten, Fakten, Fakten
Schreiben Sie bitte keine Romane. Fassen Sie sich kurz und nutzen Sie, wo immer es möglich ist, knackige Stichpunkte.
Tipp #3 – Optische Hilfsmittel
Liefern Sie Bildmaterial zu Ihrer Telematik-Lösung. Screenshots der Software und Fotos der Hardware erleichtern die Einschätzung über Nutzen und Anwenderfreundlichkeit des Systems. Im Idealfall stellen Sie einen Testzugang zur Verfügung, sofern dies möglich ist.
Tipp #4 – Letzter Drücker? – keine gute Option
Es ist in jedem Fall ratsam, sich bei Zeiten zu registrieren, um sich dann in Ruhe und ganz genau die Einreichungsschwerpunkte anzuschauen. So können Sie sich selbst oder im Team auf alle Abfragepunkte vorbereiten.
Tipp #5 – Nutzung des Online-Formulars
Sobald das Awardsystem am 15.04.2019 online gestellt wird, können Sie sich einen Account auf Telematik-Markt.de anlegen und Ihre Einreichungen Schritt für Schritt vornehmen. Sie können hierbei zudem jederzeit innerhalb der Produkteinreichung auf "Speichern" klicken. In der Einreichungs-Übersicht sind alle Ihre Bewerbungen aufgelistet. Sie können diese jederzeit, allerdings maximal bis zum Ausschreibungsende überarbeiten.
Tipp #6 – Wer zu spät kommt …
Stellen Sie sicher, dass alle Eintragungen Ihrer Bewerbung bis zum 15.07.2019 vollständig sind. Danach wird Ihr Benutzerkonto inaktiv und die Fachjury beginnt mit den Bewertungen.
Tipp #7 – David gegen Goliath
Unterschätzen Sie sich nicht! Natürlich reichen die Marktführer der Telematik-Branche Ihre Systeme für den Telematik Award ein. Dennoch wird die Fachjury immer wieder von ganz cleveren Telematik-Lösungen überrascht, welche nicht von den "Big Playern" stammen.
Tipp #8 – Vielfache Chancen nutzen
Bewerbungen können in insgesamt neun Kategorien eingereicht werden. Pro Produkteinreichung können Sie drei Kategorien auswählen. Entscheiden Sie sich dabei bitte für die Kategorien, welche aus Ihrer Sicht am ehesten passen. Nach den gültigen Ausschreibungsrichtlinien hat die Fachjury die Möglichkeit, entweder Kategorien zu streichen oder auch neue Kategorien zu bestimmen. Von dieser Möglichkeit macht die Jury immer dann Gebrauch, wenn Einreichungen z. B. einen neuen Technologie-Trend ankündigen. Chancen, einen der begehrten Telematik Awards zu gewinnen, bietet aber auch der Sonderpreis. Aus allen Einreichungen – gleich in welcher Kategorie eingereicht – bestimmt die Fachjury den Gewinner für den Sonderpreis "Beste Innovation" sowie für die Hauptkategorie "Human-Telematik".
Tipp #9 – Objektive Beschreibung der Alleinstellung
Alleinstellungsmerkmale verstärken die Wettbewerbschancen … auch bei uns ist das nicht anders! Nur ist es bezgl. der Bewerbungen so, dass die Wahrhaftigkeit der beschriebenen Alleinstellung von kompetenten Fachjuroren beurteilt wird. Die Beschreibung der Alleinstellung Ihrer Lösung sollte daher selbstbewusst, aber auch sehr reflektiert erfolgen.
Tipp #10 – Orientierung und Wertanlage
Ja, diese Fachjury will viel wissen. Als Veranstalter ist es uns aber außerordentlich wichtig, wahrhaftige Transparenz und Orientierung im Markt zu bieten. Nur mit dieser Qualität und nur durch dieses hohe Niveau stellen wir sicher, dass eine fachlich fundierte Bewertung vorgenommen werden kann. Insbesondere mit diesen Grundsätzen zählt die Verleihung des Telematik Awards zur wichtigsten Auszeichnung innerhalb der Telematik-Branche im deutschsprachigen Raum und wird sowohl von renommierten Wissenschaftlern und langjährigen Partnern unterstützt. Insofern ist die Zeit, die Sie für Ihre Bewerbung investieren, eine sehr gute Wertanlage. Bereits eine Nominierung beschreibt eine beachtliche Wertaussage.
Wir hoffen, Ihnen mit diesen Ratschlägen geholfen zu haben, sodass einer erfolgreichen Einreichung nichts mehr im Weg steht. In der dritten Ausgabe der Fachzeitung Telematik-Markt.de erfahren alle Bewerber, ob Sie zum exklusiven Kreis der Nominierten gehören. Ob es letztlich auch für den Gewinn einer der begehrten Kristalltrophäen gereicht hat, erfahren Sie – wie in jedem Jahr – während der feierlichen Verleihung des Telematik Awards 2019.
Telematics-Scout.com ist die internationale Suchplattform, um Anwendern einen unkomplizierten Zugang zu ihrer passenden Telematik-Lösung zu ermöglichen. Unverbindlich und klar verständlich liefert Telematics- Scout.com Telematik-Lösungen aus den unterschiedlichsten Branchen. Zusätzlich zur allgemeinen Suche in den Hauptrubriken bietet Telematics-Scout.com ebenfalls eine Schlagwort-Suche und detaillierte Filter- Optionen, um innerhalb kürzester Zeit zu den passenden Lösungen zu gelangen. Bei Interesse kann der User über ein individuelles Kontaktformular den gewunschten Anbieter kontaktieren. Plattformbetreiber ist die MKK. https://telematik-markt.de/impressum
Telematics-Scout.com | MKK
Hamburger Str. 17
22926 Ahrensburg
Telefon: +49 (4102) 2053-575
Telefax: +49 (4102) 2054-543
https://telematics-scout.com/
Verlagsleitung
Telefon: +49 (4102) 2053-575
E-Mail: info@telematics-scout.com

IT-Vergabetag 2019: VORTAL als Aussteller dabei
Am 15. Mai wurde der IT-Vergabetag zum vierten Mal vom Deutschen Vergabenetzwerk (DVNW) veranstaltet. Das Jahresevent in Berlin informierte zu unterschiedlichen Themen der Beschaffung und Vergabe von IT-Leistungen. Bei informativen Fachvorträgen und Workshops erhielten die Teilnehmer praxistaugliche Empfehlungen für den Vergabealltag. Auch Eduardo Lucio Faccion, VP Sales bei VORTAL für die DACH-Region, hielt dort einen Vortrag zum Thema „Totes Recht? – Plädoyer für eine Wiederbelebung der dynamischen Beschaffungssysteme und e-Auktionen“.
Spannende Agenda mit informativen Workshops und Vorträgen
Als Konferenz rund um die verschiedenen Themen der IT-Beschaffung hat sich der IT-Vergabetag inzwischen fest in Deutschland etabliert. Unter den rund 250 Teilnehmern fand sich auch in diesem Jahr eine bunte Mischung aus Vertretern unterschiedlichster Verantwortungsebenen von Vergabestellen der öffentlichen Verwaltung, der Wirtschaft, der Rechtspflege sowie der Politik, dem Verbandswesen und der Wissenschaft. Diese hatten beim vierten IT-Vergabetag erneut die Gelegenheit, neben der abwechslungsreichen Agenda miteinander ins Gespräch zu kommen.
Nach der Begrüßung durch DVNW-Geschäftsführer Marco Junk konnten sich die Besucher des IT-Vergabetags auf Vorträge zu unterschiedlichen Themen wie dynamischen Beschaffungssystemen, Cloud-Diensten oder der IT-Beschaffungsstrategie freuen. Spannende Workshops gaben zusätzliche Praxistipps für den Vergabealltag.
VORTAL zieht positives Fazit
VORTAL war beim 4. IT-Vergabetag erneut als Aussteller mit dabei und stellte unter anderem seine E-Vergabe-Plattform vor. Eduardo Lucio Faccion fasste den Tag noch einmal zusammen: „Es war wirklich interessant, mit den Teilnehmern zu diskutieren, wie die innovativsten Technologien für die öffentliche elektronische Auftragsvergabe auf die Bedürfnisse der öffentlichen Stellen eingehen“
Weiter erklärt er: „Die recht interaktive Diskussion ermöglichte es, viele Zweifel mit der entsprechenden rechtlichen Unterstützung zu beseitigen. Die elektronische Einreichung von Angeboten war vor vielen Jahren die erste Phase der öffentlichen eVergabe, und neue Lösungen wie Vertragsmanagement, dynamische Beschaffungssysteme oder eAuktionen ermöglichen es öffentlichen Stellen nun, im Einklang mit dem Vergaberecht und den EU-Richtlinien ein noch höheres Maß an Effizienz zu erreichen. Vortal freut sich, diese Bewegung in Deutschland zu leiten.“
Mehr zu VORTAL unter www.vortal.biz.
Vortal Connecting Business DE GmbH
Senckenberganlage 10-12
60325 Frankfurt am Main
Telefon: +49 (69) 870095350
http://www.vortal.biz/de/

BMPK 2019: Mit Servity in die Servicewelt der Zukunft eintauchen
Ein illuminierter, ganz in hellem Blau gestalteter Messestand lädt den Besucher des diesjährigen BMPK dazu ein, in die Servicewelt von morgen einzutauchen. An Stand 13 der Fachausstellung ermöglicht DCON erstmals öffentlich den Einblick in Servity, die Software für das Enterprise Service Management. Hier wird dem Besucher die ganze Bandbreite seiner Möglichkeiten mit Servity direkt in die Hände gelegt: Er erlebt, was es bedeutet, alle Service-Prozesse in einem Unternehmen an zentraler Stelle zu automatisieren und zu steuern. Und er wird bis zum Herzstück von Servity vordringen können: zur ebenso mächtigen wie handhabbaren Workflow Engine, die jedes vorstellbare Szenario per Drag-and-drop abbilden lässt.
Wer auf dem BMPK erfahren möchte, wie Service zum Erlebnis wird, wird von den DCON Mitarbeitern vor Ort auf seiner Reise begleitet. Der Kongressbesucher kommt hier direkt mit Mitarbeiterinnen und Mitarbeitern ins Gespräch, die tagtäglich in Kundenprojekten mit Servity arbeiten. Während des gesamten Ausstellungszeitraums hat er so auch die Möglichkeit, sich persönlich mit Christian Korte auszutauschen, dem für die Software Servity zuständigen Bereichsleiter.
Mit seiner Vision des perfekten Enterprise Service Managements wird DCON sich am 22. Mai auch in den fachlichen Austausch des BMPK einbringen. In einem offenen Impulsvortrag nimmt Korte die unzählbaren Entscheidungsprozesse in den Blick, die wir ständig unterbewusst durchlaufen, und er deckt auf, warum wir gerade an den Branchentrends immer wieder scheitern (Titel: „Warum Sie immer wieder falsche Entscheidungen treffen und künftig keiner sagen wird: ‚Agil? Lief ja unfassbar gut!‘“). Hier wie an seinem Messestand ermöglicht DCON zum BMPK 2019, durch seine Augen in eine neue Servicewelt zu blicken.
Die DCON Software & Service AG ist ein Beratungs- und Softwareunternehmen für Enterprise Service Management. Mehr als 25 Jahre Erfahrung und die Expertise der über 130 Mitarbeiterinnen und Mitarbeiter machen das Unternehmen zu einem kompetenten Ansprechpartner für namhafte Kunden wie Daimler, BWI und Unisys. DCON verfügt über drei Standorte: Kaiserslautern, Stuttgart und Bremen.
Die Beratungsleistungen im Enterprise Service Management, Output Management und die eigene Softwarelösung Servity ermöglichen es Unternehmen, die Prozesse ihrer Service-Organisation zu automatisieren und zu managen. Die DCON Beraterinnen und Berater übertragen Best Practice Frameworks wie ITIL in die Praxis des Enterprise Service Managements.
Bei DCON hat Mitarbeiterzufriedenheit einen hohen Stellenwert. Die Mitarbeiterinnen und Mitarbeiter arbeiten in einer positiven Atmosphäre, die sich durch gegenseitige Wertschätzung, eine gelebte Open-Door-Policy und firmenweites Du auszeichnet. Das Unternehmen bietet ein breites Angebot an Weiterbildungsmöglichkeiten und langfristige berufliche Perspektiven. Es trägt die Auszeichnungen „Top Company“ und „Open Company“ des Arbeitgeberbewertungsportals kununu.
DCON GmbH
Europaallee 31
67657 Kaiserslautern
Telefon: +49 (631) 92082-0
Telefax: +49 (631) 92082-199
http://www.dcon.de
Referentin Marketing/Sales
Telefon: +49 631 92082-0
Fax: +49 (631) 92082-199
E-Mail: publicrelations@dcon.de
Expertin Unternehmenskommunikation
Telefon: +49 (631) 92082-0
E-Mail: publicrelations@dcon.de
Musikoase mit Meerblick – Radiopark versorgt das Four Seasons Hotel Beirut mit kuratiertem Musikprogramm
Die professionelle Musikredaktion von Radiopark plant Klangkonzepte, die zielgruppengerecht auf die Anforderungen der unterschiedlichen Hotelbereiche zugeschnitten sind. Zudem ist die Musik immer an Tageszeit und Saison angepasst. So entstehen musikalisch anspruchsvolle Programme, die perfekt zur Identität der Marke passen und für eine Atmosphäre sorgen, in der sich Gäste wohlfühlen.
Radiopark liefert individuelle Musikprogramme für den Einsatz in der Kreuzschifffahrt, Hotellerie, Gastronomie und im Handel. Das in Hamburg ansässige Medienunternehmen versorgt Kunden in über 40 Ländern mit maßgeschneiderten Lösungen. Aus einem ständig wachsenden Musikarchiv mit über eine Million Tracks entwickelt das Radiopark-Team speziell designte, zeitbasierte Musikprogramme für alle gewünschten Anforderungen. Durch professionelle Planung, eine zuverlässige und flexible Hardware und die patentierte Software ist keine permanente Web-Anbindung notwendig – gerade in der Schifffahrt eine große Erleichterung. Als Full-Service-Provider ist Radiopark nicht nur der richtige Ansprechpartner für Musikprogramme, sondern auch für Audio-Planungen und liefert ebenfalls die passenden Lautsprecher- und Verstärkersysteme.
Radiopark GmbH & Co. KG
Große Bleichen 21
20354 Hamburg
Telefon: +49 (40) 430937-0
Telefax: +49 (40) 430937-77
http://www.radiopark.de
Marketing Assistentin
Telefon: +49 (40) 43093722
E-Mail: kp@radiopark.de
Sales & Marketing Director
Telefon: +49 (40) 4309370
Fax: +49 (40) 43093728
E-Mail: presse@radiopark.de

Parallele Programmierung. Organisation ist alles
Was bedeutet das für den Entwickler, der die Kapazitäten solcher Multi-Core-Prozessoren ausreizen möchte? Sollte er möglichst viel parallelisieren, oder gibt es dabei auch Nachteile?
Softwareentwickler Steve Ulrich beschreibt in diesem Blogbeitrag, wie eine richtig praktizierte Parallele Programmierung dazu beiträgt, das erhöhte Rechenpotenzial effizient zu nutzen.
https://www.micromata.de/blog/softwareentwicklung/parallele-programmierung-organisation/
Die Micromata GmbH entwickelt seit 1997 passgenaue Softwarelösungen für große Unternehmen aus den Bereichen Logistik, Automotive, Medizintechnik, Energie und Rohstoffgewinnung. Zu den langjährigen Kunden des Hauses zählen DAX-30-Konzerne wie Deutsche Post DHL und Volkswagen sowie Global Player wie B. Braun Melsungen, K+S, WINGAS und Wintershall. Micromata beschäftigt rund 150 Mitarbeiter und führt neben dem Hauptsitz in Kassel eine Niederlassung in Bonn sowie ein Büro in Hamburg. Das Unternehmen ist wiederholter Preisträger des Innovationspreis-IT und wurde u. a. mehrfach mit dem Deloitte Technology Fast 50 ausgezeichnet. Laut der Studie Great Place to Work® gehört Micromata außerdem zu Deutschlands besten Arbeitgebern 2015 und 2017. Weitere Informationen sind unter www.micromata.de erhältlich.
Micromata GmbH
Marie-Calm-Straße 1-5
34131 Kassel
Telefon: +49 (561) 316793-0
Telefax: +49 (561) 316793-11
http://www.micromata.de
Presse + Kommunikation
Telefon: +49 (561) 316793-23
Fax: +49 (561) 316793-11
E-Mail: marketing@micromata.de

Wie Sie eine Datenanalyse – Plattform zur Unterstützung Ihrer 360 Grad Unternehmenssicht aufbauen
Unternehmen generieren heute zunehmend große Datenmengen, um ihr Geschäft, ihre Kunden und ihren Markt besser zu verstehen. Ein erhöhtes Datenvolumen allein führt jedoch nicht zu mehr Erfolg. Stattdessen müssen Unternehmen neue Wege finden, um unterschiedliche Datenquellen zu konsolidieren und zu transformieren, um aussagekräftige Erkenntnisse zu gewinnen.
Eine Cloud-basierte Datenanalyse – Plattform (DAP) kann die Vielzahl der Datenquellen innerhalb eines Unternehmens in ein unternehmensweites Analysesystem integrieren. Durch die Vereinheitlichung der notwendigen Datenanalyse-Technologien nimmt ein DAP Rohdaten auf, transformiert sie und verwendet sie für Berichte, Analysen und Visualisierungen – allesamt skalierbar – und hilft so, schnell relevante Erkenntnisse zu gewinnen, die bessere Entscheidungen ermöglichen.
Wie gut und wie schnell Ihr Unternehmen Daten für Sie umsetzen kann, hängt von den Fähigkeiten Ihres DAP ab. In diesem Blogbeitrag skizzieren wir die wichtigsten Grundsätze einer Datenanalyse – Plattform (DAP) und zeigen, wie Ihr Unternehmen Cloud-Technologien einsetzen kann, um eine Lösung zu entwickeln, die einfach zu bedienen ist, die Zeit bis zum Erkennen beschleunigt und Ihre IT-Ausgaben optimiert.
Einführung
Moderne Unternehmen neigen dazu, große Datenmengen zu generieren, um ihr Geschäft besser zu verstehen. Dieses erweiterte Datenvolumen bietet jedoch nicht unbedingt einen unmittelbaren Nutzen. Stattdessen muss ein Unternehmen Wert aus seiner Fähigkeit schöpfen, unterschiedliche Datenquellen zusammenzuführen und in aussagekräftige Erkenntnisse umzuwandeln, die zu einem besseren Verständnis von Markt, Kunden und Geschäftsbetrieb führen.
Um diesen Bedarf zu decken, setzen Unternehmen zunehmend auf Business Intelligence Lösungen wie Data Analytics as a Service (DAaaS), Insight-Plattformen und Analyse Plattformen. Um das Beste aus jeder DAP-Plattform herauszuholen, ist die Cloud der Schlüssel zum Erfolg in dieser datengesteuerten Welt. On-Premise-Datenbanken erfordern Server, die nicht flexibel skalierbar sind, um dem Tempo des wachsenden Datenbedarfs gerecht zu werden. Alternativ bieten Cloud Datenbanken wie Snowflake Computing nahezu unbegrenzte Skalierbarkeit und Speicherplatz und ermöglicht so Größenvorteile, die mit einer Konfiguration vor Ort nicht erreichbar sind.
Dieser Blog-Beitrag beschreibt die wichtigsten Grundsätze einer Datenanalyse – Plattform (DAP) und zeigt, wie Ihr Unternehmen Cloud-Technologien einsetzen kann, um eine zweckmäßige Lösung zu entwickeln, die kosteneffizient und skalierbar ist. Ein DAP kann Ihrem Unternehmen helfen, Rohdaten aufzunehmen, zu transformieren und für Berichte, Analysen und Visualisierungen zu verwenden – allesamt in großem Maßstab -, so dass Ihre Benutzer die Möglichkeit haben, die relevanten Erkenntnisse zu gewinnen, die zu besseren Entscheidungen führen.
Das Problem
In der Vergangenheit waren die Business Intelligence (BI)-Technologien alle in lokalen Rechenzentren untergebracht, in denen lokale Datenquellen in lokale Data Warehouses eingespeist und von lokalen Benutzern berichtet wurden. Das moderne Unternehmen ist über die Grenzen dieses lokalen Modells hinausgewachsen. In der heutigen Welt kann ein Unternehmen von Hunderten verschiedener Systeme abhängen, von denen einige im eigenen Haus sind, die aber immer häufiger als Dienstleistung von Drittanbietern an das Unternehmen geliefert werden. Die Integration dieser Datenvielfalt in ein traditionelles Rechenzentrum stellt eine Herausforderung dar.
Insbesondere ist die Leistung in einem lokalen Rechenzentrum physisch auf die Hardware beschränkt, die bereits vom Unternehmen selbst gekauft, konfiguriert und gewartet wurde. Die Kapazität ist begrenzt und der Kauf von weiteren Einheiten bedeutet, dass Computer- und Speicherressourcen ungenutzt bleiben, bis sie benötigt werden, so dass gekaufte und bezahlte Ressourcen ungenutzt bleiben. Sobald sich die Nachfrage der vorhandenen Kapazität nähert, müssen mehr Ressourcen gekauft werden, und der Zyklus geht weiter. Für Rechenzentren vor Ort ist dieser Zyklus sowohl zeitaufwändig als auch teuer.
Und selbst wenn Unternehmen die Notwendigkeit erkennen, Daten aus externen Quellen intern zu laden, führt die Netzwerkkapazität oft zu Engpässen und verhindert die Übertragung moderner Datenmengen in ein lokales Rechenzentrum. Schließlich erfordert die Vielzahl der heute verwendeten Datenquellen eine Migration durch teure, benutzerdefinierte, codierte Lösungen. Oftmals ist es nicht möglich, diese Datenquellen zurückzulassen, da sie einen kritischen Teil des Bildes für die Gesamtaktivitäten Ihres Unternehmens darstellen.
Anstelle von lokalen Datenbanken beseitigen Cloud-basierte Data Warehouses die physischen Einschränkungen und den Wartungsaufwand mit vollständig verwalteten Lösungen mit nahezu unbegrenzten Speicherfunktionen. Das Problem der Datenkonsolidierung und -aggregation bleibt jedoch bestehen. Unternehmen müssen die Fähigkeit entwickeln, nicht nur alle ihre Daten aus einer Vielzahl von Quellen in ein Cloud-basiertes Data Warehouse zu übertragen, sondern auch diese komplexen, voneinander abhängigen Aktivitäten zu koordinieren. Nach dem Laden müssen die Daten bereinigt, angereichert, aggregiert und anderweitig transformiert werden, um aussagekräftige Erkenntnisse zu gewinnen. Schließlich erfordern die resultierenden Datensätze eine zugängliche Darstellung, damit die von ihnen abhängigen Benutzer die Ergebnisse verstehen und in Entscheidungsprozesse einbeziehen können, was zu besseren Ergebnissen führt.
Die Lösung
Alle oben beschriebenen Herausforderungen sind lösbar. Die Erstellung einer Cloud-basierten Datenanalyse – Plattform (DAP) kann die zuvor beschriebenen Hindernisse beseitigen und nicht nur Ihre Daten-Workflows rationalisieren, sondern auch Ihr Unternehmen in die Lage versetzen, seine komplette End-to-End-Datenanalyse effektiv zu verwalten. Wenn es um Technologien geht, die diese Reise erleichtern, wird die größte Investition Ihres Unternehmens höchstwahrscheinlich das Cloud Data Warehouse sein. Die Fokussierung auf die optimale Nutzung dieses Cloud Data Warehouse sollte von größter Bedeutung sein. Glücklicherweise verfügen viele der branchenführenden Cloud-Data-Warehouses wie Snowflake Computing, Amazon Redshift, und Google BigQuery über umfangreiche Partner-Ökosysteme, die kompatible Lösungen von Drittanbietern bereitstellen, die mit Ihrer bestehenden Cloud-Infrastruktur funktionieren.
Neben der Auswahl eines Cloud Data Warehouse sollten Sie sich auch auf die Auswahl der richtigen Technologien für Ihre Geschäftsanforderungen konzentrieren. Auf diese Weise können Sie eine kostengünstige, aber flexible Plattform schaffen, die am besten für Ihre Geschäftsdaten geeignet ist. Die Verwendung des Begriffs DAP kann dazu beitragen, Ihre Lösung mit Technologien für Analytics, Business Intelligence sowie einem Cloud Data Warehouse (CDW) zusammenzuführen. Durch die Zusammenführung dieser Technologien entsteht ein DAP, das nicht nur Ihren aktuellen Anforderungen entspricht, sondern auch eine erweiterbare Lösung bietet, die an ständig wechselnde und komplexe Anwendungsfälle angepasst und erweitert werden kann. Ein solches Framework ermöglicht es Ihnen beispielsweise, Data Lakes, Data Vaults, Machine Learning und Artificial Intelligence einzubinden, um Ihre Datenanalyse – Fähigkeiten weiter zu verbessern. Agilität ist entscheidend, da solche Plattformen im Laufe der Zeit (nicht über Nacht) entsprechend den dringendsten Geschäftsanforderungen entwickelt werden.
Wie gut und wie schnell Ihr Unternehmen Daten für Sie umsetzen kann, hängt von den Fähigkeiten Ihres DAP ab. Zusätzlich zu den oben genannten Technologien ist eine weitere grundlegende Komponente Ihres DAP die Datenintegration und -transformation. Da Ihr DAP Ihre End-to-End-Datenreise unterstützen soll, muss es in der Lage sein, rohe, vielfältige Datenformulare zu verarbeiten, um sie in saubere Datensätze für Analyse, Business Intelligence und Visualisierung zu verwandeln. Dieses letzte Stück wird oft als ETL-Lösung (Extraktion, Transformation und Laden) bezeichnet, um das Verschieben und Transformieren Ihrer Daten zu unterstützen. ETL-Lösungen unterscheiden sich jedoch in ihrem Ansatz und Umfang, ein Thema, das wir später in diesem Dokument behandeln werden.
Mit der bimanu Cloud, einer All-One-Plattform für die Datenintegration und Analyse können Sie die volle Leistungsfähigkeit eines Cloud Data Warehouse nutzen und Ihre Datenqualität weiter optimieren. Erfahren Sie mehr darüber, wie bimanu Cloud – Kunden ihre Datenkonsolidierung verbessern und die IT-Ausgaben senken können. Jetzt mehr erfahren – bimanu Cloud.
Die Vorteile
Sobald Sie über Ihre Datenanalyse – Plattform Technologien verfügen (Cloud Data Warehouse, ETL-Lösung, Data Visualization Layer, etc.), sind Sie nun bereit, die Vorteile einer solchen Plattform zu nutzen. Hier sind einige dieser Vorteile:
- Erweiterbarkeit: Integration neuer Technologien und anpassungsfähiger Komponenten zur Vereinfachung der Abläufe die Datenreise Ihres Unternehmens
- Einfachheit: Vereinfachen Sie Ihre Datenreise mit flexiblen Technologien, die auf mehrere Anwendungsfälle angewendet und skaliert werden können.
- Performance: Cloud-Technologien mit intuitiver Benutzerführung verkürzen die Entwicklungszeit und beschleunigen die Veröffentlichung von verwertbaren Analysen über die manuelle Programmierung hinaus.
- Agilität: Wenn Sie aus Ihren Daten und Entwicklungen lernen, können Sie Muster adaptiv Komponenten zur Plattform hinzufügen und schrittweise neue Datenquellen, Transformationen und Analysen integrieren.
- Skalierbarkeit: Unabhängig davon, ob es sich um eine Handvoll oder Hunderte von Datenquellen handelt, kann ein DAP Ihre aktuellen und zukünftigen Anforderungen erfüllen, indem es eine Skalierbare-Lösung für Datenanalysen bietet.
Wann Sie eine Datenanalyse – Plattform verwenden sollten
Der Unterschied zwischen einem gemeinsamen Business Intelligence (BI)-Technologie-Stack und einer Datenanalyse-Plattform besteht in erster Linie in der Größenordnung. Wo Erstere ein oder mehrere Quellsysteme in ein Data Warehouse einspeisen und dann darüber berichten können, wird ein DAP verwendet, um eine Verbindung zu Dutzenden oder Hunderten von Datenquellen herzustellen, diese Rohquellen in einen Staging-Bereich für die Datenerfassung zu laden und diese Rohdaten dann in eine beliebige Anzahl von Data Warehouses und Marts zu transformieren. Diese aufbereiteten Daten fließen schließlich in Berichte, Visualisierungen und Analysen für eine Vielzahl von Benutzern ein, von Power-Usern, die ihre eigenen erweiterten, statistischen Rohdatenanalysen durchführen, bis hin zu Endanwendern, die hochverarbeitete Daten für ihre jeweilige Geschäftseinheit mit Excel analysieren. Die daraus resultierenden Analysen fließen schließlich in einen datengesteuerten Entscheidungsprozess ein.
Während das allgemeine Muster hier das gleiche wie bei einem traditionellen BI-System sein kann, ist die Skalierung radikal unterschiedlich. Das DAP stellt einen Komplettanbieter für die Datenbereitstellung eines gesamten Unternehmens dar und bietet eine 360-Grad-Sicht auf die Aktivitäten Ihres Unternehmens. Sie sollten die Erstellung eines DAP in Betracht ziehen, wenn Sie eine hochrangige Sicht auf alle Ihre Unternehmensaktivitäten benötigen und dazu Daten aus zahlreichen Systemen synthetisieren müssen: Marketing, Vertrieb, Finanzen, Logistik, IoT etc. Diese unterschiedlichen Quellen können in völlig unterschiedlichen Formaten verfügbar sein, die aus relationalen Datenbanken, RESTful-APIs oder dateibasierten Artefakten auf verteilten Dateisystemen zugänglich sind. Ein DAP ermöglicht es Ihnen, solche Quellen in einem zentralen und Cloud-basierten Data Warehouse einzubinden, die Daten zu manipulieren, um die Berichtsanforderungen zu erfüllen, und schließlich Unternehmensaktivitäten zu visualisieren und zu analysieren, um die Entscheidungsfindung zu unterstützen.
Unsere bimanu Cloud transformiert automatisch Ihre Daten, um Ihnen ein echtes Self-Services BI zu ermöglichen. Die eingesetzten Konnektoren des bimanu Data Hub helfen Ihnen nicht nur bei der Konsolidierung aller Ihrer Datenquellen (Anwendungen, Data-Lakes, Datenbanken usw.), sondern führen neben Datentransformationen auch eine komplette Datenmodellierung Ihrer Daten vor, um Ihnen bei der Datenvisualisierungs- und Analyse eine bessere Entscheidungsfindung zu ermöglichen.
Anwendungsfall – Sensordaten im Bereich Flottenmanagement
Betrachten Sie als potenziellen DAP-Anwendungsfall ein hypothetisches globales Speditionsunternehmen. Ihre zentralisierte IT-Gruppe, die für die Bereitstellung von der Flottenmanagment-Daten zuständig ist, entscheidet sich für den Aufbau einer Datenanalyse – Plattform, die Hunderte von verschiedenen Datenquellen in Form der Sensorik und eine Vielzahl von Benutzeranforderungen abdeckt. Mit dem DAP können sie auf dutzende von lokalen Rechenzentren verzichten, die eigenwillige, einmalige Prozesse zugunsten ihres Cloud Data Warehouse hosten, was dem Unternehmen grenzenlose Skalierbarkeit sowie eine konsistente, effiziente und unternehmensweite Sicht auf die Daten ermöglicht.
Das ultimative Ziel dieser Plattform ist es, datengesteuerte Entscheidungen zu treffen. In diesem Fall, wo und wann die Wartung durchgeführt werden muss und welche Teile dafür benötigt werden. Das DAP deckt die Anforderungen des gesamten Unternehmens an die Datenanalyse ab und bietet automatisierte Client-Leistungen sowie Live-Dashboards, die aus einem Cloud-basierten, kanalübergreifenden Repository stammen, das auch datenwissenschaftliche Modelle und Simulationen unterstützt.
Mit Benutzeranforderungen, die von Rohdaten bis hin zu Dashboard-Berichten reichen, entscheidet sich die Geschäftsführung für die bimanu Cloud mit den Komponenten bimanu Hub, bimanu Analytics und bimanu Datawarehouse. Die einfache Skalierbarkeit des bimanu Datawarehouse basierend auf Snowflake Computing macht es zu einer bevorzugten Option zusammen mit seinen MPP-Funktionen (Massively Parallel Processing) und für die Verarbeitung großer Datenmengen. Zusätzlich zu den Leistungsvorteilen bietet die bimanu Cloud ein Pay-as-you-go-Modell an, um die Notwendigkeit des Erwerbs ungenutzter Kapazitäten zu verringern, sobald eine grundlegende und kosteneffektive Barriere die Schaffung solcher Plattformen in lokalen Rechenzentren verhindert.
Um ihre hunderte von unzähligen Quellsystemen in die bimanu Cloud zu integrieren, wählt das Speditionsunternehmen zusätzlich das Modul bimanu Hub wegen seiner einfachen Entwicklung und der zahlreichen, sofort einsatzbereiten Konnektoren für Quellsysteme. Der bimanu Hub verwendet eine automatisierte Extraktions-, Last- und Transformationsarchitektur (ELT), die das bimanu Datawarehouse optimal nutzt, indem sie die nahezu unendlichen Ressourcen der CDW auf die Last- und Transformationsprozesse anwendet.
Die Analyse- und Visualisierungsschicht in diesem DAP – Beispiel verwendet bimanu Analytics eine modifizierte Tableau Online Umgebung für sein einfaches Dashboarding und seine Ad-hoc-Berichtsfunktionen. Power-User wie Data Scientists können ihre Daten direkt aus dem bimanu Data Model über Python oder R beziehen und müssen nicht mehr die Rohdaten verwenden. Benutzer können im Self-Service BI Ansatz Ihre Analyse oder Dashboards erstellen, wodurch ein Single Point of True entsteht und die historisch mit dieser Praxis verbundene Datensilos vermieden werden.
Wie man eine Datenanalyse-Plattform erstelltDie Technologien
Analytics: Die letzte Schicht in einem DAP ist für die Datenanalyse und -visualisierung verantwortlich. Diese Ebene bietet Ihren Analysten qualitativ hochwertige Informationen über die Aktivitäten Ihres Unternehmens und ermöglicht es Ihren Führungskräften, optimale, datengesteuerte Entscheidungen zu treffen. Moderne Tools bieten Schnittstellen für Ad-hoc-Analysen sowie Business Intelligence-Berichte oder Story Telling Optionen. Solche Tools nutzen die Daten, die in Ihrem Cloud Data Warehouse von Ihrer Datentransformationslösung transformiert und klassifiziert und aus vorgelagerten Quellsystemen extrahiert werden.
Business Intelligence: Manchmal kann Ihre Business Intelligence-Technologie mit Ihren Analyse- oder Visualisierungstechnologien oder sogar mit beiden identisch sein. Sie haben die Möglichkeit, Daten zu verwenden, um Geschäftseinblicke und -entscheidungen zu formulieren, sei es Data Mining, Dashboards, Erstellen von Berichten oder Erstellen von Visualisierungen. Looker, Tableau, SAP Anayltics Cloud sowie PowerBI sind beliebte Optionen.
Cloud Data Warehouse: sind Cloud-native Datenbankplattformen, die speziell für einfache (und sogar automatisierte) Skalierbarkeit sowie massiv parallele Verarbeitungsmöglichkeiten entwickelt wurden. Diese Plattformen sind oft spaltenorientiert für optimierte I/O-Operationen und bieten nahezu unbegrenzte Rechen- und Speicherfunktionen. Moderne Cloud-Datenbanken umfassen Amazon Redshift, Google BigQuery und Snowflake.
Datenintegration und -transformation: Um ein DAP zu erstellen, muss Ihr Unternehmen eine Vielzahl von relationalen, strukturierten und halbstrukturierten Datenquellen integrieren. Diese Datenquellen müssen manipuliert und in ein einheitliches Format umgewandelt werden, das nachgelagerte Analysen und Visualisierungen unterstützt. Eine Cloud-native Datentransformationslösung ermöglicht Hochgeschwindigkeitsverbindungen zwischen Ihrem Unternehmen und anderen Cloud-basierten Datenquellen. Diese sogenannte ETL Werkzeuge wie z.B. Matillion helfen Ihnen, Daten aus Ihren lokalen oder Cloud-basierten Anwendungen zu extrahieren, diese Daten in ein Cloud Data Warehouse zu verschieben und dann Daten in die für Ihre BI- und Analysetools erforderlichen einheitlichen Formate zu transformieren.
Unsere bimanu Cloud bietet die Möglichkeit, Ihre Geschäftsdaten in das richtige Auswerte- und Analyseformat zu bringen. Wir konsolidieren Ihre Daten aus Quellsystemen, Data-Lakes, lokalen Datenbanken und anderen Cloud-Data-Warehouses für erweiterte Analysen mithilfe unserer vorkonfigurierten Konnektoren des bimanu Data Hubs. Weitere Funktionen zur Sicherstellung Ihrer Datenqualität und Integrität sind:
- Automatisierte, wiederverwendbare Datenströme
- Datenermittlung & -aufbereitung
- Aufbau & Integration von Datenmodellen
- Bereitstellung eines einheitlichen Metadatenkatalogs
- Überwachung & Verteilung von Daten in Echtzeit oder Batch
Der bimanu Cloud hilft Ihnen eine 360 Grad Unternehmenssicht zu erhalten und die Entscheidungsfindung Ihres Unternehmens verbessern. Wofür die bimanu Cloud eingesetzt werden kann, erfahren Sie hier.
Die Architektur
DAPs kombinieren komplementäre Technologien, um ein einheitliches System zu schaffen:
- Nimmt Daten aus einer Vielzahl von Quellen wie Datenspeicher, Datenbanken, APIs und Dateien mit einer Vielzahl von Formaten auf.
- Transformieren Sie die am weitesten fortgeschrittenen Daten, indem Sie sie mit anderen Datenquellen verknüpfen, reinigen, aggregieren oder anderweitig manipulieren – Visualisieren Sie die transformierten Daten abschnittsweise an den Dashboards oder Berichten.
- Bilden Sie die Grundlage für die Durchführung fundierter Geschäftsentscheidungen.
Das untere Diagramm zeigt die einzelnen Komponenten, die ein modernes DAP beinhalten können. Extrahierungs- und Ladeprozesse verschieben Daten aus zahlreichen und unterschiedlichen Datenquellen in das Cloud Data Warehouse (CDW), idealerweise und zunächst in einen Teil desselben, der für Rohdaten und Staging-Daten reserviert ist. Von dort aus können die nahezu unendlichen Computerressourcen, die solchen CDWs zur Verfügung stehen, die bereitgestellten Daten in einen Enterprise Datawarehouse (EDW) zusammenführen. Auf Basis des EDW entstehen sogenannte fachbezogene Data Marts. Dieser Datenmodelle können durch Rollup-Transformationen, die OLAP-Cubes erzeugen, weiter für Berichte optimiert werden.
Schließlich können diese leistungsfähigeren Datenarchitekturen dann von der Visualisierungsschicht des DAP genutzt werden, um Endanwendern (wie Analysten oder Führungskräften) Einblicke in unternehmensweite Aktivitäten zu geben, die die bestmögliche Entscheidungsfindung ermöglichen.
Im Folgenden wird auf jede dieser DAP-Komponenten nacheinander eingegangen, beginnend mit verschiedenen Datenquellen, einer Integrations- und Transformationsschicht, einem Cloud Data Warehouse und der Visualisierungs- und Analyseschicht.
Datenquellen
Die folgenden Punkte stellen einige gängige Datenquellen in heutigen Unternehmensumgebungen dar:
- On-Premise – Datenbanken: Viele Unternehmen haben Schwierigkeiten, den Übergang vollständig auf Cloud-Plattformen zu vollziehen und Datenbanken immer noch in lokalen Rechenzentren zu pflegen. Glücklicherweise sind inkrementelle, hybride Ansätze durchaus möglich, die es Ihnen ermöglichen, bestehende Datenbanken lokal weiterzuführen, während Sie ihre kritischen Datenelemente strategisch extrahieren und in eine CDW laden.
- Data Lakes: Definiert durch die Speicherung von Dateien in nativen Formaten, flexiblen Zugriff, Schema-on-Read sowie die Entkopplung von Storage und Compute-Ressourcen, stellen Data Lake-Architekturen immer mehr gemeinsame Repositorien für Unternehmensaktivitäten dar. Cloud-fähige Speicherplattformen wie AWS S3, Azure Blob Storage und Google Cloud Platform Cloud Storage bilden bei nahezu unbegrenzter Erweiterbarkeit oft die Persistenzschicht des Data-Lakes. Das Laden von Dateien in die CDW Ihres Unternehmens von diesen Plattformen aus stellt eine äußerst wichtige Funktionalität dar.
- Teilstrukturierte Daten: In Bezug auf Datenseen, die oft aus halbstrukturierten Dateien bestehen, benötigen moderne DAPs oft die Möglichkeit, XML-, JSON- oder sogar Tabellenkalkulationsdateien zu laden.
- APIs: Anwendungsprogrammierschnittstellen ermöglichen die Integration zwischen Ihrem Unternehmen und wichtigen Ressourcen von Drittanbietern wie Salesforce oder Google Analytics. Auf diesen Software-as-a-Service (Saas)-Plattformen können daher unternehmenskritische Daten gespeichert werden; die Extraktion von Daten aus diesen Quellen liefert häufig wichtige Erkenntnisse.
Integrations- und Transformationsschicht
Typischerweise läuft ETL-Software auf leistungsstarken dedizierten Servern mit beträchtlichen Rechen-, Speicher- und Speicherressourcen, um sowohl Platz für Extrakte aus entfernten Quellsystemen zu schaffen als auch diese Extrakte in das für den Anwendungsfall erforderliche Format zu transformieren. Nach der Transformation werden die Ergebnisse in das Ziel geladen. Wie bereits erwähnt, ist die Skalierung dedizierter physischer Hardware eine zeitaufwändige und kostspielige Angelegenheit; dasselbe gilt für die ETL-Infrastruktur, die bei Betrieb außerhalb der Kapazität erhebliche Leistungsengpässe verursacht.
Um das Risiko einer schlechten Hardwareleistung und die Kosten für die Modernisierung der ETL-Infrastruktur zu vermeiden, wenden immer mehr Fachleute einen ELT-Ansatz (Extract, Load, Transformation) an, bei dem die übliche Reihenfolge der Ereignisse umgekehrt wird, so dass Daten zuerst extrahiert und geladen und dann innerhalb der CDW transformiert werden. Lösungen, die eine ELT-Methode aufrufen, weisen die CDW an, ihre skalierbaren und massiv parallelen Verarbeitungsmöglichkeiten zu nutzen, um Ihre Daten in den Cluster zu laden, und transformieren sie dann in die von Ihnen angegebene Form, sobald diese Ladung abgeschlossen ist. Geringe Rechenleistungen reichen aus, um diese Anweisungen zu generieren und ermöglichen es Ihnen, die Investitionen, die Sie bereits in Ihre Cloud-Data-Warehouse-Plattform getätigt haben, die diewährend des ELT-Prozesses erforderlichen schweren Arbeiten übernimmt, zu nutzen.
Der ELT-Ansatz wäre ohne die in CDW-Plattformen integrierte Skalierbarkeit nicht möglich, die die für diesen Betrieb erforderlichen Ressourcen bereitstellt und es Business Intelligence-Organisationen ermöglicht, auf das kostspieligere und weniger flexible ETL-Muster zu verzichten. Außerdem ist ETL-Software extrem teuer in der Lizenzierung. Diese Lizenzen erfordern oft zusätzliche Gebühren für höhere Datenmengen und noch mehr für Konnektor-Add-ons, die Ihnen Zugriff auf die Quellsysteme geben, die Sie in Ihr Lager laden müssen. Der ELT-Ansatz bietet echte Vorteile, so dass Ihr Unternehmen seine Integrations- und Transformations-Workloads auf die für es am besten geeignete Plattform, nämlich die CDW, übertragen kann.
Die Cloud-native Architektur von bimanu Cloud nutzt die praktisch unendlichen Speicher- und Rechenressourcen, die in modernen Cloud-Data-Warehouse-Plattformen integriert sind. Durch den Einsatz von bimanu Cloud Sie in der Lage, mit Ihren Datenanforderungen schnell zu skalieren, indem Sie die Vorteile der Leistung und Funktionen der Cloud nutzen.
Visualisierung und Analyse
Die letzte Komponente im DAP ist eine Visualisierungs- und Analyseschicht. Diese Schicht bietet sowohl formale als auch Ad-hoc-Berichtsfunktionen auf der Grundlage der endgültigen, transformierten Daten, die wir aus unseren Quellsystemen extrahiert und mit anderen Datenelementen angereichert haben, um verwertbare Business Intelligence zu erstellen. Die daraus resultierenden Visualisierungen und Analysen dienen dem datengesteuerten Entscheidungsprozess, helfen bei besseren Entscheidungen und generieren letztlich Wettbewerbsvorteile.
Tools wie Tableau, Looker, SAP Analytics Cloud und MS Power BI bieten derzeit erstklassige Visualisierungs- und Reporting-Suiten. Solche Pakete geben Ihrem Unternehmen interaktive Berichts- und Dashboarding-Funktionen, die Einblicke elegant darstellen, die nicht leicht aus Tabellenkalkulationen allein gewonnen werden können. Ihre GUIs sind sowohl einfach genug, um schnell aussagekräftige Informationen zu produzieren, als auch reich genug, um Power-Usern alle erweiterten Funktionen zu bieten, die sie benötigen. Darüber hinaus unterstützen diese Tools CDWs, so dass Ihr Unternehmen diese flexiblen, skalierbaren und cloud-nativen Komponenten in einem erweiterbaren DAP-Framework kombinieren kann.
Unsere bimanu Analytics Umgebung wird zur Visualisierung im Self Service – BI Ansatz eingesetzt. Zur Administration der Anwender und effektiven Dashboard Erstellung setzen wir auf auf eine modifizierte Tableau Online Umgebung.
Düsseldorf, 16.05.2019 – Swen Göllner
bimanu, das sind motivierte und sympathische Digital Natives, die gemeinsam an einer Vision arbeiten: Unternehmen zu helfen bessere datengetriebene Entscheidung zu treffen.
Neben der klassischen IT – Beratung für Business Intelligence in den Bereichen SAP Analytics und Snowflake, bieten wir zusätzlich unsere bimanu Cloud, eine automatisierte All-In-One Plattform für Datenintegration und Analyse für kleine und mittelständige Unternehmen an.
Der Vorteil für Sie – entweder greifen Sie auf die Expertise einer Business Intelligence – Beratung zurück, wenn Sie diese benötigen oder Sie wählen einen Komplettservice mit überschaubaren Kosten, um Ihre Datenanforderungen im Zeitalter der Digitalisierung umzusetzen.
Neuigkeiten zum 01.04.2019
Die bimanu GmbH setzt ihren Wachstumskurs fort und hat zum 01.04.2019 die Tochter bimanu Cloud Solutions GmbH gegründet.
Die Fokussierung der Tochter GmbH liegt auf der Software bimanu Cloud, eine automatisierte All-In-One Plattform für Unternehmensdaten, IoT und Marketing Analytics vereint in einem Datawarehouse, die eine 360° Unternehmenssicht fördert.
bimanu GmbH
Bickenbachstraße 38
41462 Neuss
Telefon: +49 (2131) 74211-74
Telefax: +49 (2131) 4028-192
http://bimanu.de
E-Mail: swen.goellner@bimanu.de

PowerFolder veröffentlicht Version 14.4
Mit dem elften Sprint und der Fertigstellung der PowerFolder-Version 14.4 wurden auch die Arbeiten an der WebSocket-Implementierung beendet. Der große Vorteil: Dadurch wird nun kein zusätzlicher Port mehr benötigt, die gesamte Kommunikation zwischen iOS-App und Server findet über den Web Port statt. Es müssen also keine zusätzlichen Ports mehr konfiguriert werden, auch gibt es bei der Nutzung der iOS-App keine Probleme mehr mit eventuell restriktiven W-LAN-Netzen und Firewalls.
Weiterhin wurden einige Verbesserungen am Desktop Client vorgenommen, um den korrekten Betrieb in der Föderation sicherzustellen. Und schließlich wurden ein Fehler bei der Berechnung der Quotas behoben und der Mehrfachversand von Einladungsmails korrigiert.
Auch die iOS-App profitierte vom 11. Sprint des PowerFolder-Entwicklungsteam: Hier nämlich ist es jetzt möglich, direkt aus der Microsoft Office App auf die Dateien in der App zuzugreifen; das erspart lästige Umwege. Die iOS-App war kürzlich von der Version 11.5 direkt auf die Version 14.3 gehievt worden, um auch mobil in den Genuss der zahlreichen neuen Features zu kommen und hat nun ebenfalls die Versionsstufe 14.4.0 erreicht.
Neu in der Version 14: Picasso, D2D Connect und mehr
Zu den wichtigsten Neuerungen in der Version 14 gehört die komplette Neuentwicklung und Neugestaltung der Nutzeroberfläche („Picasso“), die nicht nur wesentlich ansprechender und moderner aussieht, sondern auch eine Menge neuer Features und Verbesserungen bringt – wie das responsive Design, die Multi-Select- Funktionalität bei Datei-Operationen oder eine neue Übersichtsseite für Admins, die alle wichtigen Informationen auf einen Blick liefert.
Integriert in die Version 14 wurde mit D2D Connect außerdem eine Lösung, die eine zuverlässige und sichere Synchronisation von Daten zwischen mobilen Endgeräten ermöglicht. So können zum Beispiel Mitarbeiter eines Unternehmens auf Messen sicher Daten austauschen, auch wenn das Netz dort überlastet ist – oder von Hilfsorganisationen im Katastrophenfall oder in Gebieten ohne Netzabdeckung Informationen weitergegeben werden. Aktuell wird D2D Connect vorerst nur für iOS-Geräte angeboten; eine Android-Version wird folgen.
Zu den weiteren wichtigen Neuerungen der Version 14 gehören unter anderem die vollständige Integration von PowerFolder in das Betriebssystem – und eine daraus resultierende noch weiter gesteigerte Performance – sowie Verbesserungen bei der Barrierefreiheit, der Dokumentenbearbeitung und der Drag & Drop-Funktionalität.
Das deutsche Unternehmen dal33t GmbH mit Sitz in Düsseldorf entwickelt und vertreibt seit 2007 erfolgreich seine Content Collaboration Platform (CCP) mit dem Markennamen PowerFolder. Das Angebot umfasst sowohl öffentliche, aber auch integrierte Private Cloud-Lösungen als individualisierte On-Premise-Dienste. Über dreieinhalb Millionen User weltweit, die meisten der deutschen Hochschulen und tausende Unternehmen nutzen PowerFolder. PowerFolder-Nutzer können von überall auf ihre Dateien zugreifen und diese auch gemeinsam bearbeiten und teilen – auch mobil über die PowerFolder-App. Sicherheit hat dabei absolute Priorität: Die Daten werden stets verschlüsselt und konform zur Europäischen Datenschutz-Grundverordnung (EU-DSGVO) auf Servern in Deutschland gespeichert. PowerFolder wird vom Bundesministerium für Wirtschaft gefördert und ist Träger des Siegels „IT Security Made in Germany“.
dal33t GmbH / PowerFolder
Niederloericker Straße 62
40667 Meerbusch
Telefon: +49 (2132) 9792-290
Telefax: +49 (2132) 9792-297
http://www.powerfolder.com
PR
Telefon: +49 (213) 29792298
E-Mail: steinwachs@powerfolder.com