Witold Kepinski - 05 februari 2024

Dynatrace brengt OpenPipeline uit

Dynatrace, speler op het gebied van unified observability en beveiliging, kondigt OpenPipeline aan, een nieuwe core technologie die klanten voorziet van een enkele pijplijn om de invoer van data op petabyte-schaal te beheren in het Dynatrace-platform voor veilige en kosteneffectieve analyses, AI en automatisering.

Dynatrace brengt OpenPipeline uit image

Dynatrace OpenPipeline geeft bedrijfs-, ontwikkelings-, beveiligings- en operationele teams volledig inzicht in en controle over de data die ze opnemen in het Dynatrace-platform, met behoud van de context van de data en de cloud-ecosystemen waar ze vandaan komen. Bovendien evalueert het datastromen vijf tot tien keer sneller dan legacy-technologie. Dat leidt tot beter beheer en meer toegang tot de AI-gestuurde automatisering van het Dynatrace-platform zonder dat er extra tools nodig zijn.

“Data is de levensader van ons bedrijf: het bevat waardevolle inzichten en maakt automatisering mogelijk die de druk op onze teams verlaagt”, zegt Alex Hibbitt, Engineering Director, SRE en Fulfillment bij albelli-Photobox Group. “We staan echter voor uitdagingen bij het veilig en kosteneffectief beheren van onze datapijplijnen. De toevoeging van OpenPipeline aan Dynatrace vergroot de waarde van het platform. We kunnen daarmee - naast real-time data die van nature in Dynatrace worden verzameld - data uit een grote hoeveelheid bronnen beheren, allemaal in één enkel platform. Daardoor kunnen we beter geïnformeerde beslissingen nemen.”

“Moderne workloads genereren steeds grotere telemetrie-volumes - honderden terabytes en zelfs petabytes per dag - die afkomstig zijn van verschillende bronnen. Dit overweldigt de operators die verantwoordelijk zijn voor beschikbaarheid, prestaties en beveiliging. De kosten en complexiteit die gepaard gaan met het beheren van deze data kunnen oplopen tot meer dan 10 miljoen dollar per jaar in grote ondernemingen”, aldus Gartner.

Het creëren van een uniforme pijplijn om deze data te beheren is een uitdaging vanwege de complexiteit van moderne cloudarchitecturen. Deze complexiteit en de wildgroei aan monitoring- en analysetools binnen organisaties kan budgetten onder druk zetten. Tegelijkertijd moeten organisaties voldoen aan beveiligings- en privacystandaarden, zoals GDPR en HIPAA. Ondanks deze uitdagingen zijn organisaties op zoek naar meer datagestuurd inzicht en automatisering om betere beslissingen te nemen, de productiviteit te verbeteren en kosten te verlagen. Daarvoor hebben ze duidelijk inzicht in en controle over hun data nodig, terwijl ze de kosten moeten beheersen en de waarde van hun bestaande oplossingen voor data-analyse en automatisering moeten maximaliseren.

Dynatrace OpenPipeline werkt samen met andere technologieën van het Dynatrace-platform - waaronder het Grail data lakehouse, Smartscape topology en Davis hypermodal AI - om deze uitdagingen aan te pakken. OpenPipeline biedt de volgende voordelen:

  • Data-analyse op petabyte-schaal: maakt gebruik van stream-verwerkingsalgoritmen om een aanzienlijk hogere datadoorvoer op petabyte-schaal te bereiken.
  • Verenigde invoer van data: hiermee kunnen teams data over waarneembaarheid, beveiliging en business events opnemen en routeren - inclusief speciale Quality of Service (QoS) - vanuit elke bron en in elk formaat, zoals Dynatrace OneAgent, Dynatrace API's en OpenTelemetry, met aanpasbare bewaartijden voor individuele use cases.
  • Real-time data-analyse: teams kunnen hiermee ongestructureerde data omzetten in gestructureerde en bruikbare formaten direct als deze worden ingevoerd, bijvoorbeeld door ruwe data te transformeren in tijdreeksen of metrics en door events te maken uit logregels.
  • Volledige datacontext: verrijkt en behoudt de context van heterogene data points - waaronder metrics, traces, logs, gebruikersgedrag, events, kwetsbaarheden, dreigingen, levenscyclus-events en vele andere - die de verschillende delen van het cloud-ecosysteem weerspiegelen.
  • Controles voor dataprivacy en -beveiliging: geeft gebruikers de controle over welke data ze analyseren, opslaan of uitsluiten van analyses en bevat volledig aanpasbare beveiligings- en privacycontroles, zoals automatische en rolgebaseerde PII masking. Zo kunnen zij voldoen aan de specifieke behoeften en wettelijke vereisten van klanten.
  • Kosteneffectief databeheer: helpt teams met het voorkomen van dubbele data-invoer en vermindert opslagbehoeften door data te transformeren naar bruikbare formaten (bijvoorbeeld van XML naar JSON). Dit zorgt ervoor dat teams overbodige velden kunnen verwijderen zonder inzicht, context of analyseflexibiliteit te verliezen.

“OpenPipeline is een krachtige toevoeging aan het Dynatrace-platform”, zegt Bernd Greifeneder, CTO bij Dynatrace. “Het verrijkt, convergeert en contextualiseert heterogene observability-, beveiligings- en bedrijfsgegevens en biedt uniforme analyses voor de data en services die ze vertegenwoordigen. Zoals het Grail data lakehouse hebben we OpenPipeline ontworpen voor analyses op petabyte-schaal. Daarnaast werkt het met Dynatrace's Davis hypermodal AI om inzichten uit data te halen voor goede analyses en betrouwbare automatisering. Op basis van onze interne tests geloven we dat OpenPipeline onze klanten in staat stelt om datastromen vijf tot tien keer sneller te evalueren dan legacy-technologie. Het convergeren en contextualiseren van data binnen Dynatrace maakt naleving van regelgeving en audits eenvoudiger, terwijl meer teams binnen organisaties direct inzicht krijgen in de prestaties en beveiliging van hun digitale diensten.”

Dynatrace OpenPipeline zal naar verwachting binnen 90 dagen na deze aankondiging beschikbaar zijn voor alle Dynatrace SaaS-klanten, beginnend met de ondersteuning voor logs, metrics en events. Aanvullende ondersteuning volgt spoedig. Bezoek de Dynatrace OpenPipeline-blog voor meer informatie.

Dutch IT Security Day BW tm 15-10-2024 DIC Awards BW tm 21-10-2024
ALSO BW 03-06-2024 tm

Wil jij dagelijkse updates?

Schrijf je dan in voor onze nieuwsbrief!