IDC-onderzoek toont behoefte aan hybride database omgeving

De hype cycle curve van Gartner biedt nauwelijks nog ruime om de nieuwe beloften op het gebied van databeheer weer te geven. De nieuwkomers in de Big Data-sfeer richten zich op alle variëteiten in omvang en type data met heel duidelijk een focus op de ongestructureerde gegevens, gegenereerd door sociale media toepassingen. Snelle geheugens met snelle doorlooptijden maakt hun producten bij uitstek geschikt voor analytische toepassingen.

De Fast Data aanhangers hebben vaak een achtergrond in de sensorwereld. Zij voorzien met de snelle acceptatie van het Internet of Things (IoT) in een toenemende behoefte aan database structuren met ’streaming’ kwaliteiten. Analyses geschieden ’on the fly’ direct op de data uit operationele systemen. Voor een batch georiënteerd laadproces naar een datawarehouse is geen tijd. Sensordata is in principe gestructureerd, maar kent geen metadata. Het zoekproces laat zich dus lastig versnellen. Ook zijn er nog weinig standaard protocollen en dataformaten voorhanden buiten enkele leveranciers gebonden producten.

SQL zal niet snel verdwijnen

Door al die nieuwe databaseleveranciers en hun claims voor de toekomst vergeten we dat in de meeste datacenters de gevestigde orde van relationele databasesoftware dagelijks probleemloos miljoenen transacties verwerkt en daarmee nog steeds het data hart vormt van de kernapplicaties bij veel ondernemingen. SQL zal als de facto querytaal echt niet snel gaan verdwijnen onder druk van de NONSQL alternatieven.

Slide 1

Informatiearchitecten worstelen met het overaanbod van datasmaken in het applicatielandschap. Lang bepaalden leveranciers van standaardapplicaties het type databasemanagementsysteem binnen een organisatie. Wie aanvullende functionaliteit zocht, moest eerst nagaan of de gewenste software met het aanwezige dataplatform was te gebruiken. Was dat niet het geval, dan trok de ICT-afdeling zijn handen ervan af. Inmiddels heeft de ‘business’ het voor het zeggen en wordt er sneller uitgeweken naar een SaaS-oplossing, geleverd als ’managed service’ of als een cloud dienst. Neemt niet weg dat ook de functionaliteit van dergelijke varianten afhankelijk is van de achterliggende database. Voor het BI-domein geldt een geheel andere structuur dan voor de transactie georiënteerde processen.

Vorige jaar verrichte marktvorser IDC, gesteund door technologieleverancier InterSystems, een onderzoek naar de specificaties en andere kenmerken van databasemanagement oplossingen voor zowel transactie gedreven als analytische doeleinden in gebruik bij zo’n 500 ondernemingen, verdeeld over zeven landen (Brazilië, de Verenigde Staten, Duitsland, China, Japan, Australië en het Verenigd Koninkrijk). De deelnemende bedrijven waren van verschillende omvang en kwamen uit diverse sectoren.

Innovaties aanjagen en operaties stroomlijnen

De respondenten kregen onder meer een vraag voorgeschoteld over de voordelen die zij met de gekozen technologie trachtten te behalen. Het doel bij het merendeel van de bedrijven is om met hun databasetechnologie de innovaties binnen de organisatie aan te jagen en gelijktijdig de operationele activiteiten te stroomlijnen. Men wil zijn ICT-voorzieningen opwaarderen naar een niveau dat door IDC wordt aangeduid als het ’derde platform’. Dat is een omgeving met een verzameling van geïntegreerd functionerende technologieën die de digitale transformatie mogelijk maken met inbegrip van mobiele apparaten, IoT, Cloud, Big Data analyse en social media.

Twee van de drie respondenten onderzoeken nieuwe database platformen. Slechts een enkeling neemt open source varianten in ogenschouw. Bijna een kwart van de deelnemers gaf aan afscheid te nemen van zijn oude generatie databases en een kleine 20% overweegt een SaaS-oplossing. Iedereen gaf aan zich geplaatst te zien voor een keuzevraagstuk: ofwel de nadruk ligt op een database, ingericht volgens het schema voor transactieverwerking (write), ofwel de focus ligt op een datawarehouse met data afkomstig uit diverse transactionele databases met het schema op ’read’.

Managers en machines nemen beslissingen

Snelle besluitvorming vindt tegenwoordig plaats op alle niveaus binnen de organisatie. Project of product gerelateerde informatie komt terecht in data marts, waarop eindgebruikers hun vragen afvuren. Op het tactische niveau nemen operationele managers en zelfs machines beslissingen op basis van actuele (streaming) data. Op het strategisch niveau vergaren aparte data analisten grote hoeveelheden data om die in de juiste analytische kaders te plaatsen en als bruikbare beslissingsondersteunende informatie aan het hogere management voor te leggen. Bijna alle respondenten van het IDC-onderzoek gaven aan dat voor het aansturen en stroomlijnen van de bedrijfsprocessen, real time analyses onmisbaar zijn.

In hun gescheiden database domeinen (analytisch en transactioneel) zien de deelnemers aan het IDC-onderzoek de druk toenemen op de snelheid van uitvoering van ETL-processen (Extract/Transform/Load), die data van de ene omgeving naar de andere overbrengen. Meer dan de helft geeft te kennen dat met het verrichten van ETL-taken 5 tot 7 dagen gemoeid zijn. Maar 3 procent doet dat binnen één dag. Voor het nemen van beslissingen op basis van actuele (live streaming) data is een mix van analytisch en transactionele data nodig. Dat impliceert ’zero latency’, dus geen vertraging door langzame lees-schrijf acties en transformatieprocessen. Zelfs het gebruik van CDC technologie (Changed Data Capture), waarbij niet alle datasets worden gerepliceerd, maar alleen de wijzigingen worden meegenomen, vormt geen garantie van ’zero latency’.

Lange doorlooptijd van ETL-processen

De doorlooptijd van ETL-processen voor elke CDC-connectie ligt bij bijna de helft van de ondervraagde ondernemingen ergens tussen 10 minuten en een uur. Slechts bij 4% bedraagt die tijd minder dan 1 minuut. Bij ruim 2% is er zelfs sprake van 2 uur. Om die reden is driekwart van de respondenten de mening toegedaan dat er kansen voor de business zijn blijven liggen, vanwege het niet op tijd bij elkaar kunnen brengen van operationele en analytische data. Zij geven min of meer toe dat daardoor de efficiency en effectiviteit bij dagelijkse bedrijfsvoering in het geding raakt.

IDC noemt die constatering zorgelijk, te meer daar de complexiteit en de kosten van dataopslag snel toenemen. De meeste bedrijven beschikken over 5 productiedatabases voor de transactiedata. Een kwart heeft er zelfs meer dan 10. Van de respondenten geeft 60% te kennen meer dan 5 analytische databases in de lucht te houden, terwijl 30% die inspanning moet verrichten voor meer dan 10 gegevensverzamelingen. In alle gevallen wordt uitgegaan van één tot twee 2 Database Administrators (DBA’s) per database. Meer dan 90% van de respondenten ziet een database platform wel zitten waarin relationele data en niet relationele data samen existeren. Verder willen zij dat dit platform toestaat complexe analytische queries uit te voeren op operationele data zonder dat daarmee de dagelijkse transactieverwerking in het geding komt. Daarnaast moet het platform flexibiliteit en schaalbaarheid bieden.

Multi dataplatform IRIS

rollup okt 2017.indd

De ondersteuning van InterSystems aan het IDC-onderzoek heeft alles te maken met het meest recente product van deze Amerikaanse softwaretechnologieproducent: het multi dataplatform IRIS. Met een ingebouwde krachtige database is dit het allereerste dataplatform met functies voor interoperabiliteit, geschikt voor alle vormen van bedrijfskritische en data-intensieve applicaties, ongeacht of gebruikers deze toepassen voor transactieverwerking of voor analytische doeleinden. Het uitrolmechanisme van IRIS is gericht op zowel cloud, on-premise en hybride omgevingen. “In toenemende mate bestaat bij ondernemingen de behoefte om met één coherente datastroom zowel analyses uit te voeren als transacties te registreren en niet langer afhankelijk te zijn van afzonderlijke databases”, aldus Carl Olofson, vice president research of Data Management Software bij IDC. “InterSystems brengt zijn open architectuur op een hoger niveau met een oplossing om bestaande infrastructuren en ’best-of-breed’ technologieën naadloos samen te voegen ter ondersteuning van een brede variëteit in applicatiebehoeften en bedrijfsomgevingen."

Frans van der Geest

Meer over
Lees ook
Nederlands project krijgt financiering om energieverbruik en CO2-uitstoot datacenters terug te dringen

Nederlands project krijgt financiering om energieverbruik en CO2-uitstoot datacenters terug te dringen

Een consortium van zeven Nederlandse bedrijven en kennisinstellingen krijgt financiering van het ministerie van Economische Zaken en Klimaat nadat de Europese Commissie op 5 december jl. groen licht gaf aan het IPCEI-CIS programma.

Onderzoek SAP CFO’s staan bij duurzaamheid aan de zijlijn

Onderzoek SAP CFO’s staan bij duurzaamheid aan de zijlijn

Nederlandse leidinggevenden nemen concrete actie voor duurzaamheid, maar er zijn nog obstakels voor langetermijnsucces. Gebrek aan financiering is daarbij de grootste zorg. Dat is de belangrijkste conclusie voor Nederland uit de Environmental Sustainability Study 2023 (Wave 3). Dit onderzoek van SAP analyseerde de houding en het gedrag van bedrijv1

Nieuwe supercomputer van Jules Verne consortium biedt ongekende rekencapaciteit

Nieuwe supercomputer van Jules Verne consortium biedt ongekende rekencapaciteit

Het Jules Verne consortium ( GENCI en CEA in Frankrijk en SURF in Nederland) maakt bekend dat GENCI begin 2026 een nieuwe Europese supercomputer zal huisvesten en exploiteren in Frankrijk. De supercomputer zal worden gebaseerd op Europese hardware- en softwaretechnologieën.