NEN werkt aan standaardisatie van Big Data

Er wordt hard gewerkt aan de standaardisatie van Big Data. De werkgroep ‘ISO/IEC JTC 1 WG 9 Big Data’ richt zich sinds november 2014 op het ontwikkelen van standaarden voor Big Data. De werkgroep moet vooral een basis leggen met daarin in ieder geval een vocabulaire, inclusief een referentiearchitectuur. De NEN geeft een overzicht van de huidige stand van zaken.

De studiegroep ‘ISO/IEC JTC 1 Study Group on Big Data’ heeft in 2014 de mogelijke gebieden voor standaardisatie rond Big Data onderzocht. De studiegroep kwam destijds tot de conclusie dat er sprake is van Big Data indien gegevensstromen dwingen tot een nieuwe systeemarchitectuur waarin complete datasets kunnen worden geanalyseerd in plaats van een deel, of een continue stroom van data in real-time. De werkdefinitie van Big Data die op basis hiervan is geformuleerd luidt:

‘Big Data is a data set(s) with characteristics (e.g. volume, velocity, variety, variability, veracity, etc.) that for a particular problem domain at a given point in time cannot be efficiently processed using current/existing/established/traditional technologies and techniques in order to extract value.’

Werkgroep ‘ISO/IEC JTC 1 WG 9 Big Data’

Daarnaast heeft de studiegroep deelgebieden gedefinieerd waarop standaardisatie kan plaatsvinden. De groep adviseerde hierbij een nieuwe werkgroep op te richten die deze standaardisatie gaat uitvoeren. Dit is de werkgroep ‘ISO/IEC JTC 1 WG 9 Big Data’ geworden, die in november 2014 aan de slag is gegaan. Deze werkgroep kan gebruik maken van andere normen en werkgroep, zoals die van security and privacy (SC 27) en data models (SC 32). In de werkgroep ‘ISO/IEC JTC 1 WG 9 Big Data’ vertegenwoordigen ruim 130 deelnemers 19 verschillende landen.

Het werk van ISO/IEC 20547 is opgedeeld in vijf delen:

  • Framework and Application Process - In dit deel wordt het raamwerk van de Big Data referentiearchitectuur beschreven en uiteengezet hoe iemand de standaard kan inzetten in hun specifieke omgeving.
  • Use Cases and Derived Requirements - Hierin worden praktijkgevallen omgezet in algemene eisen voor een referentiearchitectuur. Hierdoor moet een duidelijke verzameling van eisen ontstaan, waarvan gebruikers kunnen profiteren. Daarnaast kan de verzameling worden gebruikt om de referentiearchitectuur tegen te spiegelen.
  • Reference Architecture - De Big Data Reference Architecture (BDRA) definieert de functies, activiteiten, functionele onderdelen en hun onderlinge relaties.
  • Security and Privacy Fabric - Hierin is de structuur voor de beveiliging en privacy gedefinieerd.
  • Standards Roadmap documents - In deze documenten zijn zowel de bestaande als in ontwikkeling zijnde standaards voor Big Data vastgelegd. Ook worden in deze documenten de prioriteiten voor toekomstige normen vastgelegd.

Eigen systemen en formaten

NEN stelt dat de uitdaging van de werkgroep vooral ligt in het feit dat veel gegevens zijn opgeslagen in eigen systemen en formaten. De normen waaraan wordt gewerkt moeten ervoor zorgen dat gegevens eenvoudiger met elkaar in contact kunnen komen en uitgewisseld kunnen worden.

Een aantal normalisatie eisen zijn al geïdentificeerd:

  • API’s ontwikkelen voor data-toegang en -uitwisseling;
  • standaarden opstellen voor data-integratie en betekenisvol uitwisselen;
  • lifecycle management voor gegevens;
  • het bijhouden van gegevens;
  • betekenis toekennen aan gegevens (annotation);
  • verrijkte modellen en architecturen voor verschillende sectoren, met behulp van relevante terminologie;
  • meertalige kennisbanken die partijen de mogelijkheid bieden hun gegevens eenvoudiger met anderen te delen.
Meer over
Lees ook
Dassault Systèmes neemt NuoDB over

Dassault Systèmes neemt NuoDB over

Dassault Systèmes heeft NuoDB volledig overgenomen. Dassault Systèmes bezat reeds 16% van de aandelen van deze in 2010 in Cambridge, Massachusetts opgerichte ontwikkelaar van cloud-native distributed SQL database-technologie. Het Franse technologieconcern neemt nu ook de overige aandelen over.

Paneldiscussie van Altair: ‘We hebben behoefte aan een nieuwe generatie data scientists’

Paneldiscussie van Altair: ‘We hebben behoefte aan een nieuwe generatie data scientists’

Steeds meer bedrijven gebruiken machine learning en AI om klanten beter te bedienen en werk- en productieprocessen verder te stroomlijnen. De tools die hierbij worden ingezet, zijn inmiddels dermate krachtig dat een nieuwe generatie data scientists nodig is om maximaal van de mogelijkheden gebruik te maken. Doen we dat niet, dan is de kans groot d1

Qlik vernieuwt big data-tools

Qlik vernieuwt big data-tools

Qlik blijft enterprise-klanten helpen bij hun end-to-end datamanagement en analytics oplossingen en heeft daarom deze maand zijn big data aanbod uitgebreid met een nieuwe versie van Podium Data en de Qlik Associative Big Data Index gelanceerd. Met dit vernieuwde aanbod optimaliseert Qlik op ambitieuze wijze de gegevensstroom voor enterprises, van1