Beëindiging monitoring metadatakwaliteit NGR

Geonovum stopt met het eens per kwartaal monitoren van de metadatakwaliteit in het Nationaal Georegister. De afgelopen jaren bleef de kwaliteit stabiel en zien we dat de actieve aanbieders voldoende scoren.

Sinds 2013 heeft Geonovum elk kwartaal een monitoring uitgevoerd op de kwaliteit van de metadata in het Nationaal Georegister. Doel van deze monitoring was het verbeteren van de metadata die met name voor gebruikers van belang zijn. Denk bijvoorbeeld aan het controleren of de contactgegevens nog actueel waren, of licentievoorwaarden duidelijk waren en of de verwijzingen naar de data aanwezig waren. De monitoring en de aandacht voor de metadatakwaliteit in het GI-beraad, hebben ertoe geleidt dat het overgrote deel van de metadata kwalitatief op orde is.

Per 1 januari 2020 is de financiering voor de metadatakwaliteitsmonitoring beëindigd. Om deze reden is er in het najaar van 2019 geen monitoring meer verspreid. Met de nieuwe release van het Nationaal Georegister zou de automatische monitoringstooling aangepast moeten worden. Deze investering was met het oog op het beëindigen van de monitoring niet meer te rechtvaardigen.

Zelf toetsen
Partijen die de kwaliteit van de eigen metadata willen blijven bewaken, kunnen hun eigen controlemechanismen opzetten. De handleiding metadatakwaliteit die Geonovum heeft ontwikkeld kan je daarvoor als uitgangspunt blijven gebruiken. Metadata-aanbieders die overwegen om zelf hun metadatakwaliteit te gaan monitoren, kunnen we met advies bijstaan. Ook blijft Geonovum via de helpdesk (bereikbaar via https://www.geoforum.nl of geostandaarden@geonovum.nl) en via inloopspreekuren metadata-aanbieders ondersteunen.

1 like

Ha @Just_OSGeo, ik vraag me af of we hier iets met #geohealthcheck kunnen, partijen die geohealthcheck al hebben draaien zouden eenvoudig ook een metadata kwaliteits test toe kunnen voegen. Het aardige van de geonovum test was dat deze ook testte of de link naar de data vanuit de metadata (op dat moment) beschikbaar was, zo’n test ligt heel erg in het verlengde van geohealthcheck.

Lijkt me interessant om hier een proof of concept voor op te zetten, zijn er partijen die geïnteresseerd zijn om hieraan bij te dragen?

Het verbeteren van (meta)data kwaliteit was een mooi initiatief van geonovum (en achterliggende ministeries voor de financiering). Ik heb menig maal data providers aan de lijn gehad die naar aanleiding van die rapportage informeerden hoe ze hun metadata kwaliteit op orde kunnen krijgen. Jammer daarom dat dit tijdperk van actieve sturing op kwaliteit tot een einde komt. Mogelijk kan dit forum, en specifiek deze thread een discussie plek worden waar we brainstormen over andere vormen van sturen op kwaliteit. Dit forum zelf is bijvoorbeeld een tool die kwaliteits verbetering kan faciliteren. Mogelijk kunnen we de effectiviteit van het forum (de community) beter benutten en daarmee tot een community-driven kwaliteits sturing komen?

Je ziet in dit forum diverse threads die rechtstreeks linken aan bepaalde datasets, je zou de effectiviteit van zo’n discussie verbeteren door een link te maken met de nationaalgeoregister/pdok-portaal/data.overheid.nl pagina die de dataset beschrijft. Enerzijds kunnen mensen vanuit die pagina’s direct de community feedback over die dataset lezen, anderzijds kunnen zij direct een vraag stellen (die dan opgeslagen wordt in het geoforum). In groepjes als OGC wordt al lang over dit soort community feedback mechanismen nagedacht zie bijvoorbeeld Geospatial User Feedback (GUF) - Open Geospatial Consortium. Het geven en publiceren van feedback is ook een belangrijke best practise in de data-on-the-web best practices.

@pvgenuchten ja GeoHealthCheck (GHC) [1] kwam ook o.a. voort uit de “OGC Quality of Service and Experience DWG” [2].

Ik kan alleen maar zeggen dat het Plugin-systeem (“Probes”) van GeoHealthCheck erg flexibel is. Zo hebben we onlangs OGC API Features (WFS v3) en zelfs ESRI ArcGIS Feature API checking toegevoegd, maar je kunt eigenlijk elke REST API, ook niet-OGC, nu al in basis checken. Het is allemaal Python, bestaande tests, we denken zelfs aan OGC CITE, zijn te integreren. Het “crawlen” van service endpoints als WMS, WFS in CSW metadata is natuurlijk erg interessant, en vooral relevant. Wat heb je aan je metadata als de service daarachter down is, of als die, zeg WMS, 300 lagen bevat en laag 213 werkt niet? Daarvoor moet je een “geospatial service-aware” monitor hebben.

Ik weet niet hoeveel partijen GHC hebben draaien. Ken vnl. degenen die, naar tevredenheid, o.a. Provincie Zeeland, de GHC Cloud Service op geoqos.com [3] gebruiken. Ik gebruik GeoHealthCheck voor al mijn eigen, maar ook web services waar ik van afhankelijk ben.

Tot zover reclame. Zou een mooi project/PoC zijn om zoiets op te zetten. Laat weten, hier, of op GHC Gitter Kanaal [4], voor interesse!

[1] https://geohealthcheck.org/
[2] Domain working groups - Open Geospatial Consortium
[3] https://geoqos.com
[4] https://gitter.im/geopython/GeoHealthCheck

In het kader van metadata kwaliteit goed om wat initiatieven van onze wester buren te delen. De Schotse overheid heeft de afgelopen periode juist een programma opgestart voor de verbetering van metadata kwaliteit. Via database queries (met xpath expressies in postgres queries) worden kwaliteitsaspecten van de records in het national portaal geëvalueerd (lengte titel/samenvatting, dode links, etc) en per organisatie weergegeven in een dashboard (apache zeppelin). Van daaruit kunnen exports naar CSV gemaakt worden om te delen met de organisatie in kwestie. Een veel voorkomend probleem is bijvoorbeeld het niet voldoende uniek zijn van titels (“scholen”), waardoor datasets van verschillende gemeenten door search engines op 1 hoop gegooid worden als 1 dataset.

Ook de Geo Commissie op het niveau van het Verenigd koninkrijk is actief in het verbeteren van metadata kwaliteit. Zij hebben recent dit boekwerk geschreven, een best practice voor metadata vanuit zoek machine perspectief. Een aanrader om door te nemen. https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/865259/SEO_for_Data_Publishers_Best_Practice_Guide.pdf

Will je hier meer over horen, kom dan naar een van de volgende webinars:

  • Op vrijdag 12 juni om 11 uur zal Clara Boyd een toelichting geven op de Data Publishers Best Practice Guide in de sessie Innovaties in Data Discovery van de virtuele INSPIRE conferentie Virtual Workshops | INSPIRE
  • Op 23 juni om 16.30 (15.30 BST) presenteer ik samen met Jo Cook een sessie over zoekmachine vindbaarheid van spatial data en metadata kwaliteit op FOSS4GUK OSGeo:UK