PDOK caching server?

Weet iemand een manier om de data uit PDOK te “cachen”?
Het komt namelijk soms voor dat ik meerdere keren per dag een grote set data wil resolven en dan ga ik nogal eens over de 50 duizend queries per dag limiet.

Hallo Folkert,
Welkom!

Ik begrijp niet helemaal wat je bedoelt met

maar je kunt de data, als je die hebt opgehaald, toch lokaal opslaan? en dan de 2e en 3e en x-e keer van die lokaal opgeslagen gegevens gebruik maken?

Een aantal keer per jaar heb ik de hele BAG en DKK nodig, dus die download ik dan eerst (meestal via de Atom-download services), en gebruik dan die lokale data. Je moet je proces waarschijnlijk wat aanpassen, maar dat lijkt me niet zo’n heel groot probleem.

Beste Folkert,

Je geeft aan “dan ga ik nogal eens over de 50 duizend queries per dag limiet”. Kan je aangeven waar je dat ervaart? Er zit namelijk geen (harde) beperking op PDOK services en API’s in het aantallen bevragingen dat je kan doen.

Het enige is dat de WFS een beperking kent waarbij je niet een startIndex hoger dan 50.000 mag gebruiken. Je krijgt dan een melding zoals It is not possible to use a 'startindex' higher than 50.000. When you need to scrape the WFS, please refer to the extracts or the ATOM downloads available for this dataset. Loop je daar tegenaan?

NB: De OGC API Features (alternatief voor WFS) kennen deze beperking niet.