De WCS lijkt ook andere resultaten te geven… Lijkt alsof het output format is veranderd? Als ik een gebied van 2 bij 2 km opvraag met een resolutie van 5 m (400 x 400 cellen), en output format geotiff Float 32, dan zou ik minimaal 640,000 bytes aan data moeten hebben, maar het bestand is maar 406 kb groot… Ik heb nog een oude download van exact dezelfde request, en die is 626 kb en kan ik wel op de reguliere manier inlezen… Wat gaat hier mis?
Hoi Anton, ja ik kan het bestand wel downloaden via de service, maar het format/de structuur van het bestand is veranderd ten opzichte van de oude request (met exact dezelfde link).
Het oude bestand is 626 KB (641,006 bytes), en bevat een file header van 1006 bytes, en dan 400 x 400 floats van 4 bytes per float (correspondeert met width en height van de request).
Het nieuwe bestand heeft dus een hele andere opbouw en bevat minder bytes dan het theoretisch gezien zou moeten bevatten als ik naar het type (float32) en de rastergrootte (400x400) kijk.
Hebben jullie iets veranderd aan de wijze waarop jullie de data naar TIF exporteren?
Nee & ja, het verschil zit hem voornamelijk in de onderliggende ‘bron’ TIFs.
Zoals jullie hebben kunnen lezen zijn er nieuwe AHN3 url’s
We hebben een compleet nieuwe AHN3 stack op Azure gezet, inclusief de +/-5TB aan data die dit betreft. Er zijn op dit moment dus 2x AHN3 omgevingen (de nieuwe: service.pdok.nl en ouwe: geodata.nationaalgeoregister.n). Gezien alle infra en storage wilde we graag de ouwe omgeving afstoten omdat dit veel kost. Het idee was dat we het ouwe interne verkeer naar de nieuwe omgeving konden proxyen en dus voor een periode van 6 maanden het ouwe verkeer op deze manier nog te faciliteren. (maar helaas )
Dit kwam dus doordat we het verkeer proxyen naar de nieuwe omgeving (wat we dus nu terugdraaien)
We blijven de komende 6 maanden nog het ouwe verkeer routeren naar de ouwe interne omgeving. (we hadden deze nog niet weggegooid, voor dit geval…)
let wel op dat de nieuwe AHN3 service op bovenstaande punten dus gaat “afwijken”
Deze afwijkingen komen o.a. door verschillende verbetering in hoe de TIFs worden opgebouwd.
doordat we nu gebruik maken van Cloud Optimized GeoTIFF (cogeo.org) zijn o.a. de overviews anders dan de ouwe AHN3 bron tifs (dit zijn trouwens niet de AHN3 kaartbladen die men kan downloaden)
en hoe ze worden gecomprimeerd (626kb → 412kb)
Misschien ook goed om te vermelden is, m.b.t. de motivatie voor deze nieuwe setup op Azure is dat we daarmee een significant snellere (en schaalbare) WCS kunnen neer zetten door gebruik te maken van COG i.c.m. blobstorage.
Ah ok. Ik dacht dat ik een andere url had (ahn3/ows) en had dus niet in de gaten dat dit hetzelfde betrof als de wms. Zal eens kijken naar de nieuwe url, dan neem ik die gelijk mee in onze software.
Hartelijk dank voor de uitgebreide toelichting, duidelijk verhaal! En ik zie dat hij inmiddels de oude wcs service alweer gebruikt (als ik bovenstaande url nu gebruik krijg ik weer een bestand van 626 kb ).
Dus we hebben nog een paar maandjes om onze tools op het nieuwe format aan te passen !
Ik heb inmiddels gevonden dat compression type 8 “Deflate (‘Adobe-style’)” wordt gebruikt bij de nieuwe service. Ik heb nog geen idee hoe je dat moet de-compressen. (we lezen de ruwe data in met fortran scripts, dus we kunnen geen gdal o.i.d. gebruiken om de bestanden in te lezen).