Han Geurdes (CGI) presenteerde zijn use case over de Groningse aardbevingen, waarover John van Echteld in de plenaire zaal ook een presentatie hield (zie dropbox [1]. Han schetste eerst het probleem en legde onder andere uit hoe aardbevingen stochastisch van aard zijn (d.w.z. het toeval speelt een rol) en dat men dit wiskundig kan modelleren. Het idee van Han is om met behulp van een voorspellend wiskundig model gebouwen te kunnen aanwijzen die risico lopen om in te storten bij meer aardbevingen. Dit op basis van data van sensoren die voortdurend aardschokken meten, maar ook bouwkundige controlevariabelen van gebouwen die je kunt monitoren. Omdat dit voor gebouwen behoorlijk complex blijkt te zijn, is het nu de bedoeling om het eerst voor dijken te gaan modelleren aangezien deze objecten uniformer zijn in termen van stochastische input en controle variabelen.
Linda deed verslag van de W3C/OGC workshop "Linking Geospatial Data" die een week eerder plaatsvond bij Google in Londen. Een verslag van deze workshop is al te lezen op deze wiki; zie [2]. Linda noemde een aantal opvallende presentaties en de belangrijkste resultaten:
Matthijs Vonder en Arnoud de Jong vertelden hoe het gaat met het prototype waarin archeologische vindplaatsen worden gecombineerd met peilbuismetingen. Zowel de archeologische vindplaatsen, met dank aan Rein van 't Veer, en de peilbuismetingen, zijn al als linked data beschikbaar. Arnoud liet wat mogelijkheden de revue passeren om de sensordata te 'vertrippelen'. Wat is raadzaam: alleen een aantal geaggregeerde gegevens opslaan, zoals de gemiddelde, minimale en maximale gemeten waarden; of elke individuele meting als triple opslaan? Arnoud had vijf varianten waaronder deze uitersten. De uitdaging met sensordata is dat het al snel om enorme hoeveelheden triples kan gaan; denk aan sensoren die elke seconde een meting doen. Dit kan bijvoorbeeld performance problemen opleveren - niet alleen bij het bevragen van deze data, maar ook bij het wegschrijven ervan. Bovendien hebben de meeste gebruikers waarschijnlijk voldoende aan de geaggregeerde data, hoewel er natuurlijk altijd uitzonderingen te bedenken zijn. Hierover ontspon zich een interessante discussie, maar toen was het helaas al weer vijf uur geweest.
Het World Wide Web Consortium is een organisatie die de webstandaarden voor het wereldwijde web ontwerpt, zoals HTML, XHTML, XML, CSS en de Web Content Accessibility Guidelines. Het wordt geleid door Tim Berners-Lee, de originele bedenker van het HTTP-protocol en HTML, waar het web oorspronkelijk en nog steeds grotendeels op gebaseerd is.
De activiteiten van Platform Linked Data Nederland (PLDN) worden mede mogelijk gemaakt dankzij het Kadaster, TNO, Big Data Value Center (BDVC), ECP, Forum Standaardisatie, Kennisnet, SLO, Waternet, Taxonic, MarkLogic, Triply, Franz Inc., SemmTech, Rijksdienst voor het Cultureel Erfgoed (RCE), Beeld en Geluid, EuroSDR, de KVK en ArchiXL
Wilt u op de hoogte gehouden worden van nieuws en ontwikkelingen binnen PLDN?
Schrijf u dan in voor de nieuwsbrief