Skip to main content

Platform giver forskere datamanagement for projekter

Et pilotprojekt har etableret en teknisk platform, der understøtter alle elementerne i livscyklussen for forskningsdatamanagement. En forsker bruger den til at analysere data om århusianske huses energiforbrug.
By
18/01/2017 10:01

Science Cloud for CITIES er en danskudviklet platform til forskningsdatamanagement. Forskere fra Danmarks Tekniske Universitet, Syddansk Universitet og Aarhus Universitet har udviklet den i et pilotprojekt støttet af DEFF (Danmarks Elektroniske Fag- og Forskningsbibliotek) og DeiC.

"Formålet med projektet er at understøtte hele forskningsprocessen, lige fra forskningsdata hentes ind, de behandles, analyseres og visualiseres, til de bliver publiceret og arkiveret. Det har vi opnået, de første forskere har allerede brugt systemet," fortæller lektor Alfred Heller fra DTU Byg.

Alfred Heller, DTU
"Forskningsverdenen er ikke tunet til datamanagement. Vi savnede nogle værktøjer, så derfor udviklede vi dem selv," siger Alfred Heller fra CITIES-projektet.

Han er vicecenterleder for CITIES (Centre for IT–Intelligent Energy System in Cities). Det er et projekt støttet af Innovationsfonden, der skal udvikle metoder og IT-løsninger til analyse, drift, planlægning og udvikling af byområders energisystemer.

Analyserer data om huse

Et af de første projekter, der anvender Science Cloud for CITIES, bygger på data om energiforbruget i 45.000 bygninger i Aarhus. Dataene stammer fra el- og varmemålere, der indrapporterer målinger over nettet.

"Ud fra dataene har vi dannet to modeller. Den ene model klassificerer huse, så de bliver opdelt i godt tyve forskellige typer ud fra deres energimønster. Den anden er en energimodel over hele Aarhus, der beskriver byens energiforbrug og CO2-udledning," siger Alfred Heller.

Projektet er udført af ph.d. Panagiota Gianniou fra DTU Byg ved hjælp af Science Cloud for CITIES. Som led i arbejdet har hun udarbejdet en metodik for, hvordan dataene er blevet analyseret. Den opskrift fremgår af notesbøger og andre oplysninger, hun gemmer i systemet.

"Hun har brugt to år på at udvikle metoden. Nu kan enhver forsker eller studerende genbruge hendes metode. Det kræver kun en halv times arbejde med at tilpasse opskriften til deres egne projekter," siger Alfred Heller.

Systemet understøtter både åbne data, som alle kan få adgang til, og fortrolige data med adgangskontrol. Seniorforsker Xiufeng Liu fra DTU Management har udviklet systemet og arkitekturen bag det.

Datamanagement skal være en service

"Vi har udviklet systemet, fordi vi har brug for det. Men i virkeligheden er forskere ikke interesserede i datamanagement. Vi er interesserede i at forske. Ideelt set burde datamanagement være en service, vi kunne få leveret, så vi bare skal klikke på nogle knapper og indtaste de nødvendige oplysninger. Det kunne være en tjeneste fra DeiC," bemærker Alfred Heller.

I fremtiden venter han, at systemer til forskningsdatamanagement skal udvides til at betjene en bredere målgruppe.

"Vi taler om triple helix, hvor universitetet indgår sammen med erhvervslivet og det offentlige. I dag er vores system begrænset til den akademiske verden, men i fremtiden skal det skalere til også at betjene de andre parter," siger han.

Det vil blandt andet kræve en udvidelse af adgangskontrollen. I dag anvender systemet WAYF, som er udbredt i den akademiske verden. Hvis almindelige borgere senere skal kunne få adgang til data, kræver det en udbygning.

Science Cloud for CITIES er udviklet til energiforskning. Men Alfred Heller mener, at andre fagområder også vil kunne bruge det. Det vil kræve tilpasning, især inden for de analytiske værktøjer, forskerne har brug for. De adskiller sig typisk fra område til område, mens de øvrige elementer i livscyklussen er mere generiske.

Links

Science Cloud for CITIES

Science Cloud for CITIES understøtter den typiske livscyklus for forskningsdata.

  • Data hentes ind og lagres i en database eller et andet passende format.
  • Data konverteres og tilrettes til systemets krav.
  • Data undersøges for fejl og andre problemer.
  • Data analyseres med værktøjer som analyseprogrammer, programmeringssproget R og programmer til analyse af big data.
  • Data visualiseres og publiceres.
  • Data arkiveres eller slettes.