Datasenteret til den Digitale Tvillingen
Digitale Tvillinger regnes som en innovasjon som gir en virtuell kopi av virkelige eiendeler og deres omgivelser. Digitale Tvillinger gir mange fordeler på tvers av ulike sektorer, inkludert byggsektoren. Imidlertid mangler mange brukere innsikt i prosessen med å lage en Digital Tvilling. I denne serien har vi derfor som mål å gi innsikt i hvordan en Digital Tvilling blir til. Mens forrige artikkel handlet om kravene til en Digital Tvilling, vil denne artikkelen ta for seg datasenteret til den Digitale Tvillingen og Digitale Tvilling-datamodeller. Bli inspirert nå!
Teknisk plattform
Den tekniske plattformen er kjernen for å drive den Digitale Tvillingen og består av programvarekomponenter som håndterer oppgaver som datalagring, databehandling og datastyring. Disse komponentene er byggesteinene i infrastrukturen til den Digitale Tvillingen:
- Hosting og distribusjon: Grunnlaget for infrastrukturen til den Digitale Tvillingen er etablert på en skyplattform drevet av Google Kubernetes Engine (GKE). Skymiljøet organiserer ressurser dynamisk, og tilpasser seg bruken av den Digitale Tvillingen. I tillegg benyttes Docker for å pakke programvare, og sikrer at alle de individuelle tekniske komponentene kan fungere sammen.
- Sikkerhet: Å sikre konfidensialiteten og sikkerheten til sensitiv informasjon og data er viktig innen den tekniske plattformen. Robuste sikkerhetsfunksjoner er integrert for å beskytte mot cybertrusler og uautorisert tilgang. Brukerroller er tilpassbare, noe som betyr at de forskjellige delene av den Digitale Tvillingens infrastruktur kun kan gjøres tilgjengelige for bestemte personer. Dette gjør at vi kan overholde ISO-standardene for digital sikkerhet.
- Åpen kildekode: Programvare med åpen kildekode har offentlig tilgang til kildekoden, noe som muliggjør inspeksjon, modifikasjon og forbedring etter behov. Sogelinks Digitale Tvilling-plattform bruker også programvare med åpen kildekode, noe som gjør det mulig å tilpasse seg spesifikke krav til opprettelsen av den Digitale Tvillingen. I tillegg til programvare med åpen kildekode benytter vi også andre metoder for datainnsamling, som dataarkiver og sensordata.
- Åpne standarder: Åpne standarder er viktige elementer for effektiv drift av en Digital Tvilling. For eksempel sikrer standarder for dataformater, metadata, datakataloger og datautveksling konsistens og kompatibilitet på tvers av forskjellige systemer. Den Digitale Tvillingens infrastruktur er bygget på åpne standarder, som legger til rette for sømløs databehandling og bruk. Mange av geodatastandardene vedlikeholdes av Open Geospatial Consortium (OGC).
Lagring av data for Digitale Tvillinger
Digitale Tvillinger baseres på data – og disse dataene må lagres. Det finnes mange forskjellige typer databaser, hver med sine egne fordeler. Valget av database avhenger av faktorer som dataformater og tiltenkt bruk. Dette skal vi utforske nærmere:
- Objektlagring: Data, som for eksempel 3D-fliser, kan lagres som filer, bilder eller tekstbaserte formater som CSV eller JSON. Disse dataobjektene oppbevares i skybaserte “storage buckets”, noe som gir fleksibilitet til å skalere opp eller ned etter behov.
- Relasjonelle data: Strukturert i et tabellformat med kolonner og rader, brukes relasjonsdatabaser til å lagre relasjonelle data. PostgreSQL utmerker seg som et åpen kildekode-databasesystem designet for dette formålet. Dette systemet tilbyr utvidelser for å optimalisere lagringen for ulike datatyper, inkludert PostGIS for geospatiale data, h3 for heksagonale rutenett og pgvector for AI-applikasjoner.
- Realtidsdata: Realtidsdata, som kontinuerlig samles inn og behandles av sensorer, spiller en viktig rolle i skapelsen av den Digitale Tvillingen. Disse realtidsdataene gir sanntidsinnsikt i eiendelene eller andre opplysninger som mengden trafikk eller værforholdene. Hydra er en utvidelse for PostgreSQL for effektiv lagring av tidsseriedata gjennom kolonnelagring for raske analytiske spørringer. Tidsseriedata kan også lagres i Parquet-filer for enkel eksport, samtidig som lagringsbruken reduseres betydelig.
- Vektordata: Vektordata refererer til konvertering av data til numeriske vektorer. pgvector er en utvidelse for PostgreSQL for å lagre slike data. Vektordatabaser, som er mye brukt innen felt som naturlig språkbehandling, er optimalisert for lagring og spørring av disse vektorene.
Datastyring for Digitale Tvillinger
Etter hvert som datamengden øker, blir det stadig mer utfordrende å opprettholde en klar oversikt. Datastyring for Digitale Tvillinger handler om å holde oversikt over datakvalitet, sporbarhet og annen metadata. Ved å bruke FAIR-prinsippene (Findable, Accessible, Interoperable, Reusable), sikrer vi at data forblir godt organisert og brukbart.
Datasett innenfor den Digitale Tvillingen er systematisk katalogisert sammen med deres metadata. Metadata er viktige beskrivelser av data og gir informasjon som lisenser, kvalitet og struktur. Metadata spiller en viktig rolle i datasporing og deling av datasett.
Verktøy for Digitale Tvillinger
Når vi har vår tekniske plattform klar og har samlet store mengder data, er det på tide å forme dataene etter behovene til den Digitale Tvillingen. Dette kan gjøres ved å undersøke ulike datadrevne verktøy for Digitale Tvillinger. En datadrevet tilnærming handler om å få mest mulig verdi ut av dataene. Dette kan oppnås gjennom ulike metoder, inkludert kombinasjon av eksisterende datasett for å generere nye data og bruk av modellerings- og maskinlæringsteknikker for å skape nye innsikter. Vi vil se nærmere på disse metodene:
- Datafusjon samler data fra forskjellige kilder. Målet er å kombinere dataene for å skape et nytt datasett med høyere verdi. Datafusjon kan utføres på forskjellige måter. For eksempel kan vi ta vårt 3D-bygningsdatasett, hvor punktskydata kombineres med bygningers grunnflater for automatisk å generere 3D-bygningsmodeller.
- KI og maskinlæring (ML) blir stadig viktigere innen Geo-IT for å analysere store mengder data. ML, en undergruppe av kunstig intelligens (KI), gjør det mulig for datamaskiner å lære av data uten behov for programmering. ML-algoritmer er i stand til å lære av data og gjøre prediksjoner basert på lærte mønstre. For eksempel kan ML-algoritmer oppdage objekter i bilder eller forutsi fremtidige hendelser basert på historiske data. ML kan for eksempel identifisere vinduer fra flybilder og integrere denne informasjonen i et bygningsdatasett. Dette er interessant for en Digital Tvilling innen energisektoren. Vi kan for eksempel bruke dette til å beregne energiforbruket i et hus, siden energi kan slippe ut lettere gjennom vinduene.
- Prediktiv modellering lar oss simulere og forutsi oppførselen til et system. Modeller er i bunn og grunn beregninger som kan brukes til å teste forskjellige scenarier under ulike forhold. For eksempel kan modeller forutsi stabiliteten til infrastrukturelle eiendeler under forskjellige scenarier. I sammenheng med smarte byer kan KI-modeller forutsi strømmer av mennesker i offentlig transport og trafikk, noe som gir viktige innsikter for effektiv byplanlegging.
Ønsker du å vite mer om hvordan en Digital Tvilling bruker sanntidsdata for prediktiv modellering? Besøk vår side om Digitale Tvillinger.
Databehandlingspipeliner
Innenfor infrastrukturen til den Digitale Tvillingen flyter data mellom lagringssteder og behandlingsverktøy. Denne overføringsprosessen er vanligvis kjent som ETL: Extract, Transform, Load. Vårt mål er å sørge for at ETL-pipeliner opererer jevnt og effektivt. Vi vil se nærmere på noen eksempler på databehandling for digitale tvillinger:
- Georeferering: Det finnes et stort antall koordinateferansesystemer. For å sikre at all data for den Digitale Tvillingen kan brukes sammen, må all data tilpasses samme koordinatsystem (dvs. georeferering). GDAL, et robust åpen kildekode-bibliotek for geospatiale databehandling, er viktig for konvertering av data til ulike koordinatsystemer og geografiske formater.
- 3D-datakonvertering: For å lette visualisering konverteres data til 3D-formater. PostGIS er et nyttig verktøy for å konstruere 3D-geometrier innenfor en PostgreSQL-database. Sogelink Research bruker egendefinerte verktøy, som pg2b3dm og i3dm.export, for å direkte konvertere 3D-data fra PostgreSQL-databaser til standardiserte 3D-formater.
- Automatisert ETL-prosess: ETL-pipeliner kan være komplekse fordi nødvendig input og output varierer mellom forskjellige databehandlingsverktøy. Automatisering av denne ETL-prosessen bidrar til å forhindre feil og holde dataene oppdaterte. Mage er et verktøy for å automatisere komplette ETL-pipeliner, for å hente ut data fra en kilde, transformere dem og deretter laste dem inn i en database. I tillegg legger det til rette for planlegging av pipeliner med jevne mellomrom for å opprettholde dataens ferskhet.
Digital Tvilling API-er og tjenester
Nå som vi har muligheten til å lagre, behandle og administrere dataene våre, integreres ikke disse dataene automatisk i den Digitale Tvillingen. Det siste trinnet i datakjernen er å tilgjengeliggjøre dataene for brukerne. Dette oppnås gjennom API-er, som er programvarekomponenter som muliggjør kommunikasjon og datautveksling mellom applikasjoner. Her kommer mer informasjon om Digital Tvilling API-er og tjenester:
- Web-API: Databehandlingsverktøy kan integreres i et rammeverk for web for å muliggjøre HTTP-baserte forespørsler. Med dette blir modellerings- og simuleringsalgoritmer direkte tilgjengelige via nettet. Dette betyr at sluttbrukere kan kjøre simuleringer i sanntid.
- Database-API: Databaser kan også forespørres direkte via nettet. API-er som PostGraphile, pg_featureserv og Observable's database proxy muliggjør kommunikasjon med PostgreSQL for å legge til rette for behovsstyrt datainnhenting fra databasen.
- OGC Web Map Services: OGC Web Map Services (WMS) og Web Map Tiled Services (WMTS) er standardprotokoller etablert av Open Geospatial Consortium (OGC) for deling av 2D-kartlag online. Disse tjenestene brukes ofte i GIS-systemer for å be om og motta kartbilder fra eksterne servere. GeoServer er et åpen kildekode-verktøy som brukes til å publisere geospatiale data som webtjenester.
- Tiled Map Services: Alternativer som Cloud Optimized GeoTIFF (COG), MBTiles og PMTiles leverer kartlag på en skalerbar og kostnadseffektiv måte uten behov for serverstyring, og tilbyr effektive løsninger for å distribuere kartlag.
- OGC SensorThings API: OGC SensorThings API er en standard for å gi tilgang til IoT-sensordata. Utviklet av Open Geospatial Consortium (OGC), gir denne API-en en åpen og enhetlig metode for å koble IoT-enheter og applikasjoner over nettet. FROST-Server, en åpen kildekode-implementering av SensorThings API, letter integreringen av sanntids sensordata for Sogelinks Digitale Tvilling-plattform.
Kort oppsummert
- Den Digitale Tvillingens kjerne, dens tekniske plattform, håndterer datalagring, behandling og administrasjon. Oppsummert er den tekniske plattformen ryggraden i den Digitale Tvillingen, som garanterer effektiv og sikker datahåndtering for optimal ytelse.
- Å håndtere data i den Digitale Tvillingen er viktig etter hvert som volumet øker. Å følge FAIR-prinsippene (Findable, Accessible, Interoperable, Reusable) sikrer at dataene er godt organisert og brukbare.
- Datafusjon kombinerer tilgjengelige datakilder for nye innsikter, for eksempel ved å slå sammen punktsky- og bygningers grunnflatedata for å lage 3D-modeller. Maskinlæring analyserer store datasett, identifiserer objekter i bilder eller forutsier hendelser. Prediktiv modellering simulerer systematferd, og hjelper med å forutsi infrastrukturens stabilitet og byplanlegging i smarte byer.
- I den Digitale Tvillingens infrastruktur flyter data sømløst mellom lagrings- og behandlingsverktøy gjennom ETL-prosesser (Extract, Transform, Load).
- Tilgjengelighet av data er viktig, og oppnås gjennom API-er som muliggjør kommunikasjon mellom applikasjoner.
FAQ
- Hva er datasenteret til den Digitale Tvillingen?
Datasenteret til den Digitale Tvillingen er kjernen i den Digitale Tvillingen, som er ansvarlig for å administrere datalagring, behandling og tilgjengeliggjøring innenfor en teknisk plattform.
- Hva er hovedkomponentene i den tekniske plattformen?
Den tekniske plattformen inkluderer vertstjeneste og distribusjon i et skymiljø, robuste sikkerhetsfunksjoner, bruk av åpen kildekode-programvare og standarder, samt integrering av KI- og maskinlæringsteknologier.
- Hvordan lagres data i datasenteret til den Digitale Tvillingen?
Datalagring omfatter ulike typer som objektlagring for filer, relasjonsdatabaser som PostgreSQL, kolonnelagring for sanntidsdata og vektordatabaser optimalisert for KI-algoritmer.
- Hvordan administreres data i datasenteret til den Digitale Tvillingen?
Datastyring følger FAIR-prinsippene (Findable, Accessible, Interoperable, Reusable), systematisk katalogisering av datasett med metadata, overholdelse av standarder som ISO-19115 for geospatiale metadata, og bruk av KI for forbedret søk i datasett.
- Hvilke analytiske verktøy brukes i datasenteret til den Digitale Tvillingen?
Analytiske verktøy inkluderer datafusjon for å kombinere datasett, KI og maskinlæring for dataanalyse, samt prediktiv modellering for å simulere systemoppførsel under ulike forhold.
Besøk vår FAQ-side om Digitale Tvillinger for flere ofte stilte spørsmål om Digitale Tvillinger.