Database Management Techniques

Alle databaser krever løpende vedlikehold og forvaltning for å opprettholde sin effektivitet og hurtighet. Vi vil utforske flere teknikker som brukes av databasesystemene for å sikre at deres data er trygge, og deres programvare fortsetter å utføre etter behov.

data Normalisering

Normalisering betyr at alle data i databasen legges inn på samme måte. Det er avgjørende for funksjonaliteten til databasen, og må overvåkes kontinuerlig når en database er rutinemessig oppdatert av hånd tastet inn data.

For eksempel vurdere følgende tre navn: John Smith, Jonathan Smith, Jonathan R. Smith. En menneskelig leser kan forstå at alle de tre navnene refererer til samme person, så da John Smith kaller ber om en ordre som ble sendt til Jonathan, kan hans behov håndteres på riktig måte. En database, men kan ikke gjøre tilkoblingen mellom disse tre navnene, og vil vurdere dem som tre separate kunder (med tre separate ordrehistorikk) dersom alle tre navn føres for hånd.

Likeledes synes disse telefonnumrene de samme: (215) 555-2150 og 215-555-2150. Men de er ikke det samme til en database; avhengig av hvordan programvaren behandler streker i tekststrenger, er det første telefonnummeret to ord, men den andre er bare en. Enhver programma script som velger et retningsnummer ved analyse av ord, for eksempel, vil mislykkes når de vurderer det andre tallet.

Den beste måten å unngå normaliserings problemer er med streng dataregistrering kontroll: enten forhindre en bruker fra å komme inn misdannede data, eller enda bedre ta det data og reformatere det før det lagres internt. Et telefonnummer feltet kunne kaste bort alt som ikke er en 0-9 siffer og legge parentes og streker - men det må først konvertere eller avvise alfanumeriske telefonnumre som 800-MY-PHONE.

Database Fysisk størrelse, RAM bruk, og Speed

Databaser tendens til å vokse over tid; det er vanlig for bedrifter å fokusere på å legge inn nye data inn i dem, men å betale mye mindre oppmerksomhet til culling gamle og ubrukte data ut. Det er sjelden en god idé å kaste gamle data unna; det er alltid mulig at noen avgjørende informasjon i fremtiden vil bli oppnådd ved å samle og analysere siste databasen poster.

Dette betyr at databasesystemet må ta hensyn til den fysiske størrelsen på databasen er lagret på disken. Vanligvis er det viktig å holde en massiv mengde ledig plass overhead på lagringsstasjoner; på den måten, en rogue skript som tilfeldigvis skaper en million nye rekorder en time ikke er i stand til å fylle opp en stasjon og forårsake en kritisk database krasj før det kan bli stoppet.

Ledere bør også ta hensyn til hvordan de opprinnelige forutsetningene programmering endre seg over tid, som databaser få store. Databasesøk trekke data av stasjonen og inn i RAM minne, noe som skaper et tak for effektive søkealgoritmer; et søk som ble øyeblikkelig over 10.000 poster kan ta timer når antall poster søkte er 250.000. Søk og programmering algoritmer bør testes regelmessig og tidsbestemt, slik at de kan bli bedre ved behov mot større datasett.