Willkommen, schön sind Sie da!
Logo Ex Libris

Datenbanktheorie

  • Kartonierter Einband
  • 72 Seiten
(0) Erste Bewertung abgeben
Bewertungen
(0)
(0)
(0)
(0)
(0)
Alle Bewertungen ansehen
Quelle: Wikipedia. Seiten: 70. Kapitel: Normalisierung, Datenabhängigkeit, Relation, Relationale Algebra, Referentielle Inte... Weiterlesen
20%
29.90 CHF 23.90
Print on demand - Exemplar wird für Sie besorgt.
Bestellung & Lieferung in eine Filiale möglich

Beschreibung

Klappentext

Quelle: Wikipedia. Seiten: 70. Kapitel: Normalisierung, Datenabhängigkeit, Relation, Relationale Algebra, Referentielle Integrität, Verlorenes Update, Deadlock, Funktionale Abhängigkeit, Object-relational impedance mismatch, Anfrageoptimierer, Selektivität, Sperrverfahren, Scheduler, Konsistenzerhaltung, Isolation, Transaktion, Serialisierbarkeit, Transaktionsmonitor, Kalkül, Datenbankoperator, Integritätsbedingung, Sorted Neighborhood, Commit-Protokoll, Auswertungsplan, Constraint, Logische Uhr, Kardinalität, Rollback, ACID, Redundanz, Gewichtetes Votieren, Anomalie, Konjunktive Anfrage, ANSI-SPARC-Architektur, Kanonische Überdeckung, Bucket-Algorithmus, Mehrwertige Abhängigkeit, Phantomproblem, Historie, Sichtenäquivalenz, Datenunabhängigkeit, Duplikaterkennung, Datenbankmodell, Halloween-Problem, Nichtwiederholbares Lesen, Konfliktäquivalenz, Sequentialisierung, Cache Fusion, Periodengruppe, Shadow Paging, Schreib-Lese-Konflikt, Sequenznummer, Satz von Delobel, Zeitstempelverfahren, Relationale Entwurfstheorie, Transaktionssystem, CAP-Theorem, Operation, Determinante, Atomare Operation, Eventual consistency, X/Open XA, Konfliktoperation, ARIES, Tupel, Schiller-Räuber-Problem, Basic Timestamp Ordering, Relationenschema, Chronon, Sperreskalation. Auszug: Die Normalisierung eines relationalen Datenschemas überführt es in eine Form, die keine vermeidbaren Redundanzen mehr enthält. Ein konzeptionelles Schema, das Datenredundanzen enthält, kann dazu führen, dass bei Änderungen der damit realisierten Datenbank die mehrfach enthaltenen Daten nicht konsistent, sondern nur teilweise und unvollständig geändert werden, womit sie obsolet oder widersprüchlich werden können. Man sagt auch, dass Anomalien auftreten können. Zudem belegt mehrfache Speicherung derselben Daten unnötig Speicherplatz. Aus diesen Gründen wird versucht, solche Redundanzen durch Normalisierung zu vermeiden. Es gibt verschiedene Ausmaße, in denen ein Datenbankschema gegen Anomalien gefeit sein kann. Je nachdem spricht man davon, dass es in erster, zweiter, dritter usw. Normalform vorliege. Diese Normalformen sind durch bestimmte formale Anforderungen an das Schema definiert. Man bringt ein Datenbankschema in eine Normalform, indem man fortschreitend anhand für sie geltender funktionaler Abhängigkeiten seine Relationen in einfachere zerlegt, bis keine weitere Zerlegung mehr möglich ist. Dabei dürfen jedoch auf keinen Fall Daten verloren gehen. Mit dem Satz von Delobel kann man für einen Zerlegungsschritt förmlich nachweisen, dass er keine Datenverluste mit sich bringt. Normalisiert wird vor allem in der Phase des Entwurfs einer relationalen Datenbank. Für die Normalisierung gibt es Algorithmen (Synthesealgorithmus (3NF), Zerlegungsalgorithmus (BCNF) usw.), die automatisiert werden können. Die Zerlegungsmethodik folgt der relationalen Entwurfstheorie. Aufspaltung der Tabelle TBL_AdressenAllesBei der Normalisierung werden zunächst Spalten (synonyme Begriffe: Felder, Attribute) von Tabellen innerhalb der Datenschemas in neue Spalten aufgeteilt, z. B. in , und . Zweitens werden Tabellen aufgeteilt, zum Beispiel eine Tabelle mit den Feldern , , und in diese Tabellen: Siehe Bild Aufspaltung der Tabelle - wobei die Tabelle noch den eindeutigen Primärschlüssel erhä

Produktinformationen

Titel: Datenbanktheorie
Untertitel: Normalisierung, Datenabhängigkeit, Relation, Relationale Algebra, Referentielle Integrität, Verlorenes Update, Deadlock, Funktionale Abhängigkeit, Object-relational impedance mismatch, Anfrageoptimierer, Selektivität, Sperrverfahren
Editor:
EAN: 9781158791545
ISBN: 978-1-158-79154-5
Format: Kartonierter Einband
Herausgeber: Books LLC, Reference Series
Genre: Informatik
Anzahl Seiten: 72
Gewicht: 440g
Größe: H246mm x B189mm x T4mm
Jahr: 2011