拉斯维加斯赌城

图片

Zusicherungen und Nachvollziehbarkeit von Daten und Operationen

?

Die Verwaltung und Integration gro?er Datenmengen und die darauf aufbauenden Anfragen/Auswertungen ben?tigen Zusicherungen über die Qualit?t der Daten und Berechnungen.

Wir erforschen mehrere, komplement?re Ans?tze für solche Zusicherungen:

Nachweise der Quellen und Transformationen von Daten: Provenance

Beschreibung/Validierung des Datenformats: Schema

Modelle für die Ver?nderung der Daten und der Anfragen: Transaktionen/Lifecycle-Modelle

Aus konzeptioneller Sicht hat die Erfassung und Auswertung von Ausbreitungswegen in sozialen Medien gro?e ?hnlichkeit mit (Daten-)Provenance. In Zusammenarbeit mit der Universit?t Gent entwickelten wir eine Modellierung von Informationsausbreitung im Rahmen des W3C-Prov-Standards, die unter anderem auch die Kombination von Provenance verschiedener Granularit?t erlaubt, sodass explizite, feingranulare Ausbreitungswege und inhaltsorientierte, grobgranulare Provenance zusammen einen vollst?ndigeren Einblick bieten.

Aus technischer Sicht stellt die Berechnung von Provenance insbesondere für Datenstromsysteme eine Herausforderung dar. In Zusammenarbeit mit der University of Chicago und den Intel Labs entwickelten wir einen Ansatz, der auf der Instrumentierung der Operatoren basiert und daher sowohl hohe Genauigkeit als auch moderaten Overhead erm?glicht.

Die Beschreibung der Daten mit Hilfe von Schema erm?glicht die Validierung der Eingabedaten, Optimierung von Anfragen und Datenspeicherung sowie die Vereinfachung und Unterstützung der Anfrageformulierung. W?hrend im relationalen Modell Schema eine Grundvoraussetzung ist, bieten nicht alle anderen Datenmodelle dafür ausdrucksm?chtige M?glichkeiten. Wir entwickelten ein Schema für Datenstr?me und einen Vorschlag für RDF Constraints; für beide zeigen wir, wie die Gültigkeit effizient überprüft und die Beschreibungen zu Optimierungen genutzt werden k?nnen.

拉斯维加斯赌城