DataFlow ist ein modulares und erweiterbares Tool zur Automatisierung komplexer Datenverarbeitungspipelines - von Rohmessungen bis zu forschungsreifen Datensätzen. In vielen Projekten erfordern die eingehenden Daten mehrere Schritte zur Filterung, Umwandlung und Validierung. Mit DataFlow können Benutzer diese Schritte als modulare Komponenten definieren - z. B. Datenimporteure, Filter oder Konverter -, die sich flexibel an unterschiedliche Datentypen und -formate anpassen lassen. Einmal konfiguriert, laufen die Pipelines automatisch ab, wenn neue Daten auf einem angeschlossenen Server eintreffen, verarbeiten sie in jeder Phase und speichern die Ergebnisse in einer zentralen Datenbank. Forscher können die Daten in jeder Verarbeitungsphase visualisieren, Mutationen wie Markierung oder Glättung anwenden und nur auf qualitätsgesicherte Datensätze zugreifen. Ein integriertes Konto- und Berechtigungssystem sorgt für kontrollierten Datenzugriff und Integrität. Durch die Rationalisierung dieser Schritte reduziert DataFlow den manuellen Aufwand für die Datenaufbereitung erheblich und fördert reproduzierbare, gemeinsam nutzbare Forschungsdaten in verschiedenen Teams.
