Darüber diskutierten rund 140 Expertinnen und Experten aus Fachgesellschaften, Dateninitiativen und Verbänden bei einem hybriden Workshop in Berlin. Ausrichter der Veranstaltung waren die Deutsche Gesellschaft für Medizinische Informatik, Biometrie und Epidemiologie (GMDS), die Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF), die Deutsche Gesellschaft für Epidemiologie (DGEpi), die Deutsche Region der Internationalen Biometrischen Gesellschaft (IBS-DR), die Deutsche Gesellschaft für Sozialmedizin und Prävention (DGSMP), die internationale Initiative STRengthening Analytical Thinking for Observational Studies (STRATOS) sowie das Konsortium Nationale Forschungsdateninfrastruktur für personenbezogene Gesundheitsdaten (NFDI4Health).
„Datenqualität muss stärker in den Fokus wissenschaftlichen Arbeitens rücken“, fordert der Organisator des Workshops Prof. Dr. Carsten Oliver Schmidt von der Universität Greifswald. „Wir brauchen einen systematischeren und transparenteren Umgang mit Datenqualität und initialen Datenanalysen, um die Gesundheits- und Lebenswissenschaften effizienter und transparenter zu gestalten.“ Auf dem Workshop unterstrichen die Datenwissenschaftlerinnen und -wissenschaftler deshalb, dass strukturierte Datenqualitätsbewertungen ein bedeutender Teil jeder wissenschaftlichen Studie sein sollten. Die Ergebnisse dieser Bewertungen sollten möglichst nachnutzbar verfügbar und transparent dargestellt werden.
Der Umgang mit Datenqualität in den Gesundheitswissenschaften ist durch ein beeindruckendes Paradoxon gekennzeichnet. Einerseits hängt jede belastbare wissenschaftliche Arbeit und Aussage zu drängenden Fragen hinsichtlich Gesundheit, Krankheit, Prävention, Therapie und Krankheitsfolgen von einer hohen Datenqualität ab. Andererseits steht das Thema Datenqualität in der Breite der Gesundheits- und Lebenswissenschaften nicht ausreichend im Fokus. Unzureichende Datenhaltung, fehlende Nutzung von Standards und wenig aussagekräftige Beschreibungen von Datensätzen sind wichtige Gründe dafür, dass viele Datenwissenschaftlerinnen und -wissenschaftler einen großen Teil ihrer Zeit darauf verwenden, auswertbare Datenkörper zu schaffen. „Das verschwendet unnötigerweise Ressourcen und schafft Fehlerpotenziale“, konstatiert Dr. Nicole Rübsamen, Sprecherin der AG Epidemiologische Methoden der DGEpi.
Ein Teil des Problems ist, dass es keinen konsentierten Methodenkanon zur Erfassung und Beschreibung von Datenqualität gibt. Eine systematische und transparente Beschreibung von Datenqualität wird zudem weder von Mittelgebern noch von wissenschaftlichen Zeitschriften eingefordert. „Auch eine detaillierte Berichterstattung über Aktivitäten zur Überprüfung und Aufbereitung von Daten im Vorfeld der eigentlichen statistischen Analysen fehlt oder ist oft nicht nachvollziehbar“ ergänzt Prof. Marianne Hübner von der Michigan State University und Co-Sprecherin der STRATOS-Initiative.
In Anlehnung an die Leitlinien zum Reporting von Studien in den Gesundheitswissenschaften, koordiniert vom EQUATOR-Netzwerk in Oxford (https://www.equator-network.org/), sollten daher Kriterien zur Beschreibung von Datenqualität erstellt werden. Für überprüfte Datensätze könnte dies grundsätzlich in Form strukturierter Berichte erfolgen, um nachvollziehbare Einblicke zu erlauben, sind sich Rübsamen, Hübner und Schmidt einig.
Forschung und Lehre berücksichtigen bestehende Handlungsoptionen noch zu wenig. Diese reichen von Datenstandards über Datenqualitätskonzepten bis hin zu Software zur Erleichterung von Datenqualitätsbewertungen. Vor diesem Hintergrund bot der durchgeführte Workshop ein Forum zur Diskussion effizienterer und transparenterer Gestaltungsprozesse. Gleichzeitig verdeutlichte er die Notwendigkeit weiterer Abstimmungen, um ein harmonisiertes Vorgehen in der Forschungspraxis zu erreichen. „Die Arbeitsgruppe Datenqualität und Transparenz der TMF e.V. hat es sich deshalb in Kooperation mit weiteren nationalen und internationalen Gesellschaften und Netzwerken zum Ziel gesetzt, Empfehlungen, Standards und Werkzeuge zur Qualitätssicherung und Datenbewertungen weiterzuentwickeln“ so Carsten Oliver Schmidt, der die TMF-Arbeitsgruppe leitet.
Pressemitteilung der Technik- und Methodenplattform für die medizinische Forschung (TMF)