Menü
Judith Hartstein

Judith Hartstein

Abteilung Forschungssystem und Wissenschaftsdynamik
wissenschaftliche Mitarbeiterin
  • 030 2064177-41
  • 030 2064177-99
Projekte

Liste der Projekte

Leider konnte für diese Suchkombination kein Ergebnis gefunden werden
Arbeitsgruppe Automatisierung und KI im wissenschaftlichen Publikationswesen
Systematic Assessment of Impact of Base4NFDI
Forschungscluster: Open Science
Publikationen

Liste der Publikationen

Leider konnte für diese Suchkombination kein Ergebnis gefunden werden

Ergebnisse der Trendumfrage Forschungsdateninfrastrukturen 2024.

Hartstein, J., & Blümel, C. (2024).
Ergebnisse der Trendumfrage Forschungsdateninfrastrukturen 2024. Hannover: Zenodo. https://doi.org/10.5281/zenodo.14093010
Abstract

Die Trendumfrage FDI 2024 ist Teil der Begleitforschung zu den NFDI-Basisdiensten (Base4NFDI). Wir betrachten in der vorliegenden Umfrage Wahrnehmung, Nutzung und Bewertung bestehender und neuer Dateninfrastukturen und Dienste in der deutschen Forschungslandschaft. Die Trendumfrage adressiert die Perspektive der (potentiellen) Nutzenden.

Qualitätsmessung als Prisma.

Biesenbender, S., & Hartstein, J. (Hrsg.) (2024).
Qualitätsmessung als Prisma.Forschungsevaluation in der Medizin. Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-43683-4
Abstract

In diesem Open-Access-Sammelband werden verschiedene Leistungsdimensionen und Datenzugänge für die Abbildung medizinischer Forschung empirisch dargestellt und diskutiert. Leitfragen sind dabei: Wie identifizieren wir Qualität in der medizinischen Forschung? Unter welchen Bedingungen lassen sich medizinische Themen bestmöglich beforschen, um das Patientenwohl und die öffentliche Gesundheit zu fördern sowie Wissenschaft und Gesellschaft voranzubringen?

Input-Output-Relationen – Zu den Voraussetzungen einer Effizienzmessung medizinischer Fakultäten anhand von Drittmitteln.

Hartstein, J. (2024).
Input-Output-Relationen – Zu den Voraussetzungen einer Effizienzmessung medizinischer Fakultäten anhand von Drittmitteln. In S. Biesenbender & J. Hartstein (Hrsg.), Qualitätsmessung als Prisma (S. 109-127). Wiesbaden: Springer VS. https://doi.org/10.1007/978-3-658-43683-4_7
Abstract

Medizinische Fakultäten in Deutschland müssen ihre strategischen Kalkulationen auf mehrere Wettbewerbe beziehen. Der vorliegende Beitrag greift die intra-fakultäre Perspektive heraus und versteht die Sicherstellung von Effizienz als zentrale Aufgabe des Controllings durch Dekanate. Empirisch wird untersucht, ob an die an den Fakultäten gehaltenen Daten für die Betrachtung von Effizienz geeignet sind. Die Voraussetzungen der Effizienzmessung werden dafür als Modellannahmen für die lineare Regression verstanden und exemplarisch diskutiert. Neben den etablierten Variablen wissenschaftliche Beschäftigte (Input) und Publikationen (Output), werden jüngst auch Drittmittel sowohl als Input- als auch als Outputvariablen vorgeschlagen.

Creating Interpretative Spaces in and with Digital Infrastructures: How Editors Select Reviewers at a Biomedical Publisher.

Hesselmann, F., & Hartstein, J. (2024).
Creating Interpretative Spaces in and with Digital Infrastructures: How Editors Select Reviewers at a Biomedical Publisher. Science, Technology, & Human Values. Online Version, https://doi.org/10.1177/01622439241257720 (Abgerufen am: 05.06.2024) (online first). https://doi.org/10.1177/01622439241257720

Methodenbericht zur Befragung von wissenschaftlichen und administrativen Beschäftigten an medizinischen Fakultäten im Projekt QuaMedFo (Qualitätsmaße zur Evaluierung medizinischer Forschung).

Biesenbender, S., Hartstein, J., Herrmann-Lingen, C., Kratzenberg, A., & Traylor, C. (2022).
Methodenbericht zur Befragung von wissenschaftlichen und administrativen Beschäftigten an medizinischen Fakultäten im Projekt QuaMedFo (Qualitätsmaße zur Evaluierung medizinischer Forschung). Hannover: DZHW. https://doi.org/10.21249/DZHW:qmf2021-dmr:1.0.0
Abstract

Die Befragung wissenschaftlicher und administrativer Beschäftigter an medizinischen Fakultäten in Deutschland war Teil des Moduls 7 „Praktikabilität, Akzeptanz und Verhaltenswirksamkeit“ im Verbundprojekt „Qualitätsmaße zur Evaluierung medizinischer Forschung“ (QuaMedFo). Sie wurde in enger Zusammenarbeit des Deutschen Zentrums für Hochschul- und Wissenschaftsforschung (DZHW) und der Universitätsmedizin Göttingen (UMG) im ersten Halbjahr 2021 geplant und durchgeführt. Die Datenaufbereitung wurde im zweiten Halbjahr 2021 abgeschlossen. Von den über verschiedene Verteiler erreichten 1.591 TeilnehmerInnen wurden schließlich 516 Rückmeldungen im Analysedatensatz berücksichtigt. https://doi.org/10.21249/DZHW:qmf2021:1.0.

Editors between support and control by the digital infrastructure — Tracing the peer review process with data from an editorial management system.

Hartstein, J., & Blümel, C. (2021).
Editors between support and control by the digital infrastructure — Tracing the peer review process with data from an editorial management system. Frontiers in Research Metrics and Analytics (6). https://www.frontiersin.org/articles/10.3389/frma.2021.747562/full (Abgerufen am: 20.10.2021) (online first).
Abstract

Many journals now rely on editorial management systems, which are supposed to support the administration and decision making of editors, while aiming at making the process of communication faster and more transparent to both reviewers and authors. Yet, little is known about how these infrastructures support, stabilize, transform or change existing editorial practices. By exploring process generated data from a publisher’s editorial management system, we investigate the ways by which the digital infrastructure is used and how it represents the different realms of the process of peer review. How does the infrastructure support, strengthen or restrain editorial agency for administrating the process?

Analysing Sentiments in Peer Review Reports: Evidence from Two Science Funding Agencies.

Luo, J., Feliciani, T., Reinhart, M., Hartstein, J., Das, V., Alabi, O., & Shankar, K. (2021).
Analysing Sentiments in Peer Review Reports: Evidence from Two Science Funding Agencies. Quantitative Science Studies. https://doi.org/10.1162/qss_a_00156

Bewertung in und durch digitale Infrastrukturen.

Krüger, A. K., Heßelmann, F., & Hartstein, J. (2021).
Bewertung in und durch digitale Infrastrukturen. In F. Meier & T. Peetz (Hrsg.), Organisation und Bewertung (S. 97-124). Wiesbaden: VS Verlag für Sozialwissenschaften. https://doi.org/10.1007/978-3-658-31549-8_5
Abstract

In diesem Beitrag fragen wir danach, welche Rolle digitale Infrastrukturen für die Soziologie des Wertens und Bewertens spielen. Dazu diskutieren wir erstens, welche Formen von Bewertung durch welche Formen von digitaler Infrastruktur ermöglicht werden, indem wir eine Typologie von mittelbarer und unmittelbarer Bewertung in und durch digitale Infrastrukturen entwickeln. Die Typologie stellt einen Vorschlag für eine Heuristik dar, die es ermöglicht, die unterschiedlichen Bewertungsmomente in diesen Infrastrukturen in den Blick zu nehmen. Daran anschließend gehen wir zweitens darauf ein, dass Bewertungen nicht nur durch digitale Infrastrukturen vorgenommen werden, sondern bereits in sie selbst eingeschrieben sind. Anhand von fünf Analysedim..

R package description data from CRAN up until 2020.

Hartstein, J. (2021).
R package description data from CRAN up until 2020. Berlin: Humboldt-Universität zu Berlin. http://dx.doi.org/10.18452/22951
Abstract

R (Ihaka & Gentleman (1996)) ist eine wissenschaftliche Programmiersprache, deren Quelltexte in Pakete zusammen gefasst werden kann um von anderen weiter genutzt zu werden. Das Comprehensive R Archive Network (CRAN, URL: https://cran.r-project.org/) ist ein kontrolliertes Repositorium für R-Pakete und besteht seit 1997. Die Software auf CRAN ist Open-Source-lizensiert. Der hier zur Verfügung gestellte Datensatz besteht aus am 1. Januar 2021 verfügbaren "description"-Daten für R-Pakete auf CRAN.

Mehr Daten, mehr Wissen? – Sozialwissenschaftliche Perspektiven auf digitale Datenproduktion und -nutzung.

Krüger, A. K., Hartstein, J., & Heßelmann, F. (2019).
Mehr Daten, mehr Wissen? – Sozialwissenschaftliche Perspektiven auf digitale Datenproduktion und -nutzung. SocArxiv. https://doi.org/10.31235/osf.io/r8xtm

Admitting uncertainty: a weighted socio-epistemic network approach to cognitive distance between authors.

Hartstein, J. (2019).
Admitting uncertainty: a weighted socio-epistemic network approach to cognitive distance between authors. In Catalano, G., Daraio, C., Gregori, M., Moed, H. F., & Ruocco, G (Hrsg.) Proceedings of the 17th Conference of the International Society for Scientometrics and Informetrics (ISSI 2019), Vol. 2, (S. 2043-2052). Edizioni Efesto. ISBN 978-88-3381-118-5.

Der vermessene Nutzen der Forschung. Impact als neuer Faktor im britischen Evaluationssystem.

Franzen, M., Hartstein, J., & Priester, S. (2016).
Der vermessene Nutzen der Forschung. Impact als neuer Faktor im britischen Evaluationssystem. WZB-Mitteilungen, H. 152, S. 34-37.
Vorträge & Tagungen

Liste der Vorträge & Tagungen

Leider konnte für diese Suchkombination kein Ergebnis gefunden werden

Is trust in software a disciplinary practice? Yes. But no.

Hartstein, J., Schniedermann, A., & Schwichtenberg, N. (2024, Mai).
Is trust in software a disciplinary practice? Yes. But no. Vortrag auf der Konferenz STS CONF GRAZ, TU Graz, Graz, Österreich.

Quality Measurement as a Prism - Research Evaluation of German Medical Faculties.

Hartstein, J., & Biesenbender, S. (2023, Dezember).
Quality Measurement as a Prism - Research Evaluation of German Medical Faculties. Vortrag auf der Konferenz (Re)designing quality indicators for higher education, HESPRI.

Soziologie der Standardisierung - eine kurze Einführung.

Hartstein, J. (2023, November).
Soziologie der Standardisierung - eine kurze Einführung. Impulsvortrag auf dem Workshop 3. Treffen des Arbeitskreises GND Community Empowerment.

Third-party funding data for research evaluation – On assumptions for efficiency measures with data from medical faculties in Germany.

Hartstein, J. (2023, Oktober).
Third-party funding data for research evaluation – On assumptions for efficiency measures with data from medical faculties in Germany. Poster auf der Konferenz The Future of Higher Education and Science, Leibniz Center for Social Sciences, Leibniz-Universität Hannover & German Centre for Higher Education Research and Science Studies (DZHW), Hannover.
Abstract

Efficiency measures as indicators for research excellence are less prominent than productivity measures (aka publication counts) and reception measures (aka citation counts), yet they are frequently discussed [...]. For some years now, practitioners and policy makers have discussed including third-party funding data [...] into efficiency measurement – either as input (income, spending) or as output (grants), which leads to the research question of this contribution: Can third-party funding data reasonably be included in efficiency measurement without violating the assumptions of linear models? And which type of TPF count (income, spending, grants) would be most suitable as input or output variable respectively?

Making the invisible differences visible.

Hartstein, J., Tcypina, A., & Fabian, G. (2023, Oktober).
Making the invisible differences visible. Vortrag auf der Konferenz The Future of Higher Education and Science, Leibniz Center for Social Sciences, Leibniz-Universität Hannover & Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW), Hannover.

Science, software, social ties - Trust and epistemic infrastructures.

Hartstein, J. (2023, Mai).
Science, software, social ties - Trust and epistemic infrastructures. Poster im Rahmen des DZHW Forschungstag 2023, Deutsches Zentrum für Hochschul- und Wissenschaftsforschung, Hannover.

RTFM! – Using paratexts to research algorithms embodied as software.

Hartstein, J. (2023, Mai).
RTFM! – Using paratexts to research algorithms embodied as software. Vortrag auf der Konferenz 21th Annual STS Conference Graz 2023 „Critical Issues in Science, Technology and Society Studies“, Technische Universität Graz, Graz, Österreich.

Klausurtagung des DZHW-Forschungsclusters " Open Science " .

Blümel, C., Broneske, D., Daniel, A., Hartstein, J., Schniedermann, A., & Velden, T. (2023, März).
Workshop Klausurtagung des DZHW-Forschungsclusters "Open Science", DZHW, Berlin.

Projekt QuaMedFo − Qualitätsmaße zur Evaluierung medizinischer Forschung: Ergebnisse und Ausblick.

Aman, V., Biesenbender, S., Hartstein, J., Lemke, S., Lippert, K., & Traylor, C. (2022, November).
Projekt QuaMedFo − Qualitätsmaße zur Evaluierung medizinischer Forschung: Ergebnisse und Ausblick. Vortrag im Rahmen der Abschlusstagung der BMBF-Förderlinie „Quantitative Wissenschaftsforschung“, VDI|VDE|IT.

Projekt QuaMedFo − Qualitätsmaße zur Evaluierung medizinischer Forschung: Erfahrungen, Ergebnisse und Ausblick.

Biesenbender, S., Aman, V., & Hartstein, J. (2022, September).
Projekt QuaMedFo − Qualitätsmaße zur Evaluierung medizinischer Forschung: Erfahrungen, Ergebnisse und Ausblick. Vortrag im Rahmen des Kolloquiums des DZHW Berlin, DZHW, Berlin.

Methodische Notizen zu Input-Output-Analysen - Datenlage an den Fakultäten, Berechnungsbeispiele, Empfehlungen und Perspektiven.

Hartstein, J. (2022, Mai).
Methodische Notizen zu Input-Output-Analysen - Datenlage an den Fakultäten, Berechnungsbeispiele, Empfehlungen und Perspektiven. Vortrag auf dem Workshop "Was bestimmt den Impact medizinischer Forschung?" - Abschlussveranstaltung im Projekt QuaMedFo, Universitätsmedizin Göttingen (UMG), Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW), Leibniz-Informationszentrum Wirtschaft (ZBW), Informationszentrum Lebenswissenschaften (ZB MED), Göttingen/online.
Abstract

Exzellente Forschung muss finanziert sein - wie jedoch die Mittelverfügbarkeit auf den messbaren Publikationsoutput wirkt, ist bisher nicht geklärt. Für das Projekt QuaMedFo haben wir Korrelationen zwischen Input und Output an den Pilotfakultäten untersucht. Die größte Herausforderung dabei war die inhomogene Datenlage, welche jedoch bewältigt werden konnte und in Empfehlungen zu einem Minimaldatensatz mündet. Empirisch zeigte sich darüber hinaus, dass die Unterschiede zwischen den medizinischen Fächern ebenso wie zwischen den Fakultäten die Auswirkungen der unterschiedlichen Mittelverfügbarkeiten bei weitem übersteigen.

Not a counterculture: Scientific open source software as epistemic infrastructure.

Hartstein, J. (2022, Mai).
Not a counterculture: Scientific open source software as epistemic infrastructure. Vortrag auf der Konferenz "20th Annual STS Conference Graz 2022 – Critical Issues in Science, Technology and Society Studies", Technische Universität Graz, Graz, Österreich.

Rekonstruktion des Peer-Review-Prozesses mit Ereignisdaten aus einem Editorial Management System.

Hartstein, J., & Blümel, C. (2022, März).
Rekonstruktion des Peer-Review-Prozesses mit Ereignisdaten aus einem Editorial Management System. Vortrag auf der Tagung Frühjahrstagung 2022 der DGS-Sektion Netzwerkforschung, Bergische Universität Wuppertal, Wuppertal.

Focus on ‘successful research’ leads to underestimation of research collaboration.

Hartstein, J., & Blümel, C. (2021, Oktober).
Focus on ‘successful research’ leads to underestimation of research collaboration. Vortrag auf der Konferenz 4S Annual Meeting 2021, The Society for Social Studies of Science (4S), Toronto, Canada.
Abstract

Science and Technology Studies, but also quantitative science studies carry a legacy of research evaluation, represented by concepts as diverse as the h-Index or Altmetrics, focussing on research output. Even research on research collaboration often aims at examining networks of (“successful”) knowledge production. Collaboration holds the promise to foster innovation – which is measured in scientometrics in terms of output. We argue, that digital traces of research in progress allow for gaining a more comprehensive picture of the research process and the research collaboration landscape. Failure does not invalidate research.

Prediction as a shared accomplishment between humans and machines – the case of peer reviewer selection.

Heßelmann, F., & Hartstein, J. (2021, Oktober).
Prediction as a shared accomplishment between humans and machines – the case of peer reviewer selection. Vortrag auf der Konferenz 4S Annual Meeting 2021, The Society for Social Studies of Science (4S), Toronto, Canada.
Abstract

This contribution addresses the algorithmic turn of prediction by focusing on a case where prediction is not (fully) done algorithmically, but rather accomplished in a joined effort between human reasoning and algorithmic computation. Using qualitative (interviews) as well as quantitative (process-generated) data about the selection of peer reviewers at a biomedical publisher, it analyzes how this selection crucially hinges on the performance of a series of predictions of potential reviewers’ timeliness, the quality of their feedback and the direction of their recommendation.

CV
seit 10/2016

Mitarbeiterin am Deutschen Zentrum für Hochschul- und Wissenschaftsforschung

08/2017

Master of Arts in Wissenschaftsforschung an der Humboldt-Universität zu Berlin

12/2015 - 03/2016

Praktikantin am Wissenschaftszentrum Berlin für Sozialforschung in der Gruppe "Wissenschaftspolitik"

02/2015

Bachelor of Science in Wirtschaftsmathematik an der Hochschule für Technik und Wirtschaft Berlin

Mehr erfahren Weniger anzeigen