Vielen Dank für die erneute Einladung. Das finde ich generell ein sehr schönes Format, dass man vortragen wir auch noch mal so ein bisschen Revue passieren lässt, was man schon mal gesagt hat ähm zur Corona-Pandemie. Ich denke, wir brauchen generell mehr.
Rehanalysen auch um die Qualität in der Wissenschaft zu erhöhen. Damals erster Vortrag schon ein bisschen her, da waren wir.
Sogenannten Corona-Gesellschaften. Ich habe mich so ein bisschen auch damals dazu geäußert, zu arg ähm freihändigen Gesellschaftsdiagnosen.
Ich hatte jetzt schon Vorbereitung auf den Vortrag gesehen, dass bereits diesen Sommer ähm erste Bücher mit dem Titel der Post-Corona-Gesellschaft erschienen sind.
Ich denke, da brauche ich ähm nicht mehr viel dazu zu sagen. Ähm es gibt weiterhin eben auch noch sehr spekulative Gesellschaftsdiagnosen. Ich werde mich jetzt.
In diesem Vortrag.
Zunächst ähm einen Meter Blick auf die Corona-Forschung werfen, ähnlich wie im ersten Vortrag. Das soll eine kleine Entrahmung sein.
Und werde dann im zweiten Teil speziell auf Corona-Service eingehen und möchte dann in einem dritten Teil mit einem Ausblick enden.
Sowie Forschung auch wieder verlässlicher werden an.
Und um jetzt mit dem ersten Teil äh Metawissenschaftlichen Perspektive zu starten, das werde ich relativ kurz halten, weil ich da im ersten Vortrag bereits ähm recht viel dazu gesagt.
Hatte. Also was kann man feststellen, es gab ähm sicherlich einen Husten an Forschung, wir waren unzweifelhaft in der Wissenschaft ähm.
Sehr.
Ähm etwa gemessen an der Anzahl der Papiere, also wer es drei zum Ersten ja der Pandemie sind sehr sehr viele Publikationen entstanden.
Und der Covid-19 Open Research Daterset Court ähm.
9zehn, der listet inzwischen auch schon über eine halbe Million wissenschaftliche Papiere zu covid-19 und verwandten.
Coronaviren. Wir haben auch unzweifelhaft einen Hust in Open Access erlebt. Also hier sieht man.
Den enormen Run auf ähm Freepreend Serverschätzungen ergeben, dass ungefähr ein Drittel der nächsten Servern publiziert wurden.
Damit aber in der Regel auch zunächst ähm ohne peerefue.
Und wir hatten jetzt nicht nur einen starken Anstieg in der Anzahl der Publikationen, sondern auch einen starken Anstieg.
In der Anzahl an Wissenschaftlerinnen, die sich mit Pandemien und Krankheiten oder ihren Folgen beschäftigen. Das sieht man hier an
Dieser Statistik denke ich ganz gut, hier sind die Anzahl von neuen Autoren dargestellt, die sich erstmals
mit Forschung zu Krankheiten beschäftigen wie etwa Ebola oder AIDS und die grüne Linie hier die zeichnet.
Anstieg der Autoren, die jetzt erstmals zu covid-19 geforscht haben und da sieht man doch einen sehr massiven
also Johannies und Kollegen, die Autoren dieser Publikation schätzen.
Bis mindestens einer, einige von aktiven Autorinnen rasch ihr Forschungsportfolio angepasst haben, sodass covid-neunzehn
zumindest auch abgedeckt war.
Mir ist das Ganze jetzt eine Erfolgsstory. Ich komme weiterhin zu einer etwas entfaltenen Einschätzung.
Denn ähm wie auch die EU-Kommission gesagt hat, ähm Wutorden sein, es ist ein as fast as possible, buttersharing Knowledge as early, es possible, also eher auch ähm Erkenntnisse, die schon ein gewisses Ausmaß
an Festigung oder auch an Zuverlässigkeit erreicht haben
Allerdings wurden während der Coronapandemie viele wissenschaftlichen Qualitätskontrollen gelockert oder auch ganz ausgesetzt wie etwa Peer Review und man kann daher davon aus
gehen, dass es doch ähm einige Fehler auch unentdeckte Fehler in der Literatur gibt und es
Die Frage, ob wir's hier nicht auch mit einer Flut an Papieren, mit fraglicher Qualität zu tun haben.
Unter der wir so ein Stück weit auch ertrinken drohen, ähm wenn das der Fall wäre, dann wären auch Überwitzartikel von Papieren mit etwas ähm fraglicher Qualität.
Dazu gibt es durchaus ähm theoretische Annahmen, denn in der Literatur zur Metawissenschaften jetzt auch speziell zur Coronapandemie wird immer wieder angenommen.
Der Gewinn an Geschwindigkeit zu Lasten der Qualität
geht. Also wir haben das ja in der Corona-Pandemie eben direkt beobachten können, dass diese Geschwindigkeit oft etwa durch die Aussetzung von Periphy-Verfahren erkauft worden ist und
so schnell publizieren bedeutet dann eben auch, dass man in einem gegebenen Zeitintervall zehn Mal so viel publizieren kann.
Und damit ist davon auszugehen, dass jetzt auch Reviews Metaanalysen, andere Überblicksartikel von Studien mit etwas ähm geringerer Qualität
Wenn man sich jetzt die Literatur zur Metaforschung anschaut, dann kommt's immer wieder die These, dass wir's jetzt in der Coronapandemie nicht mit wirklich neuen Problemen zu tun haben, aber dass die Pandemie so eine Art brennt
ist ähm es haben sich Qualitätsprobleme verschärft in der Pandemie. Und inzwischen versucht man das auch empirisch.
Zu prüfen diese Thesen ist ein bisschen schwierig immer die Qualität in der Wissenschaft zu messen, aber ein Zugang sind zum Beispiel Retractions
Erste Artikel zu dem Schluss, dass die Rate an Retractions bei Coronapapieren tatsächlich ein bisschen höher ist als bei anderen Papieren.
Allerdings muss man auch sagen, dass es aktuell noch ein bisschen zu früh ist und dass wirklich solide einschätzen zu können.
Denn die durchschnittliche Zeitdauer bis zu einer Retraction sind drei Jahre, also da müssen wir jetzt zunächst noch einen etwas höheren Risikozeitraum abwarten, um das wirklich gut einschätzen zu können.
Ich werde mich jetzt deshalb in dem Vortrag ähm speziell den Service
zuwenden, was eher mein WT ist und wo ich denke, auch ein ganz besonderer Beitrag der Soziologie liegt mit Serviedaten zum besseren Verständnis der Pandemie, der Folgen oder auch der Compliance, der Bevölkerung
Beizutragen und da kann man sagen, wird weiterhin sehr virulent
Forscht mit Serviey-Daten und das ist jetzt im Wesentlichen eine Folie, die ich jetzt nochmal aus meinem ersten Vortrag wieder ausgegraben habe. Also der Rat SWD hatte bereits bis Ende April zwanzig 20,
zwei Service zum Thema Corona gelistet. Das sind ähm überwiegend Online-Service ohne Zufallsstichprobe und hier sieht man nochmal.
In welchem enormen schnell Tempo unglaublich viele unterschiedliche Service zum Thema Corona entstanden sind
Aber hier war die Geschwindigkeit nur möglich in dem Qualitätsstandards aufgegeben worden sind, man also zum Beispiel nicht mehr mit Zufallstichproben gearbeitet hat, um rasche Ergebnisse zu erhalten.
Und ich hatte in meinem ersten Vortrag die Frage aufgeworfen, ob das jetzt so Einbußen an Qualität der Ergebnisse geführt hat beziehungsweise ich habe vermutet, dass das der Fall ist, aber damals
War es zu früh, weil eben noch keine Ergebnisse vorlagen. Inzwischen ist es anders, weil wir haben jetzt ähm Erkenntnisse aus diesem Service.
Und da kann man zunächst feststellen, dass die Erkenntnisse und Schlussfolgerungen oft sehr,
Inkonsistent sind. Beispielsweise zu der Feelmat Service erforschten Frage, wer macht denn jetzt eigentlich mehr Hausarbeit während der Pandemie? Da gibt's ähm.
Sehr viele Studien, die sagen, das sind eher die Frauen und Mütter
Gibt aber auch eine ganze Reihe von Studien, die kommen zu dem Schluss, es sind eher die Männer und Väter und dann gibt es auch eine Reihe von Studien, die sagen, wieder na ja, da gab's jetzt eigentlich nicht wirklich
Veränderungen während der Pandemie oder die Veränderungen waren für beide Geschlechter gleich.
Ja, was kann man jetzt aus diesen Studienschlussfolgern ähm wir in Bayern würden wahrscheinlich sagen ähm also schwierig hier eine.
Zu ziehen ist denke ich auch ein ganz gutes Beispiel für die zumindest Mängel, die Flut an Papieren mit der wir es ähm zu tun haben.
Allerdings ist es so, dass hier jetzt inkonsistente Ergebnisse nicht unbedingt bedeuten müssen, dass wir jetzt hier irgendwie mit invaliden oder verzehrten Ergebnissen zu tun haben. Es gibt auch eine ganze Reihe von anderen Gründen.
Etwa unterschiedliche Befragungszeitpunkte war das jetzt während dem Lockdown, ja oder nein und teilweise kommen die unterschiedlichen Schlussfolgerungen, wo auch dadurch zustande
Die gleichen Ergebnisse von Autoren dann etwas unterschiedlich
interpretiert werden. Um hier zu klären, inwieweit jetzt auch die Servicemethoden und die Verletzung von Qualitätsstandards eine Rolle
bräuchte man jetzt erst mal Meter Forschung, Metaanalysen, wo man die unterschiedlichen Faktoren.
Auseinanderdröselst, das ist etwas für die zukünftige Forschung und ich denke auch wirklich eine wichtige Aufgabe.
Wir haben aber einen Bereich in der Serviceforschung, wo wir besser feststellen können, ob das auch mit Verzerrungen zu tun haben, wo wir nämlich den.
Wert, den wir schätzen wollen, doch relativ zuverlässig kennen und zwar sind das die Impfquoten.
Die bieten eine denke ich relativ gute Chance dir Validierung zumindest von destriptiven Schätzungen, denn es gab hier ähm eine ganze Reihe von.
Parallelen Erhebungen im letzten Jahr und woher kennen wir jetzt relativ gut den richtigen Wert?
Es gibt das digitale Impfquoten, Monitoring und das ist eine ähm Vollerhebung, prozessproduzierte Daten.
Werden versucht alle Impfungen zu erfassen durch Meldungen von Impfzentren und Ärzten. Wir wissen, dass es da zu Meldeverzögerungen
kommt. Deswegen ähm
sind bitten diese Daten einer Unterschätzung der Impfquote, allerdings wirst du ja auch wie viele Impfdosen ausgeliefert worden sind und
bieten uns die Möglichkeit eine Maximalgrenze zu schätzen, also mehr als ähm ausgeliefert worden ist, kann dann ähm eigentlich auch nicht verimpft
Sein und das RKI geht davon aus, dass die maximale Impfquote, maximal fünf Prozentpunkte höher liegt als das, was durch das digitale Impfvoten
Monitoring berichtet wird.
Und diese doch sehr ähm zuverlässige Angabe können wir jetzt mit unterschiedlichen Serviceschätzungen vergleichen, wie beispielsweise dem Covimo,
Trendservice des RKI, das ist eine Telefonumfrage, ein Brandon Direct Frame Ansatz, also da werden.
Handy und Festnetznummern angerufen.
Werden nur Erwachsene erfasst, deswegen habe ich die Schätzungen der Impfquote des Din dann auch jetzt in den folgenden Folien auf Erwachsene eingegrenzt und daneben waren auch eine ganze Reihe von anderen Service im Feld,
Impfquoten versucht haben zu ermitteln, wie beispielsweise der Delphi Facebook Serve, das ist eine Online-Umfrage,
eine Stichprobe, eine Zufallsauswahl von Facebook-Nutzerinnen, wobei sich ähm dieser Service doch eine sehr, sehr hohe Fallzahl ähm auszeichnet.
So was werden jetzt hier für Impfboten ermittelt. Ähm zunächst sieht man jetzt hier das digitale Impfroutenmonitoring und das hat für Juli bis August 2021. Das ist der Zeitpunkt
der RKI Cobimo Serve im Feld war eine Impfquote in der Erwachsenen Bevölkerung von 75 Prozent ermittelt. Wir wissen, die maximale Impfquote liegt ähm
Fünf Prozentpunkte höher, also maximal waren zu diesem Zeitpunkt dann laut RKI
achtzig Prozent der Erwachsenenbevölkerung geimpft. Ähm der wahre Wert wird hier sich also irgendwo zwischen diesen 75 und achtzig Prozent
bewegen und wie zuverlässig waren jetzt Service.
Das ist die Impfquote, die der Cobimo-Service ähm ermittelt hat. Da haben wir einen Punktschätze von 88 Prozent und das liegt ja doch deutlich höher als die Maximalgrenze von 80 Prozent.
Haben's dir also mit einer Verzierung von mindestens acht Prozentpunkten zu tun.
Der Kuppelmoservielf wurde zum Anlass genommen, ähm die Impfquoten nach oben zu korrigieren. Mir ist ein bisschen schleierhaft, wie man das anhand von diesen Servie-Daten
tun konnte, denn ich würde sagen, das einzige, was wir hier säen, ist, dass der Service daneben lag, die Impfboote überschätzt hat, also selbst das Konfidenzintervall
umfasst nicht den wahren Wert. Das ähm Konfidenz-Intervall.
Beinhaltet ja auch nur den sämtlichen Arrow und daneben muss es, das sieht man hier, eine ganze Reihe von weiteren Fehlerquellen geben.
Wie zum Beispiel, es ist keine gute Zufallsstrichprobe oder es gibt Messfehler und wir wissen jetzt nicht, wie hoch diese Fehlerquoten sind. Das Einzige, was wir sagen können, sie sind mindestens acht Prozentpunkte.
Bayers könnte aber auch größer sein weshalb für mich also wirklich schleierhaft ist, wie man anhand dieser Impfquoten aus dem Service.
Die offizielle Impfquote nach oben korrigieren konnte oder hier optimistisch sein konnte
Ähnlich werden doch doch andere Service wie hier den Delphi Facebook Serve ähm die Impfquoten falsch geschätzt. Also auch hier haben wir es mit einem Weiß einer Überschätzung
Impfpfote zu tun. Woran liegen diese ähm Fehlerquellen aus der Serve.
Forschung wissen wir, ähm es gibt zum einen Messfehler und zum anderen gibt es im Abdeckungsfehler und.
Es gibt ähm gute Gründe anzunehmen, dass es mit beiden Fehlertypen hier zu tun haben.
Beispielsweise gibt es ähm eine Studie, die hat sich Messfehler im Hinblick ähm auf sozial erwünscht hat. Bayers
Angeschaut und diese Studie, das ist jetzt ähm mit einem anderen Sample.
Ist zu dem Schluss gekommen, dass allein Social Designability Buys bei Service Daten zu Impfquoten zu einer Verzerrung von zehn Prozentpunkten
tragen kann und daneben haben wir's sicherlich auch mit Abdeckungsfehlern zu tun, ähm Abweichungen von einer Zufallstichprobe.
Etwa dürften Impfwillige eher Befragungsbereit sein.
Das ist schwierig. Das jetzt zum Beispiel für den Cobimo Service einzuschätzen, da vom Apple bislang ähm kaum
über die Stichprobenziehung, über die Gewichtungen et cetera offengelegt worden sind. Aber wir können sicher davon ausgehen, dass wir's auch mit Abdeckungsfedern zu tun haben.
Ist denn dieser jetzt überhaupt ein.
Problem? Nun ja ähm zunächst kann man sagen, er motivierte Zoo möglicherweise falschen Optimismus. Vielleicht erinnern Sie sich noch damals, als die Covid-Modaten
publiziert worden sind und man ähm spekuliert hat, dass doch die wahre Impfquote höher liegen müsste
gab es dann auch einigen Optimismus und manch eine manch eine hat schon von Freedoms Day geträumt und.
Zum anderen verzehren bei allen ähm Beeinträchtigen, solche Verzierungen und sicher lebt ja auch das Vertrauen in die Umfrageforschung, also etwa hat der die deutsche Stiftung Patientenschutz damals dann kritisiert.
Dass man sich doch nicht auf Umfragen verlassen solle, denn allein die Fakten wären entscheidend.
So, kurzer Ausblick. Lässt sich denn die Qualität ähm erhöhen? Dazu möchte ich
zunächst ähm ein Beispiel aus den USA zeigen, ähm Motto klein aber fein, es geht auch besser, auch in den USA
man ähm relativ genaue Daten zu den Impfquoten, also die Gesundheitsbehörde CDC, ermittelt diese Impfquoten
Recht ähm Ulrecht zuverlässig. Kann man davon ausgehen, ähm nach allem, was ist der Literatur entnehmen
das sind jetzt hier die Impfquoten für die Gesamtbevölkerung
Und auch in den USA gab's einige Service, die versucht haben, die Impfboote zu schätzen, also den Welpe-Facebook-Service, den kennen wir ja bereits, der ist auch in den USA gelaufen.
Wöchentlich ungefähr 250.000 Befragten daneben gab's einen
Haushalt auch mit einer sehr sehr großen Stichprobe. Es war auch keine richtige Zufallsstichprobe. Da hat man einfach alles an Adressdaten und Telefonnummern verwendet
bereits vorlagen und man sieht's hier an der Grafik, dass diese beiden Service die Impfquote auch in den USA ähm deutlich überschätzt haben.
Aber es gibt eine Studius ähm Ipsos mit einer relativ ähm kleinen Anzahl von Befragten und
Ist es gelungen, die Impfquote ähm eigentlich würde ich sagen, zumindest in den ersten Monaten sehr gut zu schätzen. Die regale Impfquote wird durch das Konfidenzintervanet abgedeckt und
Service zeichnet sich dadurch aus, dass man hier wirklich versucht hat, best Practice einzuhalten, also möglichst gut Zufallstichproben ein anzunähern und auch das Soziale erwünschtheitsproblem zu reduzieren, indem man eine etwas indirektere
Fragetechnik angewendet hat.
Also die Take-Home-Message ist hier Qualität ähm und bei Einhaltung von Standards sind dann durchaus auch zuverlässigere
Zumindest deskriptive Ergebnisse möglich.
So ähm war dann nicht eigentlich schon früher mal was ähnliches in der Geschichte der Serve-Forschung. Einige
Ihnen erinnern sich vielleicht noch an das typische Lehrbuchbeispiel. Das taucht in ganz vielen Methodenwehrbüchern auf, ähm die Präsidentschaftswahl neunzehnhundertsechsunddreißig
und damals ähm lag im literaryst mit einem Convenian Sample sehr stark daneben. Die haben den falschen.
Gewinner der Präsidentschaftswahl vorhergesagt, während ähm Gallert mit einer deutlich kleineren Zufallstichprobe im richtig
prognostiziert hat, dass dann ein Präsident geworden ist.
Ist in der Folge baden gegangen bei einer weiteren ähm Prognose einer Präsidentschaftswahl, da hatten sie sich von der Zufallsstichprobe verabschiedet und sind auf einer Quotenstichprobe umgeswitcht und lagen dann auch deutlich daneben.
Aber wir hatten eigentlich in der Umfrageforschung in der Folge schon sehr viel erreicht. Das sieht man etwa an den Fehlern
Vorhersage bei Präsidentschaftswahlen, ähnliche Statistiken gibt's zu Europa, also Wahlergebnisse sind auch immer sehr gut, um
Serve-Ergebnisse zu validieren und man sieht, dass der durchschnittliche Vorhersagefehler deutlich abgenommen hat.
Allerdings lagen in jüngster Zeit ja doch einige Service dann wieder klar daneben. Denken Sie an die Trump-Wahl oder den Brexit Jahn Drosnica sich das genauer angeschaut und er sagt, das sieht wohl auch insbesondere
wegen fehlender best practice, ähm keine Zufallstichproben, nebulöse Gewichtungsverfahren et cetera.
So, was sind jetzt die Empfehlungen, die ich auf den Weg geben möchte oder was würde ich sagen, können wir daraus lernen,
Die Erste wäre, dass.
Standards einhalten doch wichtig ist und dass wir hier in der wissenschaftlichen Forschung auch durchaus als Vorbild gefragt sind und es gibt ja auch durchaus einige.
Practice Beispiele jetzt auch zur Corona-Forschung bei denen mit ähm zufälligen.
Gearbeitet wird oder zumindest versucht wird, Zufallstichproben zu verwenden, auch mit ähm indirekteren Fragetechniken, Ausfallanalysen et cetera. Wir haben zum Beispiel die Studie per von Corona-Studie oder des Geses,
Und die zweite Empfehlung wäre, dass wir aber auch mehr Transparenz über die Einhaltung von Qualitätsstandards einfordern, uns
belohnen sollten, denn Forschung ist häufig tatsächlich auch zu intransparent, um Fehlerquellen überhaupt erkennen und damit auch gegebenenfalls korrigieren zu können.
Beispiel ist hier wieder der ist einiges von der Methodik rechts unplanbar.
Ich möchte nur eins hervorheben. Das wird hier sehr nebulös als repräsentativ.
Also die Befragung ist zur repräsentativ, hat aber trotzdem nur einen begrenzten Aussagewert zu nehmen an den Befragungen, beispielsweise eher Menschenteil.
Dem Impfen positiv gegenüber eingestellt sind.
Eigentlich versuchen wir an den Universitäten, den Studierenden beizubringen, dass es nicht so etwas gibt wie ein repräsentativer Sample, sondern wir kennen eigentlich nur Zufall-Sample oder keine Zufall-Sample
Repräsentativ ist eigentlich nur so eine Art ähm Nebel
die die genaue Stichprobenziehung ähm verschleiert und ich denke, es wäre wichtig, hier mehr Transparenz einzufordern, damit die Einhaltung von Qualitätsstandards klarer ersichtlich
und wir damit auch stärkere Inszenes wieder haben an diesen Qualitätsstandards festzuhalten, die ja doch denke ich,
Wichtig sind, um zuverlässigere Forschungen wieder zu erreichen. So und damit bedanke ich mich
für die Aufmerksamkeit und freue ich mich jetzt auch dann ähm sehr auf die Diskussion.