Ich scheine hier einem neuen Grundlagenproblem der Wissenschaft (zumindest der aktuellen empirischen Sozialforschung) auf der Spur zu sein. Auch der erst im Februar 2026 präsentierte Band I einer sogenannten Dunkelfeldstudie mit dem reichlich absurden Titel „LeSuBiA“ (das soll für „Lebenssituation, Sicherheit und Belastung im Alltag“ stehen; ich dachte zunächst, es würde um Lesben und Bisexuelle gehen) ist wissenschaftlich vollkommen wertlos.
Diese Studie wird von zwei deutschen Bundesministerien, nämlich vom Familien- und Innenministerium sowie vom Bundeskriminalamt herausgegeben, wobei die Soziologinnen Nathalie Leitgöb-Guzy und Ina Bieber als Verfasserinnen angegeben sind. Solche groß angelegten deutschlandweiten repräsentativen Umfragen kosten den Steuerzahler eine Stange Geld, ChatGPT mutmaßt mehrere Millionen Euro:

Nun behaupte ich, dass diese Studie völlig wertlos ist, und ich denke, gute Argumente für dieses Urteil zu haben:
Die Studienautorinnen gehen von einem Hausmacher-Begriff von „Gewalt“ aus. Dieser wird auf S. 8 der Studie eingeführt (und auf S. 40 wortgleich wiederholt). Googelt man die Formulierungen, stellt man fest, dass genau diese Begrifflichkeit vorher nirgendwo verwendet wurde. Die Definitionen wurden ohne Fußnoten bzw. ohne Literaturquellen, also ohne Bezug auf bisherige Definitionsarbeit präsentiert. Das ist keine Wissenschaft, das ist Beliebigkeit:

Es ist exakt dasselbe Phänomen, das ich hier im Blog und auf X in den vergangenen Wochen mit den Begriffen „Rechtsextremismus“, „rechts“, „Diskriminierung“ und „digitale Gewalt“ dargestellt habe. Ich hege nun nicht mehr den geringsten Zweifel daran, dass das ein Muster ist. Begriffe werden scheinbar beliebig so weit ausgedehnt, bis fast jedes Phänomen in den semantischen Raum des Begriffs fallen kann. Das geschieht offenbar, um die Fallzahlen in die Höhe zu treiben, um eine Schlagzeile zu haben, vielleicht nicht zuletzt auch, um die forschende Institution zu legitimieren. Hier ist etwas völlig entgleist, und es scheint wie im Fall dieser Dunkelfeldstudie trotz eines wissenschaftlichen Beirats keine Qualitätskontrolle zu geben.
Aus den falschen Zahlen wird dann eine falsche Politik.
Dieser „Tanz der Begriffe“ verstößt so aber gegen eine Grundregel der Wissenschaft, nämlich gegen Mertons „Auf den Schultern von Riesen“-Prinzip: Wenn wir Begriffe einfach beliebig neu erfinden, ist alles Konstruktion. Wissenschaft ist Referenz, Bezug auf Bisheriges. Bricht man mit dieser Kette, bricht man mit einer Tradition, muss man das auch explizit machen. Das ist in der „Dunkelfeldstudie“ aber nicht geschehen.
Und so kommt es, dass unter „Gewalt“ dann empirisch operationalisiert auch folgende Phänomene fallen: Aggressives Anschreien (S. 41, das könnte man meines Erachtens noch gelten lassen), Hänseleien (S. 41) und sogar „Falschbeschuldigung(en)“ (S. 12 und S. 26). – Es ist meines Erachtens völlig absurd, die letzteren beiden Phänomene unter „Gewalt“ zu subsumieren. Eine „Falschbeschuldigung“ kann, aber muss kein Gewalt-Motiv haben, sie kann, aber muss keinen Gewalt-Aspekt haben.
Erneut genügte offenbar eine einzige solche „Gewalt“-Erfahrung in den vergangenen fünf Jahren, um in die Statistik zu gelangen (S. 8 und S. 42).
Und wieder kommt es zu einem schweren Kategorienfehler, der sich auch wie ein Muster durch aktuelle Studien zieht:
„Frauen haben in den letzten fünf Jahren zu 20,2 %, Männer zu 17,9 % emotionale Gewalt innerhalb einer (Ex-)Partnerschaft erlebt.“ (S. 42)
Das ist falsch und wird durch die Studie nicht abgebildet. Richtig ist indes: Frauen (und Männer) gaben an, dies erlebt zu haben. Ob sie es wirklich erlebt haben, wissen wir nicht. Es handelt sich um Fragen zu sensiblen Lebensbereichen. Bei diesen ist besondere Vorsicht bei der Auslegung geboten.
Weder das Cover noch das Vorwort der Minister Karin Prien und Alexander Dobrindt sowie des Präsidenten des Bundeskriminalamts führen eine Jahreszahl an. Diese findet sich perfekt versteckt auf der Impressumsseite auf S. 138, der letzten Seite der Studie.
Der Fragebogen wird nicht abgebildet.
Mich würde sehr interessieren, was diese Studie den bundesdeutschen Steuerzahler gekostet hat. Sie geht aus meiner Sicht von einem unzulässigen, weit überdehnten „Gewalt“-Begriff aus und verwechselt systematisch Angaben zu Gewalterfahrungen mit Gewalterfahrungen. Sie ist meines Erachtens methodisch nicht haltbar und muss zurückgezogen werden.
Der Arzt und Philosoph Horst Kächele kritisiert schon seit langem: „Nichts ist dehnbarer als Diagnosen im Bereich der psychischen Gesundheit“ (Schwäbische Zeitung v. 7.1.2024). Allein schon dadurch verliert sich das, was anhand des Vulnerabilitäts-Modells erörtert werden müsste, geradewegs in einem blinden Ungefähr. Angaben zu einem schweren Leiden lassen sich infolge dessen einfach nicht mehr von einem leichten Unwohlsein unterscheiden. Es fehlt schlicht jedwedes Maß zur Gewichtung der Äußerungen eines Menschen. Insofern hat auch die sogenannte Dunkelfeldstudie im Auftrag der beiden deutschen Bundesministerien des Innern sowie für Familie und des Bundeskriminalamts nicht einmal ansatzweise eine Aussagekraft.
Die Methodik der „Begriffsausweitung“ wird auch systematisch zur politischen Verfolgung verwendet. Die Methodik funktioniert durch Andeutung und Zuschreibung: Begriffe werden ausgedehnt, dadurch werden angebliche ahnbare Taten erfunden, ein Narrativ erzeugt, zugeschrieben, und schon wird verfolgt. Definitionen oder Nachweise sind nicht notwendig.
=== Abduktion, Cherry-Picking und Texas-Sharpshooter-Fallacy ===
Soweit ich verstehe, verwenden Sozialwissenschafte als Methodik gerne weder Induktion noch Deduktion, sondern oft Abduktion.
Besonders fällt dabei immer wieder ein systematisches Cherry-Picking auf. Zusammenhänge werden hergestellt und behauptet, die schon bei einer ganz einfachen 2×2 Vierfeldertafel aufgrund fehlender Einträge in Wahrheit keine Aussagen zum Zusammenhang zulassen würden.
Um die 2×2 Vierfeldertafel ganz kurz zu erläutern (vgl.: https://de.wikipedia.org/wiki/Kontingenztafel#Vierfeldertafel ): Wenn man zwei dichotome (kategorielle) Merkmale hat, zum Beispiel zwei Fragen mit nur ja/nein-Antwortmöglichkeiten oder „liegt vor / liegt nicht vor“, und man möchte eine Aussage zur stochastischen Abhängigkeit oder Unabhängigkeit tätigen, dann gibt es ingesamt vier kombinierte Möglichkeiten:
ja-ja,
ja-nein,
nein-ja,
nein-nein.
In einer 2×2 Vierfeldertafel (Kontingenztabelle) werden diese in einer 2×2-Tabelle angeordnet. Man zählt für diese möglichen Kombinationen die Häufigkeiten und erhält ein einfaches Rechenschema für Randhäufigkeiten und relative Häufigkeiten.
Die einfache 2×2 Vierfeldertafel gibt auch einen Überblick, ob vielleicht etwas fehlt, wenn man zu zwei solchen Merkmalen einen Zusammenhang untersuchen möchte. Man braucht unbedingt alle vier Felder, ansonsten ist keine Aussage möglich. Mit anderen Worten: Fehlt auch nur ein einziges Feld, dann kann man nicht mal eine Aussage zur Abhängigkeit treffen, und erst Recht keine Aussage über Kausalität.
Und das ist nur der aller-aller-einfachste Fall von zwei dichotomen Merkmalen.
Mein Eindruck ist: Sozial“forscher“innen fokussieren oft nur auf ein einziges Feld! Und behaupten dann Zusammenhänge, über die sich schon wegen der mangelhaften Methodik alleine eigentlich überhaupt keine Aussagen machen lassen. Das scheint aber weit verbreitet zu sein und auch an Unis so als Methodik unterrichtet zu werden – nicht etwa deswegen, weil es gerechtfertigt wäre, sondern nur deswegen, weil es offenbar auch viele andere so (falsch bzw. mangelhaft) machen.
Ganz einfaches Beispiel: Wenn man einen Zusammenhang von „empfundener Gewalt“ und „Frauen“ treffen möchte, dann hätte man im ganz einfachsten Fall von nur 2 ja/nein-Ausprägungen: Frau ja/nein, empfindet Gewalt ja/nein.
Alleine aus dieser Formulierung sieht man bereits, dass man für eine Aussage zu Abhängigkeit oder Unabhängigkeit – wohlgemerkt: Noch nicht mal Kausalität! – mindestens alle vier Fälle benötigt:
Frau + empfundene Gewalt
Frau + keine empfundene Gewalt
nicht Frau + empfundene Gewalt
nicht Frau + keine empfundene Gewalt
Fehlt auch nur einer dieser vier Fälle und wird auch nur in einem dieser vier Fälle nicht ordentlich erhoben, dann ist die gesamte Untersuchung wertlos! Umgekehrt bedeutet ein Vorliegen aller vier Fälle aber auch nicht, dass man hier bereits weitreichende Aussagen treffen könnte, oder dass die Studie insgesamt methodisch sauber wäre.
Es ist eher ein Ausschlusskriterium: Fehlt auch nur einer der Fälle -> keine Aussage möglich.
In den politisch motivierten Pseudostudien zum Zweck des politischen Aktivismus findet man hier oft sogar nur einen einzigen Fall: Frau + empfundene Gewalt. Da wird dann groß gezählt und groß aufgezeigt und so weiter.
Nur: Das ist für eine solche Fragestellung völlig wertlos. Das sagt zu einem Zusammenhang einfach gar nichts aus.
Man war dann halt geschäftig und hat irgendetwas zusammengetragen und erhoben, aber die Geschäftigkeit alleine oder das Ansiedeln eines solchen Projekts an einer akademischen Institution liefert noch lange keine Aussagekraft zu einem Zusammenhang!
=== Cherry-Picking und wahnbestärkende Faktoren ===
In der Psychologie sieht man eine Methodik des Cherry-Picking bei sog. „wahnbestärkenden Faktoren“: An einer Paranoia Leidende verfangen sich oft immer tiefer in ihrer Wahnwelt, weil sie bestätigende Faktoren suchen, anstatt (wie in den Naturwissenschaften seit Popper üblich) zu widerlegen bzw. zu falsifizieren. Dadurch wachsen die Wahnvorstellungen an.
Sie, Herr Dr. Weber, sind möglicherweise gerade auf ein solches Phänomen in den Sozialwissenschaften gestoßen…
In der Statistik wird beim Testen von Hypothesen methodisch eigentlich auch verlangt, zu versuchen, die Nullhypothese zu widerlegen, und nicht, sie zu bestätigen!
=== Deskriptive statistische Methodik erlaubt keine Aussagen der induktiven Statistik ===
Ein weiterer typischer methodischer Fehler ist, Methodik der rein beschreibenden deskriptiven Statistik (die gerne auch
für das Erzeugen von Hypothesen genutzt werden kann, die man dann an ANDEREN Daten testet, die später erhoben werden),
fälschlich als induktive Statistik schliessend zu verwenden. Nur die Methodik der induktiven Statistik würde ein Schließen auf Anderes erlauben (zB. aus einer Zufallsstichprobe), während die Methodik der deskriptiven Statistik nur direkt die erhobenen Daten in diesem konkreten Sachverhalt an diesem Ort zu dieser Zeit unter diesen Umständen beschreibt, aber nicht erlaubt, auf irgendetwas anderes zu schliessen oder zu verallgemeinern. Auch nicht auf ähnliche Daten oder ähnliche Sachverhalte. Einfach gar nichts. Die deskriptive Methodik erlaubt keine Schlüsse oder Übertragungen. Und zwar überhaupt keine.
Dieser Fehler wird sehr häufig gemacht. Sozialwissenschaften und Psychologie, aber auch Verkehrswissenschaften, sind voll davon!
=== Zusammen: Begriffsausdehnung, Abduktion, ungeeignete Methodik ===
Die von Ihnen erwähnte Begriffsausdehnung ist ein ähnliches Phänomen. Anstatt klar analytisch abzutrennen, wird systematisch versucht, zu vergrauen und dann mit diesen Graubereichen Resultate oder Zusammenhänge zu fabrizieren, die einer detaillierten Analyse nicht standhalten. In Kombination mit Abduktionsmethodik und statistischen Pseudo-Schlüssen lässt sich dann sehr leicht fabrizieren und manipulieren.
Abduktion als wahrheitsfindende entscheidende Methodik kommt seriös weder in der Mathematik noch in den Naturwissenschaften vor. In der Mathematik entscheidet alleine der (formale) mathematische Beweis. Im Kontext eines Axiomensystems. In den Naturwissenschaften entscheidet die „(natur)wissenschaftliche Methodik“ („scientific method“, stark gekürzt): Theorien/Modelle/Hypothese(n) postulieren, Daten zwecks Falsifizierung erheben und auswerten, Hypothese testen, entscheiden, Hypothese beibehalten/verwerfen, neue Theorien/Modelle/Hypothesen postulieren, Daten zwecks Falsifizierung erheben… (etc. pp.)
Möglicherweise wird in den Sozialwissenschaften und anderen das Fabrizieren und Manipulieren unter Publikationsdruck getan. Denn ein Paper, das dann erst andere schreiben müssen um das erste Paper zu widerlegen, muss die erste methodisch fehlerhafte Arbeit zitieren und bringt der fehlerhaften Arbeit Zitationszahlen. Zitationszahlen spiegeln keine Inhalte wieder: Es wird nicht unterschieden, ob eine Arbeit oft zitiert wird, weil sie so wichtig ist, oder oft zitiert wird, weil so viele Fehler darin aufgedeckt werden, weil ihr so häufig widersprochen wird.
Da rattert dann oft ein ganzes Teilgebiet, die Anzahl an Publikationen geht in die Höhe, die Anzahl an Zitaten geht in die Höhe, die hohe Geschäftigkeit wird groß nach außen präsentiert – aber keiner sieht sich an: Was tun die da eigentlich? Inhaltlich? Methodisch? Qualitativ?
Auf Qualität wird nicht geprüft. Speed kills und Quantität zählt.
In den Humanwissenschaften werden solche fehlerhaften und/oder methodisch mangelhaften Arbeiten oft auch gar nicht zurückgezogen, sondern bleiben als „andere Forschungsmeinung“ publiziert… Denn man will doch Vielfalt! Aber was für eine Vielfalt? Vielfalt an Fehlern und Falschem?