Kostenlose Rechtschreibprüfung

Kostenlose plagiatsprüfung, korrektur deiner abschlussarbeit.

  • Wissensdatenbank

Qualitative Forschung für die wissenschaftliche Arbeit durchführen

Veröffentlicht am 14. Mai 2019 von Franziska Pfeiffer . Aktualisiert am 7. November 2023.

Bei der qualitativen Forschung geht es darum, detaillierte, ausführliche Informationen zu sammeln, die du interpretativ auswertest.

Du beschäftigst dich gründlich mit Material zu einem ausgewählten Thema, um dieses Thema in seiner Fülle zu verstehen und daran neue Theorien aufzustellen.

Scribbrs kostenlose Rechtschreibprüfung

Fehler kostenlos beheben

Inhaltsverzeichnis

Das ist qualitative forschung, wann wird qualitative forschung durchgeführt, qualitative forschung beispiel, gütekriterien qualitativer forschung, häufig gestellte fragen.

Das Ziel der qualitativen Forschung ist es, ein Thema im Detail zu erfassen und zu untersuchen. Es geht um die Qualität deiner Ergebnisse statt um die Quantität.

Du benötigst daher keine hohe Anzahl an Teilnehmenden an deiner Forschung, sondern ziehst qualitativ wertvolle Schlüsse anhand von ausführlichen Ergebnissen.

Zu den qualitativen Forschungsmethoden gehören:

  • das Experteninterview ,
  • die qualitative Inhaltsanalyse ,
  • die Fallstudie ,
  • die Gruppendiskussion ,
  • die Nutzwertanalyse .

Im Gegensatz zu der qualitativen Forschung steht der quantitative Forschungsansatz , in dem es darum geht, möglichst viele Informationen zu sammeln, die statistisch ausgewertet werden.

Kostenlos auf Plagiate prüfen.

Qualitative Forschung wird durchgeführt, wenn …

  • … wenig Literatur zu dem Thema existiert.
  • … du eine neue Theorie entwickeln möchtest.
  • … du mehr in die Tiefe gehen möchtest.
  • … du nicht mit Zahlen und Statistik arbeiten möchtest.

Es handelt sich um ein Nischen-Thema mit wenig vorhandener Literatur. Deshalb ist es schwer, mir im Voraus genaue Fragen mit Antwortkategorien auszudenken.

Eine häufig verwendete qualitative Forschungsmethode ist das Experteninterview . Hier befragst du ausgewählte Experten , um umfangreiche Informationen zu einem Thema zu erlangen.

Anzahl an Interviewpartnern : 5

Ziel : Neue Erkenntnisse gewinnen und den Alltag einzelner Redakteure ausführlich kennenlernen

Erhebung : Verwendung von offenen Fragen ohne standardisierte Vorgaben

Ergebnisse qualitativer Forschung sind oft subjektiv und von den Forschenden selbst abhängig. Dennoch ist es wichtig, dass du dich an bestimmten Gütekriterien orientierst.

  • Trotz offener Vorgehensweise sollte qualitative Forschung regelgeleitet sein.
  • Achte auf eine genaue Dokumentation deiner Methode .
  • Um qualitativ interpretieren zu können, musst du dich im Voraus gründlich mit deinem Forschungsgegenstand auseinandergesetzt haben.
  • Basiere deine Argumente auf deiner Literaturrecherche .

Bei der qualitativen Forschung sammelst du detaillierte, ausführliche Informationen und wertest diese interpretativ aus.

Es wird viel mit offenen Fragestellungen und nicht standardisierten Messungen gearbeitet. Das Ziel ist es, neue Theorien zu entwickeln.

Beispiele für qualitative Forschung sind Experteninterviews oder Gruppendiskussionen .

Bei der quantitativen Forschung sammelst du möglichst viele Informationen zu deinem Thema und wertest sie anhand von Zahlen und Fakten aus.

Du testest bereits bestehende Theorien und gehst dabei deduktiv vor.

Beispiele für quantitative Forschung sind die Umfrage oder die Beobachtung .

Ob du den qualitativen oder quantitativen Ansatz wählen solltest, kommt auf das Thema deiner Abschlussarbeit und deine Forschungsfrage an.

Qualitative Forschung eignet sich, wenn …

  • wenig Literatur zu dem Thema existiert.
  • du eine neue Theorie entwickeln möchtest.
  • du mehr in die Tiefe gehen möchtest.
  • du nicht mit Zahlen und Statistik arbeiten möchtest.

Quantitative Forschung eignet sich, wenn …

  • bereits Literatur zu dem Thema existiert.
  • du eine bestehende Theorie testen möchtest.
  • du möglichst viele Informationen sammeln möchtest.
  • du mit Zahlen und Statistik arbeiten möchtest.

Diesen Scribbr-Artikel zitieren

Wenn du diese Quelle zitieren möchtest, kannst du die Quellenangabe kopieren und einfügen oder auf die Schaltfläche „Diesen Artikel zitieren“ klicken, um die Quellenangabe automatisch zu unserem kostenlosen Zitier-Generator hinzuzufügen.

Pfeiffer, F. (2023, 07. November). Qualitative Forschung für die wissenschaftliche Arbeit durchführen. Scribbr. Abgerufen am 3. September 2024, von https://www.scribbr.de/methodik/qualitative-forschung/

Blogverzeichnis - Bloggerei.de

War dieser Artikel hilfreich?

Franziska Pfeiffer

Franziska Pfeiffer

Das hat anderen studierenden noch gefallen, qualitative forschung und quantitative forschung, quantitative forschung in wissenschaftlichen arbeiten, ein experteninterview für die bachelorarbeit führen in 5 schritten, aus versehen plagiiert finde kostenlos heraus.

U.S. flag

An official website of the United States government

The .gov means it’s official. Federal government websites often end in .gov or .mil. Before sharing sensitive information, make sure you’re on a federal government site.

The site is secure. The https:// ensures that you are connecting to the official website and that any information you provide is encrypted and transmitted securely.

  • Publications
  • Account settings

Preview improvements coming to the PMC website in October 2024. Learn More or Try it out now .

  • Advanced Search
  • Journal List
  • BMC Med Res Methodol

Logo of bmcmrm

Qualitative research methods in medical dissertations: an observational methodological study on prevalence and reporting quality of dissertation abstracts in a German university

Charlotte ullrich.

Department of General Practice and Health Services Research, University of Heidelberg Hospital, INF 130.3, 69120 Heidelberg, Germany

Anna Stürmlinger

Michel wensing, associated data.

The data of the repository databank is semi-public and can be accessed from the corresponding author upon reasonable request. A data extraction table is available in App. 2.Competing interests and funding: We have no conflicts of interest to disclose and no funding to report.

Qualitative methods offer a unique contribution to health research. Academic dissertations in the medical field provide an opportunity to explore research practice. Our aim was to assess the use of qualitative methods in dissertations in the medical field.

By means of a methodological observational study, an analysis of all academic medical dissertations’ abstracts between 1998 and 2018 in a repository databank of a large medical university faculty in Germany was performed. This included MD dissertations (Dr. med. (dent.)) and medical science dissertations (Dr. sc. hum.). All abstracts including “qualitativ*” were screened for studies using qualitative research methods. Data were extracted from abstracts using a category grid considering a) general characteristics (year, language, degree type), b) discipline, c) study design (mixed methods/qualitative only, data conduction, data analysis), d) sample (size and participants) and e) technologies used (data analysis software and recording technology). Thereby reporting quality was assessed.

In total, 103 abstracts of medical dissertations between 1998 and 2018 (1.4% of N  = 7619) were included, 60 of MD dissertations and 43 of medical sciences dissertations. Half of the abstracts ( n  = 51) referred to dissertations submitted since 2014. Most abstracts related to public health/hygiene ( n  = 27) and general practice ( n  = 26), followed by medical psychology ( n  = 19). About half of the studies ( n  = 47) used qualitative research methods exclusively, the other half ( n  = 56) used mixed methods. For data collection, primarily individual interviews were used ( n  = 80), followed by group interviews ( n  = 33) and direct observation ( n  = 11). Patients ( n  = 36), physicians ( n  = 36) and healthcare professionals ( n  = 17) were the most frequent research participants. Incomplete reporting of participants and data analysis was common ( n  = 67). Nearly half of the abstracts ( n  = 46) lacked information on how data was analysed, most of the remaining ( n  = 43) used some form of content analysis. In summary, 36 abstracts provided all crucial data (participants, sample size,; data collection and analysis method).

A small number of academic dissertations used qualitative research methods. About a third of these reported all key aspects of the methods used in the abstracts. Further research on the quality of choice and reporting of methods for qualitative research in dissertations is recommended.

Qualitative research methods offer a unique contribution to health research, particular for exploration of the experiences of patients, healthcare professionals and others [ 1 – 5 ]. While (general) epidemiology primarily addresses health and healthcare in populations and clinical research concentrates on medical interventions and health prognosis, qualitative research methods focus on different actors’ perspectives, experiences and behaviours in health-related contexts. Qualitative research entails a broad spectrum of methods of data conduction and data analysis: individual interviews illuminate individual perceptions [ 6 ], group interviews deliver insights into shared norms and opinions [ 7 ], direct observations facilitate understandings of behaviours in healthcare practice [ 8 – 10 ] and documents can offer insights into discourses and self-representations [ 11 ]. For data analysis, methods combining inductive and deductive steps are most suitable for exploratory research questions utilizing existing results, theories and concepts [ 12 ]. Given these prospects, little is known on the practice of applying qualitative research methods, especially concerning medicine.

In dissertations, a foundation for future scientific work is laid; therefore, guidance and rigour are of special importance [ 13 ]. Dissertations in medical departments provide a good opportunity to explore research practices of students and young academics. In Germany, about 60% of all graduating medical students complete an academic dissertation [ 14 ], which they usually finish parallel to medical school within a full-time equivalent of about a year [ 15 – 18 ]. As a by-product, medical doctoral students are increasingly among the authors of published research, holding first-authorship in about 25% [ 18 – 20 ].

In Germany, basic scientific training is a required part of the medical curriculum and recent policies put even more emphasis on the development of scientific competencies [ 15 , 21 , 22 ]. National regulations specify scientific competencies giving explicit recommendations for quantitative methods. Medical students have rarely received training in qualitative methods. However, health care professions and qualitative methods share a perspective directed to practice and interactions. Interviews and observations are already commonly used as clinical and diagnostic tools.

In addition to the doctoral degrees for medical and dental graduates (Doctor medicinae (dentariae), Dr. med. (dent.)), students with other disciplinary backgrounds (e.g. natural scientists, psychologists and social scientists) complete dissertations at medical faculties in Germany (often labelled Doctor scientiarum humanarum, Dr. sc. hum. or Doctor rerum medicarum, Dr. rer. medic.). Although regulations differ slightly, the degrees are usually situated within and regulated by the same institutional culture and context (e.g. faculty, department, supervision and aspired publications).

The aim of this study was to understand the current practice of applying qualitative research methods helping identify gaps in reporting and need for guidance. By means of a methodological study – a subtype of observational studies that evaluates the design, analysis of reporting of other research-related reports [ 23 ] – we investigated volume and variety of the use of qualitative research methods in dissertations at a German medical faculty. Hereby we wanted to inform methodological advances to health research and outline implications for medical education in scientific competencies training.

Search strategy

Dissertations in the medical field were retrospectively assessed: In a document analysis, all dissertation abstracts at one medical faculty were reviewed. This faculty was chosen as it is one of the oldest and largest medical faculties in Germany, with a strong research tradition and a high dissertation rate among graduating students. All abstracts from 01/01/1998 to 31/12/2018, which were publicly available in the repository databank of the university, were reviewed. This included MD dissertations (Dr. med. (dent.)) and medical science dissertations (Dr. sc. hum.) written in German or English. All types of studies using qualitative research methods, all types of human participants, all types of interventions and all types of measures were eligible. We focused on abstracts, because full text dissertations are not publicly available and are helpful to get an overview of a number of method-related issues. Although serving as a proxy, abstracts should provide a sufficient summary of the dissertation, including crucial information on study design, independently from the full text. In the databank, relevant documents had to be labelled a) “abstract of a medical dissertation” (referring to both degree types). To further identify dissertations using qualitative methods b) the search term “qualitativ*” was used as an inclusion criterium.

Selection and data extraction

All identified abstracts were pre-screened independently by two researchers (AS, LS) and then reviewed by the main research team (KK, AS, CU) excluding abstracts using “qualitativ*” only in respect to non-methods-related issues (e.g. quality of life). Data on a) general characteristics (year, language, degree type), b) discipline, c) study design (mixed methods/qualitative only, data conduction, data analysis), d) sample (size and participants) and e) technologies used (data analysis software and recording technology) (see App. 2) was then extracted independently by two team members (AS, LS) and crossed-checked (KK, CU). Data extraction was initially guided by two widely used reporting guidelines for qualitative health research articles [ 24 , 25 ] and adapted to reflect the abstract format: Abstracts provided comparable information on the set-up of study design and sample. Reporting of results was not assessed due to heterogeneity and briefness. Data extraction forms were piloted and adjusted to inductive findings. Disagreements were discussed, assessed and solved by consensus by the main research team (KK, AS, CU). Extracted data were analysed and reported as absolute and relative frequencies. As all abstracts were available, no further data was obtained from authors.

Search results

Out of a total of 7619 dissertation abstracts, 296 dissertations were initially identified. Of these, 173 abstracts were excluded from the study as “qualitativ*” in these abstracts did not refer to the research method. Additionally, 20 abstracts (12 medicine, 8 medical science) were not further included in the analysis due to an ambiguous and inconclusive use of the label “qualitative methods” and/or restricted comparability with the otherwise pre-dominant interview-based study designs: a) a qualitative research design was stated, but no further information on the approach was given ( n  = 7), b) no explicit distinction was made between qualitative research design and a clinical diagnostic approach ( n  = 4), c) the qualitative approach comprised of additional free text answers in written questionnaires only ( n  = 6), and d) only document analysis or observation was used ( n  = 3). In total, 103 abstracts (1.4% of 7619) were included in the analysis.

Low but increasing use

Since 1998, the number of dissertations applying qualitative methods has continually increased while the total number of dissertations remained stable (between n  = 314 in 2006 and n  = 410 in 1999 and 2008, M (1998–2018) = 362.8, SD = 26.1) (Fig.  1 ). Before 2005 there was yearly not more than one dissertation that used qualitative methods. Since then, the number has steadily raised to more than 10 dissertations per year, equivalent to an increase from 0.28% in 1998 to 3.42% in 2018 of all listed dissertation abstracts per year.

An external file that holds a picture, illustration, etc.
Object name is 12874_2020_1186_Fig1_HTML.jpg

Number of all dissertations and dissertations using qualitative methods per year between 1998 and 2018

General characteristics

Abstracts nearly equally referred to dissertations leading to an MD degree (Dr. med. n  = 57, Dr. med. Dent. n  = 3) and medical science degree (Dr. sc. hum. n  = 43), respectively. The included dissertation abstracts were based in 12 different sub-specialties , most in general practice ( n  = 26), in public health and hygiene ( n  = 27) and medical psychology ( n  = 19); the Dr. med. (dent.) abstracts having a higher share in general practice ( n  = 21) and the Dr. sc. hum. abstracts in public health/hygiene ( n  = 16) (s. Table  1 ).

Usage of qualitative research design in dissertations at a medical faculty

Dr. med. (dent.) (  = 60)Dr. sc. hum. (  = 43)Total (  = 103)
 Public Health/ Hygiene11 (18.3)16 (37.2)27 (26.2)
 General Practice21 (35.0)5 (11.6)26 (25.2)
 Medical Psychology7 (11.7)12 (27.9)19 (18.4)
 Internal Medicine/ Psychosomatics11 (18.3)3 (7.0)14 (13.6)
 Health Services Research3 (5.0)1 (2.3)4 (3.9)
 Psychiatry0 (−)3 (7.0)3 (2.9)
 Paediatrics3 (5.0)0 (−)3 (2.9)
 Medical Biometry und Informatics0 (−)2 (4.7)2 (1.9)
 Others (Anatomy, Gynaecology, History, Neurology, Social Medicine)4 (6.7)1 (2.3)5 (4.9)
 Mixed Methods Approach24 (40.0)32 (74.4)56 (54.4)
 Qualitative Approaches only36 (60.0)11 (25.6)47 (45.6)
 Document analysis3 (5.0)2 (4.7)5 (4.9)
 Interviews (individual)43 (71.7)37 (86.0)80 (77.7)
 Group Interviews21 (35.0)12 (27.9)33 (32.0)
 Observation5 (8.3)6 (14.0)11 (10.7)
 Questionnaire2 (3.3)1 (2.3)3 (2.9)
 Not reported1 (1.7)4 (9.3)5 (4.9)
 Health Care Professionals11 (18.3)6 (14.0)17 (16.5)
 Patients19 (31.7)17 (39.5)36 (35.0)
 Physicians27 (45.0)9 (20.9)36 (35.0)
 Relatives4 (6.7)3 (7.0)7 (6.8)
 Students10 (17)1 (2.3)11 (10.7)
 Other6 (10)10 (23.3)16 (15.5)
 Not reported1 (1.7)6 (14.0)7 (6.8)
  2–106 (10.0)4 (9.3)10 (9.7)
  11–205 (8.3)7 (16.3)12 (11.7)
  21–309 (15.0)4 (9.3)13 (12.6)
  31–405 (8.3)3 (7.0)8 (7.8)
  41–500 (−)3 (7.0)3 (2.9)
  51–604 (6.7)2 (4.7)6 (5.8)
   > 602 (3.3)1 (2.3)3 (2.9)
  Not reported12 (20.0)13 (30.2)25 (24.3)
  Not used or unclear17 (28.3)6 (14.0)23 (22.3)
  1–57 (11.7)1 (2.3)8 (7.8)
  6–104 (6.7)4 (9.3)8 (7.8)
   > 102 (3.3)3 (7.0)5 (4.9)
  Not reported8 (13.3)4 (9.3)12 (11.7)
  Not used or unclear39 (65.0)31 (72.1)70 (68.0)
  2–204 (19.0)1 (8.3)5 (15.2)
  21–404 (19.0)1 (8.3)5 (15.2)
  41–603 (14.3)1 (8.3)4 (12.1)
  61–762 (9.5)0 (−)2 (6.1)
  Not reported8 (38.1)9 (75.0)17 (51.5)
 Audio21 (35.0)10 (23.3)31 (30.1)
 Video5 (8.3)1 (2.3)6 (5.8)
 Not reported34 (56.7)32 (74.4)66 (64.1)
 Content Analysis (without P. Mayring)16 (26.7)10 (23.3)26 (25.2)
 Content Analysis following P. Mayring14 (23.3)2 (4.7)16 (15.5)
 Grounded Theory1 (1.7)4 (9.3)5 (4.9)
 Other6 (1.0)4 (9.3)10 (9.7)
 Not reported23 (38.3)23 (53.5)46 (44.7)
 ATLAS.ti12 (20.0)2 (4.7)14 (13.6)
 MAXQDA3 (5.0)0 (−)3 (2.9)
 NVivo1 (1.7)2 (4.7)3 (2.9)
 Other21 (2.3)3 (2.9)
 Not reported42 (70.0)38 (88.4)80 (77.7)

Most abstracts followed at least roughly the common structure of background, methods, results and conclusion. The length of the abstracts varied between less than one and more than three pages, with most abstracts being one to two pages long; 77 abstracts were written in German and 26 in English.

Study design

About half of the studies used qualitative research methods exclusively ( n  = 47; 60% of Dr. med. (dent.) abstracts, 26% of Dr. sc. hum. abstracts), the other half mixed methods ( n  = 56; 40% of Dr. med. (dent.) abstracts, 74% of Dr. sc. hum. abstracts; Table ​ Table1). 1 ). Individual interviews were the most common form of data collection ( n  = 80), followed by group interviews ( n  = 33) and observation ( n  = 11). In total, 23 abstracts indicated the use of a combination of different qualitative methods of data conduction, all of these included individual interviews. For documentation/recording, when reported ( n  = 37), audio recording was used in most cases ( n  = 3).

Little difference regarding method of data conduction were found between pure qualitative and mixed-methods designs. Mixed methods studies rather included physicians ( n  = 21) and used predominantly general content analysis ( n  = 14), when reported; whereas qualitative studies rather included patients ( n  = 28) and used predominantly both content analysis ( n  = 14) and content analysis following Mayring ( n  = 12). Overall incomplete reporting was more common in mixed-method studies ( n  = 41) than qualitative studies ( n  = 26, 55.3%) (see App. 2).

Sample size varied widely: Overall, 67 abstracts provided a sample size. Of those, a median number of 29 people (min-max: 2–136) participated in individual and group interviews. Only in Dr. sc. hum. dissertations using mixed methods, lower median sample sizes were reported for the qualitative part (Md = 22, min-max: 6–110; n  = 17) compared to dissertations using qualitative methods only (medical science ( n  = 7): Md = 31, min-max: 16–50; MD ( n  = 29): Md = 29, min-max: 7–136) and Dr. med. (dent.) dissertations with mixed methods (Md = 30, min-max: 2–62; n  = 14). In individual interviews, when sample size was reported ( n  = 55, 69% of 80), it distributed roughly equally in the ranges of 1–10, 11–20, 21–30, 31–50 and above 50 (Md = 25; min-max: 2–110). For the 33 dissertations using group interviews, the number of groups is given in 20 abstracts, the number of participants in 15 abstracts. Between 1 and 24 group interviews were conducted with a median total of 24 participants (min-max: 2–65) (see Table ​ Table1 1 ).

Patients ( n  = 36) and physicians ( n  = 36) were the overall most frequent research participants , followed by other health care professionals ( n  = 17), students ( n  = 11) and relatives of patients ( n  = 7). Other participants ( n  = 16) included: representatives of self-help organizations and other experts, educators such as teachers and policy makers. In 33% ( n  = 31) of the abstracts, more than one participant group was included, 6.8% ( n  = 7) did not specify research participants. While MD dissertations predominantly included physicians ( n  = 27) and patients ( n  = 19), Dr. sc. hum. dissertations included mostly patients ( n  = 17) and other participants ( n  = 10).

Data analysis

For data analysis, if reported ( n  = 57), content analyses were the most common used method ( n  = 42), including the highly deductive approach formulated by Mayring [ 26 ] ( n  = 16), mostly used in MD dissertations ( n  = 14). Among other reported methods ( n  = 15), grounded theory ( n  = 5) was the most common approach; rarely mentioned methods include framework analysis and non-specific analysis combining inductive and deductive approaches. Forty-six abstracts did not provide information on the analysis method used (38.3% of MD abstracts, 53% of medical science abstracts). If reported ( n  = 24), ATLAS.ti ( n  = 14), MAXQDA ( n  = 3) and NVivo ( n  = 3) were mentioned most frequently as qualitative data analysis programs.

In summary, 36 abstracts provided all crucial data (participants: sample size, characteristics, i.e. healthcare professional/patient; data collection and analysis method). Thus, 58% ( n  = 35) of MD dissertation abstracts and 74% ( n  = 32) of Dr. sc. hum. dissertation abstracts had at least one missing information.

The results show a low but increasing use of qualitative research methods in medical dissertations. Abstracts nearly equally referred to dissertations leading to an MD degree and medical science doctorate respectively; half of which were submitted since 2011. Qualitative methods were used in several departments, most frequently in those for general practice, public health and medical psychology mirroring an already known affinity between the objective of certain medical disciplines and perspective qualitative methods [ 27 , 28 ].

About half of the studies used qualitative research methods exclusively, the other half mixed methods: While some differences were found, due to short format and sparse information within the abstract a strict differentiation between qualitative approaches alone and combined quantitative and qualitative designs was not made. Little difference according to degree type was observed. This points to a strong shared dissertation culture, that balances and conceals differences in academic training between medical students and graduates from other, quite diverse, disciplines (e.g. from humanities, natural and social sciences) pursuing a doctorate at a medical faculty.

Limited variety in methods used

The results show a strong preference for certain methods in data conduction, research participants and data analysis: Individual and group interviews were predominant as well as content analysis, especially Mayring’s deductive approach. All in all, a limited use of the broad spectrum of qualitative research methods can be observed. Interviews are important to gain insights on actors’ perspective [ 6 ]; however, they have limited information value when it comes to actual processes and practice of health care. To investigates those, additional direct observation would be suitable [ 8 , 9 ]. In group interviews shared norms and opions can be observed, they are not suitable to capture individual perspectices. Group interviews go along with higher time and efforts regarding scheduling, interview guidance and data analysis [ 7 ]. Within the dissertations, documents are rarely used as data within the dissertations, but could be useful readily available documents.

Included research participants were mostly patients and physicians. This might be due to the research questions posed or the availability of participants. However, to reflect the complexity of health care a higher diversity of research questions, expanding participants (e.g. other health care professionals and caregivers) and based on a thorough knowledge of available methods, including qualitative approaches, might be needed.

As for methods of analysis, the results show a predominant use of a form of content analysis, with a strong affinity to quantitative analysis often limited to description forgoing in-depth analysis. As qualitative methods belong to the interpretative paradigm, most qualitative methodologies emphasize inductive analyses (e.g. Grounded Theory) and/or a combination of induction and deduction [ 12 , 29 ]. By using primarily descriptive content analysis the full potential of qualitative research and depth of the data to gain new a insights are thus neglected. Since knowledge about and application of qualitative methods are not part of the medical curriculum, doctoral students lack training in using qualitative methods and grasping the possibilities these methods convey for in-depth original knowledge.

Incomplete reporting

One fundamental principle of good research practice is accurate reporting. For empirical research, reporting on research design and methods is crucial to ensure comparability and reflect reach of research results. Within medicine and other health sciences, while debated [ 30 ], reporting guidelines are increasingly used to guarantee a basic standard. While qualitative research designs differ from clinical and quantitative designs regarding theoretical and methodological background, study aims and research process, rigorous reporting is a shared standard: this includes reporting on data conduction, sampling, participants and data analysis (e.g. COREQ [ 24 ]).

In our study, incomplete reporting regarding research design and methods was common. Especially, information on methods of data analysis was missing in about half of the abstracts reflecting the limited awareness of the plethora of qualitative analysis methods. Additionally, a third of the abstracts did not provide information on sample size. Although the importance of a “sufficient” sample size is controversially discussed, identifying the sources and putting their contributions into perspective is a paramount characteristic of qualitative research [ 31 – 33 ]. All in all, incomplete reporting was common ( n  = 67). Additionally, out of 123 initially identified abstracts, 20 had to be excluded from the analysis as comparability was not given mainly due to the inconclusive use of the term qualitative methods.

Several issues should be considered when interpreting the findings from this study. As a case study at one large faculty, which has a strong research orientation, the generalizability of the findings is uncertain. It seems unlikely that the quality of reporting is better in other medical faculties in Germany, but the prevalence of using qualitative methods might be higher. Character and role of the abstracts might not be as apparent as in journal papers, as they serve as a summary of the dissertation and are listed within the online repository databank only. The relation of reporting quality of those abstracts and the full text dissertation or even publication is unknown. Presentation of results was not assessed as information in abstracts were brief and heterogenous. Additionally, insights are limited by the structure of the repository databank itself, i.e. sub-disciplines are combined that sometimes cover distinct research fields or did evolve as separate specialties. All in all, however, the results mirror the critique on the lack of scientific training in medical education [ 17 , 22 , 34 , 35 ] and the want of sufficient reporting in medicine and health science, irrespective of study design [ 36 ].

While recent policies put a strong emphasis on strengthening scientific competences in medical education in Germany [ 15 , 21 , 22 ], especially MD dissertations are only in some degree comparable to dissertation thesis of other disciplines and medical dissertations internationally: In Germany, about 60% of all graduating medical students complete an academic dissertation [ 14 ], which they usually finish parallel to medical school within a full-time equivalent of about a year [ 15 – 18 ]. Graduate programs that exclusively dedicate 1 year for pursuing a dissertation are still discussed as innovative [ 35 ]. Additionally, the expertise of supervisors was not assessed. In a recent opinion paper, Malterud et al. [ 37 ] called for supervisors and dissertation committees holding corresponding methodological skills and experience as well as an academic consensus regarding scientific rigour to ensure high quality theses using qualitative methods. Missing standards in supervision and reporting might have led to the observed results in our study.

Qualitative research methods offer a unique scientific benefit to health care, including medicine. Our results show that within dissertation research, the number of dissertations applying qualitative methods has continually increased mirroring an overall trend in health research. To improve reach and results, a broader spectrum of qualitative methods should be considered when selecting research designs, including e.g. (direct) observation, document and analysis strategies, that combine inductive and deductive approaches. Same holds true for including a more diverse body of research participants. More broadly, reporting and academic practice should be improved.

Reporting guidelines can not only help to improve the quality of reporting but also be used as a tool to supervising graduate students steps commonly associated with qualitative research methods. So far, however, reporting guidelines mainly target full and/or published papers. Still, some reporting guidelines for abstracts are already available [ 38 – 41 ], that could be adapted for dissertation research in health science.

In academic practice, skilled supervision alongside transparent and method-appropriate criteria are the precondition for confident and courageous dissertation research that increases understanding and challenges existing knowledge of health care research. Educational programs strengthening research and reporting skills – within and beyond qualitative methods – should be implemented into medical education more profoundly, at the latest in doctoral training.

Acknowledgements

We would like to thank Laura Svensson for assisting in reviewing the abstracts and data extraction. In addition, we would like to thank the reviewers for their thorough review and constructive comments.

Abbreviations

COREQConsolidated criteria for reporting qualitative research
Dr. med.Doctor medicinae
Dr. med. dent.Doctor medicinae dentariae
Dr. sc. hum.Doctor scientiarum humanarum
MDMedical Doctor

Authors’ contributions

CU and KK conceived the idea for this manuscript. CU, KK and AS reviewed, extracted and analyzed the data. KK led the data analysis. CU wrote the first draft of the manuscript. MW provided substantial comments at different stages of the manuscript. CU, KK and MW critically revised the manuscript. All authors read and approved the manuscript for submission.

Open Access funding enabled and organized by Projekt DEAL.

Availability of data and materials

Ethics approval and consent to participate.

Not applicable. In accordance with the scope and design of this study no formal study protocol was written.

Consent for publication

Not applicable.

Publisher’s Note

Springer Nature remains neutral with regard to jurisdictional claims in published maps and institutional affiliations.

Contributor Information

Charlotte Ullrich, Email: [email protected] .

Anna Stürmlinger, Email: [email protected] .

Michel Wensing, Email: [email protected] .

Katja Krug, Email: [email protected] .

Cookies on this website

We use cookies to ensure that we give you the best experience on our website. If you click 'Accept all cookies' we'll assume that you are happy to receive all cookies and you won't see this message again. If you click 'Reject all non-essential cookies' only necessary cookies providing core functionality such as security, network management, and accessibility will be enabled. Click 'Find out more' for information on how to change your cookie settings.

Nuffield Department of Primary Care Health Sciences, University of Oxford

Tips for a qualitative dissertation

Veronika Williams

Veronika Williams

17 October 2017

Tips for students

This blog is part of a series for Evidence-Based Health Care MSc students undertaking their dissertations.

Graphic image of a laptop, mouse, mobile phone, stationery and cup of coffee, viewed from above in primary colours

Undertaking an MSc dissertation in Evidence-Based Health Care (EBHC) may be your first hands-on experience of doing qualitative research. I chatted to Dr. Veronika Williams, an experienced qualitative researcher, and tutor on the EBHC programme, to find out her top tips for producing a high-quality qualitative EBHC thesis.

1) Make the switch from a quantitative to a qualitative mindset

It’s not just about replacing numbers with words. Doing qualitative research requires you to adopt a different way of seeing and interpreting the world around you. Veronika asks her students to reflect on positivist and interpretivist approaches: If you come from a scientific or medical background, positivism is often the unacknowledged status quo. Be open to considering there are alternative ways to generate and understand knowledge.

2) Reflect on your role

Quantitative research strives to produce “clean” data unbiased by the context in which it was generated.  With qualitative methods, this is neither possible nor desirable.  Students should reflect on how their background and personal views shape the way they collect and analyse their data. This will not only add to the transparency of your work but will also help you interpret your findings.

3)  Don’t forget the theory

Qualitative researchers use theories as a lens through which they understand the world around them. Veronika suggests that students consider the theoretical underpinning to their own research at the earliest stages. You can read an article about why theories are useful in qualitative research  here.

4) Think about depth rather than breadth

Qualitative research is all about developing a deep and insightful understanding of the phenomenon/ concept you are studying. Be realistic about what you can achieve given the time constraints of an MSc.  Veronika suggests that collecting and analysing a smaller dataset well is preferable to producing a superficial, rushed analysis of a larger dataset.

5) Blur the boundaries between data collection, analysis and writing up

Veronika strongly recommends keeping a research diary or using memos to jot down your ideas as your research progresses. Not only do these add to your audit trail, these entries will help contribute to your first draft and the process of moving towards theoretical thinking. Qualitative researchers move back and forward between their dataset and manuscript as their ideas develop. This enriches their understanding and allows emerging theories to be explored.

6) Move beyond the descriptive

When analysing interviews, for example, it can be tempting to think that having coded your transcripts you are nearly there. This is not the case!  You need to move beyond the descriptive codes to conceptual themes and theoretical thinking in order to produce a high-quality thesis.  Veronika warns against falling into the pitfall of thinking writing up is, “Two interviews said this whilst three interviewees said that”.

7) It’s not just about the average experience

When analysing your data, consider the outliers or negative cases, for example, those that found the intervention unacceptable.  Although in the minority, these respondents will often provide more meaningful insight into the phenomenon or concept you are trying to study.

8) Bounce ideas

Veronika recommends sharing your emerging ideas and findings with someone else, maybe with a different background or perspective. This isn’t about getting to the “right answer” rather it offers you the chance to refine your thinking.  Be sure, though, to fully acknowledge their contribution in your thesis.

9) Be selective

In can be a challenge to meet the dissertation word limit.  It won’t be possible to present all the themes generated by your dataset so focus! Use quotes from across your dataset that best encapsulate the themes you are presenting.  Display additional data in the appendix.  For example, Veronika suggests illustrating how you moved from your coding framework to your themes.

10) Don’t panic!

There will be a stage during analysis and write up when it seems undoable.  Unlike quantitative researchers who begin analysis with a clear plan, qualitative research is more of a journey. Everything will fall into place by the end.  Be sure, though, to allow yourself enough time to make sense of the rich data qualitative research generates.

Related course:

Qualitative research methods.

Short Course

(Stanford users can avoid this Captcha by logging in.)

  • Send to text email RefWorks EndNote printer

The qualitative dissertation : a guide for students and faculty

Available online, at the library.

dissertation qualitative forschung

SAL3 (off-campus storage)

Items in Stacks
Call number Note Status
LB2369 .P48 2009 Available

More options

  • Find it at other libraries via WorldCat
  • Contributors

Description

Creators/contributors, contents/summary.

  • Foreword by Frances Schoonmaker Preface to the Second Edition Acknowledgments About the Authors Part I. Facing the Dissertation Journey
  • 1. Coming to Study
  • 2. On the Deliberative Nature of the Dissertation
  • 3. Meanings of the Dissertation
  • 4. Facing the Dissertation Part II. Preparing for the Dissertation Journey
  • 5. Orienting Oneself to Interpretive Inquiry
  • 6. Situating Oneself in the Inquiry
  • 7. Rethinking the Concept of Method
  • 8. Rethinking the Concept of Data
  • 9. Moving From the Experiential to the Theoretic Part III. Entering Into and Living Through the Dissertation Journey
  • 10. Developing Ideas for the Dissertation Proposal
  • 11. Crafting an Interpretive Dissertation Proposal
  • 12. Proposing the Dissertation Study
  • 13. Living With the Study
  • 14. Entering Into Public Discourse: The Dissertation Meeting
  • 15. Life After the Dissertation Afterword Part IV. Case Examples of Interpretive Dissertations Case Example
  • 1. Problematizing Educational Inclusion: A Practice-Based Heuristic Inquiry Case Example
  • 2. Pictures in Our Minds: A Narrative Study of the Incorporation of Creative Dramatics as Pedagogy in Elementary Classroom Content Areas Case Example
  • 3. A Narrative Study of Three Levels of Reflection in a College Composition Class: Teacher Journal, Student Portfolios, Teacher-Student Discourse Case Example
  • 4. Promises Made, Promises Broken: A Literary Criticism of the Pennsylvania Lead Teacher Experience Case Example
  • 5. Our Changing Town, Our Changing School: Is Common Ground Possible? Case Example
  • 6. A Special Program for Gifted Female Adolescents: A Conceptual Case Study for Planning Curriculum References Index.
  • (source: Nielsen Book Data)

Bibliographic information

Browse related items.

Stanford University

  • Stanford Home
  • Maps & Directions
  • Search Stanford
  • Emergency Info
  • Terms of Use
  • Non-Discrimination
  • Accessibility

© Stanford University , Stanford , California 94305 .

Sample Size and Saturation in PhD Studies Using Qualitative Interviews

  • August 2010
  • Forum Qualitative Sozialforschung 11(3)

Mark Mason at BookTrust

Abstract and Figures

Number of studies by each individual sample size [31]

Discover the world's research

  • 25+ million members
  • 160+ million publication pages
  • 2.3+ billion citations

Joseph Baidoo

  • Dina Miza Suhaimi

Wei Ye

  • Rahmi Muthia

Emil Huriani

  • Seth Rainey
  • Logan Heffelman
  • Suraiya Parvin
  • Aimee L. Ward

Hüsnü Kasar

  • Phathutshedzo David Lavhelani
  • Livhuwani Gladys Nkondo
  • J Appl Behav Sci

Susan Albers Mohrman

  • Allan M. Mohrman Jr

Glenn Bowen

  • FIELD METHOD

Greg Guest

  • Laura Johnson
  • AM ANTHROPOL

Kimball Romney

  • William H. Batchelder
  • QUAL HEALTH RES

Janice M Morse

  • John W. Gartrell
  • Creswell JW
  • Recruit researchers
  • Join for free
  • Login Email Tip: Most researchers use their institutional email address as their ResearchGate login Password Forgot password? Keep me logged in Log in or Continue with Google Welcome back! Please log in. Email · Hint Tip: Most researchers use their institutional email address as their ResearchGate login Password Forgot password? Keep me logged in Log in or Continue with Google No account? Sign up
  • Architecture and Design
  • Asian and Pacific Studies
  • Business and Economics
  • Classical and Ancient Near Eastern Studies
  • Computer Sciences
  • Cultural Studies
  • Engineering
  • General Interest
  • Geosciences
  • Industrial Chemistry
  • Islamic and Middle Eastern Studies
  • Jewish Studies
  • Library and Information Science, Book Studies
  • Life Sciences
  • Linguistics and Semiotics
  • Literary Studies
  • Materials Sciences
  • Mathematics
  • Social Sciences
  • Sports and Recreation
  • Theology and Religion
  • Publish your article
  • The role of authors
  • Promoting your article
  • Abstracting & indexing
  • Publishing Ethics
  • Why publish with De Gruyter
  • How to publish with De Gruyter
  • Our book series
  • Our subject areas
  • Your digital product at De Gruyter
  • Contribute to our reference works
  • Product information
  • Tools & resources
  • Product Information
  • Promotional Materials
  • Orders and Inquiries
  • FAQ for Library Suppliers and Book Sellers
  • Repository Policy
  • Free access policy
  • Open Access agreements
  • Database portals
  • For Authors
  • Customer service
  • People + Culture
  • Journal Management
  • How to join us
  • Working at De Gruyter
  • Mission & Vision
  • De Gruyter Foundation
  • De Gruyter Ebound
  • Our Responsibility
  • Partner publishers

dissertation qualitative forschung

Your purchase has been completed. Your documents are now available to view.

Gütekriterien qualitativer Sozialforschung. Ein Diskussionsanstoß

Jörg Strübing, geb. 1959, ist nach Studium der Soziologie, Erziehungs- und Politikwissenschaft sowie wissenschaftlichen Stationen in Kassel (Promotion), Berlin (Habilitation), Urbana-Champaign, USA und Göttingen; seit 2007 Professor für Soziologie am Institut für Soziologie der Eberhard Karls Universität Tübingen, wo er neben der qualitativen Sozialforschung die Wissenschafts- und Techniksoziologie vertritt. Er war Sprecher und Vorstandsmitglied der DGS-Sektion Methoden der Qualitativen Sozialforschung und 2014–2017 gewählter Vertreter der Soziologie im Rat für Sozialwissenschaftliche Daten der Bundesregierung (RatSWD). Von ihm erschienen u. a. 2018 „Qualitative Sozialforschung“, 2014 „Grounded Theory“, 2016 „Leben nach Zahlen“ (mit S. Duttweiler, R. Gugutzer u. J. Passoth) sowie ebenfalls 2016 „Empirische Sozialforschung“ (mit H. Kromrey u. J. Roose)

Stefan Hirschauer, geb. 1960. Studium der Soziologie, Promotion und Habilitation in Bielefeld. 1990–99 Redakteur und geschäftsführender Herausgeber der ZfS. Dann Heisenbergstipendiat, Gastprofessuren am Centre de Sociologie de l’Innovation (Paris), an der Universität Wien und an der Cornell University. Ab 2002 Professur an der LMU München, seit 2006 Prof. für Soziologische Theorie und Gender Studies an der JGU Mainz. Forschungsschwerpunkte: Praxistheorien, Qualitative Methoden, Soziologien des Wissens, des Körpers und der Geschlechterdifferenz. Bücher: Die soziale Konstruktion der Transsexualität (1993), Die Befremdung der eigenen Kultur (1997), Theoretische Empirie. Zur Relevanz qualitativer Forschung (2008). Ethnografie. Die Praxis der Feldforschung (2013), Soziologie der Schwangerschaft (2014), Un/doing Differences (2017). Zuletzt in der ZfS 43/2014: 170–191: Un/doing Differences. Die Kontingenz sozialer Zugehörigkeiten.

Ruth Ayaß, geb. 1964. Studium der Soziologie und Linguistik in Konstanz. Promotion in Gießen (1995). Habilitation in Bielefeld (2004). 2004–2016 Professorin in Klagenfurt. Seit 2016 Professorin für „Methoden der empirischen Sozialforschung mit dem Schwerpunkt qualitative Methoden“ an der Fakultät für Soziologie der Universität Bielefeld. 2012–2016 Vorstandsmitglied der DGS-Sektion Methoden der Qualitativen Sozialforschung (2014–2016 Sprecherin des Vorstands). Forschungsschwerpunkte: qualitative Methoden; Kommunikation in, mit und über Medien; visuelle Soziologie. Aktuelle Publikationen: Media structures of the life-world, in: Staudigl, Michael/Berguno, George (Hrsg.), Schutzian phenomenology and hermeneutic traditions. Dordrecht: Springer, 2014, 93–110; Using media as involvement shields, in: Journal of Pragmatics, 2014, 72, 5–17; Doing data. The status of transcripts in Conversation Analysis, in: Discourse Studies, 2015, 17 (5), 505–528; Life-world, sub-worlds, afterworlds. The various ‚realnesses‘ of multiple realities, in: Human Studies, 2017, 40, 519–542.

Uwe Krähnke, geb. 1967. Studium der Sozialwissenschaften an der HU Berlin, Promotion an der TU Chemnitz, Habilitation an der HU Berlin. Lehrtätigkeit in den Bereichen Allgemeine Soziologie und Qualitative Methoden an der TU Chemnitz, JKU Linz, HU Berlin, Uni Bielefeld. 2011 Vertretungsprofessur an der AAU Klagenfurt. 2012–2015 Leiter des DFG-Forschungsprojekts Hauptamtliche Mitarbeiter der DDR-Staatssicherheit (eigene Stelle). Seit 2014 im Vorstand der DGS-Sektion Methoden der qualitativen Sozialforschung. Bücher: 2002 Soziologische Theorien von Auguste Comte bis Talcott Parsons. (zus. m. Ditmar Brock und Matthias Junge), 2007 Selbstbestimmung, 2009 Interpretative Sozialforschung (zus. m. Frank Kleemann und Ingo Matuschek), 2011 Links sein (zus. m. Ingo Matuschek, Frank Kleemann und Frank Ernst), 2017 Im Dienst der Staatssicherheit (zus. m. Matthias Finster, Philipp Reimann und Anja Zschirpe).

Thomas Scheffer ist Professor für Soziologie und Sozialpsychologie mit dem Schwerpunkt Interpretative Sozialforschung am Institut für Soziologie, Fachbereich Gesellschaftswissenschaften der Goethe-Universität Frankfurt. Seit 2 Jahren ist Scheffer Sprecher der DGS-Sektion Methoden der Qualitativen Sozialforschung. Scheffer forscht zur Praxis staatlicher Gewalten und veröffentlichte hier mehrere Ethnographien, u. a. Asylgewährung (2001), Adversarial Case Making (2010), Criminal Defence and Procedure (2010, mit Kati Hannken-Illjes und Alexander Kozin) oder jüngst Polizeilicher Kommunitarismus (2017, mit Christiane Howe, Eva Kiefer, Yannik Porsché und Dörte Negnal).

Zusammenfassung

Der Beitrag expliziert Gütekriterien der qualitativen Sozialforschung. Er geht von der Prämisse aus, dass Qualitätsmerkmale in diesem Segment empirischer Sozialforschung nur unter konsequentem Rekurs auf die spezifischen Funktionsbedingungen interpretativer und rekonstruktiver Verfahren zu bestimmen sind. Fünf Kriterien werden vorgeschlagen: Gegenstandsangemessen ist eine Weise der Herstellung des Forschungsgegenstandes, die das empirische Feld ernst nimmt und Methoden, Fragestellungen und Datentypen einer fortlaufenden Justierungsanforderung unterwirft. Empirische Sättigung reflektiert die Güte der Verankerung von Interpretationen im Datenmaterial. Theoretische Durchdringung markiert die Qualität der Theoriebezüge, in die das Forschen eingespannt ist, und arbeitet an deren Irritationspotential. Textuelle Performanz bezeichnet die Leistung, die Texte als Güte konstituierende Kommunikation gegenüber Rezipientinnen der Forschung zu erbringen haben. Originalität schließlich ist das Kriterium, an dem die Einlösung des Neuigkeitsanspruchs wissenschaftlichen Wissens zu prüfen ist.

This paper is an examination of criteria for qualitative social research. It starts from the premise that productive criteria can only be determined by relying strictly on the specific functional properties of interpretive and reconstructive approaches. Five criteria are proposed: Adequacy is a mode of defining the research topic by taking the empirical field seriously while maintaining distance from it by generating tension through theoretical reasoning. Empirical saturation designates the criterion that is to be observed by basing work on empirical field data, while theoretical pervasiveness addresses the quality of the theoretical relations in which the research is articulated and, consequently, stimulated. Textual performance refers to composing texts which achieve high quality communication with their recipients. Finally, originality is the criterion according to which the claim to research innovation may be examined.

Einleitung: Wozu Gütekriterien?

Rund einhundert Jahre qualitative Sozialforschung haben eine kaum mehr überschaubare Vielfalt fundierter und elaborierter Forschungsansätze hervorgebracht – eine Vielfalt nicht nur der Formen der Materialgewinnung und -auswertung, sondern auch der epistemologischen Grundannahmen, sozialtheoretischen Verortungen und methodologischen Konzeptionen. Diese große Bandbreite an Zugängen zu den empirischen Gegenständen der Soziologie ist einerseits mit Blick auf die Diversität der Gegenstände und der Fragestellungen unverzichtbar. Andererseits wirft sie aber gelegentlich auch die Frage nach der inneren Kohärenz der unter dem Rubrum des ‚Qualitativen‘ versammelten Ansätze auf. Gibt es eine „Einheit trotz Vielfalt?“ ( Hollstein & Ullrich 2003 )? Oder allenfalls „Ähnlichkeiten und Widersprüche“ im Sinne von Familienähnlichkeiten ( Reichertz 2007 : 197)? Oder ist das Label ‚qualitative Forschung‘ nur das pluralistische ‚Andere‘ der standardisierten Sozialforschung ( Kalthoff 2008 : 7)?

Über diese Frage einer allgemeinen Wissenschaftssystematik hinaus gewinnt die Bestimmung eines gemeinsamen Kerns qualitativer Verfahren praktische Bedeutung, wenn es um die vergleichende Bewertung von Anträgen, Projekten und Publikationen geht. In der Soziologie gab es bereits früh vereinzelte Diskussionen über die methodische Qualität empirischer Studien, etwa die Kritik von Blumer (1939 ) an Thomas’ und Znanieckis ‚The Polish Peasant‘ in Europe and America . Eine systematische Befassung mit dem Ziel der Etablierung von Gütekriterien begann aber erst, nachdem die qualitative Forschung in den 1970er und 1980er Jahren an Umfang und Intensität deutlich zugenommen hatte. Gerade in den Anfängen dominierten dabei Ableitungsversuche aus Kriterien der standardisierten Forschung, wenn auch mit Vorbehalten ( Leithäuser & Volmerg 1981 ; Lamnek 1988 ).

Vertreterinnen eines Ansatzes sind sich untereinander meist schnell über die Qualität einer Studie einig und können sich dabei auf die konkreten Funktionsbedingungen bestimmter Theorie-Methoden-Sets berufen, etwa für die Ethnographie ( Hammersley 2001 ), die Grounded Theory ( Charmaz & Bryant 2010 ; Strübing 2002 ) oder die Konversationsanalyse ( Peräkylä 2010 ). Creswell (2007 ) definiert gar je eigene Sets von Kriterien für gleich fünf unterschiedliche Forschungstraditionen. Mitunter werden Fragen von Standards und Gütekriterien aber auch genutzt, um für bestimmte Ansätze eine privilegierte Position im Feld qualitativer Verfahren zu reklamieren, so z. B. Bohnsack (2005 ) für rekonstruktive Verfahren. [1]

Die Lage wird indes schnell unübersichtlich, wenn ansatzübergreifende Qualitätsurteile getroffen werden sollen, etwa im Peer Review von Zeitschriften oder bei der vergleichenden Begutachtung von Forschungsanträgen. Der Ruf nach und die Debatten über allgemein geteilte Gütekriterien qualitativer Forschung sind nicht neu (für einen Überblick: Flick 2014 ), haben bislang jedoch nicht zu einem konsensfähigen Set von Indikatoren für gute qualitative Forschung geführt. So diskutiert Hammersley (2007 ) die Frage umfassender Gütekriterien, hält sie für „desirable“, entwickelt jedoch selbst keine konkreten Vorschläge (ähnlich Seale 2007 ). Tracy (2010 ) präsentiert acht „key markers“ für die Qualität qualitativer Forschung, ohne indes systematisch auf deren Funktionsbedingungen zu referieren. Dem schon etwas älteren Vorschlag fünf konstruktivistischer Gütekriterien von Steinke (1999 ) gelingt es nicht, die Fixierung auf standardisierte Forschung als Referenzrahmen zu überwinden. Weil auch Flick (2014 ) über eine Überprüfung der Kriterien standardisierter Forschung nicht hinausgeht und unter Verweis auf Heterogenität und spezifische Funktionsprinzipien qualitativer Ansätze mangelnde Anschlussfähigkeit attestiert, kommt er in der Frage ansatzübergreifender Standards qualitativer Forschung nicht über die Forderung nach einer stärkeren Explikation methodischer und theoretischer Entscheidungen im Forschungsverlauf hinaus (2014: 422). Zu dieser letztlich unbefriedigenden Schlussfolgerung kommt es, weil die Entwicklung originärer Gütekriterien für die qualitative Forschung unterbleibt.

Die Frage der Gütekriterien muss grundsätzlich in jeder Wissenschaft kontrovers sein, weil es um die Zugehörigkeit von Studien zu dieser Wissenschaft und um den Wert wissenschaftlicher Arbeit geht. Sie ist in der qualitativen Sozialforschung besonders kontrovers, weil dieses Etikett äußerst heterogene Forschungsstrategien notdürftig zusammenfasst. Sie ist in der standardisierten Forschung dagegen vergleichsweise unstrittig, da sich Gütekriterien hier vor allem auf die Qualität eines Messvorgangs richten, also auf einen sehr kleinen Ausschnitt des Forschungsprozesses. Nach unserem Eindruck hat das geringe Maß an Konsens in dieser Frage seinen Grund jedoch nicht allein in der Diversität qualitativer Sozialforschung, sondern auch in unterschiedlichen Graden der Abgrenzung von bzw. Annäherung an Kriterien standardisierter Sozialforschung. So wird nicht selten argumentiert, qualitative Forschungsarbeiten konkurrierten in Begutachtungssituationen mit standardisierter Forschung um knappe Ressourcen und deshalb bedürfe es eines für die gesamte empirische Sozialforschung übergreifenden kommensurablen Vergleichsmaßstabs. [2] Andere Stimmen wiederum bezweifeln die Möglichkeit und Angemessenheit von Gütekriterien für qualitativ-interpretative Verfahren insgesamt ( Richardson 1994 : 552). Ohne die Bedeutung solcher professionspolitischen Debatten schmälern zu wollen: All diesen Betrachtungen vorausgehen muss eine fundierte Diskussion über Gütekriterien, die sich aus den Grundhaltungen und Maximen qualitativer Forschung herleiten lassen und dabei mehr sind als Gelingensbedingungen einzelner Ansätze. Gütekriterien gehören zu den unverzichtbaren Medien der Kommunikation über Forschung. Ihre Explikation sichert ein Grundverständnis über Zielorientierung, Leitlinien, Leistungsanforderungen und Bewertungsmaßstäbe von Wissenschaft. Einen Konsens über angemessene Gütekriterien zu suchen, dient damit der Stärkung und Professionalisierung qualitativer Sozialforschung.

Wir unterscheiden Gütekriterien in diesem Sinn von den übergreifenden gemeinsamen Leistungsmerkmalen qualitativer Forschung einerseits und den praktischen Maßnahmen zur Herstellung und Sicherung dieser Güte andererseits. Allgemeine Leistungsmerkmale (wie Offenheit oder Reflexivität) markieren das Anspruchsprofil und die Zielperspektiven qualitativer Forschung. Qualitätssichernde Maßnahmen stellen auf der Ebene verfahrensspezifischer Praktiken sicher, dass sich diese Zielperspektiven erreichen lassen. Sie bieten die Gewähr dafür, dass das Datenkorpus in angemessenem Bezug zur Fragestellung steht, dass Materialanalysen dicht genug für die angestrebten theoretischen Aussagen sind, dass Vereinfachungen und Abkürzungen vermieden werden. Gütekriterien dagegen spezifizieren die in den Leistungsmerkmalen enthaltenen Versprechen und Ziele und benennen diejenigen Eigenschaften von Verfahren und Ergebnissen, an denen sich erkennen lässt, inwieweit dies einer Studie gelungen ist. [3]

In diesem Aufsatz wollen wir den Versuch zu einer Explikation allgemeiner Gütekriterien für die qualitative Sozialforschung unternehmen. Das Unterfangen selbst ist schwierig, die Bedingungen sind jedoch günstig. Denn wir vertreten mit unseren Forschungsarbeiten und Lehrtätigkeiten sehr unterschiedliche Forschungsansätze und ein breites Spektrum innerhalb des Feldes. Wir erwarten keineswegs, dass unser Vorschlag im gesamten Feld auf einhellige Zustimmung stoßen wird. Unser Beitrag wird und soll Kritik herausfordern und einen produktiven Diskurs stiften. Dieser Diskurs ist notwendig, gerade weil qualitative Forschung sich in den letzten Jahren zugleich ausdifferenziert und konsolidiert hat. Qualitative Studien sind selbstverständlicher Gegenstand von Begutachtungen der Forschungsförderung, von Peer Reviews sozialwissenschaftlicher Zeitschriften und von Rezeptionsentscheidungen einer fachlichen Leserschaft. In all diesen Begutachtungs- und Rezeptionsprozessen werden Qualitätsurteile getroffen – innerhalb der Communities einzelner Ansätze wie gesagt mit größerer Sicherheit, diese überschreitend jedoch mit wachsender Ungewissheit darüber, worauf sich die Entscheidungen argumentativ gründen sollen. Die in diesem Aufsatz formulierten Gütekriterien beanspruchen Geltung für die qualitative Sozialforschung insgesamt. Einige von ihnen mögen aber auch für eine Neubewertung der standardisierten Sozialforschung von Interesse sein. Es sind Gütekriterien empirischer Sozialforschung, qualitativ betrachtet.

Die disputable These dieses Aufsatzes lautet also, dass es bei sorgfältiger methodologischer und sozialtheoretischer Abwägung möglich ist, übergreifend anwendbare Kriterien gelungener qualitativer Forschung zu formulieren, gleichviel, ob diese Forschung sozialwissenschaftlich-hermeneutisch oder dokumentarisch-methodisch vorgeht, ob sie sich in der Grounded Theory oder in der Konversationsanalyse verortet, ob sie narrations- oder diskursanalytisch argumentiert. Allen diesen und weiteren methodologischen Perspektiven liegt eine iterativ-zyklische Prozesslogik zugrunde ( Breidenstein et al. 2013 : 45f; Strübing 2014 : 49). Jeder Versuch, die Linearität standardisierter Prozessmodelle in einer qualitativ-interpretativen Forschungspraxis zu realisieren, muss aus zwei Gründen scheitern: weil Datengewinnung, -analyse und Theoriebildung fortwährend aufeinander verweisende und verwiesene Prozesse sind; und weil die Empirizität , die Methodizität und die Theorizität qualitativer Forschung sich nur in Prozessen wechselseitiger Durchdringung dieser Prozesse entfalten können. Die Qualität einer qualitativen Studie muss sich unseres Erachtens daran messen lassen, wie es den Forschenden gelingt, diese drei Dimensionen der Forschung reflexiv zueinander „passfähig“ zu machen, und durch diese Relationierung Erkenntnisse über das Untersuchungsfeld systematisch voranzutreiben.

Wir schlagen folgende fünf Gütekriterien vor: Mit Gegenstandsangemessenheit (1.) bezeichnen wir im Sinne eines Basiskriteriums eine Weise der Herstellung des Forschungsgegenstandes, die das empirische Feld ernst nimmt, sich aber zugleich von ihm distanziert und es durch theoretisches Denken unter Spannung setzt. Unter empirischer Sättigung (2.) verstehen wir jenes Gütekriterium, das sich aus dem Empiriebezug der Forschung gewinnen lässt. Theoretische Durchdringung (3.) hingegen markiert die Qualität der engen Theoriebezüge, in die das Forschen eingespannt ist, und arbeitet deren Irritationspotential für die empirische Beobachtung heraus. Die Leistung, die Texte als Güte konstituierende Kommunikation gegenüber Rezipientinnen unserer Forschung erbringen, bezeichnen wir als textuelle Performanz (4.). Und da Wissenschaft darauf zielt, neues Wissen zu generieren, ist schließlich Originalität (5.) das Kriterium, an dem die Einlösung dieses Anspruchs zu prüfen ist.

1 Gegenstandsangemessenheit

Wir beginnen unsere Liste mit jenem Gütekriterium, das den Forschungsprozess von Beginn an – bei der Formulierung von Fragestellungen, der Auswahl von Methoden und Fällen – betrifft und das auch historisch am frühesten in der Tradition der qualitativen Sozialforschung begründet wurde. Die Gegenstandsangemessenheit hat in der Soziologie in Gestalt des Adäquanzbegriffs eine lange Tradition, die über Harold Garfinkel ( Garfinkel & Wieder 1992 ) und Alfred Schütz ( Schütz 1974 : 318 ff.) bis auf Max Weber (1972 : 5) zurückgeht. Diese Adäquanz ist die operative Konsequenz jener Offenheit , die alle qualitative Sozialforschung charakterisiert. Spezifizieren wir also, was gemeint ist.

Gegenstandsangemessenheit in einem noch relativ anspruchslosen Sinne ist heute eine vielen Methodenhandbüchern selbstverständliche Passungsanforderung der Methodenwahl für ein spezifisches empirisches Phänomen: Die Verteilung von Meinungen in der Bevölkerung verlangt nach einer Repräsentativerhebung, ein subjektives Erleben nach einem narrativen Interview, eine verbale Interaktion nach Audioaufzeichnung, eine Erzählung nach Sequenzanalyse usw. Insofern scheint Durkheims Rede von „den Regeln der soziologischen Methode“ ( Durkheim 1984 ) in ihrem universalistischen Singular heute durch ein fast notorisches Bekenntnis zur Gegenstandsangemessenheit pluraler Methoden abgelöst. Um die hohe Verbindlichkeit dieses Postulates in der qualitativen Forschung zu verstehen, ist daher dessen tatsächliche Rigorosität zu explizieren. Sie liegt in vier Aspekten begründet:

(1) Multiple Passungsverhältnisse : Gegenstandsangemessenheit meint nicht nur eine Passung der Methode auf den zu untersuchenden Gegenstand, sondern eine Abgestimmtheit von Theorie, Fragestellung, empirischem Fall, Methode und Datentypen, durch die der Untersuchungsgegenstand überhaupt erst konstituiert wird. Studien haben ihren Gegenstand nur vermittelt durch eine theoretische Optik, in der er eingangs entworfen wird, durch eine Reihe von Fragestellungen, mit denen er perspektiviert wird, durch eine oder mehrere Methoden, mit denen er erschlossen wird, durch Datentypen, in denen er aufscheinen soll und durch die Wahrnehmungen und Verhaltensweisen, über die Forschende mit ihm in Kontakt kommen. Und in all diesen Hinsichten gibt es mögliche ‚Mismatches‘: Ist die eingelebte persönliche Theoriepräferenz einem Gegenstand wirklich angemessen? Trifft eine interessante Fragestellung auch den untersuchten Fall, und umgekehrt: Lässt sich der spannende Fall wirklich gut mit dieser Frage erschließen? Und wenn Frage und Phänomen gut aufeinander abgestimmt scheinen: Soll das habituelle Gebaren, auf das eine Frage zielt, wirklich durch Interviews und Audioaufzeichnungen erhoben werden? Passt ein konversationsanalytisch betrachtetes Transkript zu einem überwiegend visuellen Kommunikationsgeschehen? Und ist eine teilnehmende Beobachtung der Privatheit des privaten Lebens oder der Verteiltheit diskursiver Prozesse angemessen?

(2) Fortgesetzte Justierung : Gegenstandsangemessenheit meint mehr als eine nur einmalige ex-ante-Entscheidung über solche Passungsverhältnisse, sie besteht in einer kontinuierlichen Herausforderung des Anpassens und Einstellens. Bleiben sie aus, erscheint der Gegenstand unbestimmt, unklar, mangelhaft zugeschnitten. Die erste Aufgabe der Forschung besteht daher in der ständigen Reformulierung und Fokussierung der Fragestellungen : ihrer empirischen Anpassung an den Fall, ihrer theoretischen Modifikation aufgrund erster Analysen oder auch im Wechsel der Frage oder des Untersuchungsfeldes, um nicht eine Fragestellung am falschen Fall zu untersuchen. Schon Robert Merton (1959 : 31) befand, es sei schwieriger, die richtigen Fragen zu finden, als sie zu beantworten. Was ist das theoretische Problem, für dessen Lösung dieser Fall forschungsstrategisch günstig ist? Und wie bekommt man Fragen so treffend gestellt, dass sie den Fall auch ‚zu fassen kriegen’ und nicht an ihm vorbeigreifen? Welche Fragen führen also tiefer in einen Gegenstand hinein? ‚Offenheit‘ bedeutet, dass man ein empirisches Phänomen nicht einfach mit soziologischen Fragestellungen konfrontiert, sondern dass man von seiner Exploration das Auftauchen jener Fragen erwartet, mit denen es sich von innen erschließen lässt. Anselm Strauss (1991 : 50) sprach von „generativen Fragen“, die der Forschung „sinnvolle Richtungen“ geben, sie zur Gewinnung angemessener Datentypen und zu fruchtbaren Vergleichen führen.

Die Justierungsanforderung gilt aber auch den Methoden . Eine ‚bewährte Methode‘ hat manche Vorzüge, lädt aber bekanntlich auch wie ein Allzweckhammer dazu ein, alle begegnenden Objekte wie einen Nagel zu behandeln (etwa in Interviews alle sozialen Phänomene auf ‚Auskünfte‘ zu reduzieren). In der qualitativen Forschung haben Methoden einen anderen Stellenwert: Anstelle der korrekten ‚Anwendung‘ einer methodologisch legitimierten Methode steht die Anforderung flexibler Adaptation von Tools an soziologisch verstandene Gegenstände. Diese Flexibilität verlangt die Zulassung heterogener, auch nicht-eingeplanter Datentypen, Geschicklichkeit in der Datenkombinatorik, sowie Findigkeit und theoretische Beweglichkeit in der Datenanalyse – ein Vorgehen, das insgesamt kreativer und experimenteller sein muss, als es Untersuchungspläne zulassen.

Diese Biegsamkeit gegenüber dem untersuchten Phänomen stellt sich, verglichen mit der konsequenten Umsetzung von standardisierten Untersuchungsdesigns, als geradezu ‚opportunistisch‘ dar. Im Selbstverständnis der qualitativen Forschung folgt die Adjustierung aus der Reflexivität der Forschung: Die phänomenologische Nachgiebigkeit und die Bereitschaft zur beständigen rekursiven Selbstkorrektur ist erforderlich, weil theoretische Optik und methodisches Instrumentarium den Gegenstand beständig mitkonstituieren und ihm ihre Eigenschaften und Grenzen aufzwingen.

(3) Reduzierter Methodenbegriff : Auf der Linie dieser rezeptiven Grundeinstellung wird die Gegenstandsangemessenheit bisweilen zu einer vollständigen Gegenstandsrelativität der Methoden zugespitzt. Vor allem die Ethnomethodologie widersetzte sich einer Priorisierung und Kanonisierung allgemeiner methodischer Regeln. Für sie sind (ähnlich wie auch für viele ethnografische Ansätze) die einzusetzenden Verfahren ein untrennbarer Bestandteil des Phänomens, auf dessen Erkundung sie gerichtet sind. Methoden unterliegen einem unique adequacy requirement ( Garfinkel & Wieder 1992 ). Dem Gegenstand angemessen zu sein heißt hier: ihm bereits zuzugehören. Dies ist kein anything goes , kein Verzicht auf Methodizität, da diese immer schon als Eigenschaft des Phänomenbereichs gesehen wird. Der Methodenzwang muss daher in dieser Sichtweise weniger von der Disziplin als vom Gegenstand ausgehen. Er ist es, der methodische ‚Strenge’ verlangt – so wie die Beobachtung wildlebender Tiere eben Sitzfleisch, Tarnung, Ausdauer, Disziplin, Anteilnahme und wetterfeste Kleidung.

Wenn man die Gegenstandsangemessenheit so zum Basiskriterium zuspitzt, verschiebt sich das konventionelle Verhältnis der Begriffe Methode und Angemessenheit. Methoden bezeichnen eine Idealform ‚ how to do research ’, einen normativen Standard des Verfahrens in allen Fällen gleicher Art, und die Gegenstandsangemessenheit relativiert diesen hochtrabenden Universalismus an heterogenen Gegenständen. Ein bescheidener, ‚abgerüsteter‘ Methodenbegriff stellt dagegen genau diese Relativierung ins Zentrum. Eben weil sie nicht standardisierte Verfahren sind, können die Methoden qualitativer Sozialforschung nicht im gleichen Wortsinne ‚Methoden‘ sein wie diese standardisierten Verfahren. Anstelle eines strikt normativen Verständnisses von Methode, das es im Feld der qualitativen Sozialforschung gelegentlich auch gibt ( Hirschauer 2008 : 179), findet sich zumeist ein erfahrungswissenschaftlich geöffneter Methodenbegriff: Die Forschung hat ein umfangreiches Erfahrungswissen darüber gesammelt, wie am besten vorzugehen ist. Sie kennt regulative Maximen und Faustregeln, Klugheitslehren und strategische Empfehlungen, sinnvolle Schrittfolgen und Vorsichtsmaßnahmen gegen Kunstfehler, und sie verfügt über viele gute Kniffe: tricks of the trade ( Becker 1998 ). Diese Offenheit und Flexibilität hat ihren methodologischen Grund im unstillbaren Erfindungsbedarf für das empirische Vorgehen. Es ist in einem Maße fall- und frageabhängig, das über die Auswahl gegebener Methoden hinausgeht. Diesen Erfindungsbedarf eines gegenstandsangemessenen Vorgehens leugnet der positivistische Methodenbegriff.

(4) Starker Empiriebegriff : Die methodische Nachgiebigkeit entstammt letztlich einer Vorfahrtsregel ‚Empirie vor Methode‘, die in starken Empiriebegriffen begründet liegt. Die irreführende Verwendung des Labels ‚empirisch‘ durch die standardisierte Sozialforschung verdeckt, dass genau im Feld der qualitativen Forschung die Bedeutung des ‚Empirischen‘ stark beansprucht und latent kontrovers verhandelt wird. In einem emphatischen – d. h. über flüchtige kommunikative Kontakte hinausgehenden – Sinne ‚empirisch‘ kann hier etwa heißen: maximal zum Erleben eines sinnstiftenden Subjektes hin geöffnet (das Ethos der Narrationsforschung), minutiös in Echtzeit aufgezeichnet (das Ethos der Interaktionsforschung) oder durch eigene, sich dem Feld aussetzende Teilnahme an Praxis selbst miterlebt (das Ethos der Ethnographie). In all diesen Fällen gibt es eine Präferenz für maximal widerständige Datentypen, die sich nicht leicht theoretischen Vorgaben subsumieren lassen.

Diese starken Empiriebegriffe sind durch zwei Erwartungen motiviert: dass die primären Sinnkonstruktionen im Gegenstandsbereich methodisch geschützt und theoretisch genutzt werden. Schutz- und entfaltungsbedürftig sind sie gegenüber zu starken theoretischen Vorannahmen und gegenüber den Reifikationen vorgängiger Begriffsbildung. Die Vorstellung einer Fragilität des Gegenstandes entspricht dabei im Grunde der in den modernen Naturwissenschaften erzielten Einsicht, dass die untersuchten Phänomene i. d. R. schwach, flüchtig und anfällig für Kontamination durch Forschungsoperationen sind, weshalb man ihre leisen Spuren mit zum Teil monströsen Apparaturen zu stärken versucht ( Heintz 1993 ): Die Natur wird im Labor apparativ ‚zum Sprechen gebracht’. Auch qualitative Methoden versuchen in diesem Sinne eine schwache Widerständigkeit der Phänomene – in den Kulturwissenschaften: ihre fragile Eigensinnigkeit – zu bewahren und zu verstärken. Methoden sind insofern Daten trainer , die die Nehmerqualitäten primärer Sinnkonstruktionen gegenüber ihrer soziologischen Bearbeitung steigern und Daten als Dialogpartner aufbauen. Diese Eigensinnigkeit ist theoretisch nützlich, weil die soziale Praxis oft erfindungsreicher ist als die theoretische Fantasie. Auch deshalb brauchen Methoden Gegenstandsangemessenheit: Sie sind Kontaktformen zur Sicherung des Innovationspotentials primärer Sinnstrukturen.

Resümieren wir: Das Gütekriterium der Gegenstandsangemessenheit besteht aus den Anforderungen multipler Passungsverhältnisse und fortgesetzter Justierung sowie einem Primat des Empirischen vor der Methodizität. Ein durch Schütz’ Begriff der ‚Adäquanz‘ nahegelegtes Missverständnis der Gegenstandsangemessenheit ist deren abbildtheoretische Lesart als korrekte Repräsentation. Eine solche wäre nur denkbar, wenn der soziologische Gegenstand dinghaft und nicht sinnhaft vorläge und wenn eine Analyse ihm nichts Neues hinzufügen würde. Eine präzise Einstellung auf das Phänomen ist aber nicht Reproduktion von Teilnehmersichten. Zwar übergeht die qualitative Sozialforschung Teilnehmersichten nicht einfach (in Durkheims Tradition) als ‚vorwissenschaftlich‘, sie schließt vielmehr eng an sie an, lässt sie auch als Korrektiv eigener Vorannahmen gelten, nimmt sie insofern in sich auf und lässt auch Leser an ihnen teilhaben. Aber in der analytischen Distanzierung vom Datenmaterial ist die Teilnehmersicht nur ein Ausgangspunkt der Auseinandersetzung, eine Gelegenheit, die eigene Analyse abzusetzen. Es geht darum, Teilnehmersichten zuerst zu verstehen und dann durch sie ‚hindurchzusteigen‘. (Wir werden in 3 darauf zurückkommen.)

Die Gegenstandsangemessenheit kann als das basale, weil viele Aspekte des Forschungsprozesses umfassendes Gütekriterium der qualitativen Sozialforschung gelten. Ethnomethodologische und ethnografische Ansätze rücken es deshalb auch in die Position des Einzigen. Wir meinen: Es ist das grundlegende, aber nicht das einzig relevante und verallgemeinerungsfähige Gütekriterium.

2 Empirische Sättigung

Das zweite Gütekriterium qualitativer Sozialforschung ergibt sich aus dem Grad der empirischen Durchdringung des Forschungsgegenstands und der Verankerung von Interpretationen im Datenmaterial. Empirische Sättigung wird hergestellt durch (1) die Erschließung des Feldes und den Rapport zum Feld, (2) durch die Breite und die Vielfalt des Datenkorpus und (3) durch die Intensität der Gewinnung und Analyse der Daten.

(1) Für die empirische Sättigung sind in der qualitativen Forschung zunächst Feldzugang und Rapport zum Feld zentral. Schon mit den ersten Feldkontakten werden die Weichen für den gesamten Forschungsprozess gestellt. Die Positionen der Forschenden werden ausgehandelt und auch, welche Auskünfte Informanten oder Organisationen bereit sind, über sich preiszugeben. Im Umgang mit den Forschenden reproduzieren sich wesentliche Merkmale des untersuchten Feldes ( Lau & Wolff 1983 ). Der Rapport , die Beziehung zwischen Feld und Forschenden, besteht keineswegs nur darin, einmalig eine ‚gute Gesprächsatmosphäre‘ herzustellen oder eine offizielle Genehmigung zur Beobachtung oder Aufzeichnung zu erhalten. In komplexen, z. B. hierarchisch strukturierten oder räumlich verteilten, Feldern umfasst der Rapport den laufenden Umgang mit Gatekeepern, die Kontaktpflege zu Informanten und die Frage, wie sich Forschende im Feld präsentieren und positionieren. Der Rapport bedarf also ständiger Erneuerung und Optimierung, er ist Teil der Arbeit im Feld. Von dieser elementaren Beziehung, die im besten Fall ein Vertrauensverhältnis ist, hängt der Zugang zu vertraulichen Materialien, zu Hinterbühnen, auch zu streng gehütetem Wissen ab. Empirische Durchdringung bedeutet auch, sich nicht mit den üblicherweise Fremden präsentierten Vorderbühnen des Feldes zufriedenzugeben (oder den Auskünften für Besucher), sondern, auch über Widerstände hinaus, die Grenzen des Feldes auszuloten.

Ob Zugang und Rapport gelungen sind oder nicht, zeigt sich nicht zuletzt daran, ob eine Studie die Beziehungen zum Feld als Ressource reflexiver Orientierung nutzt. Wie verhält sich das Feld zu den Forschenden? Werden sie nur geduldet oder nur ertragen? Was wird ihnen gezeigt und mitgeteilt, was verborgen und verschwiegen? Welche Aufmerksamkeit wird ihnen zuteil, und wie werden sie in das Sozialgefüge des Felds integriert? Reflexivität bezeichnet in der qualitativen Sozialforschung daher zweierlei: Zum einen den konstitutiven Anteil der Forscherinnen bei der Herstellung des Feldes und der Gewinnung von Daten – der Sozialforscher begegnet sich in seinen Daten daher immer auch selbst ( Bergmann 2011 : 22 f.); zum anderen die systematische Beobachtung des eigenen Tuns und der eigenen Positionierung. Sie ist für die qualitative Forschung eine wichtige Ressource im Prozess der empirischen Durchdringung, die Sekundäranalysen verschlossen bleibt. Diese reflexive Haltung dient neben der Anpassung des methodischen Procedere, also der Steigerung von Gegenstandsangemessenheit, auch der empirischen Durchdringung des Falles oder Feldes. Auskunft gibt das Feld über sich aber nicht nur im Umgang mit dem Forscher bei dessen Feldzugang und während seines Feldaufenthalts, sondern auch beim Ausstieg aus dem Feld. Der Rückzug des Forschers aus dem Feld bedeutet nicht notwendig den Abbruch der Sozialbeziehungen; auch nach dem Abschalten der Kameras, dem Ende der Beobachtung, geben Felder Informationen über sich preis.

(2) Empirische Sättigung ist zentral mit der Generierung des Datenmaterials verbunden. Daten sind kein Fallobst, das von Forschenden nur aufgelesen zu werden braucht. Da ist nichts, was auf eine „Erhebung“ wartet. Es sind die Forschenden selbst, die die Entscheidungen treffen, die zur Herstellung des Korpus führen, die etwas zum ‚ datum ‘, dem Gegebenen, machen und ins Zentrum ihrer Analyse stellen. Die Soziologie weiß dies auch schon geraume Zeit: „But facts are not there to be picked up. They have to be dissected out, and the data are the most difficult of abstractions in any field. More particularly, their very form is dependent upon the problem within which they lie.” ( Mead 1938 : 98)

Die Anteile der Forschenden an der Konstitution des Materials und dem Verlauf des empirischen Prozesses fallen in den verschiedenen Ansätzen verschieden stark aus. Sie sind am augenscheinlichsten in der Ethnographie, wo das Korpus erst durch längere Anwesenheit des Forschers im Feld entsteht, und in der Forschung mit Interviews, wo es durch das direkte Gespräch mit Informanten interaktiv erzeugt wird. Sie sind weniger offensichtlich in der Konversations- oder Dokumentenanalyse, weil idealerweise Konversationen aufgezeichnet werden, die so auch ohne Zutun der Forschenden erfolgt wären, oder Dokumente, Bilder, Filme oder andere mediale Formate analysiert werden, die zuvor im Feld hergestellt wurden. Bei diesen Ansätzen sind es aber umso mehr gelungene oder misslungene Entscheidungen über Ort und Zeit von Aufzeichnungen und den Zuschnitt des Korpus, die ihrerseits in den Forschungsbeziehungen zum Feld , etwa im Zugang zu Archiven und vertraulichen Unterlagen oder sozial erarbeiteten Gelegenheiten für Ton- und Videoaufzeichnungen gründen.

Für die empirische Sättigung sind der Umfang und die Zusammensetzung des Datenkorpus relevant. Sowohl die Dauer des Feldaufenthalts und die schiere Menge der Protokolle, die Zahl und Streuung von Interviewpartnern, die Länge und die Anzahl von Aufzeichnungen, Dokumenten oder Bildern spielen für die Datenintensität einer Studie eine Rolle. Es ist aber nicht allein die Zahl der Fälle, die entscheidet, ob empirische Sättigung gelingt. Empirische Sättigung kann auch hergestellt werden, indem Studien auf ein breit aufgestelltes, plural zusammengesetztes Datenkorpus setzen: In der Ethnographie, für die die Gewinnung heterogener Datentypen üblich ist (Feldnotizen, Gespräche mit Informanten, Gewinnung von Dokumenten und Artefakten etc.), ist dies der Normalfall. In der Konversations- und der Dokumentenanalyse versucht man dagegen, die Breite und Vielfalt des Korpus über Variation in der Wahl der Settings und der aufgezeichneten Situationen oder in der Art der Dokumente und ihrer Verfasser herzustellen und die Relevanz des empirischen Phänomens auch in anderen Kontexten aufzuzeigen. Pluralität entsteht ferner durch die gezielte Suche nach abweichenden Fällen ( deviant cases ), die die Grenzen des Phänomens aufweisen, aber auch zeigen, wie sich die Akteure selbst an ihnen orientieren. Dabei spielen in nahezu allen Methoden immer stärker auch Technik und Medien in die Zusammensetzung des Datenkorpus hinein, sei es, weil wie etwa in Konversationsanalyse oder Videographie der Kamera eine konstitutive Rolle für die Erzeugung der Daten zukommt oder, wie etwa in der Diskursanalyse, das Feld von vornherein medial konstituiert ist.

Interpretationen können sich in der qualitativen Forschung zwar an einzelnen empirischen Details entzünden, ihre Verankerung erhalten sie jedoch in ihrer vielfachen Anbindung an das gesamte Korpus. Entsprechend ist es an diesen Punkten im Forschungsprozess notwendig, weiteres Material zu suchen, welche das bislang analysierte ergänzt, zum Beispiel Fälle abrundet oder soziale Vorgänge vervollständigt. Die empirische Sättigung profitiert von Datenpluralität, weil sich strukturelle Eigenschaften des Forschungsgegenstands in „Belegen verschiedenen Typs“ („many kinds of evidence“, so schon Becker 1958 : 257) aufzeigen lassen (dieser Gedanke wurde später als „Triangulation“ bezeichnet). Wie zentral ein Phänomen ist, lässt sich bei pluralen Datentypen darüber zeigen, dass es sich in den verschiedensten Ausprägungen an verschiedensten Stellen zeigt. [4] Ohne solch breite empirische Verankerung ihrer Aussagen läuft eine Studie Gefahr, nur oberflächliche und flüchtige Analysen darzubieten. Empirische Sättigung ist davon abhängig, dass zugrundeliegende Strukturen in einer Fülle verschiedener beobachtbarer Ausprägungen und Elemente demonstriert und so die Relevanz des Phänomens für das Material und für die Fragestellung aufgezeigt werden kann.

(3) Die empirische Durchdringung des Gegenstands ist aber nicht nur eine Frage der Variation von Datentypen, sie ist in der iterativ-zyklischen Logik qualitativer Forschungsprozesse auch eine Frage der Analyseintensität . Empirische Sättigung lässt sich nicht erzielen, wenn die Gewinnung der Daten von ihrer Analyse isoliert wird. Schon in die ersten Momente der Datengewinnung fließen Interpretationen ein, die die Konstitution des Korpus strukturieren: Die Videokamera wird justiert und die Perspektive der Kamera verändert; die zweiten und dritten Fragen im Interview werden so modifiziert, dass sie dem Verlauf der Antwort auf die erste und die zweite Frage angemessen sind; die Beobachterposition und der Teilnahmestatus im Feld werden den situativen Erfordernissen angepasst; immanente und exmanente Nachfragen entstehen auf der Basis der just erfolgten Erzählung des Gesprächspartners etc. Das fortlaufende Anschmiegen der Methoden an den Gegenstand (s. 1) ist auch für die empirische Sättigung einer Studie zentral.

Die Korpuserzeugung gehorcht eben einer iterativen Logik, nach der das Datenmaterial fortlaufend erweitert und ergänzt wird, und die sich von den Erkenntnissen leiten lässt, die bei bisherigen Analysen des Vorhandenen gewonnen wurden. Für diese fortwährenden Wechsel von Datengewinnung und -analyse ist in der Grounded Theory der Begriff „theoretical sampling“ geprägt worden (s. 3). Er bezeichnet dort ein Prinzip der wechselseitigen Durchdringung von Datengewinnung und Datenanalyse mit dem Vorzeichen theoretischer Auseinandersetzung. Theoretical sampling zielt auf die Generierung eines empirisch gesättigten Samples. Eine solche Sättigung tritt ein, wenn neues Datenmaterial keine neuen Einsichten ermöglicht, sei es, weil ein besonderes Segment des Feldes intensiv bearbeitet wurde, sei es, weil sich ein Phänomen in mehreren unterschiedlichen empirischen Ausprägungen finden ließ, die in dieselbe Richtung der Interpretation weisen. Gewinnung der Daten, Analyse der Daten und Theoriebildung müssen sich in diesen Schleifen wechselseitig befördern, wenn das Datenmaterial der theoretischen Fragestellung der Untersuchung angemessen sein soll.

Die Datenintensität ist abhängig von Feld und Fragestellung und nicht notwendig an die Materialmenge und die Zahl der Fälle gekoppelt. Die Sozialstruktur von Slums kann anhand eines Slums hinreichend beschrieben werden ( Whyte 1993 ), die soziale Situation von Psychiatrieinsassen anhand einer psychiatrischen Anstalt so genau wie nie zuvor erfasst werden ( Goffman 1972 ), wobei sich die zugrundeliegenden Strukturen in einer Fülle beobachtbarer Phänomene zeigen, deren Zusammenspiel die Tragweite und Reichweite des untersuchten Phänomens aufzeigen. Diese bedeutsame Rolle der Datenanalyse für die empirische Sättigung einer Studie kann im Einzelfall auch Untersuchungen mit kleinen oder auch sehr kleinen Fallzahlen zu paradigmatischen Studien der empirischen Sozialforschung machen, wenn etwa die soziale Konstruiertheit von Geschlecht anhand einer einzigen Informantin expliziert wird ( Garfinkel 1967 ).

Um die Intensität der Datenanalyse herzustellen, halten verschiedene Methoden praktische Verfahren bereit, die die Forschenden davon abhalten, das Material nur zu überfliegen und sie vielmehr dazu zwingen, sich en détail mit dem Material auseinanderzusetzen: die Kodierung Zeile für Zeile in der Grounded Theory; die Transkription durch den Forscher selbst in der Konversationsanalyse; die Sequenzanalyse in verschiedenen Verfahren; formulierende und reflektierende Interpretation in der Dokumentarischen Methode etc. „Quick and dirty“ sind hingegen Analysen, welche das Feld und das Material nicht durchdringen, weil sie zum Beispiel oberflächliche Fragen stellen, weil sie statt Interpretationen nur Paraphrasen von Interviews bieten, weil sie Selbstbeschreibungen des Feldes wiederholen, sich mit den Alltagstheorien des Feldes und mit seinen Fassaden begnügen oder bloße Stippvisiten im Feld machen.

Die empirische Sättigung einer Studie ermöglicht die Entdeckung von Neuem. Durch ihren grundsätzlich explorativen Charakter steigert qualitative Forschung die Wahrscheinlichkeit der „Serendipitätskomponente“: die „Entdeckung von gültigen Ergebnissen, nach denen nicht gesucht wurde“ ( Merton 1995 : 100). Für Robert Merton sind solche Entdeckungen – das Penicillin etwa – zunächst „dem Glück oder der Klugheit“ geschuldet. Beides lässt sich nicht sicher erwarten, aber befördern: Für den innovativen Charakter, der gute qualitative Studien auszeichnet (s. 5), ist die empirische Sättigung Voraussetzung, da sie den Boden bereitet für das Auffinden von Unerwartetem. Sie trägt für die enge und dichte Verankerung der Analyse im Material Sorge. Sie respezifiziert Ergebnisse am Fall oder Feld, die sonst zu allgemein ausfallen würden, und gewährleistet damit eine gute empirische Analyse. Zu einer guten soziologischen Analyse bedarf es allerdings darüber hinaus klarer theoretischer Bezüge, sowohl um das Feld zu erschließen als auch um die Studie an den soziologischen Diskurs anzuschließen.

3 Theoretische Durchdringung

Die in der Sozialforschung üblichen dichotomen Begriffspaare Theorie/Empirie und Theorie/Methode suggerieren die Möglichkeit von empiriefreier Theorie, theoriefreien Methoden und vortheoretischer Empirie. Solche Vorstellungen sind aber weder wissenschaftstheoretisch noch soziologisch haltbar. Sie verführen zu einem instrumentellen Methodengebrauch – mit der Folge einer Entkopplung der Methodendiskurse von ihren sozialtheoretischen Grundlegungen und einer eher technokratischen Methodenanwendung in der Forschung. Qualität qualitativer Sozialforschung heißt daher auch, diese unfruchtbaren Dichotomien in jene Prozesse aufzulösen, die Theorien, Empirie und Methoden miteinander verbinden. Gute qualitative Sozialforschung ist, mit einem Ausdruck von Georg Simmel, immer „theoretische Empirie“ ( Kalthoff 2008 : 9). [5] Insofern besteht heute weitgehend Einigkeit darüber, dass theoretisches Vorwissen nicht nur unvermeidlich ist ( Meinefeld 1997 ), sondern – richtig dosiert – auch einen entscheidenden Beitrag zur Qualität empirischer Studien leistet (vgl. die Beiträge in Kalthoff et al. 2008 ).

Wir schlagen daher vor, die theoretische Durchdringung des Gegenstandes durch eine Studie als ein drittes unverzichtbares Kriterium für gute qualitative Sozialforschung zu verstehen. [6] Damit wird markiert, dass gegenstandsangemessene, empirisch gesättigte Forschung ebenso auf Theorie angewiesen ist wie sie auf Theorie(fortschritt) zielt. Theoretische Durchdringung stellt damit ein zur empirischen Sättigung komplementäres Kriterium dar. Nur wenn beides vorliegt, kann Gegenstandsangemessenheit erzielt werden, weil erst der sensible Umgang mit Theorieperspektiven es erlaubt, aus der Fülle empirischer Eindrücke Auswahlen zu treffen sowie unvermeidliche Beobachtungslücken gedanklich zu überbrücken, und weil erst die tiefe Verstrickung ins empirische Material die Relevanz theoretischer Perspektivierungen aufzeigen kann. Zwischen beiden Kriterien besteht also ein Verhältnis der Ko-Konstitution: Sie bedingen einander wechselseitig und funktionieren nur gemeinsam.

Zur Explikation dieses Gütekriteriums ist eine Reihe von Präzisierungen erforderlich. Die Güte qualitativer Forschung und ihre Theoriehaltigkeit stehen nicht in einem einfachen Verhältnis positiver Korrelation. Ein Mehr an Theorie macht Forschung nicht notwendig besser. Es geht vielmehr um die Qualität der Theoriebezüge, also darum, wie gekonnt sie dazu genutzt werden, sich den Untersuchungsgegenstand forschend verfügbar zu machen und damit für das Fach herzustellen. Dabei sind zwei kognitive Bewegungen zu unterscheiden:

Zum einen erlaubt erst das begriffliche, theoriesensible Durchdenken, in die empirische Analyse hineinzufinden. Es hilft, das Feld und den Gegenstand aufzuschließen und die Auswahl des Materials sowie seine Transformation in Daten anzuleiten. Es hilft schließlich Zusammenhänge und Aspekte im Material sichtbar zu machen, die in der Alltagsperspektive der Teilnehmenden nicht zur Sprache kommen können und in den Datenstücken jeweils nur bruchstückhaft aufscheinen. Wie im ersten Abschnitt gesagt: In der analytischen Distanzierung vom Datenmaterial ist die Sicht der Teilnehmer nur ein Ausgangspunkt der Auseinandersetzung, eine Gelegenheit, die eigene Analyse abzusetzen. Es geht dabei nicht um einen einmaligen Bruch (Bourdieu) mit den Konstruktionen erster Ordnung, sondern um eine kontinuierliche Brechung. So wichtig es ist, die (meist unterschiedlichen) Teilnehmerperspektiven angemessen zu rekonstruieren, müssen die Forschenden mit ihrer Analyse doch über diese hinausgehen. Qualitative Forschung zielt auf Einsichten, die jede noch so gekonnte Paraphrasierung der feldimmanenten Deutungen und Selbstbeschreibungen systematisch überschreiten.

Zum anderen gewinnt qualitative Forschung in umgekehrter Richtung, wenn es durch theoretische Perspektivierung gelingt, die immer spezifischen und konkreten Fälle auf Begriffe zu bringen, die Anschlussfähigkeit an andere Studien schaffen und für Nachfolgendes erhöhen. Statt ewig isolierter Neuanfänge bieten sie dann Einsichten in Weiteres und nutzen Einsichten von Vorgängigem. Der konsequente Bezug auf Theorie ist damit die Voraussetzung, um aus der empirischen Analyse wieder hinauszufinden und sie in den jeweiligen Fachdiskurs zu integrieren. So hat etwa das Konzept der Boundary Objects ( Star & Griesemer 1989 ) den Diskurs um heterogene Kooperation in den Science and Technology Studies wesentlich geprägt und die Entdeckung der „ausgehandelten Ordnung“ in einer professionssoziologischen Studie ( Strauss et al. 1964 ) zu einem neuen Verständnis des Verhältnisses von Struktur und Handeln beigetragen.

Ein starker Empirie-Begriff, wie er das Gros qualitativer Sozialforschung kennzeichnet, richtet sich eben nicht gegen die produktive Leistung der Theorie. Er ist ein Korrektiv gegenüber zu stark formierenden Methodenverständnissen: Wenn methodische Maximen rigidisiert werden, verlieren sie ihren Gegenstand und werden selbstbezüglich. Im Verhältnis zu einem starken Theoriebegriff steht ein starker Empirie-Begriff hingegen in einem reziproken Ergänzungsverhältnis. Dabei müssen die Perspektiven der Teilnehmer einerseits in den Deutungen der Forschenden sichtbar bleiben, sie dürfen nicht durch Theoriebezüge zum Verstummen gebracht werden. Sie bedürfen andererseits aber einer kritischen Distanzierung gerade durch den Bezug auf Theorie, um ihren Gehalt – auch über das den Teilnehmenden aktuell Verfügbare hinaus – zu erschließen und in theoriegenerativer Absicht fruchtbar zu machen. Über sinnvolle und sinnvoll dosierte Theoriebezüge lösen sich die Forschenden von den Perspektiven der Teilnehmenden, in die sie das Feld und der Rapport hineinziehen. Gute qualitative Forschung entwickelt also statt der dichotom strukturierten Entscheidung zwischen entweder deduktiv oder induktiv verfahrender Forschung eine abduktive Forschungshaltung ( Reichertz 2003 ), in der induktive, abduktive und deduktive Modi den Prozess abwechselnd und ineinandergreifend strukturieren und so die iterative Zyklik konstituieren, ohne die qualitative Forschung nicht gelingen kann ( Strübing 2013 : 128).

Das Empirische ist also ohne Theorie nicht zu denken. Klärungsbedürftig ist das Wie des Theoriebezugs. Paradigmatisch bleibt hier Blumers Unterscheidung: „Whereas definitive concepts provide prescriptions of what to see, sensitizing concepts merely suggest directions along which to look.” ( Blumer 1954 : 7) Wenn Theorien eingesetzt werden, als wüssten sie immer schon, was einer Studie im empirischen Feld begegnet und was es zu bedeuten hat, werden sie zum Prokrustesbett. Denn dann lassen sie nur noch sehen, was man sehen wollte. Die Sache wird nicht besser, wenn eine Studie aus theoretischen Claims Hypothesen ableitet, deren empirischer Überprüfung das Forschen dienen soll. Auch dann ist die Aufmerksamkeit für das, was im Feld vor sich geht, unangemessen beschränkt und überformt den empirischen Gegenstand, der dann nur noch die Erwartungen der Forschenden an ihn reflektiert.

Theoriebezüge für gute Forschung sensibilisieren stattdessen die Forscherin für das, was es im Feld im fraglichen Untersuchungskontext zu entdecken gibt. Dabei geht es zum einen um den Einsatz theoretischer Konzepte als spezifische „Brillen“ oder „Mikroskope“ empirischen Forschens, zum anderen um die Entwicklung einer Haltung theoretisch informierter Neugierde. Theoretisches Vorwissen dient, darauf insistiert Strauss (1991 : 50) mit seiner Forderung nach „theoretischer Sensitivität“, als aktiv einzubeziehende Inspirationsquelle. Sensibilität für die theoretischen Dimensionen des Forschungsgegenstandes wird damit als notwendige Kompetenz des Forschers markiert, nicht als eine bestimmten theoretischen Konzepten innewohnende Qualität.

Weitergehend als der Vorschlag der theoretischen Sensibilisierung ist die Forderung von Lindemann, Theorie und Empirie als ein Verhältnis wechselseitiger „Irritation“ zu begreifen. Sie kritisiert, dass „sozialtheoretische Annahmen (…) bislang nicht als Theorien begriffen (wurden), die durch empirische Forschung in Frage gestellt werden können.“ ( Lindemann 2008 : 124) Gute empirische Forschung zeichnet sich demnach dadurch aus, dass a) selbst ihre basalen theoretischen Vorannahmen durch Daten herausgefordert und modifiziert werden können, aber auch b) taken-for-granted-Verständnisse ihres empirischen Gegenstandes durch Theoriebezüge zu irritieren sind und c) der Zugewinn einer solchen reziproken Irritation auch auf den Begriff gebracht wird.

Dabei referieren Forschungsfragestellungen in unterschiedlicher Weise auf Theorie:

(1) Zunächst liegt ihnen zwingend ein bestimmtes (zu explizierendes) theoretisches Verständnis darüber zugrunde, wie Sozialität ‚funktioniert‘. In einer multiparadigmatischen Wissenschaft wie der Soziologie stehen dabei konkurrierende Theorieangebote zur Wahl, mit denen aktiv und reflexiv umgegangen werden muss: Wie prozessiert Sozialität? In welchem Verhältnis stehen Struktur und Handeln zueinander? Wie werden soziale Aggregate erzeugt, stabilisiert und modifiziert? Ihren empirischen Gegenstand kann eine Studie nur soziologisch denken, wenn sie sich in diesen Fragen in konsistenter Weise auf eine bestimmte dieser sozialtheoretischen Perspektiven bezieht. Das Angemessenheitserfordernis wird dort verletzt, wo inkommensurable Theorieperspektiven in Anschlag gebracht werden: Der Handlungsbegriff von RC-Theorien ist einer praxeologischen Sozialtheorie nicht angemessen; Parsons Strukturbegriff geht mit einem ethnomethodologischen Verständnis von Interaktion nicht zusammen.

(2) Forschungsfragestellungen können an einem aktuellen oder klassischen Theorieproblem ansetzen, indem offene oder kontrovers behandelte Fragen bestimmter Theorieperspektiven zum Ausgangspunkt empirischer Forschung gemacht werden: Wie kann man Luhmanns Systemtheorie empirisch fruchtbar machen? Lassen sich Latours Akteur-Netzwerk-Theorie und ein pragmatistischer Interaktionismus zu einer funktionierenden Analyseperspektive verbinden? Bedarf die Habitus-Theorie bei Bourdieu einer Erweiterung mit Blick auf die biographische Veränderbarkeit von Habitus? Angemessenheitsfragen ergeben sich hier mit Blick auf die Wahl des empirischen Gegenstandes, der sich als mehr oder weniger geeignet für die Bearbeitung der theoretischen Fragestellung erweisen kann.

(3) Schließlich bedürfen Forschungsfragestellungen eines theoretischen Inputs zum Verständnis empirischer Probleme: Wie lassen sich Cyborgs sozial- und gesellschaftstheoretisch verorten? Wie kann man die hartnäckige Reproduktion von Geschlechterstereotypen erklären? Was bedeutet die alltagspraktische Umstellung von Körpergefühl auf digitale Selbstvermessung? Diese analytische Einstellung entspricht im Kern Blumers Forderung einer sensibilisierenden Funktion theoretischer Konzepte. Die Güte dieser Theoriebezüge ist daran zu ermessen, inwieweit die in Anschlag gebrachten Konzepte den empirischen Gegenstand so unter Spannung zu setzen vermögen, dass man das Arsenal seiner denkmöglichen Bedeutungen und inneren Zusammenhänge möglichst umfassend entdecken kann. Gelungene Theoriebezüge machen aus empirischen Phänomenen Objekte, anhand derer sich Forschungsfragen denken lassen.

Forschungsansätze sind durch jeweils bestimmte Theorietraditionen geprägt, zu denen sie in einem Verhältnis der Wahlverwandtschaft stehen, weil sozialtheoretische und methodologische Argumentation qua Genesekontext implizit aufeinander abgestimmt sind. Theoretische Durchdringung einer Studie besteht jedoch nicht in einer Perfektionierung dieses Passungsverhältnisses, denn dies liefe auf Hermetik und Selbstimmunisierung hinaus.

Woran erkennt man also, ob eine Studie in Hinblick auf das Kriterium der theoretischen Durchdringung ihres Gegenstandes gescheitert oder gelungen ist? Gut ist eine Studie, wenn sie ein Interesse an der Verallgemeinerung ihres Falles verfolgt, diesen Fall unterschiedlichen theoretischen Perspektivierungen aussetzt und pointierte Konzeptentwicklungen vorzuweisen hat. Schwächer ist eine Studie, die deskriptiv theorielos bleibt oder theoretisch subsumierend verfährt, und der es an Versuchen zur Begriffsbildung mangelt.

Theoretische Durchdringung als Kriterium für gute qualitative Forschung bedeutet, so lautet das Fazit dieses Abschnitts, sich das empirische Feld unter Rekurs auf theoretische Perspektiven verfügbar zu machen und ihm so auch mehr Einsichten abzugewinnen als es selbst zu offenbaren in der Lage wäre. Die Funktion von Theorie ist in diesem Sinne die Differenzerzeugung zum Teilnehmerwissen. Im Fall gelungener Forschung stehen dabei empirisches Feld und theoretisches Denken in einem produktiven Verhältnis wechselseitiger Irritation. Theoretische Perspektivierungen bewahren den so konstituierten Forschungsgegenstand vor einer Überformung durch methodische Rigorismen und schaffen Anschlüsse an relevante Fachdiskurse.

4 Textuelle Performanz

Qualitativ Forschende nehmen nicht nur die Rolle des Datensammlers , des Analytikers und des Theoretikers ein. Indem sie ihre Untersuchungsergebnisse veröffentlichen, agieren sie zudem als Autoren . Sie kommen nicht umhin, ihre Studien auch „mit den Augen“ derer zu betrachten, die sie erreichen wollen. Ein weiteres Gütekriterium qualitativer Forschung ist daher die textuelle Performanz. Gemeint ist damit über die elementare Anforderung der intersubjektiven Nachvollziehbarkeit einer Studie hinaus die Art und Weise, wie kompetent Autorinnen ihre Leser führen. Untersuchungsergebnisse sprechen weder für sich selbst, noch können sie einfach in einem Standardformat aufs Papier gebracht werden. Dies bedeutet, dass beim Verfassen einer empirischen Studie neben der „Logik der Forschung“ die „Logik der Darstellung“ ( Bude 1989 : 527) und die „logic of generating scientific belief“ ( Reichertz 1992 : 333) zählen. Während innerhalb der standardisierten Sozialforschung die textuelle Performanz entweder ausgeblendet oder als ein ästhetisches Randproblem der Ergebnispräsentation betrachtet wird, hat sie im Rahmen der qualitativen Forschung eine epistemologische Bedeutung: Die Relevanz der Forschungsergebnisse konstituiert sich auch durch den reflexiven Umgang des Autors mit seiner Rolle. Dies verlangt eine (1) hermeneutische Übersetzungsleistung und (2) eine rhetorische Überzeugungsleistung.

(1) Übersetzen zwischen Sinnwelten. Textuelle Performanz erfordert, die Erwartungshaltung der Leser mit dem Eigensinn und den Selbstbeschreibungen des Untersuchungsfeldes in eine Passung zu bringen. Naturgemäß sind die Erfahrungsräume, Wissensvorräte und sozialen Praktiken des wissenschaftlichen Publikums einerseits und des Forschungsfeldes andererseits nicht identisch. Insofern bedarf es einer hermeneutischen Vermittlung der beiden Sinnwelten [7] . Eine solche Übersetzungsleistung können diejenigen erbringen, die Zugang zu beiden Seiten haben: die Autorinnen empirischer Studien.

Ob sie es wollen oder nicht, werden sie im Verlaufe des Forschungsprozesses mit dieser Mittlerfunktion konfrontiert. So gibt es immer eine Phase, in der sie sich endgültig von der empirischen Wirklichkeit des untersuchten Feldes lösen, weil die Datengewinnung beendet ist. Je mehr sich Forschende aus der Datengewinnung zurückziehen, umso stärker kommt es darauf an, das Material für die Rezipienten aufzubereiten. Hierbei stehen ganz konkrete Entscheidungen an: Was soll berichtet werden? Wie lässt sich die Fülle und Vielfalt des erhobenen Datenmaterials auf ein darstellbares Maß reduzieren? Welche Einzelfälle könnten aufschlussreich sein? Mithilfe welcher empirischer Daten kann demonstriert werden, was argumentativ behauptet wird, und wie finden selbst stark abweichende Daten einen Platz in der Darstellung der Ergebnisse? Wie kann man Leser an den Felderfahrungen teilhaben lassen? Welche Informationen brauchen sie, damit sie die Glaubwürdigkeit und Relevanz der Stimmen aus dem Feld sowie die Plausibilität der Deutungen prüfen können? Kurzum, es kommt auf eine doppelte Fremdperspektive an: Forschende werden als gute Autorinnen antizipierend Erwägungen über ihre Rezipientinnen anstellen [8] und sie werden simultan auf das Forschungsfeld zurückschauen – mittels ihrer Aufzeichnungen natürlicher Daten, ihrer Memos, Protokolle, Transkripte, Erinnerungen etc. Es gilt, den eigenen Verstehensprozess so zu dokumentieren, dass dieser für Dritte nachvollzogen werden kann.

Wenn Forschende diese Übersetzungsleistung nicht erbringen, ist dies ihren Texten deutlich anzumerken. Entsprechende Darstellungen sind überfrachtet mit im Untersuchungsfeld aufgeschnappten Äußerungen, die entweder unkommentiert bleiben oder lediglich paraphrasiert werden, mit mäandernden Kontextbeschreibungen oder erzählten Episoden, die auf die Suggestivkraft der Betroffenheit, der Parteinahme bzw. der Political Correctness setzen.

(2) Überzeugen als „rhetorical activity“ ( Atkinson 1990 : 10). In der Schriftkommunikation können Autorinnen ihre Leser nicht als konkrete Personen adressieren, sondern lediglich als hidden observers , deren Reaktionen außerhalb ihrer unmittelbaren Kontrollmöglichkeit liegen. Aber wie kann es gelingen, die Zustimmungsbereitschaft der Leser zum Text zu mobilisieren? Da es nicht in der Macht der Autorin liegt, welche Wirkung ihr Text beim Lesen tatsächlich erzeugt, müssen die Forschungsergebnisse, angereichert mit instruktiven Grafiken, Tabellen und Bildern, textuell so präsentiert werden, dass beim Rezipienten Interesse und Anschlusskommunikation ausgelöst werden. In Hinblick auf die notwendige intersubjektive Nachvollziehbarkeit erwarten sie vor allem drei Dinge: Erstens , dass sich Autoren in Publikationen ihrer Studie verständlich und stilvoll ausdrücken, anstatt sich in einer eigenen, idiosynkratischen Sprachwelt einzurichten. Zweitens , dass Argumentationen plausibel dargelegt, Folgerungen logisch nachvollziehbar hergeleitet, und Theoriebezüge heuristisch sinnvoll hergestellt werden. Nichts langweilt Leser schneller als Studien, in denen Einzelaspekte des Untersuchungsgegenstandes ohne erkennbaren „roten Faden“ kleinteilig nacheinander abgehandelt werden. Drittens dürfen die präsentierten Ergebnisse nicht hinter den State of the Art und die sozialen Konventionen zurückfallen, an denen sich die Leser orientieren. Qualitativ Forschende teilen die Überzeugung, dass Hypothesen, mit denen der untersuchte Gegenstand analytisch erschlossen und erklärt werden kann, erst im Zuge des Forschungsprozesses generiert werden. Die Ablehnung einer nomothetisch-deduktiven Theoriegeleitetheit der empirischen Forschung ist eben auch in der Erwartungshaltung begründet, dass qualitative Forschung neues Wissen generieren sollte. Dies kann eine überraschende Beobachtung aus dem empirischen Feld sein, eine Methodeninnovation, ein theoretischer Erklärungsansatz oder ein zeitdiagnostischer Beschreibungsversuch (s. 5).

Festzuhalten ist: Die Autorschaft einer qualitativen Studie impliziert weit mehr als nur die Fixierung von Untersuchungsergebnissen mittels Wörtern und Bildern. Die Darstellung fungiert als Medium, durch das Forschende und ihre Rezipienten in eine soziale Interaktion treten. Die Resultate einer Studie müssen in einer Form präsentiert werden, die es den Rezipienten ermöglicht, die Schlüsse der Forschenden nachzuvollziehen und zugleich ihre eigenen Schlüsse aus der Lektüre ziehen zu können ( Wolcott 1990 : 127 f.). Die Frage, ob eine qualitative Studie gelungen ist, kann ohne eine Antizipation der Leserinnen und ohne deren Anschlusskommunikation gar nicht geklärt werden. Insofern hat der hidden observer ständig präsent zu sein: als Projektion eines generalized other innerhalb des eigenen Wissenschaftsfeldes.

5 Originalität

Die Trias aus Gegenstandsangemessenheit (1), empirischer Sättigung (2) und Theoriebezug (3), eröffnet, einmal literarisch zur Wirkung gebracht (4), die Aussicht auf ein letztes Gütekriterium, das die qualitative Forschung an den wissenschaftlichen Diskurs anschließt: den Anspruch auf Originalität. Gemeint ist hier nicht eine besondere Kunstfertigkeit von Personen, sondern die Umsetzung der allgemeinen Erwartung an Forschung, Erkenntnisgewinne zu erzielen. Dementsprechend erweist sich die Güte einer publizierten Forschung auch darin, ob sich andere wissenschaftliche Beiträge auf diese ‚mit Gewinn‘ beziehen können. Dies setzt voraus, dass eine Studie ihren Gegenstand als (forschungsstrategischen) Fall von etwas begreift, um Anknüpfungen zu Ähnlichem anzulegen (etwa eine Ethnographie deutscher Asylanhörungen als Fall spezifischer Grenzregime in Globalisierungsprozessen oder eine Gruppendiskussion als Fall der interaktiven Herstellung bestimmter kollektiver Orientierungen). Originalität ist insofern nicht allein die Leistung einer individuellen Studie, sie ist ein kollektives Gut, zu dem sie signifikant beiträgt. Dabei bewerten Leserinnen auch als Nutzerinnen für die Zwecke ihrer eigenen Forschung, ob eine Studie den erreichten Wissensstand nur verdoppelt, ihn gar unterschreitet, oder ob sie neue Einsichten eröffnet.

In Bezug auf diesen Wissensstand ist allerdings zu differenzieren. Ein Beitrag kann nur wissenschaftlichen Gebrauchswert entwickeln, wenn er drei Wissensstände nicht unterbietet: die der Forschung, des Alltagswissens und des Sachwissens der Teilnehmer. Außerhalb qualitativer Sozialforschung mag es hinreichen, sich hier auf einzelne Wissensbestände zu beschränken und Erkenntnisgewinne allein in Relation zum Forschungsstand (wie in statistischen Erhebungen), zum Common Sense (wie in der Populärwissenschaft) oder zum Praktikerwissen (wie in der Anwendungsforschung) zu behaupten. [9] Gute qualitative Forschung sollte dagegen all diese Wissensstände zu ihren Fällen bedienen, will sie vollwertig zum wissenschaftlichen Originalitätsversprechen beitragen. Alle drei Referenzen dienen also der Tauglichkeitsprüfung eines Beitrages: (1) Die Forschung sollte nicht hinter den Common Sense zum Gegenstand zurückfallen, sondern rezipieren und diskutieren, was allgemein vorausgesetzt und angenommen wird. (2) Ihre Resultate sollten nicht hinter Normen und Standards zurückfallen, wie sie die Teilnehmer des Feldes haben, etwa die Fachkräfte einer Profession. (3) Eine Studie darf nicht hinter den Forschungsstand zurückfallen, sollte also neueste Erkenntnisse über ähnlich gelagerte Fälle rezipieren und diskutieren. Die Forschung riskiert ihre Brauchbarkeit für anschließende Beiträge, wo mindestens einer dieser Wissensbestände ausgeklammert und seine systematische Unterbietung riskiert wird. Welche Vorkehrungen trifft hier eine gelungene Studie?

(1) Common Sense : Alle empirische Sozialforschung ist mit bereits gewussten, gesellschaftlich angeeigneten, sprachlich erschlossenen Gegenständen konfrontiert. Es liegt ein allgemeines Wissen vor, das außer Acht zu lassen die qualitative Angemessenheit des Weltbezugs tangiert. So werden Subkulturen (z. B. Auto-Raser), Institutionen (z. B. Verkehrspolizei), Dinge (z. B. Autos) oder Praktiken (z. B. Geschwindigkeitskontrollen) allgemein gewusst: qua persönlicher Erfahrung, alltäglicher Konversation, journalistischer Berichterstattung oder politischer Debatten. Der Common Sense macht Gegenstände relevant und weckt Interesse.

Qualitative Forschungen beziehen sich auf ihn, indem sie Berichterstattung, Alltagsgeschichten oder alltägliche Benennungen aufrufen und typische Erwartungen, Hypothesen oder Vorurteile als Teil des untersuchten Gegenstandes aufdecken. Gegenläufige Strategien können den Common Sense herausfordern, um auf diese Art Raum für Neues zu schaffen und Vorwissen nicht zu reproduzieren. Bezugnahmen zum Common Sense schützen die Forschung vor falschen Neuigkeitsbehauptungen, weil sie dessen drohender Unterbietung für Rezipienten beobachtbar begegnen. Sie referieren populäre Versionen des Gegenstands, zu denen sich Teilnehmende wie Forschende verhalten müssen. Dies schließt Reflexionen über den Transfer von wissenschaftlichen Konzepten in die Populärkultur ein. Common Sense Verständnisse dienen Beiträgen auch als Folien zur trennscharfen Fassung des Gegenstandes. Sie lassen sich diskutieren und verfremden – und schützen die Forschung so vor uneingelösten Originalitätsversprechen.

(2) Sachwissen des Feldes : Die Ignoranz und mitunter Arroganz gegenüber dem Alltagswissen wird zuweilen mit einem Abstandsgebot zum Nicht-Wissenschaftlichen begründet. Derlei szientistische Manöver finden sich auch bezogen auf das Sachwissen des Feldes. Die Ignoranz gegenüber dem Wissen der Praktiker, bis hin zu professionellen Standards, entspricht einer ungerechtfertigten Hierarchisierung von Wissen. Mit der Überschätzung des wissenschaftlichen Wissens droht die Unterbietung von dem ‚was man wissen sollte‘, um überhaupt mitreden zu können, denn es sind die Praktikerinnen, die einen Gegenstand aus unmittelbarer Anschauung im Lichte seiner konkreten Anforderungen kennen und für relevante Verwertungskontexte reflektieren.

Gute qualitative Forschungen stellen sich dieser Defizit-Drohung unterschiedlich. So verlangt die Ethnomethodologie von Forschenden, dass sie sich die Gegenstände ihrer Studien – inklusive des Vokabulars und der professionellen Standards – zunächst im Fachstudium erschließen. So sollten Studierende etwa Grundkenntnisse der Physik erwerben, bevor sie physikalische Experimente erforschen. Diese An- und oftmals auch Überforderung sollte davor bewahren, bestimmte Aspekte und Bedeutungen gar nicht erst in den Blick zu bekommen. Andere Studien greifen auf Bündnisse mit den Beforschten zurück. So können die Beforschten (Zwischen-)Ergebnisse kommentieren und dafür sorgen, dass Resultate nicht hinter Wissensstandards des Feldes zurückfallen. [10] Gute qualitative Forschung erhält ihr Originalitätspotential, indem sie eine oftmals wissenschaftlich kritisierte Betriebsblindheit der Praktiker nicht gegen eine fehlschließende Praxisferne eintauscht. Sie würde den möglichen Gebrauchswert einer Studie unter Vorbehalt stellen.

(3) Stand der Forschung: Qualitative Forschungen scheinen Common Sense und Teilnehmerwissen zugeneigt; dem Forschungsstand dagegen zeigen sie sich oft nur vage verpflichtet. Diese offene Flanke erwächst mit der mangelnden Theoretisierung (s. 3) des Gegenstandes: ‚Genau dies wurde so noch nie beforscht!‘ Die Besonderung wirkt dann wie ein Unterbrecher wissenschaftlicher Diskurs- und Wissensprozesse. Sie macht Studien füreinander unverfügbar. Dagegen legt gerade die Einordnung in eine Forschungsrichtung die nötige Grundlage für eine Originalitätsbehauptung: Der analytisch gefasste Gegenstand erlaubt die Positionierung zum Forschungsstand – und diese die Bestimmung eines Neuigkeitswertes. Der Aufweis von Ähnlichkeiten und Besonderheiten liefert Anschlussstellen für Weiteres und derart die Möglichkeit zur Wissensakkumulation. Eine wesentliche Voraussetzung dieses Aufweises ist die multiple Kontextualisierung der aufgebotenen und analysierten Geschehnisse, Aussagen oder Erzählungen. So eingebettete Fallstudien gewinnen gleich für mehrere Forschungsstände Anschlussfähigkeit.

Schließen quantitative Forschungen in ihrer starken kumulativen Arbeitsteiligkeit immer schon an einen definierten Forschungsstand an, so ist die qualitative Forschung durch die geforderte Gegenstandsangemessenheit zunächst auf Singularität verpflichtet. Qualitative Studien sind damit grundsätzlich zur Vereinzelung verführt. Sie müssen daher umso mehr in ihre Anschlussfähigkeit investieren: als Studien, die die Allgemeinheit ihres Falles in eine analytische Kasuistik eintragen können. In diesem Sinne gibt gute qualitative Forschung darüber Auskunft, was zu einem solchen Gegenstand schon erforscht wurde – und wie die eigene Forschung zum Kollektivgut des Forschungsstands beiträgt.

Neben der Besonderung des Gegenstands kann auch die Fragmentierung der Methoden, Ansätze und Schulen zur Verinselung qualitativer Forschung beitragen. Ausdifferenzierte Studien und neueste Paradigmen(-wechsel) erlauben es, von anderen Forschungsständen abzusehen. Derlei praktizierte Ignoranz tangiert die Güte, wo sie eine Auseinandersetzung mit anders angelegten Forschungsergebnissen verstellt – und wo konzeptionelle Differenzen nicht mehr in gegenstandsbezogenen Debatten ausgetragen werden.

Zusammengefasst: Die Güte von Forschungsbeiträgen zur Produktion von Originalität i. S. von Erkenntnisgewinn entscheidet sich in den (fach-)diskursiven Anknüpfungen. Ist ein Beitrag brauchbar für Weiteres? Um für diesen Gebrauch infrage zu kommen, kann ein Beitrag nur dann Neues reklamieren, wenn er an Wissensstände anknüpft. Der Erkenntnisgewinn lässt sich dann ex negativo vermessen: anhand möglicher Unterbietungen gegenstandsrelevanter Wissensstände. Der gute Beitrag ist auf dem Stand – und erlaubt die anknüpfende Koproduktion von Originalität. Als Gütekriterium erfordert die Aussicht auf Originalität damit eine dreifache Absicherung des Forschungsbeitrags: Sie reflektiert ein Allgemeinwissen mitsamt dem erwartbaren Vorwissen, sie respektiert die fachlichen Standards der Praktiker und sie setzt sich mit ähnlich gelagerten Fallstudien auseinander. Auf all diese Bezüge einzugehen, ist dabei nicht schon ‚originell‘, sondern Grundlegung für Originalität. Sie befördert den Beitrag in den Stand der Brauchbarkeit für alles Weitere.

Das Risiko der Unterbietung relevanter Wissensstände nimmt dort zu, wo Gegenstände als gesellschaftlich relevant wahrgenommen und dementsprechend breit behandelt werden. Gerade dann muss die Forschung mit Unübersichtlichkeit der Wissensstände wie auch mit konkurrierenden Wissensbeständen rechnen. Im Umkehrschluss finden sich exotische Forschungsgegenstände, mit denen Forschende eine Unterschreitung der Wissensstände weniger riskieren. Der Preis für diese Isolierung liegt nahe: Der Gegenstand findet kein Interesse beim Leser und keine Nachahmer. Eine paradoxe Konsequenz des Originalitätsgebots ist also die Meidung umkämpfter Forschungsfelder und debattierter Gegenstände – per Flucht in eingehegte Spezialgebiete. Dann wird eine Brauchbarkeit für Weiteres gar nicht erst behauptet. Bei all dem bleibt den Forschenden ein letzter Ausweg: Sie stolpern zufällig über einen neuen Gegenstand, der zugleich relevante Erkenntnisse verspricht und der bislang zu Unrecht kaum Beachtung fand. Originalität ist dann, und nur dann, tatsächlich eine glückliche Fügung für die Forschung und den wissenschaftlichen Diskurs.

Wir haben in diesem Aufsatz implizit immer schon wirksame Evaluationsgesichtspunkte in der Begutachtung qualitativer Studien als Gütekriterien expliziert und aus den Grundhaltungen und Maximen qualitativer Sozialforschung hergeleitet. Damit zielen wir auf eine Stärkung und Professionalisierung der qualitativen Sozialforschung, weil Gütekriterien als Medien der Kommunikation über Forschung unverzichtbar sind. Gut ist qualitative Forschung, kurz gesagt, wenn sie ihren Gegenstand über den Forschungsprozess hinweg angemessen entwickelt, dabei den interaktiven Prozess seiner empirischen Sättigung ebenso bewältigt wie seine fortwährende theoretische Perspektivierung und diese forschende Herstellungsleistung gegenüber relevanten Publika in ihrer Gültigkeit und ihrem Erkenntniswert vermitteln kann.

Abb. 1: Das Pentagramm qualitativer Gütekriterien

Das Pentagramm qualitativer Gütekriterien

Wir haben die Gegenstandsangemessenheit als Basiskriterium bezeichnet. Das bedeutet nicht, dass alle anderen Kriterien in diesem einen aufgehen. Vielmehr stehen alle fünf hier herausgearbeiteten Kriterien in Verweisungsverhältnissen zueinander ( Abb. 1 ). Dabei mögen Gegenstandsangemessenheit, empirische Sättigung und theoretische Durchdringung auf den ersten Blick als vorrangig gegenüber textueller Performanz und Originalität erscheinen. Doch der Eindruck täuscht, denn Studien, die ihren Gegenstand empirisch und theoretisch angemessen konzipieren und entwickeln, ohne dies in ihrer textuellen Repräsentation auch sichtbar zu machen und dabei ihre Originalität in Form erweiterten Wissens zu verdeutlichen, blieben so etwas wie hidden champions .

Jede Zusammenstellung von Gütekriterien erlaubt natürlich Variation. Zum einen in der Hinsicht, dass sie sich unterschiedlich gewichten lassen und einzelne Studien Schwächen und Stärken in einzelnen Aspekten aufweisen werden: Zum Beispiel mag eine deskriptiv reiche und glänzend geschriebene Studie vielleicht nicht auch begrifflich originell und theoretisch innovativ sein. Zum anderen wird die evaluative Praxis in den unterschiedlichen Ansätzen qualitativer, interpretativer und rekonstruktiver Forschung von Kriterium zu Kriterium Variationen erzeugen, was die Bedeutung eines Kriteriums und auch seine genauere Auslegung betrifft. Ethnomethodologische Studien werden ihren Theoriebezug etwas anders auffassen als etwa Studien aus der objektiven Hermeneutik, ebenso wie sich Diskursanalysen in einigen Punkten von den Gewichtungen in der Dokumentarischen Methode unterscheiden werden. Auch die unterschiedlichen Fachkulturen und Verwendungskontexte von Soziologie oder Erziehungswissenschaften, Politikforschung oder Kulturwissenschaften mögen hier noch einmal unterschiedliche Akzente setzen. Die Gütebeurteilung kann sich also nicht einfach darauf beschränken zu ‚zählen‘, wie viele der hier entwickelten Kriterien jeweils erfüllt wurden, vielmehr müssen sie wiederum fallspezifisch interpretiert und adaptiert werden (s. u.). Die vorgeschlagenen Gütekriterien sind auch keine Indikatoren, die sich messen und in Maßzahlen ausdrücken lassen. Sie sind Orientierungsmarken für den Versuch einer Verifizierung sozialwissenschaftlicher Güteurteile. Insgesamt aber führt unseres Erachtens an der grundsätzlichen Bedeutung der vorgeschlagenen fünf Kriterien kein Weg vorbei. Auch in diesem Punkt sind wir auf die entsprechende Fachdiskussion gespannt, die noch vor uns liegt.

Auch die Frage, ob die hier entwickelten Gütekriterien qualitativer Forschung sich nicht auch auf standardisierte Forschung mit ihrer dominanten Methodizität übertragen lassen, sollte Gegenstand zukünftiger Fachdebatten werden. Wir meinen, dass unser weiter gefasster Bezugsrahmen die messtechnischen Verkürzungen der Gütekriterien standardisierter Forschung klar hervortreten lässt und so auch plausibler macht, was viele an dieser Forschung so vermissen. So stehen etwa Originalitätsanforderungen in der standardisierten Sozialforschung häufig im Schatten des Bemühens um Kontrolle und Replikation. In diesem Sinne sollen unsere Kriterien durchaus auch Orientierungsmarken für eine umfassendere Güteprüfung auch quantifizierender, methodisch standardisiert verfahrender Studien setzen. Denn auch von diesen wird man erwarten können, dass sie theoretisch reichhaltigere und originelle, d. h. auch: weiterführende Ergebnisse produzieren und diese an die Wissenschaftskommunikation ihres Faches anzuschließen verstehen.

Was dabei stets bleibt und mit derartigen Gütekriterien nicht standardisiert und pseudo-objektiviert werden kann, ist die praktische Aufgabe des Einschätzens und Beurteilens: Es bedarf in jedem Fall der „practical capacity to assess research.“ ( Hammersley 2007 : 300) Was wir im Einzelfall als gegenstandsangemessen und empirisch gesättigt gelten lassen wollen, was unseren Ansprüchen an theoretischer Durchdringung genügt und uns in seiner textuellen Präsentation als originell überzeugt, das muss immer noch an konkreten Einzelfällen bestimmt und innerhalb der Scientific Community kommunikativ validiert werden. Mit den genannten Gütekriterien aber lassen sich einzelne Studien in einem fünfdimensionalen Feld verorten. Als Rezipienten, Gutachterinnen oder Verwender von Forschung sollten wir damit besser explizieren können, in welcher Hinsicht eine Studie besser oder schlechter gelungen ist. Als Forschende wiederum können wir diese Kriterien als Zielmarken für die fortlaufende Überprüfung und Nachjustierung unserer Forschungsarbeit nutzen. Schon damit scheint uns Einiges gewonnen.

Über die Autoren

Atkinson, P., 1990: The Ethnographic Imagination. Textual Constructions of Reality. London: Routledge. Search in Google Scholar

Becker, H.S., 1958: Problems of Inference and Proof in Participant Observation. American Sociological Review 23 (6): 652–660. 10.2307/2089053 Search in Google Scholar

Becker, H.S., 1993: Schreiben und Denken in den Sozialwissenschaften. Ein Erlebnisbericht. Leviathan 21: 69–88. Search in Google Scholar

Becker, H.S., 1998: Tricks of the Trade. How to Think about your Research while you’re Doing it. Chicago.: University of Chicago Press. 10.7208/chicago/9780226040998.001.0001 Search in Google Scholar

Bergmann, J., 2011: Qualitative Methoden der Medienforschung – Einleitung und Rahmung. S. 13–41 in: R. Ayaß & J. Bergmann (Hrsg.), Qualitative Methoden der Medienforschung. Mannheim: Verlag für Gesprächsforschung. Search in Google Scholar

Blumer, H., 1954: What is Wrong with Social Theory? American Sociological Review 19: 3–10. 10.4324/9781315129945-8 Search in Google Scholar

Blumer, H., 1939: An Appraisal of Thomas and Znaniecki’s „The Polish Peasant in Europe and America“. New York: Social Sciences Research Council. Search in Google Scholar

Bohnsack, R., 2005: Standards nicht-standardisierter Forschung in den Erziehungs- und Sozialwissenschaften. Zeitschrift für Erziehungswissenschaft 8: 63–81. 10.1007/978-3-322-80769-4_5 Search in Google Scholar

Breidenstein, G., S. Hirschauer & H. Kalthoff, 2013: Ethnographie. Die Praxis der Feldforschung. Stuttgart: UVK/UTB. 10.36198/9783838539799 Search in Google Scholar

Breuer, F., 2000: Über das In-die-Knie-Gehen vor der Logik der Einwerbung ökonomischen Kapitals – wider bessere wissenssoziologische Einsicht. Eine Erregung. Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 1: 18 Abs. (Online Ressource: http://qualitative-research.net/fqs/fqs-d/3-00inhalt-d.htm ; Zugriff: 14.11.2000). Search in Google Scholar

Bude, H., 1989: Der Essay als Form der Darstellung sozialwissenschaftlicher Erkenntnisse. Kölner Zeitschrift für Soziologie und Sozialpsychologie 41: 526–539. Search in Google Scholar

Charmaz, K. & A. Bryant, 2010: Grounded Theory and Credibility. S. 291–309 in: D. Silverman (Hrsg.), Doing Qualitative Research a Practical Handbook. London: Sage. Search in Google Scholar

Creswell, J.W., 2007: Qualitative Inquiry and Research Design: Choosing among Five Traditions. Thousand Oaks, CA: Sage. Search in Google Scholar

Durkheim, E., 1984: Die Regeln der soziologischen Methode. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Flick, U., 2014: Gütekriterien qualitativer Sozialforschung. S. 411–423 in: N. Baur & J. Blasius (Hrsg.), Handbuch Methoden der empirischen Sozialforschung. Wiesbaden: Springer. 10.1007/978-3-531-18939-0_29 Search in Google Scholar

Garfinkel, H., 1967: Studies in Ethnomethodology. Englewood Cliffs, NJ: Prentice-Hall. Search in Google Scholar

Garfinkel, H. & D.L. Wieder, 1992: Two Incommensurable, Asymmetrically Alternate Technologies of Social Analysis. S. 175–206 in: G. Watson & R.M. Seiler (Hrsg.), Text in Context: Studies in Ethnomethodology. Newbury Park: Sage. Search in Google Scholar

Glaser, B.G. & A.L. Strauss, 1967: The Discovery of Grounded Theory: Strategies for Qualitative Research. Chicago: Aldine. 10.1097/00006199-196807000-00014 Search in Google Scholar

Goffman, E., 1972: Asyle. Über die soziale Situation psychiatrischer Patienten und anderer Insassen. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Hammersley, M., 2001: Ethnography and the Disputes over Validity. Vortrag im Rahmen einer Tagung der DGS-Methodensektion zu „Standards und Strategien zur Sicherung von Qualität und Validität in der qualitativen Sozialforschung”. Ms. 17 S., Mannheim: ZUMA. Search in Google Scholar

Hammersley, M., 2007: The Issue of Quality in Qualitative Research. International Journal of Research & Method in Education 30: 287–305. 10.4135/9780857024565.d11 Search in Google Scholar

Heintz, B., 1993: Wissenschaft im Kontext. Neuere Entwicklungstendenzen der Wissenschaftssoziologie. Kölner Zeitschrift für Soziologie und Sozialpsychologie 45: 528–552. Search in Google Scholar

Hirschauer, S., 2008: Die Empiriegeladenheit von Theorien und der Erfindungsreichtum der Praxis. S. 169–187 in: H. Kalthoff, S. Hirschauer & G. Lindemann (Hrsg), Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Hollstein, B. & C.G. Ullrich, 2003: Einheit trotz Vielfalt? Zum konstitutiven Kern qualitativer Forschung. Soziologie 32 (4), 29–43. Search in Google Scholar

Jahoda, M., P. Lazarsfeld & H. Zeisl, 1994: Die Arbeitslosen von Marienthal. Ein soziographischer Versuch über die Wirkungen langandauernder Arbeitslosigkeit. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Kalthoff, H., 2008: Einleitung. Zur Dialektik von qualitativer Forschung und soziologischer Theoriebildung. S. 8–32 in: H. Kalthoff, S. Hirschauer & G. Lindemann (Hrsg), Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Kalthoff, H., S. Hirschauer & G. Lindemann (Hrsg.), 2008: Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Lau, T. & S. Wolff, 1983: Der Einstieg in das Untersuchungsfeld als soziologischer Lernprozess. Kölner Zeitschrift für Soziologie und Sozialpsychologie 35 (3), 417–437. Search in Google Scholar

Lamnek, S., 1988. Qualitative Sozialforschung Bd. 1: Methodologie. München und Weinheim: PVU. Search in Google Scholar

Leithäuser, T. & B. Volmerg, 1981: Die Entwicklung einer empirischen Forschungsperspektive aus der Theorie des Alltagsbewußtseins. S. 11–162 in T. Leithäuser, B. Volmerg, G. Salje, U. Volmerg & B. Wutka (Hrsg.), Entwurf zu einer Empirie des Alltagsbewusstseins, 2. Aufl. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Lindemann, G., 2008: Theoriekonstruktion und empirische Forschung. S. 107–128 in: H. Kalthoff, S. Hirschauer & G. Lindemann (Hrsg.), Theoretische Empirie. Zur Relevanz qualitativer Forschung. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Mead, G.H., 1938: The Philosophy of the Act. Edited and with an Introduction by Charles, W. Morris. Chicago: University of Chicago Press. Search in Google Scholar

Meinefeld, W., 1997: Ex ante-Hypothesen in der Qualitativen Sozialforschung. Zwischen „fehl am Platz“ und „unverzichtbar“. Zeitschrift für Soziologie 26: 22–34. 10.1515/zfsoz-1997-0102 Search in Google Scholar

Merton, R.K., 1995: Soziologische Theorie und soziale Struktur. Berlin/New York: de Gruyter. 10.1515/9783110871791 Search in Google Scholar

Merton, R.K., L. Broom & L. Cottrell, 1959: Sociology Today – Problems and Prospects. New York: Basic Books. Search in Google Scholar

Peräkylä, A., 2010: Validity in Research on Naturally Occuring Social Interaction. S. 365–382 in: D. Silverman (Hrsg.), Doing Qualitative Research. A Practical Handbook. London: Sage. Search in Google Scholar

Reichertz, J., 1992: Beschreiben oder Zeigen – über das Verfassen ethnografischer Berichte. Soziale Welt 43: 331–350. Search in Google Scholar

Reichertz, J., 2000: Zur Gültigkeit von Qualitativer Sozialforschung. Forum Qualitative Sozialforschung/Forum: Qualitative Social Research 1: 76 Abs. (Online Ressource: http://qualitative-research.net/fqs/fqs-d/2-00inhalt-d.htm ; Zugriff: 26.6.2000). Search in Google Scholar

Reichertz, J., 2003: Die Abduktion in der qualitativen Sozialforschung. Opladen: Leske und Budrich. 10.1007/978-3-663-09669-6 Search in Google Scholar

Reichertz, J., 2007: Qualitative Sozialforschung – Ansprüche, Prämissen, Probleme in: Erwägen – Wissen – Ethik 18 (2): 195–208. Search in Google Scholar

Richardson, L., 1994: Writing: A Method of Inquiry. S. 516–529 in: N.K. Denzin (Hrsg.): Handbook of Qualitative Research. London/New York: Sage. Search in Google Scholar

Schütz, A., 1971: Über die mannigfaltigen Wirklichkeiten. S. 237–298 in: A. Schütz: Gesammelte Aufsätze. Band 1: Das Problem der sozialen Wirklichkeit. Den Haag: Martinus Nijhoff. 10.1007/978-94-010-2858-5_9 Search in Google Scholar

Schütz, A., 1974: Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie. Frankfurt am Main: Suhrkamp. Search in Google Scholar

Seale, C., 2007: Quality in Qualitative Research. S. 379–389 in: C. Seale, G. Gobo, J.F. Gubrium & D. Silverman (Hrsg.), Qualitative Research Practice. London: Sage. 10.4135/9781848608191.d32 Search in Google Scholar

Star, S.L. & J.R. Griesemer, 1989: Institutional Ecology, ‚Translations’ and Boundary Objects: Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907–1939. Social Studies of Science 19: 387–420. 10.1177/030631289019003001 Search in Google Scholar

Steinke, I., 1999: Kriterien qualitativer Forschung. Ansätze zur Bewertung qualitativ-empirischer Sozialforschung. Weinheim: Juventa. Search in Google Scholar

Strauss, A.L., L. Schatzman, R. Bucher, D. Ehrlich & M. Sabshin, 1964: Psychiatric Ideologies and Institutions. London: Free Press of Glencoe. Search in Google Scholar

Strauss, A.L., 1991: Grundlagen qualitativer Sozialforschung. München: Fink. Search in Google Scholar

Strübing, J., 2002: Just do it? Zum Konzept der Herstellung und Sicherung von Qualität in grounded theory-basierten Forschungsarbeiten. Kölner Zeitschrift für Soziologie und Sozialpsychologie 54: 318–342. 10.1007/s11577-002-0042-9 Search in Google Scholar

Strübing, J., 2013: Qualitative Sozialforschung. Eine komprimierte Einführung für Studierende. München: Oldenbourg. 10.1524/9783486717594 Search in Google Scholar

Strübing, J., 2014: Grounded Theory. Zur sozialtheoretischen und epistemologischen Fundierung eines pragmatistischen Forschungsstils. Wiesbaden: Springer VS. 10.1007/978-3-531-19897-2 Search in Google Scholar

Strübing, J., 2017: Theoretischer Konservatismus und hegemonialer Gestus. Über ungute professionspolitische Spaltungen. Kommentar zu Ronald Hitzlers „Zentrale Merkmale und periphere Irritationen…“. Zeitschrift für Qualitative Forschung 18: 91–99. doi: https://doi.org/10.3224/zqf.v18i1.07 https://doi.org/10.3224/zqf.v18i1.07 Search in Google Scholar

Tracy, S.J., 2010: Qualitative Quality: Eight „Big-Tent” Criteria for Excellent Qualitative Research. Qualitative Inquiry 16: 837–851. 10.1177/1077800410383121 Search in Google Scholar

Weber, M., 1972: Wirtschaft und Gesellschaft. Tübingen: Mohr. Search in Google Scholar

Whyte, W. F., 1993: Street Corner Society: The Social Structure of an Italian Slum. 4. Aufl. Chicago: University of Chicago Press. 10.7208/chicago/9780226922669.001.0001 Search in Google Scholar

Wolcott, H.F., 1990: On Seeking – and Rejecting – Validity in Qualitative Research. S. 121–152 in: W. Eisner & A. Peshkin (Hrsg.), Qualitative Inquiry in Education. The Continuing Debate. New York: Teachers College Press. Search in Google Scholar

© 2018 by De Gruyter

  • X / Twitter

Supplementary Materials

Please login or register with De Gruyter to order this product.

Zeitschrift für Soziologie

Journal and Issue

Articles in the same issue.

dissertation qualitative forschung

Kostenlose Rechtschreibprüfung

Kostenlose plagiatsprüfung, korrektur deiner abschlussarbeit.

  • Wissensdatenbank

Qualitative Forschung für die wissenschaftliche Arbeit durchführen

Veröffentlicht am 14. Mai 2019 von Franziska Pfeiffer . Aktualisiert am 14. November 2023.

Bei der qualitativen Forschung geht es darum, detaillierte, ausführliche Informationen zu sammeln, die du interpretativ auswertest.

Du beschäftigst dich gründlich mit Material zu einem ausgewählten Thema, um dieses Thema in seiner Fülle zu verstehen und daran neue Theorien aufzustellen.

Inhaltsverzeichnis

Das ist qualitative forschung, wann wird qualitative forschung durchgeführt, qualitative forschung beispiel, gütekriterien qualitativer forschung, häufig gestellte fragen.

Das Ziel der qualitativen Forschung ist es, ein Thema im Detail zu erfassen und zu untersuchen. Es geht um die Qualität deiner Ergebnisse statt um die Quantität.

Du benötigst daher keine hohe Anzahl an Teilnehmenden an deiner Forschung, sondern ziehst qualitativ wertvolle Schlüsse anhand von ausführlichen Ergebnissen.

Zu den qualitativen Forschungsmethoden gehören:

  • das Experteninterview ,
  • die qualitative Inhaltsanalyse ,
  • die Fallstudie ,
  • die Gruppendiskussion ,
  • die Nutzwertanalyse .

Im Gegensatz zu der qualitativen Forschung steht der quantitative Forschungsansatz , in dem es darum geht, möglichst viele Informationen zu sammeln, die statistisch ausgewertet werden.

Möchtest du eine fehlerfreie Arbeit abgeben?

Mit einem Lektorat helfen wir dir, deine Abschlussarbeit zu perfektionieren.

Neugierig? Bewege den Regler von links nach rechts!

dissertation qualitative forschung

Zu deiner Korrektur

Qualitative Forschung wird durchgeführt, wenn …

  • … wenig Literatur zu dem Thema existiert.
  • … du eine neue Theorie entwickeln möchtest.
  • … du mehr in die Tiefe gehen möchtest.
  • … du nicht mit Zahlen und Statistik arbeiten möchtest.

Es handelt sich um ein Nischen-Thema mit wenig vorhandener Literatur. Deshalb ist es schwer, mir im Voraus genaue Fragen mit Antwortkategorien auszudenken.

Eine häufig verwendete qualitative Forschungsmethode ist das Experteninterview . Hier befragst du ausgewählte Experten , um umfangreiche Informationen zu einem Thema zu erlangen.

Anzahl an Interviewpartnern : 5

Ziel : Neue Erkenntnisse gewinnen und den Alltag einzelner Redakteure ausführlich kennenlernen

Erhebung : Verwendung von offenen Fragen ohne standardisierte Vorgaben

Ergebnisse qualitativer Forschung sind oft subjektiv und von den Forschenden selbst abhängig. Dennoch ist es wichtig, dass du dich an bestimmten Gütekriterien orientierst.

  • Trotz offener Vorgehensweise sollte qualitative Forschung regelgeleitet sein.
  • Achte auf eine genaue Dokumentation deiner Methode .
  • Um qualitativ interpretieren zu können, musst du dich im Voraus gründlich mit deinem Forschungsgegenstand auseinandergesetzt haben.
  • Basiere deine Argumente auf deiner Literaturrecherche .

Bei der quantitativen Forschung sammelst du möglichst viele Informationen zu deinem Thema und wertest sie anhand von Zahlen und Fakten aus.

Du testest bereits bestehende Theorien und gehst dabei deduktiv vor.

Beispiele für quantitative Forschung sind die Umfrage oder die Beobachtung .

Bei der qualitativen Forschung sammelst du detaillierte, ausführliche Informationen und wertest diese interpretativ aus.

Es wird viel mit offenen Fragestellungen und nicht standardisierten Messungen gearbeitet. Das Ziel ist es, neue Theorien zu entwickeln.

Beispiele für qualitative Forschung sind Experteninterviews oder Gruppendiskussionen .

Ob du den qualitativen oder quantitativen Ansatz wählen solltest, kommt auf das Thema deiner Abschlussarbeit und deine Forschungsfrage an.

Qualitative Forschung eignet sich, wenn …

  • wenig Literatur zu dem Thema existiert.
  • du eine neue Theorie entwickeln möchtest.
  • du mehr in die Tiefe gehen möchtest.
  • du nicht mit Zahlen und Statistik arbeiten möchtest.

Quantitative Forschung eignet sich, wenn …

  • bereits Literatur zu dem Thema existiert.
  • du eine bestehende Theorie testen möchtest.
  • du möglichst viele Informationen sammeln möchtest.
  • du mit Zahlen und Statistik arbeiten möchtest.

Diesen Scribbr-Artikel zitieren

Wenn du diese Quelle zitieren möchtest, kannst du die Quellenangabe kopieren und einfügen oder auf die Schaltfläche „Diesen Artikel zitieren“ klicken, um die Quellenangabe automatisch zu unserem kostenlosen Zitier-Generator hinzuzufügen.

Pfeiffer, F. (2023, 14. November). Qualitative Forschung für die wissenschaftliche Arbeit durchführen. Scribbr. Abgerufen am 3. September 2024, von https://www.scribbr.at/methodik-at/qualitative-forschung/

War dieser Artikel hilfreich?

Franziska Pfeiffer

Franziska Pfeiffer

Operationalisierung

  • First Online: 24 October 2015

Cite this chapter

dissertation qualitative forschung

  • Nicola Döring 3 &
  • Jürgen Bortz 4  

Part of the book series: Springer-Lehrbuch ((SLB))

460k Accesses

3 Citations

Zusammenfassung

Dieses Kapitel vermittelt folgende Lernziele: Die unterschiedlichen Vorgehensweisen bei der Bildung theoretischer Konzepte in der qualitativen Forschung und der Operationalisierung theoretischer Konzepte in der quantitativen Forschung kennen. Wissen, was man unter der Konzeptspezifikation versteht und wie man dabei vorgeht. Latente und manifeste Variablen voneinander abgrenzen können. Die vier Skalenniveaus definieren und an Beispielen erläutern können. Die Ratingskala als Antwortformat von der psychometrischen Skala als Messinstrument unterscheiden können. Die Messung theoretischer Konzepte mit Einzelindikatoren, psychometrischen Skalen und Indizes als drei zentralen Operationalisierungsvarianten in ihren Vor- und Nachteilen abwägen können.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Subscribe and save.

  • Get 10 units per month
  • Download Article/Chapter or eBook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
  • Available as EPUB and PDF

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Similar content being viewed by others

dissertation qualitative forschung

Forschungsmethoden in der Sozialpsychologie

dissertation qualitative forschung

Strukturgleichungsanalyse

Abdel-Khalek, A. M. (2006). Measuring happiness with single-item scale. Social Behavior and Personality , 34 (2), 139–150.

Google Scholar  

Ahearn, E. P. (1997). The use of visual analog scales in mood disorders: A critical review. Journal of Psychiatric Research , 31 (5), 569–579.

Aiken, L. R. (1985a). Evaluating ratings on bidirectional scales. Educational and Psychological Measurement , 45 , 195–202.

Aiken, L. R. (1985b). Three coefficients for analyzing the reliability and validity of ratings. Educational and Psychological Measurement , 45 , 131–142.

Aiken, L. R. (1987). Formulars for equating ratings on different scales. Educational and Psychological Measurement , 47 , 51–54.

Aiken, L. R. (1996). Rating scales and checklists: Evaluating behavior, personality, and attitudes. Oxford: Wiley.

Aiken, L. R. (1997). Psychological testing and assessment. (9. Aufl.). Boston: Allyn & Bacon.

Alliger, G. M. & Williams, K. J. (1989). Confounding among measures of leniency and halo. Educational and Psychological Measurement , 49 , 1–10.

Anderson, C. A., Shibuya, A., Ihori, N., Swing, E. L., Bushman, B. J., Sakamoto, A., et al. (2010). Violent video game effects on aggression, empathy, and prosocial behavior in Eastern and Western countries: A meta-analytic review. Psychological Bulletin , 136 (2), 151–173.

Athey, T. R. & McIntyre, R. M. (1987). Effect of rater training on rater accuracy: Levels-of-processing theory and social facilitation theory perspectives. Journal of Applied Psychology , 72 (4), 567–572.

Attneave, F. (1949). A method of graded dichotomies for the scaling of judgments. Psychological Review , 56 (6), 334–340.

Ayalon, L., Goldfracht, M., & Bech, P. (2010). „Do you think you suffer from depression?“ Reevaluating the use of a single item question for the screening of depression in older primary care patients. International Journal of Geriatric Psychiatry , 25 (5), 497–502.

Bach, E. (1980). Ein chemischer Index zur Überwachung der Wasserqualität von Fließgewässern. (24. Aufl.). Frankfurt/Main: DGM.

Baer, L. & Blais, M. A. (Eds.). (2009). Handbook of clinical rating scales and assessment in psychiatry and mental health (current clinical psychiatry) . New York: Humana Press.

Baker, B. O., Hardyck, C. D., & Petrinovich, L. F. (1966). Weak measurement vs. strong statistics: An empirical critique of S. S. Stevens proscriptions of statistics. Educational and Psychological Measurement , 26 , 291–309.

Bannister, B. D., Kinicki, A. J., Denisi, A. S., & Horn, P. W. (1987). A new method for the statistical control of rating error in performance ratings. Educational and Psychological Measurement , 47 , 583–596.

Barr, M. A. & Raju, N. S. (2003). IRT-based assessments of rater effects in multiple-source feedback instruments. Organizational Research Methods , 6 (1), 15–43.

Bearden, W. O., Netemeyer, R. G., & Haws, K. L. (2011). Handbook of marketing scales: Multi-item measures for marketing and consumer behavior research (vol. 3). Los Angeles: Sage.

Beaton, A. E. & Allen, N. L. (1992). Interpreting scales through scale anchoring. Journal of Educational and Behavioral Statistics , 17 (2), 191–204.

Bergkvist, L. & Rossiter, J. R. (2007). The predictive validity of multiple-item vs. single-item measures of the same constructs. Journal of Marketing Research , 44 , 175–184.

Bernardin, H. J. (1977). Behavioral expectation scales vs. summated ratings: A fairer comparison. Journal of Applied Psychology , 62 , 422–427.

Bernardin, H. J. & Smith, P. C. (1981). A clarification of some issues regarding the development and use of behaviorally anchored ratings scales (BARS). Journal of Applied Psychology , 66 (4), 458–463.

Bernardin, H. J. & Walter, C. S. (1977). Effects of rater training and diary-helping on psychometric error in ratings. Journal of Applied Psychology , 62 , 64–69.

Bierhoff, H. W. (1996). Neue Erhebungsmethoden. In E. Erdfelder, R. Mausfeld & T. Meiser (Hrsg.), Handbuch Quantitative Methoden (S. 59–70). Weinheim: Beltz.

Bintig, A. (1980). The efficiency of various estimations of reliability of rating-scales. Educational and Psychological Measurement , 40 , 619–644.

Blunt, A. (1983). Development of a Thurstone scale for measuring attitudes toward adult education. Adult Education Quarterly , 34 (1), 16–28.

Böckenholt, U. (2001). Hierarchical modelling of paired comparison data. Psychological Methods , 6 , 49–66.

Böckenholt, U. (2004). Comparative judgements as an alternative to ratings: Identifying the scale origin. Psychological Methods , 9 , 453–465.

Bongers, D. & Rehm, G. (1973). Kontaktwunsch und Kontaktwirklichkeit von Bewohnern einer Siedlung. Unveröffentlichte Diplomarbeit. Universität Bonn.

Borg, I., Müller, M., & Staufenbiel, T. (1990). Ein empirischer Vergleich von fünf Standard-Verfahren zur eindimensionalen Skalierung. Archiv für Psychologie , 142 , 25–33.

Borman, W. C. (1975). Effects of instructions to avoid error on reliability and validity of performance evaluation ratings. Journal of Applied Psychology , 60 , 556–560.

Borman, W. C. (1986). Behavior-based rating scales. In R. A. Berk (Ed.), Performance Assessment: Methods and Applications. (pp. 100–120). Baltimore: Johns Hopkins University Press.

Bortz, J. & Lienert, G. A. (2008). Kurzgefaßte Statistik für die klinische Forschung. (3. Aufl.). Berlin: Springer.

Bortz, J., Lienert, G. A., & Boehnke, K. (2000). Verteilungsfreie Methoden in der Biostatistik. (2. Aufl.). Heidelberg: Springer.

Bortz, J., Lienert, G. A., & Boehnke, K. (2008). Verteilungsfreie Methoden in der Biostatistik. (3. Aufl.). Heidelberg: Springer.

Bortz, J. & Schuster, C. (2010). Statistik für Human- und Sozialwissenschaftler (Lehrbuch mit Online-Materialien). (7. Aufl.). Berlin: Springer.

Bradley, R. A. & Terry, M. E. (1952). The rank analysis of incomplete block designs. I: The method of paired comparison. Biometrika , 39 , 324–345.

Brandt, L. W. (1978). Measuring of a measurement: Empirical investigation of the semantic differential. Probleme und Ergebnisse der Psychologie , 66 , 71–74.

Breckler, S. J. (1994). A comparison of numerical indexes for measuring attitude ambivalence. Educational and Psychological Measurement , 54 (2), 350–365.

Bühner, M. (2011). Einführung in die Test- und Fragebogenkonstruktion (3., aktualisierte Aufl.). München: Pearson Studium.

Campbell, J. P., Dunnette, M. D., Arvey, R. D., & Hellervik, L. V. (1973). The development and evaluation of behaviorally based rating scales. Journal of Applied Psychology , 57 (1), 15–22.

Carbonell, L., Sendra, J. M., Bayarri, S., Izquierdo, L., & Tárrega, A. (2008). Thurstonian scales obtained by transformation of beta distributions. Food Quality and Preference , 19 (4), 407–411.

Chatterjee, B. B. & Puhan, B. N. (1980). A Thurstone scale for measuring attitude towards sex. Indian Psychological Review , 19 (3), 1–8.

Chignell, M. H. & Pattey, B. W. (1987). Unidimensional scaling with efficient ranking methods. Psychological Bulletin , 101 , 304–311.

Clark, J. A. (1977). A method of scaling with incomplete pair-comparison data. Educational and Psychological Measurement , 37 , 603–311.

Cogliser, C. C. & Schriesheim, C. A. (1994). Development and application of a new approach to testing the bipolarity of semantic differential. Educational and Psychological Measurement , 54 (3), 594.

Cohen, J. (1969). Statistical power analysis for the behavioral sciences . Hillsdale: Erlbaum.

Conrad, E. & Maul, T. (1981). Introduction to experimental psychology . New York: Wiley.

Coombs, C. H., Dawes, R. M., & Tversky, A. (1970). Mathematical psychology . Englewood Cliffs: Prentice Hall.

Couper, M. P., Tourangeau, R., Conrad, F. G., & Singer, E. (2006). Evaluating the effectiveness of visual analog scales. A web experiment. Social Science Computer Review , 24 (2), 227–245.

Crawshaw, L. (2009). Workplace bullying? Mobbing? Harassment? Distraction by a thousand definitions. Consulting Psychology Journal: Practice and Research , 61 (3), 263–267.

Cronkhite, G. (1976). Effects of rater-concept-scale interactions and use of different factoring procedures upon evaluative factor structure. Human Communication Research , 2 , 316–329.

Dalbert, C. (1992). Subjektives Wohlbefinden junger Erwachsener: Theoretische und empirische Analysen der Struktur und Stabilität. Zeitschrift für Differentielle und Diagnostische Psychologie , 13 , 207–220.

David, H. A. (1963). The method of paried comparison . London: Griffin.

Dawis, R. V. (1987). Scale construction. Journal of Counseling Psychology , 34 (4), 481–489.

De Cotiis, T. A. (1977). An analysis of the external validity and applied relevance of three rating formats. Organizational Behavior and Human Performance , 19 , 247–266.

De Cotiis, T. A. (1978). A critique and suggested revision of behaviorally anchored rating scales developmental procedures. Educational and Psychological Measurement , 38 , 681–690.

Diamantopoulos, A. (2005). The C-OAR-SE procedure for scale development in marketing: A comment. International Journal of Research in Marketing , 22 , 1–9.

Diamantopoulos, A. & Winklhofer, H. M. (2001). Index construction with formative indicators: an alternative to scale development. Journal of Marketing Research , 38 (269–277).

Diefenbacher, H. & Zieschank, R. (2008). Wohlfahrtsmessung in Deutschland. Ein Vorschlag für einen neuen Wohlfahrtsindex. Statusbericht zum Forschungsprojekt FKZ 3707 11 101/01. Zeitreihenrechnung zu Wohlfahrtsindikatoren. Abgerufen 22. Februar, 2012, unter http://www.beyond-gdp.eu/download/BMU_UBA_Endbericht_v20_endg.pdf .

Doll, J. (1988). Kognition und Präferenz: Die Bedeutung des Halo-Effektes für multiattributive Einstellungsmodelle. Zeitschrift für Sozialpsychologie , 19 , 41–52.

Döring, N. (2005). Für Evaluation und gegen Evaluitis. Warum und wie Lehrevaluation an deutschen Hochschulen verbessert werden sollte. In B. Berendt, H.-P. Voss, & J. Wildt (Hrsg.), Neues Handbuch Hochschullehre (S. 1–22). Berlin: Raabe.

Döring, N. (2013). Zur Operationalisierung von Geschlecht im Fragebogen: Probleme und Lösungsansätze aus Sicht von Mess-, Umfrage-, Gender- und Queer-Theorie. Gender , 2 , 94–113.

Dunn-Rankin, P., Knezek, G. A., Wallace, S., & Zhang, S. (2004). Scaling Methods . Mahwah: Erlbaum.

Edwards, A. L. & Kilpatrick, F. P. (1948). A technique for the construction of attitude scales. Journal of Applied Psychology , 32 , 374–384.

Eiser, J. R. & Ströbe, W. (1972). Categorisation and social judgement . New York: Academic Press.

EKD. (2013). Evangelische Kirche in Deutschland. Zahlen und Fakten zum kirchlichen Leben. Abgerufen 21. August, 2013, unter http://www.ekd.de/download/zahlen_und_fakten_2013.pdf .

Evans, R. H. (1980). The upgraded semantic differential: a further test. Journal of the Market Research Society , 22 (2), 143–147.

Ferguson, C. J. & Rueda, S. M. (2010). The Hitmann study: Violent video game exposure effects on aggressive behavior, hostile feelings, and depression. European Psychologist , 15 (2), 99–108.

Finn, A. & Kayande, U. (2005). How fine is C-OAR-SE? A generalizability theory perspective on Rossiter’s procedure. International Journal of Research in Marketing , 22 , 11–21.

Finstuen, K. (1977). Use of Osgood’s semantic differential. Psychological Reports , 41 , 1219–1222.

Flade, A. (1978). Die Beurteilung umweltpsychologischer Konzepte mit einem konzeptspezifischen und einem universellen semantischen Differential. Zeitschrift für experimentelle und angewandte Psychologie , 25 , 367–378.

Flynn, L. R. (1993). Do standard scales work in older samples? Marketing Letters , 4 (2), 127–137.

Frank, D. & Schlund, W. (2000). Eine neue Lösung des alten Skalenproblems. Planung und Analyse , 6 , 56 ff.

Friedman, B. A. & Cornelius III, E. T. (1976). Effect of rater participation on scale construction on the psychometric characteristics of two ratingscale formats. Journal of Applied Psychology , 61 , 210–216.

Friedman, H. H., Friedman, L. W., & Gluck, B. (1988). The effects of scale-checking styles on responses to a semantic differential scale. Journal of the Market Research Society , 30 (4), 477–481.

Gaito, J. (1980). Measurement scales and statistics. Resurgence of an old misconception. Psychological Bulletin , 87 , 564–567.

Galovski, T. E., Malta, L. S., & Blanchard, E. B. (2006). Road rage: Assessment and treatment of the angry, aggressive driver . Washington: American Psychological Association.

Gardner, D. G., Cummings, L. L., Dunham, R. B., & Pierce, J. L. (1998). Single-item vs. multiple-item measurement scales: An empirical comparison. Educational and Psychological Measurement , 58 , 898–915.

Garland, R. (1990). A comparison of three forms of the semantic differential. Marketing Bulletin , 1 , 19.

Garner, W. R. & Hake, H. W. (1951). The amount of information in absolute judgments. Psychological Review , 58 (6), 446–459.

Gescheider, G. A. (1988). Psychophysical scaling. Annual Revue of Psychology , 33 , 169–200.

Glaser, B. G. (2002). Conceptualization: On theory and theorizing using grounded theory. International Journal of Qualitative Methods , 1 (2), 3rd Article. Retrieved August 29, 2011, from http://www.ualberta.ca/~iiqm/backissues/1_2Final/pdf/glaser.pdf .

Gluth, S., Ebner, N. C., & Schmiedek, F. (2010). Attitudes toward younger and older adults: The German aging semantic differential. International Journal of Behavioral Development , 34 (2), 147–158.

Gonzales, E., Tan, J., & Morrow-Howell, N. (2010). Assessment of the refined Aging Semantic Differential: Recommendations for enhancing validity. Journal of Gerontological Social Work , 53 (4), 304–318.

Goodstadt, M. S. & Magid, S. (1977). When Thurstone and Likert agree: A confounding of methodologies. Educational and Psychological Measurement , 37 (4), 811–818.

Granberg-Rademacker, J. S. (2010). An algorithm for converting ordinal scale measurement data to interval/ratio scale. Educational and Psychological Measurement , 70 (1), 74–90.

Green, S. B., Sauser, W. I., Fagg, J. N., & Champion, C. H. (1981). Shortcut methods for deriving behaviorally anchored rating scales. Educational and Psychological Measurement , 41 (3), 761–775.

Greenberg, J. (1990). Organizational justice: Yesterday, today, and tomorrow. Journal of Management , 16 , 399–432.

Guilford, J. P. (1938). The computation of psychological values from judgements in absolute categories. Journal of Experimental Psychology , 22 (1), 32–42.

Guttman, L. (1950). The basis of scalogram analysis. In S. A. Stouffer, L. Guttman, E. A. Suchman, P. F. Lazarsfeld, S. A. Star, & J. A. Clausen (Eds.), Measurement and prediction. Studies in social psychology in World War II (vol. 4, pp. 60–90). Princeton: Princeton University Press.

Hand, D. J. (1996). Statistics and the theory of measurement. Journal of the Royal Statistical Society. Series A (Statistics in Society) , 159 (3), 445–492.

Hauenstein, N. M. A., Brown, R. D., & Sinclair, A. L. (2010). BARS and those mysterious, missing middle anchors. Journal of Business and Psychology , 25 (4), 663–672.

Helmholtz, H. (1887). Zur Geschichte des Princips der kleinsten Action . Berlin: Reichsdruckerei.

Helmholtz, H. (1959). Die Tatsachen in der Wahrnehmung. Zählen und Messen erkenntnistheoretisch betrachtet . Darmstadt: Wissenschaftliche Buchgesellschaft.

Henss, R. (1989). Zur Vergleichbarkeit von Ratingskalen unterschiedlicher Kategorienzahl. Psychologische Beiträge , 31 , 264–284.

Himmelfarb, S. (1993). The measurement of attitudes. In A. H. Eagly & S. Chaiken (Eds.), Psychology of attitudes (pp. 23–88). Belmont: Thomson/Wadsworth.

Hofacker, C. F. (1984). Categorical judgment scaling with ordinal assumptions. Multivariate Behavioral Research , 19 (1), 91–106.

Hofstätter, P. R. (1957). Psychologie . Frankfurt/Main: Fischer.

Hofstätter, P. R. (1963). Einführung in die Sozialpsychologie . Stuttgart: Kröner.

Hofstätter, P. R. (1977). Persönlichkeitsforschung . Stuttgart: Kröner.

Horowitz, L. M., Inouye, D., & Seigelmann, E. Y. (1979). On avaraging judges’ rating to increase their correlation with an external criterion. Journal of Consulting and Clinical Psychology , 47 , 453–458.

Hoyt, W. T. (2000). Rater bias in psychological research: When is it a problem and what can we do about it? Psychological Methods , 5 (1), 64–86.

Hoyt, W. T. (2002). Bias in participant ratings of psychotherapy process: An initial generalizability study. Journal of Counseling Psychology , 49 (1), 35–46.

Hoyt, W. T. & Kerns, M. D. (1999). Magnitude and moderators of bias in observer ratings: A meta-analysis. Psychological Methods , 4 , 403–424.

Hull, R. B. & Buhyoff, G. J. (1981). On the „Law of Comparative Judgement“: Scaling with intransitive observers and multidimensional stimuli. Educational and Psychological Measurement , 41 , 1083–1089.

Igou, E. R., Bless, H., & Schwarz, N. (2002). Making sense of standardized survey questions: The influence of reference periods and their repetition. Communication Monographs , 69 (2), 179–187.

Inglehart, R. (1977). The silent revolution: Changing values and political styles among western publics . Princeton: Princeton University Press.

Inglehart, R. (1997). Modernization and postmodernization: Cultural, economic and political change in 43 societies . Princeton: Princeton University Press.

Jäger, R. (1998). Konstruktion einer Ratingskala mit Smilies als symbolische Marken. Institut für Psychologie, Technische Universität Berlin.

Jäger, R. S. & Petermann, F. (1992). Psychologische Diagnostik. (2. Aufl.). Weinheim: Psychologie Verlags Union.

Johnson, D.–M. & Vidulich, R. N. (1956). Experimental Manipulation of the Halo-Effect. Journal of Applied Psychology , 40 , 130–134.

Jones, L. V. (1959). Some Invariant Findings under the Method of Successive Intervalls. American Journal of Psychology , 72 , 210–220.

Jones, L. V. & Thurstone, L. L. (1955). The psychophysics of semantics: An empirical investigation. Journal of Applied Psychology , 39 , 31–36.

Kahneman, D. & Tversky, A. (Eds.). (2000). Choices, values, and frames . Cambridge: Cambridge University Press.

Kane, R. B. (1971). Minimizing order effects in the semantic differential. Educational and Psychological Measurement , 31 (137–144).

Kane, J. S., Bernardin, H. J., Villanova, P., & Peyrefitte, J. (1995). Stability of rater leniency: Three studies. Academy of Management Journal , 1995 , 1036–1051.

Kaplan, K. J. (1972). On the ambivalence-indifference problem in attitude theory and measurement: A suggested modification of the semantic differential technique. Psychological Bulletin , 77 (5), 361–372.

Keller, J. & Wagner-Steh, K. (2005). A Guttman scale for empirical prediction of level of domestic violence. Journal of Forensic Psychology Practice , 5 (4), 37–48.

Kelley, H. H., Hovland, C. J., Schwartz, M., & Abelson, R. P. (1955). The influence of judges attitudes in three modes of attitude scaling. Journal of Social Psychology , 42 , 147–158.

Kendall, M. G. (1955). Further contributions to the theory of paired comparison. Biometrics , 11 , 43–62.

Kessler, J. (2009). Der Mythos vom globalen Dorf. Zur räumlichen Differenzierung von Globalisierungsprozessen. In J. Kessler & C. Steiner (Hrsg.), Facetten der Globalisierung: Zwischen Ökonomie, Politik und Kultur (S. 28–79). Wiesbaden: VS Verlag.

King, B. M., Rosopa, P. J., & Minium, E. W. (2010). Statistical Reasoning in the Behavioral Sciences (6. Aufl.). Hoboken: John Wiley & Sons.

Kingstrom, P. O. & Bass, A. R. (1981). A Critical Analysis of Studies Comparing Behaviorally Anchored Rating Scales (BARS) and Other Rating Formats. Personnel Psychology , 34 (2), 263–289.

Kinicki, A. J. & Bannister, B. D. (1988). A test of the measurement assumptions underlying behaviorally anchored rating scales. Educational and Psychological Measurement , 48 (1), 17–27.

Kinicki, A. J., Bannister, B. D., Hom, P. W., & Denisi, A. S. (1985). Behaviorally anchored rating scales vs. summated rating scales: Psychometric properties and susceptibility to rating bias. Educational & Psychological Measurement , 45 (3), 535–549.

Klauer, K. C. (1989). Untersuchungen zur Robustheit von Zuschreibungs-mal-Bewertungsmodellen: Die Bedeutung von Halo-Effekten und Dominanz. Zeitschrift für Sozialpsychologie , 20 , 14–26.

Klauer, K. C. & Schmeling, A. (1990). Sind Halo-Fehler Flüchtigkeitsfehler? Zeitschrift für experimentelle und angewandte Psychologie , 37 , 594–607.

Knezek, G., Wallace, S., & Dunn–Rankin, P. (1998). Accuracy of Kendall’s chi-square. Approximation to circular triad distributions. Psychometrica , 63 , 23–34.

Korman, A. K. (1971). Industrial and organizational psychology . Englewood Cliffs: Prentice Hall.

Krabbe, P. F. M. (2008). Thurstone scaling as a measurement method to quantify subjective health outcomes. Medical Care , 46 (4), 357–365.

Krantz, D. H., Luce, R. D., Suppes, P., & Tversky, A. (2006a). Foundations of measurement volume II: Geometrical, threshold, and probabilistic representations . Mineola: Dover Publications.

Krantz, D. H., Luce, R. D., Suppes, P., & Tversky, A. (2006b). Foundations of measurements volume I: Additive and polynomial representations . Mineola: Dover Publications.

Krebs, D. & Hoffmeyer–Zlotnik, J. H. P. (2009). Bipolar vs. unipolar scale format in fully vs. endpoint verbalized scale . Paper presented at the Cognition in Survey Research, 3rd Conference of the European Survey Research Association. Warschau, 29th June – 3rd July, 2009.

Kromrey, H. (2000a). Empirische Sozialforschung: Modelle und Methoden der standardisierten Datenerhebung und Datenausweitung: Modelle und Methoden der Datenerhebung und Datenauswertung (12. Aufl.). Stuttgart: UTB.

Kromrey, H. (2000b). Qualität und Evaluation im System Hochschule. In R. Stockmann (Hrsg.), Evaluationsforschung (S. 233–258). Opladen: Leske & Budrich.

Krosnick, J. A. & Fabrigar, L. R. (2006). Designing great questionnaires: Insights from psychology . New York: Oxford University Press.

Latham, G. P., Wexley, K. N., & Pursell, E. D. (1975). Training managers to minimize rating error in the observation of behavior. Journal of Applied Psychology , 60 , 550–555.

Lei, M. & Lomax, R. G. (2005). The effect of varying degrees of nonnormality in structural equation modeling. Structural Equation Modeling , 12 (1), 1–27.

Leonhart, R. (2009). Lehrbuch Statistik. Einstieg und Vertiefung (2. Aufl.). Bern: Huber.

Li, F., Wang, E., & Zhang, F. (2002). The multitrait-multirater approach to analyzing rating biases. Acta Psychologica Sinica , 34 (1), 89–96.

Likert, R. (1932). A technique for the measurement of attitudes. Archives of Psychology , 140 , 1–55.

Lindemann, D. F. & Brigham, T. A. (2003). A Guttman scale for assessing condom use skills among college students. AIDS and Behavior , 7 (1), 23–27.

Lissitz, R. W. & Green, S. B. (1975). Effect of number of scale points on reliability: A Monte Carlo approach. Journal of Applied Psychology , 60 , 10–13.

Lohaus, D. (1997). Reihenfolgeeffekte in der Eindrucksbildung. Eine differenzierte Untersuchung verschiedener Meßzeiträume. Zeitschrift für Sozialpsychologie , 28 , 298–308.

Lord, F. M. (1953). On the statistical treatmen of football numbers. American Psychologist , 8 , 750–751.

Lozano, L. M., García–Cueto, E., & Muñiz, J. (2008). Effect of the number of response categories on the reliability and validity of rating scales. Methodology: European Journal of Research Methods for the Behavioral and Social Science , 4 (2), 73–79.

Luce, R. D. (1959). Individual choice behavior . New York: Wiley.

Lütters, H. (2008). Serious fun in market research: The sniper scale. Marketing Review St. Gallen , 25 (6), 17–22.

Maier, J., Maier, M., Maurer, M., Reinemann, C., & Meyer, V. (Eds.). (2009). Real-time response measurement in the social sciences: Methodological perspectives and applications . Frankfurt/Main: Lang.

Maier, J., Maurer, M., Reinemann, C., & Faas, T. (2006). Reliability and validity of real-time response measurement: A comparison of two studies of a televised debate in Germany. International Journal of Public Opinion Research , 19 (1), 53–73.

Mann, I. T., Phillips, J. L., & Thompson, E. G. (1979). An examination of methodological issues relevant to the use and interpretation of the semantic differential. Applied Psychological Measurement , 3 (2), 213–229.

Marcus, B. & Schuler, H. (2001). Leistungsbeurteilung. In H. Schuler (Hrsg.), Lehrbuch der Personalpsychologie (S. 397–433). Stuttgart: Schäffer-Poeschel.

Mari, L. (2005). The problem of foundations of measurement. Measurement , 38 (4), 259–266.

Matell, M. S. & Jacoby, J. (1971). Is there an optimal number for Likert scale items? Study I: Reliability and validity. Educational and Psychological Measurement , 31 , 657–674.

Maxwell, S. E. & Delaney, H. D. (1993). Bivariate median splits and spurious statistical significance. Psychological Bulletin , 113 (1), 181–190.

McCarty, J. A. & Shrum, L. J. (2000). The measurement of personal values in survey research. A test of alternative rating procedures. Public Opinion Quarterly , 64 , 271–298.

McCormack, B., Boldy, D., Lewin, G., & McCormack, G. R. (2011). Screening for depression among older adults referred to home care services: A single-item depression screener vs. the geriatric depression scale. Home Health Care Management and Practice , 23 (1), 13–19.

McCormack, H. M., Horne, D. J., & Sheather, S. (1988). Clinical applications of visual analogue scales: a critical review. Psychological Medicine , 18 , 1007–1019.

Michell, J. (1986). Measurement scales and statistics. A clash of paradigms. Psychological Bulletin, 100. 398–407.

Michell, J. (2005). The logic of measurement: A realistic overview. Measurement , 38 (4), 285–294.

Mosier, C. J. (1941). A psychometric study of meaning. Journal of Social Psychology , 13 , 123–140.

Mount, M. K., Sytsma, M. R., Hazucha, J. F., & Holt, K. E. (1997). Rater-ratee race effects in developmental performance rating of managers. Personnel Psychology , 50 (1), 51–69.

Murakami, T. & Kroonenberg, P. M. (2003). Three-mode models and individual differences in semantic differential data. Multivariate Behavioral Research , 38 (2), 247–283.

Myford, C. M. & Wolfe, E. W. (2003). Detecting and measuring rater effects using many-facet Rasch measurement: Part I. Journal of Applied Measurement , 4 (4), 386–422.

Myford, C. M. & Wolfe, E. W. (2004). Detecting and measuring rater effects using many-facet Rasch measurement: Part II. Journal of Applied Measurement , 5 (2), 189–227.

Nagy, M. S. (2002). Using a single-item approach to measure facet job satisfaction. Journal of Occupational and Organizational Psychology , 75 , 77–86.

Neumann, W. L. (2003). Social research methods. Qualitative and quantitative approaches (5th edn.). Bosten: Pearson.

Newcomb, T. (1931). An experimant designed to test the validity of a rating technique. Journal of Educational Psychology , 22 (4), 279–289.

Newstead, S. E. & Arnold, J. (1989). The effect of response format on ratings of teaching. Educational and Psychological Measurement , 49 (1), 33–43.

Niederée, R. & Mausfeld, R. (1996a). Das Bedeutsamkeitsproblem in der Statistik. In E. Erdfelder, R. Mausfeld, & T. Meiser (Hrsg.), Handbuch Quantitative Methoden (S. 399–410). Weinheim: Psychologie Verlags Union.

Niederée, R. & Mausfeld, R. (1996b). Skalenniveau, Invarianz und „Bedeutsamkeit“. In E. Erdfelder, R. Mausfeld, & T. Meiser (Hrsg.), Handbuch Quantitative Methoden (S. 385–398). Weinheim: Psychologie Verlags Union.

Noll, H.-H. (2002). Globale Wohlfahrtsmaße als Instrumente der Wohlfahrtsmessung und Sozialberichterstattung: Funktionen, Ansätze und Probleme. In W. Glatzer, R. Habich, & K. U. Mayer (Hrsg.), Sozialer Wandel und Gesellschaftliche Dauerbeobachtung. Festschrift für Wolfgang Zapf (S. 317–336). Opladen: Leske & Budrich.

North, K. & Reinhardt, K. (2011). Kompetenzmanagement in der Praxis: Mitarbeiterkompetenzen systematisch identifizieren, nutzen und entwickeln (2. Aufl.). Wiesbaden: Gabler.

Ofir, C., Reddy, S. K., & Bechtel, G. G. (1987). Are semantic response scales equivalent? Multivariate Behavioral Research , 22 (1), 21.

Orpinas, P. & Horne, A. M. (2006). Bullies and victims: A challenge for schools. In J. R. Lutzker (Ed.), Preventing violence: Research and evidence-based intervention strategies (pp. 147–165). Washington: American Psychological Association.

Orth, B. (1983). Grundlagen des Messens. In H. Feger & J. Bredenkamp (Hrsg.), Enzyklopädie der Psychologie: Themenbereich B, Serie I Forschungsmethoden der Psychologie, Bd. 3: Messen und Testen (S. 136–180). Göttingen: Hogrefe.

Osgood, C. E., Suci, G. J., & Tannenbaum, D. H. (1957). The measurement of meaning . Urbana: University of Illinois Press.

Parducci, A. (1963). Range-frequency compromise in judgement. Psychological Monographs , 77 (2), 1–29.

Parducci, A. (1965). Category-judgement: a range-frequency model. Psychological Review , 72 , 407–418.

Pepels, W. (2007). Market Intelligence: Moderne Marktforschung für Praktiker: Auswahlverfahren, Datenerhebung, Datenauswertung, Praxisanwendung, Marktprognose. Düsseldorf: Publics Publishing.

Perloff, J. M. & Persons, J. B. (1988). Biases resulting from the use of indexes: An application to attributional style and depression. Psychological Bulletin , 103 (1), 95–104.

Peterson, R. A. (1999). Constructing effective questionnaires. Thousand Oaks: Sage.

Potosky, D. & Bobko, P. (1998). The Computer Understanding and Experience Scale: A Self-report measure of computer experience. Computers in Human Behavior , 14 (2), 337–348.

Preston, C. C. & Colman, A. M. (2000). Optimal number of response categories in rating scales: reliability, validity, discriminating power, and respondent preferences. Acta Psychologica , 104 (1), 1–15.

Rambo, W. W. (1963). The distribution of successive interval judgements of attitude statements: A note. Journal of Social Psychology , 60 , 251–254.

Ramírez, J. M. & Andreu, J. M. (2009). The main sympthoms of the AHA-syndrome: Relationships between anger, hostility and agression on a normal population. In S. Bhave & S. Saini (Eds.), The AHA-syndrome and cardiovascular diseases 2009 (pp. 16–29). New Delhi: Anamaya.

Rasmussen, J. L. (1989). Analysis of Likert-scale data: A reinterpretation of Gregoire and Driver. Psychological Bulletin , 105 (1), 167–170.

Reinemann, C., Maier, J., Faas, T., & Maurer, M. (2005). Reliabilität und Validität von RTR-Messungen. Ein Vergleich zweier Studien zur zweiten Fernsehdebatte im Bundestagswahlkampf 2002. Publizistik , 20 , 56–73.

Reiss, I. L. (1964). The scaling of premarital sexual permissiveness. Marriage Family , 26 , 188–198.

Roberts, J. S., Laughlin, J. E., & Wedell, D. H. (1999). Validity issues in the Likert and Thurstone approaches to attitude measurement. Educational & Psychological Measurement , 59 , 211–233.

Robins, R. W., Hendin, H. M., & Trzesniewski, K. H. (2001). Measuring global self-esteem: Construct validation of a single-item measure and the Rosenberg Self-Esteem Scale. Personality and Social Psychology Bulletin , 27 (2), 151–161.

Rohrmann, B. (1978). Empirische Studie zur Entwicklung von Antwortskalen für die sozialwissenschaftliche Forschung. Zeitschrift für Sozialpsychologie , 9 , 222–245.

Rohrmann, B. (2007). Verbal qualifiers for rating scales: Sociolinguistic considerations and psychometric data. Project Report. Retrieved 22.02.2012, from http://www.rohrmannresearch.net/pdfs/rohrmann-vqs-report.pdf

Rohwer, G. & Pötter, U. (2002). Methoden sozialwissenschaftlicher Datenkonstruktion . Weinheim: Juventa.

Roskam, E. E. (1996). Latent-trait Modelle. In E. Erdfelder, R. Mausfeld, & T. Meiser (Hrsg.), Handbuch Quantitative Methoden (S. 431–458). Weinheim: Psychologie Verlags Union.

Rossiter, J. R. (2002). The C-OAR-SE procedure for scale development in marketing. International Journal of Research in Marketing , 19 , 305–335.

Rossiter, J. R. (2010). Measurement for the social sciences: The C-OAR-SE method and why it must replace psychometrics. New York: Springer.

Rössler, P. (2011). Skalenhandbuch Kommunikationswissenschaft. Wiesbaden: VS Verlag.

Rost, J. (2004). Lehrbuch Testtheorie Testkonstruktion. (2. Aufl.). Bern: Huber.

Rozeboom, W. W. & Jones, L. V. (1956). The validity of the successive intervals method of psychometric scaling. Psychometrika , 21 , 165–183.

Saal, F. E., Downey, R. G., & Lahey, M. A. (1980). Rating the ratings: Assessing the psychometric quality of rating data. Psychological Bulletin , 88 (2), 413–428.

Saal, F. E. & Landy, F. J. (1977). The Mixed Standard Rating Scale: An evaluation. Organizational Behavior and Human Performance , 18 , 19–35.

Sackett, P. R. & DuBois, C. L. (1991). Rater-ratee race effects on performance evaluation: Challenging meta-analytic conclusions. Journal of Applied Psychology , 76 (6), 873–877.

Saito, T. (1994). Psychological scaling of the asymmetry observed in comparative judgement. British Journal of Mathematical and Statistical Psychology , 47 (1), 41–62.

Scheuch, E. K. (1961). Sozialprestige und soziale Schichtung. In D. W. Glass & R. König (Hrsg.), Soziale Schichtung und soziale Mobilität. Sonderheft 5 der „Kölner Zeitschrift für Soziologie und Sozialpsychologie“ (S. 65–103). Opladen: Westdeutscher Verlag.

Scheuring, B. (1991). Primacy-Effekte, ein Ermündungseffekt? Neue Aspekte eines alten Phänomens. Zeitschrift für Sozialpsychologie , 22 , 270–274.

Schmeisser, D. R., Bente, G., & Isenbart, J. (2004). Am Puls des Geschehens. Die integrierte Rezeptionsprozessanalyse. Zum Mehrwert rezeptionsbegleitender Untersuchungsmethoden in der Werbewirkungsforschung. Planung und Analyse , 2004 (1), 28–34.

Schneider, F. M., Erben, J., Altzschner, R.-S., Kockler, T., Petzold, S., & Satzl, I. (2011). Die Übungssequenz macht den Meister.…Eine experimentelle Studie zu Kontext-Effekten von Übungsstimuli bei Real-Time Response Messungen. In M. Suckfüll, H. Schramm, & C. Wünsch (Hrsg.), Rezeption und Wirkung in zeitlicher Perspektive (S. 253–270). Baden-Baden: Nomos.

Schnell, R., Hill, P. B., & Esser, E. (1999). Methoden der empirischen Sozialforschung . München: Oldenbourg.

Schnell, R., Hill, P. B., & Esser, E. (2008). Methoden der empirischen Sozialforschung (8. Aufl.). München: Oldenbourg.

Schulenberg, S. E. & Melton, A. M. (2007). Confirmatory factor analysis of the Computer Understanding and Experience Scale. Psychological Reports , 100 (3), 1263–1269.

Schwab, D. P., Heneman, H. G., & DeCotiis, T. A. (1975). Behaviorally anchored rating scales. A review of the literature. Personnel Psychology , 28 (4), 549–562.

Schwarz, N. (2008). Self-Reports: How the questions shape the answers. In R. H. Fazio & R. E. Petty (Eds.), Attitudes: Their structure, function, and consequences (pp. 49–67). New York: Psychology Press.

Schwarz, N., Knäuper, B., Hippler, H.-P., Noelle-Neumann, E., & Clark, L. (1991). Rating scales: Numeric values may change the meaing of scale labels. Public Opinion Quarterly , 55 , 570–582.

Schwarz, N. & Oyserman, D. (2001). Asking Questions About Behavior: Cognition, Communication, and Questionnaire Construction. American Journal of Evaluation , 22 (2), 127–160.

Schwarz, N., Wänke, M., Sedlmeier, P., & Betsch, T. (2002). Experiential and contextual heuristics in frequency judgement: Ease of recall and response scales. In P. Sedlmeier & T. Betsch (Eds.), Etc.: Frequency processing and cognition (pp. 89–108). New York: Oxford University Press.

Shapira, Z. & Shirom, A. (1980). New Issues in the use of behaviorally anchored rating scales: Level of analysis, the effects of incident frequency, and external validation. Journal of Applied Psychology , 65 (5), 517–523.

Sherif, M. & Hovland, C. I. (1961). Social judgement. Assimilation and contrast effects in communication and attitude change. New Haven: Yale University Press.

Shore, T. H. & Tashchian, A. (2003). Effects of sex on raters’ accountability. Psychological Reports , 92 (2), 693–702.

Sixtl, F. (1967). Meßmethoden der Psychologie . Weinheim: Beltz.

Smith, P. C. & Kendall, L. M. (1963). Retranslation of expectations: An approach to unambiguous anchors for rating scales. Journal of Applied Psychology , 47 , 149–155.

Statistisches Bundesamt. (2011). Haushaltsbefragung auf Stichprobenbasis zum Zensus 2011. Abgerufen 17. Juni, 2013, unter https://cdn.zensus2011.de/live/uploads/tx_templavoila/Fragebogen_Haushaltebefragung_20101007a.pdf .

Stevens, S. S. (1946). On the theory of scales of measurement. Science , 103 (2684), 677–680.

Stevens, S. S. (1951). Mathematics, measurement and psychophysics. In S. S. Stevens (Ed.), Handbook of Experimental Psychology (pp. 1–49). New York: Wiley.

Steyer, R. & Eid, M. (1993). Messen und Testen . Heidelberg: Springer.

Stine, W. W. (1989). Meaningful inference: The role of measurement in statistics. Psychological Bulletin , 105 (1), 147–155.

Strack, F., Schwarz, N., Ash, M. G., & Sturm, T. (2007). Asking questions: Measurement in the social sciences. In M. G. Ash & T.Sturm. (Eds.) Psychology’s territories: Historical and contemporary perspectives from different disciplines (pp. 225–250). Mahwah: Lawrence Erlbaum Associates.

Strahan, R. F. (1980). More on averaging judges’ ratings: Determining the most reliable composite. Journal of Consulting and Clinical Psychology , 48 , 587–589.

Subkoviak, M. J. (1974). Remarks on the method of paired comparisons: The effect on non-normality in Thurstone’s Comparative Judgement Model. Educational & Psychological Measurement , 34 , 829–834.

Suppes, P., Krantz, D. H., Luce, R. D., & Tversky, A. (2006). Foundations of measurement volume III: Representation, axiomatization, and invariance . Mineola: Dover Publications.

Taylor, J. B., Haefele, E., Thompson, P., & O’Donoghue, C. (1970). Rating scales as measures of clinical judgement II: The reliability of example-anchored scales und conditions of rater heterogeneity and divergent behavior sampling. Educational and Psychological Measurement , 30 (2), 301–310.

Thomas, A., Palmer, J. K., & Feldman, J. M. (2009). Examination and measurement of halo via curvilinear regression: A new approach to halo. Journal of Applied Social Psychology , 39 (2), 350–358.

Thorndike, E. L. (1920). A constant error in psychological ratings. Journal of Applied Psychology , 4 , 469–477.

Thurstone, L. L. (1927). A „Law of Comparative Judgement“. Psychological Review , 34 , 273–286.

Thurstone, L. L. & Chave, E. J. (1929). The measurement of attitudes . Chicago: University of Chicago Press.

Torgerson, W. S. (1958). Theory and methods of scaling . New York: Wiley.

Trommsdorff, V. (1975). Die Messung von Produktimages für das Marketing. Grundlagen und Operationalisierung . Köln: Heymanns.

Tziner, A., Joanis, C., & Murphy, K. R. (2000). A comparison of three methods of performance appraisal with regard to goal properties, goal perception, and ratee satisfaction. Group and Organization Management , 25 (2), 175–190.

Upmeyer, A. (1985). Soziale Urteilsbildung. Stuttgart: Kohlhammer.

Upshaw, H. S. (1962). Own attitude as an anchor in equal appearing intervals. Journal of Abnormal and Social Psychology , 64 , 85–96.

Van der Ven, A. (1980). Einführung in die Skalierung. Bern: Huber.

Wade Savage, C. & Ehrlich, P. (Eds.). (1991). Philosophical and foundational issues in measurement theory . Hillsdale: Erlbaum.

Waldman, D. A. & Avolio, B. J. (1991). Race effects in performance evaluations: Controlling for ability, education, and experience. Journal of Applied Psychology , 76 (6), 897–901.

Wänke, M. & Fiedler, K. (2007). What is said and what is meant: Conversational implicatures in natural conversations, research settings, media, and advertising. Social Communication (pp. 223–255). New York: Psychology Press.

Wanous, J. P. & Hudy, M. J. (2001). Single-item reliability: A replication and extension. Organizational Research Methods , 4 (4), 361–375.

Wanous, J. P., Reichers, A. E., & Hudy, M. J. (1997). Overall job satisfaction: How good are single-item measures? Journal of Applied Psychology , 82 (2), 247–252.

Waxweiler, R. (1980). Psychotherapie im Strafvollzug. Eine empirische Erfolgsuntersuchung am Beispiel der sozialtherapeutischen Abteilung in einer Justizvollzugsanstalt . Basel: Beltz.

Wessels, M. G. (1994). Kognitive Psychologie (3. Aufl.). München: Reinhardt.

West, C. P., Dyrbye, L. N., Sloan, J. A., & Shanafelt, T. D. (2009). Single item measures of emotional exhaustion and depersonalization aure useful for assessing burnout in medical professionals. Journal of General Internal Medicine , 24 (12), 1318–1321.

Westermann, R. (1985). Empirical tests of scale type for individual ratings. Applied Psychological Measurement , 9 , 265–274.

Wewers, M. E. & Lowe, N. K. (1990). A critical review of visual analogue scales in the measurement of clinical phenomena. Research in Nursing & Health , 13 (4), 227–236.

Wirtz, M. A. & Caspar, F. (2002). Beurteilerübereinstimmung und Beurteilerreliabilität. Methoden zur Bestimmung und Verbesserung der Zuverlässigkeit von Einschätzungen mittels Kategoriensystemen und Ratingskalen . Göttingen: Hogrefe.

Wolfe, E. W. (2004). Identifying rater effects using latent trait models. Psychology Science , 46 (1), 35–51.

Young, R. K. & Thiessen, D. D. (1991). Washing, drying, and anointing in adult humans (Homo sapiens): Commonalities with grooming sequences in rodents. Journal of Comparative Psychology , 105 (4), 340–344.

Yu, J. H., Albaum, G., & Swenson, M. (2003). Is a central tendency error inherent in the use of semantic differential scales in different cultures? International Journal of Market Research , 45 (2), 213–228.

Zakour, M. J. (1994). Measuring career-development volunteerism: Guttman scale analysis using red cross volunteers. Journal of Social Service Research , 19 (3–4), 103–120.

Zhikun, D. & Fungfai, N. (2008). A new way of developing semantic differential scales with personal construct theory. Construction Management & Economics , 26 (11), 1213–1226.

Zumbo, B. D. & Zimmerman, D. W. (1993). Is the selection of statistical methods governed by level of measurement? Canadian Psychology/Psychologie Canadienne , 34 (4), 390–400.

Download references

Author information

Authors and affiliations.

Institut für Medien und Kommunikationswissenschaft, Technische Universität Ilmenau, Ehrenbergstraße 29, 98693, Ilmenau, Thüringen, Deutschland

Nicola Döring

(1943─2007), Berlin, Berlin, Deutschland

Jürgen Bortz

You can also search for this author in PubMed   Google Scholar

Rights and permissions

Reprints and permissions

Copyright information

© 2016 Springer-Verlag Berlin Heidelberg

About this chapter

Döring, N., Bortz, J. (2016). Operationalisierung. In: Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Springer-Lehrbuch. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-41089-5_8

Download citation

DOI : https://doi.org/10.1007/978-3-642-41089-5_8

Published : 24 October 2015

Publisher Name : Springer, Berlin, Heidelberg

Print ISBN : 978-3-642-41088-8

Online ISBN : 978-3-642-41089-5

eBook Packages : Psychology (German Language)

Share this chapter

Anyone you share the following link with will be able to read this content:

Sorry, a shareable link is not currently available for this article.

Provided by the Springer Nature SharedIt content-sharing initiative

  • Publish with us

Policies and ethics

  • Find a journal
  • Track your research

COMMENTS

  1. PDF Leitfaden für qualitativ-empirische

    %PDF-1.7 %µµµµ 1 0 obj >/Metadata 520 0 R/ViewerPreferences 521 0 R>> endobj 2 0 obj > endobj 3 0 obj >/ExtGState >/Font >/ProcSet[/PDF/Text/ImageB/ImageC/ImageI ...

  2. Qualitative Forschung für die wissenschaftliche Arbeit ...

    Qualitative Forschung für die wissenschaftliche Arbeit ...

  3. Qualitative research methods in medical dissertations: an observational

    Since 1998, the number of dissertations applying qualitative methods has continually increased while the total number of dissertations remained stable (between n = 314 in 2006 and n = 410 in 1999 and 2008, M (1998-2018) = 362.8, SD = 26.1) (Fig. 1). Before 2005 there was yearly not more than one dissertation that used qualitative methods.

  4. Tips for a qualitative dissertation

    Undertaking an MSc dissertation in Evidence-Based Health Care (EBHC) may be your first hands-on experience of doing qualitative research. I chatted to Dr. Veronika Williams, an experienced qualitative researcher, and tutor on the EBHC programme, to find out her top tips for producing a high-quality qualitative EBHC thesis.

  5. PDF Audit trail for qualitative analysis

    outlining the theoretical framework underlying this study and the steps in the qualitative content analysis. A section of reflexivity is also included as recommended in the Consolidated criteria for reporting qualitative research (COREQ). 1. At the end of the document, there is an extended version of the qualitative results. Theoretical framework

  6. Qualitative Forschung: Zur Einführung in einen prosperierenden

    Historical Social Research, Vol. 30 — 2005 — No. 1, 5-27. Qualitative Forschung: Zur Einführung in eine n prosperierenden. Wissenschaftszweig. Katja Mruck & Günter Mey ∗. Abstract: Given ...

  7. The qualitative dissertation : a guide for students and faculty

    Publisher's summary. Written primarily for doctoral students in education and related fields, the purpose of this book is to assist practitioner-scholars in crafting and conducting a qualitative dissertation by using practical issues to help them understand what it means to do a dissertation and what it means to do qualitative research.

  8. PDF 5. Qualitative Forschungsprinzipien der Grounded Theory

    Bei der methodischen Konzeption der Dissertation wurde dem Rat gefolgt, gerade bei einem „bislang wenig erforschten Wirklichkeitsbereich" (Flick, von Kardorff & Steinke 2007: 25) qualitative Methoden einzusetzen, um eine Gegenstandsnähe zu erhalten. Der Forschungsbereich exzessive Computernutzung stellt einen wenig erforschten, kleinen

  9. Qualitative Forschung

    Verena Gebhart, Susanne Perkhofer & Gerhard Tucek Im Zentrum der qualitativen Forschung steht die Untersuchung des menschlichen Erlebens. Ihr Anspruch ist es, lebensweltliche Erfahrungen aus der Perspektive der Betroffenen zu verstehen, um daraus auf allgemeine Abläufe, Deutungsmuster und Strukturmerkmale zu schließen (Flick 2008).Eine qualitative Untersuchung zu einer chronischen Erkrankung ...

  10. Qualitative Sozialforschung

    About this book. This introduction to the methodology and methods of qualitative social research concisely explains theoretical models, research logic, and practical procedures for obtaining, interpreting and analyzing qualitative data in social science research. The second edition has been expanded to include discussion of quality criteria and ...

  11. Operationalisierung

    Zusammenfassung. Dieses Kapitel vermittelt folgende Lernziele: Die unterschiedlichen Vorgehensweisen bei der Bildung theoretischer Konzepte in der qualitativen Forschung und der Operationalisierung theoretischer Konzepte in der quantitativen Forschung kennen. Wissen, was man unter der Konzeptspezifikation versteht und wie man dabei vorgeht.

  12. Qualitative Sozialforschung

    This book explains the basics and practice of qualitative research, from the first conceptualization and issues of collection, sampling, and analysis, to the presentation of results. This volume presents the features and commonalities of specific techniques as well as the relationship between qualitative and quantitative research. The fifth edition includes a new chapter on data archivization ...

  13. (PDF) Sample Size and Saturation in PhD Studies Using Qualitative

    Using Qualitative Interviews. Mark Mason. Abstract: A number of issues can affect sample size in qualitative research; however, the guiding. principle should be the con cept of saturation. This ...

  14. Big enough? Sampling in qualitative inquiry

    Any senior researcher, or seasoned mentor, has a practiced response to the 'how many' question. Mine tends to start with a reminder about the different philosophical assumptions undergirding qualitative and quantitative research projects (Staller, 2013). As Abrams (2010) points out, this difference leads to "major differences in sampling ...

  15. PDF A Sample Qualitative Dissertation Proposal

    A Sample Qualitative Dissertation Proposal Prepared by ...

  16. A Qualitative Case Study of Students Perceptions of Their Experiences

    A QUALITATIVE CASE STUDY OF STUDENTS ...

  17. Gütekriterien qualitativer Sozialforschung. Ein Diskussionsanstoß

    Zusammenfassung Der Beitrag expliziert Gütekriterien der qualitativen Sozialforschung. Er geht von der Prämisse aus, dass Qualitätsmerkmale in diesem Segment empirischer Sozialforschung nur unter konsequentem Rekurs auf die spezifischen Funktionsbedingungen interpretativer und rekonstruktiver Verfahren zu bestimmen sind. Fünf Kriterien werden vorgeschlagen: Gegenstandsangemessen ist eine ...

  18. Forschungsdesign und -methoden: Qualitative Fallstudie

    Das gewählte Forschungsdesign bezieht sich auf den Untersuchungsgegenstand der gesellschaftlichen Auseinandersetzungen im Kontext der Umsetzung der EU-Richtlinie 2009/31/EG zu CCS. Download chapter PDF. Die Untersuchung ist eine qualitative Fallstudie und orientiert sich an einem mehrteiligen Vorgehen und einer inhaltsanalytischen Auswertung.

  19. Qualitative Forschung für die wissenschaftliche Arbeit ...

    Zu den qualitativen Forschungsmethoden gehören: das Experteninterview, die qualitative Inhaltsanalyse, die Fallstudie, die Gruppendiskussion, die Nutzwertanalyse. Im Gegensatz zu der qualitativen Forschung steht der quantitative Forschungsansatz, in dem es darum geht, möglichst viele Informationen zu sammeln, die statistisch ausgewertet werden.

  20. Empirisch begründete Typenbildung in der qualitativen Sozialforschung

    In der qualitativen Sozialforschung finden sich nur wenige Ansätze, in denen der Prozeß der Typenbildung detailliert expliziert und systematisiert wird; außerdem werden sehr unterschiedliche Typenbegriffe (wie z.B. Idealtypen, Realtypen, Prototypen, Extremtypen, Strukturtypen etc.) verwendet. Da der Typusbegriff für die qualitative ...

  21. Die Interviewstudie: Grundlegende methodische Überlegungen und

    Qualitative Forschung zeichnet sich des Weiteren durch ihre Flexibilität aus, wobei „[…] der Forscher […] neue Punkte zur Beobachtung im Verlauf der Untersuchung dazu nimmt und sich in neue Richtungen bewegt, an die vorher nicht gedacht wurde" (Lamnek/Krell 2016, 37). Da Lehrervorstellungen zu ökonomischen Modellen bisher noch nicht ...

  22. Promoting higher education students' self-regulated learning through

    Promoting students to become autonomous, self-regulated learners is a fundamental goal of education (Lodge et al., 2019; Puustinen & Pulkkinen, 2001).The importance of doing so is particularly highlighted in higher education (HE) contexts that strive to prepare its students for highly demanding and autonomous expert tasks (Virtanen, 2019).In order to perform successfully in diverse educational ...

  23. PDF Soziologie und qualitative Sozialforschung

    Soziologie und qualitative Sozialforschung. ualitative Sozialforschung*1 VorbemerkungNoch bis vor kurzem galt qualitative Sozialforschung. als Randphänomen im For-schungsgeschehen. Arbeiten, die sich qualitativer Verfahren bedienten, waren sel-ten; und Texte zur Methode sozialwissenschaftlicher Forschung behandelten q.

  24. PDF Operationalisierung

    Forschung Jede Forschungsfrage oder Forschungshypothese ent-hält theoretische Konzepte, Konstrukte bzw. Begriffe („theoretical construct", „theoretical concept"), die im Rahmen empirischer Forschung mit der beobachtbaren Erfahrungswirklichkeit verknüpft werden müssen. Dabei geht man in der qualitativen Forschung induktiv, in der