Fachlexikon

Auf dieser Seite finden Sie Begriffserklärungen und Hilfestellungen zu methodischen Themen rund um die Erstellung, Durchführung und Auswertung von Befragungen.

Alle Sektionen aufklappen

0-9

Das 360° Feedback ist eine Methode des Feedbacks, die sich vom klassischen Ansatz des Leistungsfeedbacks nur in der Richtung vom Vorgesetzten zum Untergebenen entfernt. Ziel der 360° - Analyse ist es, aus möglichst allen vorhandenen Informationsquellen, Informationen über die Leistung eines bestimmten Mitarbeiters zu bekommen. Zu diesen Informationsquellen gehören neben dem direkten Vorgesetzten auch Kollegen, Teammitglieder, Untergebene und interne wie externe Kunden. Man möchte also eine Rundumsicht erhalten, daher auch der Name 360 Grad Feedback. Man geht davon aus, dass die unterschiedlichen Informationsquellen unterschiedliche Bereiche der Leistung einer Person beurteilen können.

Dieser Begriff wird manchmal verwendet, um Unterformen des 360° Grad Feedbacks zu beschreiben, bei denen nur drei Quellen zur Informationsbeschaffung genutzt werden. Meist sind dies der direkte Vorgesetze, die direkten Untergebenen und Kollegen auf der selben Hierarchieebene. Zu einem vollständigen 360 Grad Feedback fehlen noch externe und interne Kunden. Allerdings wird aus Gründen der Außenwirkung auf diesen Aspekt oft verzichtet, so dass das 270° Feedback wohl als häufigste Form der Rundum-Feedbacks angesehen werden kann.

Dieser Begriff wird manchmal verwendet, um Unterformen des 360 Grad Feedbacks zu beschreiben, bei denen nur zwei Quellen zur Informationsbeschaffung genutzt werden. Meist sind dies der direkte Vorgesetze sowie die direkten Untergebenen.

Aa

Prozess der Analyse der gewonnenen Daten und auch der Aufbereitung der Ergebnisse dieser Analysen. Die Auswertung ist das Kernstück jeder Untersuchung. Ohne entsprechende Auswertung ist jede Datensammlung zwecklos.

Ein Artefakt ist ein Ergebnis, dass nur aufgrund der Erhebungs- oder Analysemethode oder aufgrund von Antworttendenzen zustande kommt. Es sagt nichts über tatsächliche Zusammenhänge aus.

Der durchschnittliche Wert für eine bestimmte Kategorie, berechnet durch das Aufsummieren aller Einzelwerte und das anschließende Teilen durch die Anzahl der Werte. Der Mittelwert eignet sich für die Beschreibung von Verteilungen von Merkmalen und Häufigkeiten, an ihm lässt sich eine Tendenz für typische Antworten ablesen.

Die Tatsache, dass manche Menschen Fragen unabhängig von deren Inhalt auf eine bestimmte Art und Weise beantworten. Die wichtigste Tendenz dabei ist die Zustimmungstendenz oder Akquieszenz.

Sammelbegriff für Verfahren, mit denen gewonnene Daten ausgewertet werden können. Man unterscheidet mehrere Arten von Analyseverfahren. Zunächst deskriptive Verfahren, bei denen die Daten nur beschrieben werden. Zweitens Verfahren, die die Datenmenge reduzieren sollen, wie z.B. Faktorenanalysen oder Clusteranalysen. Drittens inferenzstatistische oder schließende Verfahren, mit deren Hilfe Hypothesen überprüft werden sollen. Hierzu zählen besonders Verfahren, die die statistische Signifikanz von Unterschieden und Zusammenhängen überprüfen sollen.

Die Tendenz einer Person auf jede Frage mit "Ja" zu antworten, unabhängig von deren Inhalt. Auch "Ja-Sage"-Tendenz, Zur Vermeidung dieser Tendenz sollte man einige Fragen negativ formulieren (auch umpolen genannt).

Eine Skala, bei der neben einem Nullpunkt, den Abständen zwischen den Werten und der Eindeutigkeit der Zahlenzuordnung auch die Einheit feststeht wie z.B. Längenmaße. In den Sozialwissenschaften gibt es kaum Größen, die absolut sind, so dass man meist eine Intervallskala verwendet.

Bb

Graphische Darstellung von Häufigkeiten, bei der diese durch horizontale Balken dargestellt werden. Es eignet sich besonders zur Darstellung von Rangfolgen.

Form der Informationsgewinnung, bei der einer oder vielen Person(en) direkte Fragen zum interessierenden Sachverhalt gestellt werden. Man kann anhand des Mediums, mit dem die Fragen vermittelt werden mehrere Arten von Befragungen unterscheiden.

Eine Art der Befragung, bei der die Fragen nicht von einem Interviewer gestellt werden, sondern dem Befragten in schriftlicher Form als Fragebogen zur Verfügung gestellt werden.

Siehe Fragebogen

Ein Benchmark ist ein Wert, mit dem andere Werte verglichen werden um Leistungsurteile abgeben zu können. Als Benchmarking bezeichnet man den Prozess dieses Vergleiches. Benchmarking ist insbesondere in der Marktforschung sehr verbreitet. Dabei geht es oft um einen Vergleich von Produkten oder Unternehmen. Damit man Benchmarking betreiben kann müssen Daten auf die selbe Art und Weise erhoben werden, d.h. man muss die selben Fragen stellen damit Zahlenwerte vergleichbar sind.

Beobachtung ist eine indirekte Form der Informationsgewinnung. Dabei zeichnet man das Verhalten einer Person auf und schließt anschließend aus diesem Verhalten auf Merkmale der Person. Beobachtungen können in verschiedenen Graden der Anonymität durchgeführt werden. Von der teilnehmenden Beobachtung, bei der ein Beobachter direkten Kontakt zu der beobachteten Person aufnimmt bis hin zu Methoden, bei denen der beobachteten Person zum Zeitpunkt der Aufzeichnung nicht klar ist, dass sie beobachtet wird. Die letztere Art der Beobachtung hat allerdings einige datenschutzrechtliche Probleme. Vor der Verwendung der so gewonnen Daten muss in jedem Fall das Einverständnis der beobachteten Person eingeholt werden!

Von bivariaten Auswertungen spricht man, wenn man für die statistische Auswertung die Ausprägungen auf genau zwei Merkmalen betrachtet. Oft verwendet man dazu sogenannte Kreuztabellen oder Kontingenztafeln.

Cc

= Computer assisted personal interview, bezeichnet eine Mischform von Befragungen, bei der die Befragung durch einen Interviewer durch den Computer unterstützt wird. Die Antworten werden durch den Interviewer oder durch den Befragten selbst in ein elektronisches Format eingetragen.

= Computer assisted self interview, bezeichnet eine Form der Befragungen, bei der der Befragten selbst die Antworten in einen in ein Online Fragebogen einträgt und sich somit quasi selbst befragt.

= Computer assisted telefon interview, bezeichnet eine Mischform von Befragungen, bei der die telefonische Befragung durch einen Interviewer durch den Computer unterstützt wird. Die Antworten werden durch den Interviewer oder durch den Befragten selbst in ein elektronisches Format eingetragen.

Chi² ist eine statistische Kennzahl, die z.B. verwendet werden kann um zu testen, ob sich die Gruppen in einer Kreuztabelle voneinander unterscheiden.

Bezeichnet eine besondere Art eine Stichprobe zu ziehen, manchmal auch mit der deutschen Bezeichnung Klumpenstichprobe bezeichnet. Beim Cluster sampling werden nicht einzelne Personen sondern Gruppen von Personen wie z.B. Haushalte oder Schulklassen zufällig ausgewählt. Innerhalb dieser Gruppen werden dann alle Personen befragt.

Bei der Clusteranalyse versucht man Personen oder Untersuchungsobjekte in möglichst ähnliche Gruppen aufzuteilen.

siehe Kodierungsplan.

siehe Kodierung.

Conjoint Analysen sind eine Gruppe von Verfahren, die zum Ziel haben (Kunden-)präferenzen zu untersuchen. Dabei ist das Vorgehen dekompositionell, d.h. aus den Bewertungen für zusammengesetzte Merkmalskombinationen werden die Nutzwerte der einzelnen Merkmalsausprägungen errechnet. Man kann bei der Conjointanalyse Paarvergleiche der Merkmalskombinationen vornehmen lassen, oder aber eine Rangreihe aller Merkmalskombinationen verlangen. Die Conjointanalyse ist vorallem in der Marktforschung zur Erforschung von Kundenpräferenzen verbreitet. Dort entspricht die Vorgehensweise dem tatsächlichen Vorgehen  von Kunden bei Kaufentscheidungen. Dabei entscheiden sie sich auch für ein Produkt aufgrund seiner Gesamtheit und nicht aufgrund von einzelnen Merkmalen. Ausserdem besteht bei der direkten Abfrage der Wichtigkeit eines Merkmales die Gefahr, dass die Befragten jedes Merkmal als wichtig einstufen und das Zusammenspiel von Variablen wie z.B. Preis und Ausstattung nicht beachten.

Eine Statistik die den Zusammenhang aller Items innerhalb einer Skala beschreibt. Dieser Zusammenhang wird auch interne Konsistenz oder Inter-Item Reliabilität genannt. Der Wert schwankt zwischen -1 und +1, wobei ein hoher Wert für eine hohe interne Konsistenz, also eine große Ähnlichkeit der Items spricht.

Dd

Begriff der oft sowohl für einzelne oder gesammelte Informationen über eine Person als auch für alle Informationen über alle Personen hinweg benutzt wird. Man spricht von kodierten oder unkodierten Daten, je nachdem, in welcher Form die Informationen aufbewahrt werden. Die Daten einer Untersuchung werden oft in einer sogenannten Datenmatrix tabellenartig dargestellt.

siehe Auswertung.

Tabellenartige Liste in der alle Daten für die gesamte Stichprobe verzeichnet sind.

Bei einem deduktiven Vorgehen werden ausgehend von dem bestehenden theoretischen Hintergrund Annahmen und Hypothesen formuliert, die dann mit Hilfe einer Untersuchung überprüft werden sollen. Im Gegensatz dazu steht die Induktion.

siehe Operationalisierung

Die Delphi-Methode ist ein mehrstufiges Vorgehen, dass dazu dient, zukünftige Ereignisse und Trends abzuschätzen. Man legt dazu mehreren Experten unabhängig voneinander verschiedene Szenarien vor und lässt eine Wahrscheinlichkeitsschätzung vornehmen. Danach werden die Ergebnisse miteinander verglichen, Mittelwerte gebildet und den Experten wieder vorgelegt. Die Experten geben wiederum ihre Schätzungen ab. Dieses Verfahren wird so lange wiederholt, bis die Experten sich genügend aneinander annähern.

(auch Bevölkerungswissenschaft) Ist eine wissenschaftliche Disziplin, die sich mit der Erforschung der Struktur und der Veränderung der Bevölkerung befasst

Angaben, die sich dazu eignen Personen in ihrer Zugehörigkeit zu bestimmten Gruppen zu beschreiben. Dazu gehören z.B. Geschlecht, Alter, Familienstand. Diese Daten werden oft erhoben, um differenzierte statistische Auswertungen vornehmen zu können.

siehe Meinungsforschung

siehe Forschungsdesign

Form der statistischen Analyse, bei der die Daten im Hinblick auf einzelne Merkmale untersucht werden, mit dem Ziel die Stichprobe anhand dieser Merkmale zu beschreiben. Wichtige Statistiken in diesem Bereich sind z.B. der Mittelwert oder die Standardabweichung.

bezeichnet die Auswahlmöglichkeit zwischen genau zwei Antwortmöglichkeiten oder Merkmalsausprägungen (z.B. Ja/Nein-Fragen)

Bezeichnung für die Möglichkeit, dass manche Teilnehmer einen Fragebogen abbrechen oder einzelne Fragen nicht beantworten. Oft wird auch die sogenannte Drop-out Rate berechnet, die das Verhältnis der Abbrecher zu allen Teilnehmern beschreibt. Für die Qualität einer Untersuchung ist es wichtig, dass diese Rate möglichst gering ist.

Ee

Empirie bezeichnet einen Zweig der Wissenschaft, in dem Schlussfolgerungen aufgrund von Erfahrungen getroffen werden und steht im Gegensatz zur Theorie. Dieser Ansatz ist besonders in den Naturwissenschaften sehr verbreitet aber auch in anderen Anwendungsgebieten üblich.

Ist eine Untersuchung mit der Erfahrungen gesammelt werden sollen um bestimmte Sachverhalte aufzuklären.

Bezeichnet den Prozess der Datensammlung oder Informationsgewinnung

siehe Fragebogen

Bezeichnet die Methode mit der Informationen gewonnen werden. Die wichtigsten Erhebungsmethoden sind Befragung und Beobachtung.

Der Erwartungswert ist der Mittelwert einer Wahrscheinlichkeitsverteilung eines Merkmales, also der Wert, den man als Mittelwert erwarten würde.

Die Bewertung eines Sachverhaltes, oft ist die Evaluation einer Maßnahme der Anstoß dafür eine Befragung durchzuführen.

Eine Erhebungsmethode, bei der die Bedingungen kontrolliert und gezielt variiert werden um kausale Aussagen über die Wirkweise bestimmter Bedingungen treffen zu können

In einem Experiment ist dies die Gruppe die einer Manipulation der Bedingungen ausgesetzt wird. Ihr gegenüber steht eine Kontrollgruppe, bei der keine Manipulation stattfindet. Die Ergebnisse von Experimentalgruppe und Kontrollgruppe werden anschließend verglichen.

Beschreibt eine Untersuchung von Sachverhalten oder Daten, die nicht zielgerichtet ist. Exploration dient dazu Sachverhalte aufzudecken, über die man noch keine Hypothesen entwickelt hat.

Ff

In der Varianzanalyse ist ein Faktor eine unabhängige Variable, die zur Erklärung für Veränderungen in der abhängigen Variable berangezogen wird. In der Faktorenanalyse ist ein Faktor ein Aspekt eines Konzeptes, der mehreren Items zugrunde liegt.

Eine Faktorenanalyse ist ein statistisches Verfahren, bei dem die gemessenen Items und Themengebiete verdichtet werden. Die zugrunde liegende Annahme ist, dass jede Variable abstrakte theoretische Konzepte misst, die selbst nicht direkt beobachtbar sind und dass mehrere Variablen die selben Konzepte messen. Diese Konzepte heißen Faktoren. Für jede Variable kann nun bestimmt werden wie stark ihr Zusammenhang mit dem Faktor ist. Dieser Zahlenwert wird als Faktorladung beschrieben. Der Begriff Faktorwert bezeichnet die Ausprägung einer Person auf dem Faktor.

Nachweis, dass eine Aussage falsch ist. Bei wissenschaftlichen Untersuchungen dürfen nur Hypothesen formuliert werden, die sich zumindest theoretische auch als falsch erweisen können. Nur wenn eine Hypothese falsifizierbar ist, kann man ihre Gültigkeit überprüfen und nur dann kann sie sich auch als richtig erweisen.

Bei der statistischen Auswertung von Daten kann man zwei Arten von Fehlern begehen. Man spricht von alpha Fehler oder Fehler 1. Art, wenn man eine bestehende Hypothese verwirft, obwohl die hypothetischen Zusammenhänge in der Grundgesamtheit tatsächlich bestehen. Im Gegensatz dazu steht der beta-Fehler.

Bei der statistischen Auswertung von Daten kann man zwei Arten von Fehlern begehen. Man spricht von beta Fehler oder Fehler 2. Art, wenn man eine bestehende Hypothese als wahr annimmt, obwohl die hypothetischen Zusammenhänge in der Grundgesamtheit nicht bestehen. Im Gegensatz dazu steht der alpha-Fehler.

Ein experimentelles Design, dass in der natürlichen Umgebung der Teilnehmer stattfindet. Die Untersucher sorgen dabei dafür, dass unterschiedliche Gruppen unterschiedliche Bedingungen vorfinden.

Forschung, bei der Untersuchungen im natürlichen Umfeld der Grundgesamtheit durchgeführt werden. Die Forscher nehmen dabei meist keinerlei Manipulationen vor. Eine häufige Methode in der Feldforschung ist die Beobachtung.

Eine Frage deren Beantwortung den weiteren Verlauf der Befragung bestimmt. Diese Art der Fragen ist vor allem bei Online Fragebögen gut einzusetzen, weil sie dem Befragten irrelevante Fragen erspart.

Eine Follow-up Studie ist eine Untersuchung, bei der eine bereits untersuchte Stichprobe nochmals untersucht wird, um zu überprüfen, ob sich seit der ersten Studie bedeutsame Veränderungen ergeben haben.

Ein Sammelbegriff für alle Maßnahmen die bei der Planung einer Untersuchung getroffen werden. Dazu gehört die Wahl der Methode, die Auswahl der Teilnehmer, die Formulierung der Hypothesen und die geplanten Auswertungen.

Ist eine Menge von Fragen die thematisch eng miteinander verwandt sind. Sie dient dazu ein Konzept sehr detailliert zu erfassen.

Bezeichnet eine Sammlung von Fragen. Diese können sich auf einen einzigen Sachverhalt beziehen, dann spricht man von einer Fragebatterie, oder auf mehrere Sachverhalte.

Ein standardisierter Fragebogen ist ein Fragebogen, der sicherstellt, dass alle Befragten die selben Fragen in der selben Reihenfolge unter den selben Bedingungen erhalten.

Frageeffekte sind Effekte, die durch die Formulierung oder Anordnung der Fragen in einem Fragebogen entstehen. Sie können einen Einfluss darauf haben, wie eine Frage verstanden wird, und wie sie beantwortet wird. Um Frageeffekte zu vermeiden, sollte man unbedingt auf ein klare unmissverständliche Formulierung der einzelnen Items in einem Fragebogen achten.

Gg

Geschlossene Fragen sind Fragen, bei denen aus mehreren Antwortmöglichkeiten eine oder mehrere Antworten ausgewählt werden können. Dieser Fragetyp kommt sehr häufig vor, da er die Auswertung einfach macht. Die Teilnehmer können einfacher in Gruppen zusammengefasst werden. Allerdings sollte man ihn nur verwenden, wenn man auch wirklich alle interessierenden Antworten kennt und kein Bedarf besteht zusätzliche Antworten zu erhalten. Falls man sich dessen nicht sicher ist gibt es die Möglichkeit eine Antwortmöglichkeit „sonstige“ oder „weiß nicht“ einzuführen oder eine Hybridfrage verwenden.

Wenn man unterschiedlich große Stichproben kombinieren will, muss man die Größe der Stichprobe miteinrechnen. Mathematisch multipliziert man die Werte mit ihrem Prozentanteil an der Gesamtgruppe und addiert die Werte für alle Gruppen, diesen Vorgang nennt man Gewichtung. Man spricht im Ergebnis von gewichteten Werten. Um den Mittelwert für zwei Gruppen zu berechnen, von denen eine aus 10 Personen besteht die einen Gruppenwert von 3,5 haben und die andere aus 90 Personen die einen Gruppenwert von 4,0 haben rechnet man 0,1*3,5+0,9*4,0=3,95. Würde man einfach den Durchschnitt aus den beiden Werten nehmen würde man 3,75 erhalten und somit einen Fehler begehen.

Als Grundgesamtheit bezeichnet man alle Personen über die man durch die Untersuchung eine Aussage treffen möchte. Es gibt unterschiedliche Möglichkeiten Teilnehmer aus diesem Kreis auszuwählen, d.h. Stichproben zu ziehen.

siehe Validität

Für jede Untersuchung müssen unabhängig von ihrer Methode bestimmte Qualitätskriterien erreicht werden. Die Kriterien für eine methodisch gute Untersuchung nennt man Gütekriterien. Dies sind Validität (oder Gültigkeit), Reliabilität (oder Verlässlichkeit) und Objektivität (oder Unabhängigkeit).

Eine Guttman-Skala besteht aus einer Anzahl Aussagen die monoton ansteigend immer extremere Ausprägungen einer Einstellung repräsentieren. Man geht davon aus, dass eine Person alle Aussagen bis zu einem bestimmten Punkt bejaht und keine darüber. So kann man aus der Anzahl der "Ja" Antworten die Stärke der Einstellung ablesen.

Hh

Halo ist die englische Bezeichnung für Strahlenkranz oder Heiligenschein. Halo-Effekt nennt man den Effekt, dass bei der Beurteilung mehrerer Aspekte eines Merkmals, einer heraus sticht, der dann die Bewertung der anderen beeinflusst. Ausserdem kann es Halo-Effekte von einzelnen Fragen auf andere Fragen geben (siehe Frageeffekte).

Häufigkeit bezeichnet die Anzahl des Auftretens eines bestimmten Merkmals oder der Ausprägung eines Merkmals. Man kann dabei absolute Häufigkeiten, d.h. die bloße Anzahl des Auftretens, von relativen Häufigkeit, d.h. dem prozentualen Anteil des Auftretens einer Ausprägung im Vergleich zu allen Ausprägungen, unterscheiden.

Die graphische Darstellung von Häufigkeiten oder die statistische Beschreibung der Häufigkeiten des Auftretens von verschiedenen Ausprägungen eines Merkmals.

Eine graphische Darstellung, bei der Häufigkeiten mit Hilfe von senkrechten Balken dargestellt werden, oft auch Säulendiagramm oder Stabdiagramm genannt.

Ist eine Frageform, bei der geschlossene mit offenen Fragen kombiniert werden. Neben den vorgegebenen Antwortkategorien kann die befragte Person eigenen Antworten angeben.

Eine Annahme oder Vermutung über einen Sachverhalt, die so formuliert ist, dass sie überprüft werden kann. Hypothesen bilden die Grundlage für spätere Analyse erhobener Daten.

 

Ii - Jj

Indikatoren sind messbare Größen, die stellvertretend für einen abstrakten, nicht direkt messbaren Sachverhalt stehen. Für komplexe Sachverhalte stützt man sich meistens nicht nur auf einen sondern auf mehrere Indikatoren. Den Prozess der Suche nach Indikatoren nennt man auch oft Operationalisierung.

Bei einer induktiven Vorgehensweise wird man zunächst Daten zur Fragestellung erheben und anschließend aufgrund der Ergebnisse Annahmen und theoretische Zusammenhänge formulieren. Man schließt im Gegensatz zur Deduktion also vom Speziellen auf das Allgemeine.

Methode der systematischen Erfassung der Inhalte von Texten, Bildern und Filmen. Aspekten des Materials werden nach einem Kodierungsplan Werte zugewiesen um statistische Analysen zu ermöglichen. So kann z.B. gezählt werden, wie oft ein bestimmtes Wort auftaucht, oder es kann kodiert werden, in welchen Zeitungen oder unter welchen Rubriken Artikel zu bestimmten Themen erscheinen.

Bezeichnet das Zusammenspiel von zwei oder mehr Variablen. Ein Interaktionseffekt bedeutet, dass eine Variable nur in Abhängigkeit von den Ausprägungen der anderen Variable einen Einfluss hat.

siehe Cronbachs alpha

siehe Cronbachs alpha

 

Eine Intervallskala besitzt das dritte von fünf Skalenniveaus. Neben der erkennbaren sinnvollen Rangfolge und der Eindeutigkeit der zugeordneten Zahlen, müssen bei einer Intervallskala die Abstände zwischen zwei benachbarten Werten gleich sein. Ein Beispiel für eine Intervallskala ist beispielsweise eine Thermometer mit Celsius Graden.

Ist eine einzelne Frage oder Feststellung zu der sich Personen in einer Befragung äußern können.

Kk

Ist ein Maß für die Übereinstimmung zwischen verschiedenen Beobachtern. Kappa kann Werte zwischen 0 und 1 annehmen. Diese Werte entsprechen der prozentualen Übereinstimmung. Bei einem Kappa von 1 stimmen die Beurteiler also zu 100% überein, bei einem kappa von 0,5 zu 50% usw.

Ein Ursache-Wirkung Zusammenhang

siehe Cluster-Sampling

Die Zuweisung eines Zahlenwertes zu einer bestimmten Antwortkategorie oder Merkmalsausprägung. Die Kodierung ist notwendig um Daten statistisch auswertbar zu machen.

In diesem Plan steht nach welcher Logik den Antworten kodiert wurden. Dies ist wichtig, um die Kodierung nachvollziehen zu können und etwaige Fehler aufzuspüren.

Das Konfidenzintervall beschreibt den Wertebereich, in dem ein gemessener Wert um den Erwartungswert streuen darf und trotzdem noch als Bestätigung für diesen Wert zählt. Man geht dann davon aus, dass die Abweichung des gemessenen Wertes lediglich durch Fehler bei der Messung entstanden ist.

Eine Größe, deren Wert nicht verändert wird oder verändert werden kann. Im Gegensatz dazu steht die Variable.

siehe Kreuztabellen

Fragen die dazu dienen, Antworttendenzen aufzudecken. Es sind meist Fragen deren Antwort bekannt ist, so dass falsche Beantwortungen auffallen.

In einem Experiment ist dies die Gruppe, die keiner Manipulation der Bedingungen ausgesetzt wird. Sie wird als Vergleichsgruppe für die Experimentalgruppe verwendet. Auch in Befragungen kann man Kontrollgruppen verwenden. Dort ist es dann die Gruppe, die den interessierenden Bedingungen nicht ausgesetzt ist, oder bei der keine Veränderung stattgefunden hat. Um die Wirkung einer Bedingung zu erforschen ist es unbedingt notwendig eine Kontrollgruppe zu haben, weil man sonst keine ursächlichen Aussagen treffen kann.

Ein Maß für die Stärke und die Richtung des Zusammenhangs zwischen zwei Variablen. Der Wert des Korrelationskoefizienten reicht von 0 bis '+/- 1 und beschreibt die Stärke des Zusammenhangs, das Vorzeichen beschreibt die Richtung. Wichtig ist, dass mit einer Korrelation keine Aussage über Kausalität getroffen werden kann! Korrelationen werden oft benutzt um die Reliabilität von Skalen zu berechnen.

Kennzahl für die Stärke und die Richtung des Zusammenhangs zwischen zwei Variablen. Der Wertebereich reicht von 0 bis +/- 1 und beschreibt die Stärke des Zusammenhangs, das Vorzeichen beschreibt die Richtung. Ein positives Vorzeichen bedeutet, dass bei einer starken Ausprägung auf dem ersten Merkmal auch auf dem zweiten Merkmal eine hohe Ausprägung zu erwarten ist. Ein negatives Vorzeichen bedeutet, je höher der Wert für das erste Merkmal ist, desto niedriger ist der Wert für das zweiten Merkmal.

Ähnlich wie der Korrelationskoeffizient ist die Kovarianz ein Maß für den Zusammenhang zweier Merkmale. Im Gegensatz zum Korrelationskoeffizienten hängt die Kovarianz allerdings von der Einheit der Skalierung ab, so dass die Größe dieses Wertes alleine keine Aussage erlaubt.

Eine graphische Darstellung bei der prozentualen Anteile kreisförmig dargestellt werden, wobei 100 % durch 360° repräsentiert werden, 50% durch 180°  usw.

siehe Kreuztabelle

Eine tabellarische Darstellung der Zusammenhänge von 2 Variablen. Normalerweise ist mindestens eine dieser beiden Variablen nominalskaliert. Oft auch Kontingenztafeln genannt. Um zu überprüfen, ob sich die Zellen dieser Tabelle unterscheiden, benutzt man einen Chi² Test.

Als Kriterium bezeichnet man einen vorhanden Sachverhalt, an dem überprüft werden kann, ob ein vorhergesagter Effekt eingetreten ist, bzw. ob ein gemessener Wert den Tatsachen entspricht.

 

Ll

Als Likert Skalen werden Skalen bezeichnet, die es einer Person ermöglichen auf eine Aussage oder Frage eine abgestufte Antwort zu geben. Der Antwortbereich geht dabei häufig von "stimme voll und ganz zu" bis "stimme überhaupt nicht zu". Bei der Zahl der Abstufungen kann man variieren, üblich sind 5, 6 oder 7 Abstufungen.

Eine Untersuchung, bei der zu mindestens zwei Messzeitpunkten gemessen wird. Die Daten der verschiedenen Messzeitpunkte werden miteinander verglichen um Veränderungen zu untersuchen.

 

Mm

Hinter dem Begriff Marktforschung verbirgt sich ein Prozess der Informationsbeschaffung. Dabei geht es um die Erhebung, Analyse und Interpretation von Informationen über Märkte. Unter Markt versteht man in diesem Zusammenhang das Zusammentreffen von Angebot und Nachfrage für ein Produkt oder eine Dienstleistung. Es kann sich dabei sowohl um den Absatzmarkt eines Unternehmens als auch um den Beschaffungsmarkt handeln. Die Ergebnisse von Marktforschung sollen vor allem dazu dienen, Entscheidungen im Bereich des Marketings zu ermöglichen.

 

Eine Unterart der Marktforschung oder der Meinungsforschung, bei der es primär um die Nutzung und den Einfluss verschiedener Medien geht. Oft wird dieser Begriff nur für Werbeforschung verwandt, er bezieht sich aber grundsätzlich auf jede Art von Mediennutzung.

Ein Kennwert in der deskriptiven Statistik. Er beschreibt die Mitte einer Verteilung von Werten, also den Wert in einer Verteilung für den genausoviele Werte unterhalb wie über diesem Wert existieren. Bei einer Normalverteilung entspricht der Mittelwert dem Median. Unterscheiden sich der Mittelwert und der Median einer Verteilung stark voneinander, kann man davon ausgehen, dass es einzelne Werte gibt die von den anderen stark abweichen und daher das Bild verzerren. man sollte dann eher den Median verwenden.

(auch Demoskopie) Erforschung von vorherrschenden Meinungen und Einstellungen innerhalb der Bevölkerung. Die Erkenntnisse werden meist mit Hilfe von Befragungen in Querschnitts oder auch Längsschnittsuntersuchungen gewonnen. Ein bekanntes Beispiel für Meinungsforschung ist die sogenannte "Sonntags-Frage", bei der Wahlberechtigte befragt werden, wen sie wählen würde, wenn am nächsten Sonntag Wahl wäre.

Die Erfassung der Ausprägung eines Merkmals, indem man den einzelnen Merkmalsausprägungen Zahlen zuordnet.

siehe Skalenniveaus

= Fehlender Wert, diese Art von fehlenden Werten einsteht, wenn eine Person eine Frage überhaupt nicht beantwortet hat. Man muss sie von Fällen unterscheiden, in denen eine Person eine vorhanden "weiß nicht" Kategorie gewählt hat. Ein Fragebogen mit vielen fehlenden Werten kann kaum ausgwertet werden, unter anderem weil man nicht weiß, warum die Werte fehlen. Wenn viele Personen missig values produzieren liegt es vielleicht an der Formulierung der Fragen oder der Instruktionen.

siehe arithmetisches Mittel

Der Wert in einer Verteilung, der die höchste Ausprägung hat. Oder in einer graphischen Darstellung der Gipfel einer Verteilung, bei Häufigkeitsverteilungen das Merkmal das am häufigsten vorkommt

Nn

Ist eine Wahrscheinlichkeitsverteilung mit einer bestimmten Form, auch als Gauß'sche Glockenkurve bekannt. Bei einer Normalverteilung sind Mittelwert, Median und Modalwert gleich. Der Abstand zwischen dem Mittelwert und dem Wendepunkt der Kurve entspricht der Standardabweichung. Das Vorliegen einer Normalverteilung ist Vorraussetzung für viele statistische Analysen.

Eine Nominalskala ist eine Skala mit dem niedrigsten Skalenniveau. Als einzige Anforderung muss hier erfüllt sein, dass gleichen Ausprägungen gleiche Zahlen und unterschiedlichen Ausprägungen unterschiedliche Zahlen zugeordnet werden. Die Höhe der Zahlen sagt nichts über eine Rangfolge aus. Ein Beispiel für eine Nominalskala ist die Abfrage des Familienstandes und der Kodierung der Antworten durch beliebige Zahlen.

Der Wert der N zugeordnet wird bezeichnet die Größe der Stichprobe, manchmal wird zusätzlich n benutzt um die Anzahl in einer Subgruppe der Stichprobe zu bezeichnen.

Oo

Objektivität ist eines der drei wichitgsten Gütekriterien für Untersuchungen. Es beschreibt die Unabhängigkeit der Ergebnisse von der Methode und dem Zeitpunkt der Untersuchung und insbesondere auch von der Person des Untersuchers oder des Auswerters.

Offene Fragen sind Fragen, bei denen keinerlei Antwortmöglichkeiten vorgegeben werden. Der Befragte kann frei antworten. Dieser Typ eignet sich besonders, wenn nicht bekannt ist, welche Antwortmöglichkeiten es gibt oder wenn man eine Vielzahl unterschiedlicher Einschätzungen haben möchte. Schwierigkeiten können sich ergeben, wenn man die Antworten auf diese Fragen zu Gruppen zusammenfassen möchte.

Omnibus-Befragungen sind kombinierte Befragungen zu verschiedenen Themen, die meist auch von verschiedenen Auftraggebern stammen. Statt viele kleine Befragungen zu starten, schließt man sich zusammen.

Ist eine besondere Art von Panel, dass sich auf Onlinebefragungen bezieht. Es besteht aus Personen, die sich registriert haben und sich bereit erklärt haben, wiederholt an Online-Studien teilzunehmen.

Online Befragungen sind Befragungen die über das Internet abgewickelt werden, insbesondere zählen dazu Fragebögen, die im Internet oder Intranet veröffentlicht werden und online ausgefüllt werden. Ein großer Vorteil von Online Befragungen ist ihre Sparsamkeit bezüglich Material- und Versandkosten, sowie die Schnelligkeit mit der die Fragebögen versandt, ausgefüllt und ausgewertet werden können. Zudem lässt sich die Anonymität der Befragung gut gewährleisten.

siehe Operationalisierung

Verknüpfung von abstrakten theoretischen Konzepten mit direkt messbaren Indikatoren. Man könnte z.B. das Konzept "politische Einstellung" mit der berühmten "Sonntags-Frage" operationalisieren und somit messbar machen.

Die Ordinalskala ist eine Skala auf dem zweitniedrigsten Skalenniveau. Hier muss neben der Forderung, dass gleiche Ausprägungen gleiche Werte und unterschiedliche Ausprägungen unterschiedliche Werte erhalten, auch die Rangfolge der Zahlen sinnvoll einer Rangfolge der Ausprägungen zugeordnet werden. Ein Beispiel dafür ist die Abstufung von Zustimmungsgraden von "stimme voll und ganz zu" bis "stimme überhaupt nicht zu".

Pp

Ein Panel ist eine Gruppe von Teilnehmern, von der über längere Zeit hinweg im Rahmen von Längsschnittstudien mehrmals Daten zu den selben Sachverhalten erhoben werden. So kann man Veränderungen über die Zeit hinweg gut beobachten. Insbesondere in der Marktforschung sind Panelstudien ein wichtiges und häufig eingesetztes Verfahren. Ein Problem von Paneluntersuchungen ist der sogenannte Paneleffekt. Es kann sein, dass Personen durch die wiederholte Teilnahme an Untersuchungen ihr Verhalten oder ihre Einstellungen überdenken und ändern. Ein weiterer Begriff in diesem Bereich ist die sogenannte Panelsterblichkeit. Sie bezeichnet die Tatsache, dass Personen aus unterchiedlichsten Gründen für weitere Teilnahmen nicht mehr zur Verfügung stehen und die Repräsentativität des Panels daher bedroht ist. Eine Möglichkeit ist es, die Personen durch andere zu ersetzten, die ihnen in den wichtigsten Merkmalen ähnlich sind.

siehe Panel

Ein Problem von Paneluntersuchungen ist der sogenannte Paneleffekt. Es kann sein, dass Personen durch die wiederholte Teilnahme an Untersuchungen ihr Verhalten oder ihre Einstellungen überdenken und ändern.

Papier-Bleistift-Befragungen sind die traditionelle Form der Befragung, bei der die Fragebögen gedruckt und handschriftlich ausgefüllt werden. Neben den Druck- und Versandkosten stellt vor allem der Zeitaufwand für die Eingabe der Daten ein Problem dar

Parameter sind Werte von Merkmalen für die Grundgesamtheit. Diese Parameter sind allerdings unbekannt. Man schätzt sie durch die Werte, die man anhand von Stichproben bekommt. z.B.ist es nicht möglich zu messen, wie groß ein deutscher Mann im Durchschnitt ist, da dies sehr aufwendig wäre. Man kann aber eine Stichprobe von deutschen Männern untersuchen und dann anhand des Mittelwertes in dieser Untersuchung davon ausgehen, dass dieser Wert für alle Männer in Deutschland gilt.

Eine Pilotstudie ist ein Pretest

siehe semantisches Differential

siehe Grundgesamtheit

Pretest ist die Bezeichnung für den Test eines Untersuchungsinstruments, wie z.B. einem Fragebogen bevor die eigentliche Untersuchung beginnt. Man sollte so gut wie immer einen Pretest durchführen, damit Probleme rechtzeitig entdeckt und behoben werden können. Erfolgt dies nicht, können die erhobenen Daten wertlos sein.

Eine Pufferfrage ist eine Frage die die Funktion hat Frageeffekte zu vermeiden. Man stellt sie zwischen zwei Fragen, wenn man vermutet, dass die Beantwortung der ersten Frage die Antwort auf die zweite Frage beeinflussen würde.

Qq

Bei quantitativer Methodik handelt sich um Methoden, mit deren Hilfe objektive Daten erhoben werden, die durch Zahlen ausgedrückt werden können. Man stellt also „Was…?“ – Fragen. Man würde zum Beispiel einen Kunden fragen ob er ein bestimmtes Produkt kaufen würde oder nicht. Den Antworten „ja“ oder „nein“ kann man dann Zahlen zuordnen, zudem lässt sich in Zahlen ausdrücken wie viele Personen welche Antwort gegeben haben. Bei quantitativen Verfahren stützt man sich auf methodisch genau festgelegte oder standardisierte Prozesse.

Bei qualitativer Methodik werden subjektive Daten erhoben. Sie beschäftigt sich oft mit Themengebieten wie Gründen für Verhalten, Einstellungen und Werten. Man stellt dort Fragen in der „Warum…?“ – Form. Man würde jetzt z.B. einen Kunden fragen, warum er ein bestimmtes Produkt kaufen würde oder nicht. Die Antworten sind nun sehr subjektiv und individuell unterschiedlich und man kann ihnen oft nicht in sinnvoller Weise Zahlen zuordnen.

Deskriptives Maß ähnlich dem Median. Man unterscheidet das 1. Quartil, das den Wert beschreibt unter dem 25 % und über dem 75 % aller Werte liegen und das 3. Quartil unter dem 75 % und über dem 25 % aller Werte liegen. Das 2. Quartil ist der Median

Ein Querschnitt ist eine Untersuchung, bei der zu einem Zeitpunkt viele Personen befragt werden. Querschnittuntersuchungen eignen sich besonders dafür, einzelnen Personengruppen zu vergleichen. Allerdings darf man aus den Zusammenhängen in einer Querschnittuntersuchung nicht auf Kausalität schließen, da man durch das fehlende Wissen über zeitliches Auftreten von Ereignissen nicht sagen kann, welche von zwei Bedingungen zuerst aufgetreten ist und damit die andere verursacht hat.

Rr

Random ist das englische Wort für zufällig. Randomisierung bezeichnet die zufällige Zuordnung von Personen zu bestimmten Gruppen in der Untersuchung wie z.B. der Kontrollgruppe. Ausserdem können auch die Fragen oder die Antwortkategorien in einem Fragebogen in zufälliger Reihenfolge dargeboten werden um Frageeffekte zu vermeiden. Auch hier spricht man von Randomisierung.

Rangordnungsverfahren sind Bewetungsverfahren, bei denen verschiedene Merkmale z.B. nach ihrer Wichtigkeit geordnet werden. Charakteristisch für Rangordnungsverfahren ist, dass einzelne Merkmale immer im Bezug zu anderen bewertet werden. Besonders bei Conjoint-Analysen verwendet man Rangordnungsverfahren.

englisch für Rangordnungsverfahren

Bei Rating-Verfahren werden einzelnen Merkmale bewertet ohne dabei ihr Verhältnis zu anderen Merkmalen zu berücksichtigen. Meist wird hier eine abgestufte Skale von "sehr gut" bis "sehr schlecht" oder von "stimme voll und ganz zu" bis "stimme überhaupt nicht zu" verwendet.

Von Reaktivität spricht man, wenn der Teilnehmer einer Untersuchung durch die Untersuchung an sich oder Teile davon beeinflusst wird und sich daraufhin sein (Antwort-)verhalten ändert.

Mit einer Regressionsanalyse kann man lineare Zusammenhänge zwischen Variablen beschreiben. Es ergibt sich eine Vorhersageregel in Form einer Geradengleichung. Würde man die Werte einer Person für zwei Variablen in ein zweidimensionales Gitternetz eintragen, ergäbe sich eine Menge von Punkte. Die Regressionsgerade ist die Gerade, die die Menge an Punkte am besten beschreibt. Der Korrelationskoeffizient kann als Maß dienen, wie nahe die Punkte an der Gerade liegen. Dafür quadriert man den Korrelationkoeefizienten. Dabei ergibt sich ein Wert zwischen 0 und 1. Je näher dieser Wert bei 1 liegt, desto enger liegen, die Punkte an der Geraden, d.h. desto besser ist die Schätzung. Auch bei der Regression ist zu beachten, dass sich keine kausalen Zusammenhänge ergeben.Man sagt zwar man sage Variable X aus Variable Y vorher, dies heißt heißt aber nicht, dass Y der Grund für X ist. Mathematisch funktioniert das Model auch umgekehrt, man könnte genauso gut Variable Y aus Variable X vorhersagen.

Unter Relibilität versteht man den Grad der Zuverlässigkeit oder Genauigkeit mit der ein Erhebungsinstrument funktioniert. Dabei unterscheidet man die Retest-Reliabilität, Paralleltest-Reliabilität, Split-Half Reliabilität und die interne Konsistenz. Bei der Retest- Reliabilität geht es darum, ob eine erneute Untersuchung einer Person (unter den selben Vorraussetzungen!) das selbe Ergebnis liefert. Bei der Paralleltest Methode erstellt man zwei gleichwertige Untersuchungen die dasselbe Ergebnis liefern sollten. Bei der Split-Half Methode teilt man einen bestehenden Fragebogen in zwei Teile und untersucht ob beide Teile das selbe messen. Bei der internen Konsistenzanalyse oder auch Itemanalyse wird jedes einzelnen Item mit jedem anderen Item verglichen. Wichtig ist, dass sich die letzten beiden Verfahren nur eignen , wenn die Untersuchung sich nur mit einem Konzept beschäftigt. Bei mehrdimensionalen Untersuchungen müssen auch mehrere Konsistenzanalysen durchgeführt werden.

Repräsentativität bezieht sich darauf, ob eine Stichprobe sich eignet stellvertretend für die Grundgesamtheit zu stehen. Dabei ist wichtig, dass die Stichprobe der Grundgesamtheit in allen wichtigen Merkmalen entspricht, dann ist sie repräsentativ. Die einfachste Methode Repräsentativität zu erreichen ist eine Zufallsstichprobe.

= im Nachhinein

Der griechische Buchstabe rho wird als Abkürzung für Korrelationskoefizienten benutzt.

Als Rohdaten bezeichnet man im Normalfall Daten, mit denen noch keine Analysen durchgeführt wurden, bzw. Daten die durch Analysen noch nicht verändert wurden. Kodierungen zählen nicht als Veränderungen in diesem Sinne, da eine Dateneingabe erst durch Kodierung möglich wird. Manchmal bezeichnet man die gesamte Datenmatrix als Rohdaten unabhängig davon ob schon Transformierungen vorgenommen wurden.

Bezeichnet das Verhältnis zwischen allen verschickten Fragebögen und denen die zurück gesandt wurden.

Ss

englisch für Stichprobe

siehe Histogramm

Die Scheinkorrelation zwischen zwei Variablen ist eine Korrelation, die nur durch das Einwirken einer dritten nicht bekannten Variable entsteht. Es besteht also kein echter Zusammenhang zwischen den Variablen obwohl sich mathematisch ein hoher Korrelationskoeffizient ergibt. Beispielsweise hängt der Schaden der bei einem Feuer entsteht mit der Anzahl der anwesenden Löschfahrzeuge zusammen. Beide Umstände kommen aber letztendlich durch die Größe des Feuers zustande. Es wäre also völlig falsch zu urteilen, dass bei wenigen Löschfahrzeugen weniger Schaden entstehen würde.

Semantische Differentiale oder Polaritätsprofile sind Fragen, bei denen der Teilnehmer sich entscheiden muss, welcher von zwei gegensätzlichen Aussagen er (eher) zustimmt. Sie eignen sich besonders gut um Einstellungen abzufragen. Allerdings muss man bei der Konstruktion darauf achten, dass die beiden Pole wirklich gegensätzlich sind.

Die statistische Signifikanz beschreibt die Wahrscheinlichkeit, dass ein in einer Untersuchung zustande gekommenes Ergebnis durch Zufall entstanden ist. Wenn ein Ergebnis signifikant ist, ist es mit hoher Wahrscheinlichkeit nicht zufällig. Die Signifikanz ist somit das Kriterium für die Beurteilung von Ergebnisse. Ein nicht signifikantes Ergebnis kann Zufall sein und ist somit wertlos. Die Überprüfung eine Ergebnisses hinsichtlich der Signifikanz nennt man Signifikanztest.

siehe Signifikanztest

Ist die Restwahrscheinlichkeit in einem Signifikanztest mit der ein Ergebnis doch durch Zufall entstanden ist. Je kleiner dieser Wert ist desto besser. Meist wählt man einen Grenzwert unter dem der sogenannte p-Wert liegen soll. Übliche Grenzwerte sind 0,1,  0,05, und 0,01.

Mathematisches Verfahren, bei dem überprüft wird, ob sich zwei oder mehr Gruppen tatsächlich hinsichtlich der gemessenen Merkmale unterscheiden, oder ob unterschiedliche Werte auch durch Zufall zustande gekommen sein könnten. Kann man den Zufall mit großer Wahrscheinlichkeit ausschließen, spricht man von statistischer Signifikanz der Ergebnisse. Bei der Durchführung von Signifikanztests mit Statistikprogrammen wird meist ein p-Wert mit ausgegeben. Anhand dieses p-Wertes oder Signifikanzniveaus kann man entscheiden, ob das Ergebnis signifikant ist. Je kleiner dieser Wert desto besser.

Als Skala bezeichnet man die Menge und Darstellung aller möglichen Merkmalsausprägungen. Je nach der Art und Weise wie diesen Merkmalsausprägungen Zahlen zugeordnet werden können spricht man von unterschiedlichen Skalenniveaus.

Der Begriff Skalenniveau bezeichnet eine Eigenschaft von Skalen, die bestimmt wie komplex die Berechnungen sein können, die mit einer Skala durchgeführt werden können. Das Skalenniveau hängt von den Inhalten einer Skala ab. Man unterscheidet von unten nach oben gehend Nominalskalen, Ordinalskalen, Intervallskalen, Verhältnisskalen und absolute Skalen.

siehe Skala

Das Konzept der sozialen Erwünschtheit beschreibt die Tatsache, dass die meisten Menschen dazu neigen sich konform mit den herrschenden Werten und Normen zu verhalten. Dies kann dazu führen, dass sensible Fragen in Fragebögen nicht ehrlich beantwortet werden, sondern so wie die Person glaubt dass es erwartet würde. Das Problem der sozialen erwünschten Antworten lässt sich meistens durch anonyme Befragungen recht gut lösen.

siehe demographische Daten

= Statistical Package for the Social Sciences (ursprünglich). Ein weit verbreitetes Softwarepaket einer gleichnamigen Firma, mit dem man statistische Analysen durchführen kann

siehe Histogramm

Die Standardabweichung ist ein Maß für die Streuung von Werten einer Verteilung um das arithmetische Mittel. Sie berechnet sich aus dem Mittelwert der quadrierten Abweichungen vom Mittelwert. Das Quadrat der Standardabweichung ist die Varianz. Die Standardabweichung gibt also an, wie repräsentativ der Mittelwert für alle Werte ist. Je kleiner die Standardabweichung, desto besser spiegelt der Mittelwert alle Werte wieder.

Schaffung eines einheitlichen Maßsystems für alle Items eines Fragebogens, damit die Ergebnisse vergleichbar sind

Der Begriff Statistik bezeichnet eigentlich zwei verschiedene Dinge: (1) eine Teildisziplin der Mathematik, die sich damit beschäftigt, aus Einzelfällen Verallgemeinerungen zu treffen und Aussagen über die Wahrscheinlichkeit des Auftretens einzelner Ereignisse zu machen. (2) Kennwerte innerhalb von Stichproben werden oft auch als (Test)Statistik bezeichnet.

Computerprogramme mit deren Hilfe Daten statistisch ausgewertet werden können. Eines der bekanntesten Programme ist SPSS.

Teilgruppe der Grundgesamtheit oder Population, die auf eine bestimmte Art und Weise ausgewählt wurde. Man untersucht nur die Stichprobe und schließt aus den Ergebnissen für die Stichprobe auf die gesamte Population. Formen der Stichprobe sind Zufallsstichprobe und Cluster sample

Unter Streuung versteht man die Bandbreite der Abweichung vom Mittelwert von Werten in einer Verteilung. Es gibt verschiedene Maße für die Streuung von Werten, unter anderem die Varianz oder die Standardabweichung.

Tt

In der Mathematik und Statistik ist ein Test eine Überprüfung eines Sachverhaltes. In der Psychologie ist ein Test ein standardisiertes Erhebungsverfahren um einen Sachverhalt zu messen.

Theoretischer Hintergrund für die Bestimmung der Genauigkeit einer Messung (=Reliabilität). Die Testtheorie geht davon aus, dass jeder gemessene Wert neben dem tatsächlichen Wert auch noch einen Fehler beinhaltet.

Unter Theorie versteht man eine Sammlung von Aussagen und Annahmen über einen Sachverhalt, die mit Hilfe von Hypothesen überprüfbar und auch falsifizierbar sind.

Der Trennschärfekoeffizient gibt an, wie gut ein bestimmtes Item geeignet ist zur Messung des Gesamtwertes beizutragen. Nicht trennscharfe Items leisten keinen Beitrag und können daher weggelassen werden. Der Trennschärfekoeffizient ist die Korrelation des Testwertes für ein einzelnes Item mit dem Gesamtwert über alle Items.

Uu - Vv - Ww

Validität ist das wichtigste der 3 Gütekriterien. Es beschreibt, ob ein Erhebungsinstrument auch tatsächlich misst, was es zu messen vorgibt. Im Gegensatz zur Reliabilität kann die Validität nur im Verhältnis zu äusseren Kriterien bestimmt werden. Man unterscheidet Inhaltsvalidität, Konstruktvalidität und Kriteriumsvalidität. Inhaltsvalidität liegt vor, wenn ein Test alle Aspekte des untersuchten Sachverhaltes abfragt und nichts darüber hinaus. Ob Inhaltsvalidität besteht kann nur theoretisch über die Definitionen eines Sachverhaltes geklärt werden. Von Konstruktvalidität spricht man, wenn in einer Faktorenanalyse gezeigt werden kann, dass die Ergebnisse des Tests nur auf Faktoren laden, die zum theoretischen Konzept gehören und nicht auf Faktoren die nicht dazu gehören. Von Kriteriumsvalidität spricht man, wenn die Ergebnisse eines Tests mit äusseren Indikatoren (sogenannte Kriterien) für des gemessene Konzept übereinstimmen oder damit zusammenhängende zukünftige Ereignisse vorhersagen können.

Eine Größe, deren Wert sich verändert oder verändert werden kann. Im Gegensatz dazu steht die Konstante.

Abhängige Variablen sind die Variablen, deren Ausprägungen man messen möchte und über die man Aussagen treffen möchte.

Unabhängige Variablen sind Variablen mit deren Hilfe man Unterschiede in den abhängigen Variablen erklären möchte. Bei Experimenten werden die unabhängigen Variablen gezielt manipuliert, bei anderen Methoden werden sie oft mit abgefragt um im Nachhinein für die statistische Auswertung zur Verfügung zu stehen. Demographische Daten werden oft als unabhängige Variablen benutzt.

Die Varianz ist ein Streuungsmaß. Sie beschreibt das Ausmaß der Abweichung der einzelnen Werte vom Mittelwert. Sie ist das Quadrat der Standardabweichung. Man benötigt die Varianz um mit Hilfe von Varianzanalysen Aussagen über die Signifikanz des Unterschieds zwischen Gruppen machen zu können.

Varianzanalysen sind eine Gruppe von statistischen Testverfahren zur Überprüfung des Unterschiedes zwischen Gruppen hinsichtlich eines oder mehrerer Merkmal. Zugrunde liegt die Annahme, dass die Varianz aus mehreren Bestandteilen besteht, die sich durch verschiedene Einflussfaktoren erklären lässt. Je größer der Einfluss einer Variable auf die Variabilität einer anderen Variable ist, desto größer ist der Anteil der Varianz, die durch diese Einflussvariable erklärt wird. Auch hier muss man wieder beachten, dass man aus der Varianzanalyse keine ursächlichen Schlüsse ziehen darf.

Das zweithöchste der 5 Skalenniveaus. Eine Skala ist dann verhältnisskaliert, wenn sie einen absoluten Nullpunkt hat (d.h. der Wert 0 entspricht der Abwesenheit des Merkmals) und die Abstände zwischen den einzelnen Werten gleich groß sind. Beispielsweise die Angabe des Lebensalters ist verhältnisskaliert.

Beschreibt die Sicherheit oder Unsicherheit, das ein bestimmtes Ereignis eintreten wird. Wahrscheinlichkeiten können Werte zwischen 0 und 1 annehmen, wobei 1 für absolut sicheres Eintreten steht und 0 für absolut sicheres Nicht-Eintreten. 0,5 steht für völlige Unsicherheit oder auch Zufall.

Xx - Yy - Zz

Die Gruppe für die man aufgrund der Stichprobe eine Aussage treffen möchte. Entspricht der Grundgesamtheit.

Eine Teilgruppe der Grundgesamtheit, die durch zufällige Auswahl gebildet wurde. Jede Person muss die gleiche Chance haben in die Stichprobe zu kommen. Ist eine Zufallsstichprobe genügend groß, so kann man davon ausgehen, dass die Ergebnisse der Stichprobe auf die Grundgesamtheit verallgemeinert werden können.

siehe Reliabilität