Methoden zur Informationssammlung und Analysetools. Grundlegende Methoden der Datenanalyse

Methoden zur Informationssammlung und Analysetools.  Grundlegende Methoden der Datenanalyse
Methoden zur Informationssammlung und Analysetools. Grundlegende Methoden der Datenanalyse

Unter Marketingforschung versteht man den Prozess des Suchens, Sammelns, Verarbeitens von Daten und Aufbereiten von Informationen zur operativen Umsetzung strategische Entscheidungen im Unternehmertumssystem.

Jeweils diese Definition definiert klar die Hauptphasen eines jeden Marktforschung:

  • Entwicklung des Forschungskonzeptes
  • Suche und Sammlung von Informationen;
  • Datenverarbeitung;
  • Erstellung der abschließenden analytischen Notiz (Bericht).
Arten der Forschung

Einer der zeitaufwändigsten und kostspieligsten Schritte jeder Marktforschung ist die Suche und Sammlung von Informationen zum untersuchten Problem. Abhängig von den verwendeten Informationsquellen werden Studien unterteilt in:

  • Büro;
  • Feld.

In der Praxis ergänzen sich Feld- und Sekundärforschung jedoch gegenseitig und befassen sich mit ihrem spezifischen Themenspektrum.

Schreibtischrecherche- Suche, Sammlung und Analyse vorhandener Sekundärinformationen („Research for Schreibtisch"). Sekundärinformationen sind Daten, die zuvor für andere als die derzeit gelösten Zwecke gesammelt wurden. Die Hauptvorteile der Arbeit mit Sekundärinformationen sind: geringer Arbeitsaufwand, da die Erfassung neuer Daten nicht erforderlich ist; Geschwindigkeit der Informationserfassung; Verfügbarkeit mehrerer Informationsquellen; relative Zuverlässigkeit von Informationen aus unabhängigen Quellen; Möglichkeit Voruntersuchung Probleme. Die offensichtlichen Nachteile der Arbeit mit Sekundärinformationen sind: die häufige Inkonsistenz von Sekundärdaten mit den Forschungszielen aufgrund von allgemein Letzteres; Informationen sind oft veraltet; Die zur Erhebung der Daten verwendeten Methoden und Instrumente sind möglicherweise nicht für die Zwecke dieser Studie geeignet. Diesbezüglich oft Schreibtischrecherche ergänzt durch die parallele Durchführung mehrerer Experteninterviews zur Erhöhung der Aussagekraft der Informationen.

Feldforschung- Suche, Sammlung und Verarbeitung von Daten speziell für einen bestimmten Zweck Marketinganalyse. Jede Feldforschung basiert auf Primärinformationen, also auf neu gewonnenen Daten zur Lösung des konkreten untersuchten Problems. Die Hauptvorteile von Primärinformationen: Die Datenerhebung erfolgt streng nach den genauen Zielen der Forschungsaufgabe; Die Methodik der Datenerhebung wird streng kontrolliert. Der Hauptnachteil der Sammlung von Feldinformationen sind die erheblichen Kosten für Material und Arbeitsressourcen.

Abhängig von den Werkzeugen (Methoden), die zum Sammeln von Feld-(Primär-)Informationen verwendet werden, kann die Forschung unterteilt werden in:

  • quantitativ;
  • Qualität.

Die praktische Umsetzung der Marktforschung erfordert oft einen integrierten Ansatz – den gemeinsamen Einsatz quantitativer und qualitativer Techniken.

Quantitative Forschung ist das wichtigste Instrument, um die notwendigen Informationen für die Planung und Entscheidungsfindung zu erhalten, wenn die notwendigen Hypothesen zum Verbraucherverhalten bereits gebildet wurden. Quantitative Forschungsmethoden basieren immer auf klaren mathematischen und statistischen Modellen, die es ermöglichen, dass das Ergebnis nicht auf Meinungen und Annahmen, sondern auf genauen quantitativen (numerischen) Werten der untersuchten Indikatoren beruht. Basierend auf den Ergebnissen der quantitativen Forschung können Sie die erforderlichen Produktionsmengen und die Rentabilität berechnen, Preise und Produktparameter festlegen, unbesetzte Marktnischen finden und vieles mehr. Der Hauptvorteil der quantitativen Forschung besteht darin, dass sie das Risiko verringert, falsche Entscheidungen zu treffen und ungenaue Planungsparameter zu wählen. Der Glaube, dass auch ohne Recherche alles über den Markt bekannt sei, führt oft zu unzureichend durchdachten und unzureichend wirksamen Maßnahmen im Markt und gleicht einer Trial-and-Error-Methode. Quantitative Studien sind die geeignetste Methode zur numerischen Bewertung:

  • Marktkapazität sowie Angebots- und Nachfragestruktur;
  • Verkaufsmengen der Marktbetreiber;
  • Produktentwicklungsaussichten;
  • die Wirksamkeit verschiedener Bereiche der Unternehmenstätigkeit zur Unterstützung und Förderung des Produkts;
  • Richtungen für die Entwicklung des Produktportfolios und seiner einzelnen Komponenten;
  • Wirksamkeit der Werbemaßnahmen;
  • Effizienz des Vertriebsnetzes;
  • Verbraucherreaktionen auf mögliche Marketingmaßnahmen des Herstellers.

Qualitative Forschung konzentriert sich im Gegensatz zu quantitativer Forschung nicht auf statistische Messungen, sondern basiert auf dem Verstehen, Erklären und Interpretieren empirischer Daten und ist eine Quelle für die Generierung von Hypothesen und produktiven Ideen. Einfach ausgedrückt beantworten sie nicht die Frage „Wie viel?“, sondern die Frage „Was?“. "Wie?" und warum?". Qualitative Forschung nutzt in großem Umfang projektive und stimulierende Techniken – unstrukturierte, nicht-direktive Methoden, Fragen zu stellen, die dem Forscher helfen, Motive, Überzeugungen, Einstellungen, Einstellungen, Vorlieben, Werte, Zufriedenheit, Probleme der Befragten usw. in Bezug auf Produkte oder Marken aufzudecken. Projektive Techniken helfen dabei, Kommunikationsschwierigkeiten wie die Verbalisierung von Gefühlen, Beziehungen usw. zu überwinden und latente Motive, implizite Einstellungen, unterdrückte Gefühle usw. zu identifizieren. Die meisten Anwendungen Qualitative Forschung stellt beim Studium fest:

  • Konsummuster, Kaufverhalten und Entscheidungsfaktoren;
  • Einstellungen zu Produkten, Marken und Unternehmen;
  • Grad der Zufriedenheit mit bestehenden Produkten;
  • Kaufabsichten.

Qualitative Forschung spielt eine wichtige Rolle bei der Entwicklung neuer Produkte, wobei diese Studien Folgendes ermöglichen:

  • verstehen, ob es auf dem untersuchten Markt eine Nische für ein neues Produkt gibt;
  • Einstellungen gegenüber neuen Produkten (oder Produktkonzepten) ermitteln.

Einsatz qualitativer Forschung auf der Bühne strategische Entwicklung Markenkonzept, das die Möglichkeit bietet:

  • Generierung einer Reihe von Ideen zum Konzept der Markenpositionierung;
  • Bewertung des Markenkonzepts;
  • Generierung von Ideen zur kreativen Umsetzung strategischer Konzepte;
  • Bewertung von Marketingkommunikationselementen (Name, Logo, Verpackung, TV-Werbung usw.)

Ein weiterer Anwendungsbereich qualitativer Methodik ist die sogenannte diagnostische Forschung. Offensichtlich verändert sich die Wahrnehmung eines Produkts und einer Werbung durch den Verbraucher im Laufe der Zeit. Qualitative Forschung hilft in solchen Fällen dabei, das Ausmaß, die Richtung und die Art der Veränderungen in der Marken- und Werbewahrnehmung im Laufe der Zeit zu bestimmen.

Darüber hinaus kann bei der Durchführung taktischer Recherchen eine qualitative Methodik eingesetzt werden, um die erfolgreichste Ausführungsoption für Werbung, Verpackung und Logo auszuwählen. Kann zum Testen angeboten werden alternative Optionen visuelle, textliche etc. Elemente der konkreten Umsetzung bereits erstellter Werbung, Verpackung etc.

Methoden zum Sammeln von Informationen

Trotz der Vielzahl unterschiedlicher Forschungsmethoden und -techniken allgemeines Schema Die im Rahmen der Marktforschung durchgeführten Aktivitäten sind recht einfach und verständlich. Die wichtigsten Einnahmequellen Marketing-Information Sind:

  • Interviews und Umfragen;
  • Registrierung (Beobachtung);
  • Experiment;
  • Panel;
  • Expertenbewertung.

Interview (Umfrage)- die Standpunkte der Menschen herauszufinden oder von ihnen Informationen zu einem beliebigen Thema einzuholen. Eine Umfrage ist die häufigste und wichtigste Form der Datenerhebung im Marketing. Ungefähr 90 % der Studien verwenden diese Methode. Die Befragung kann mündlich (persönlich) oder schriftlich erfolgen.

Bei einer schriftlichen Befragung erhalten die Teilnehmer Fragebögen (Fragebögen), die sie weisungsgemäß ausfüllen und zurücksenden müssen. Typischerweise werden bei schriftlichen Umfragen geschlossene Fragen verwendet, deren Antworten in der Auswahl einer der vorgegebenen Fragen bestehen. Typischerweise wird bei schriftlichen Befragungen der Fragebogen per E-Mail, Post oder Fax an Vertreter der Zielgruppe versendet. Der Hauptnachteil ist die Einschränkung der Nutzung diese Methode ist ein langer Zeitraum und ein geringer Prozentsatz (im Durchschnitt 3 %) der zurückgesendeten ausgefüllten Fragebögen.

Persönliche (persönliche) und telefonische Befragungen werden üblicherweise als Interviews bezeichnet.

Telefoninterviews sind eine relativ kostengünstige Methode zur Durchführung von Umfragen mit beliebiger Stichprobengenauigkeit (der geografische Standort der Befragten ist im Hinblick auf die Kosten der Durchführung von Interviews nicht grundsätzlich wichtig). Diese Methode ist nur in der quantitativen Forschung anwendbar. Die Verwendung dieser Methode hat jedoch objektive Nachteile:

  • nicht völlige Kontrolle über das Verständnis und die Aufrichtigkeit des Befragten;
  • es besteht keine Möglichkeit zur Präsentation von Bildmaterial (Muster, Karten mit Antwortmöglichkeiten);
  • die Unmöglichkeit langer Interviews (es ist schwierig, die Aufmerksamkeit des Gesprächspartners am Telefon länger als 15 Minuten zu fesseln);
  • In Städten mit unzureichender Telefonversorgung ist es nicht möglich, eine repräsentative Stichprobe zu erhalten.

Persönliche Vorstellungsgespräche können formell oder informell sein.

Bei einem formalisierten Interview gibt es ein spezifisches Schema für die Durchführung der Umfrage (in der Regel ein Fragebogen mit vorgefertigten, klar formulierten Fragen und durchdachten Antwortmodellen). Ein formalisiertes Interview verliert viel von seiner Bedeutung, wenn die Antworten der Befragten nicht im Hinblick auf ihre sozialen und demografischen (Branche und geografischen) Merkmale analysiert werden. Daher ist es notwendig, einen „Pass“ auszufüllen, in den die Daten jedes Befragten eingetragen werden, wobei die Notwendigkeit wiederum durch das Forschungsprogramm bestimmt wird. Solche Interviews werden auf der Straße, in Geschäften, bei öffentlichen Veranstaltungen, am Wohnort der Befragten (Tür-zu-Tür-Befragungen) usw. durchgeführt. Formelle Umfragen werden am häufigsten bei der Durchführung quantitativer Forschung eingesetzt. Die Hauptnachteile dieser Methode sind: relativ hohe Kosten und unbedeutende geografische Abdeckung.

Informelle Interviews sind eine spezielle Methode der Informationsbeschaffung, bei der es lediglich um ein Thema und einen Zweck geht. Es gibt kein spezifisches Schema für die Durchführung der Umfrage. Dies ermöglicht es, die zugrunde liegenden Motive des Handelns des Verbrauchers zu identifizieren und sowohl rationale als auch irrationale Gründe für sein Kaufverhalten zu untersuchen. In der Praxis werden bei der Durchführung qualitativer Forschung informelle Interviews eingesetzt. Informelle Interviews können Einzel- oder Gruppeninterviews sein.

Einzelne informelle Interviews werden mit dem Befragten persönlich in Form eines Dialogs geführt, wobei der Befragte die Möglichkeit hat, detaillierte Urteile zum untersuchten Problem zu äußern. Wir können solche Formen individueller informeller Interviews als Tiefeninterviews und Hall-Tests unterscheiden.

Bei Tiefeninterviews handelt es sich um eine Reihe von Einzelinterviews zu einem bestimmten Thema, die nach einem Diskussionsleitfaden durchgeführt werden. Das Interview wird von einem speziell ausgebildeten, hochqualifizierten Interviewer geführt, der sich mit der Thematik auskennt, über technische Fähigkeiten verfügt und psychologische Techniken ein Gespräch führen. Jedes Interview dauert 15-30 Minuten und wird von der aktiven Beteiligung des Befragten begleitet – er legt Karten aus, zeichnet, schreibt usw. Tiefeninterviews ermöglichen Ihnen im Gegensatz zu strukturierten Interviews, die in quantitativen Umfragen verwendet werden, tiefer in die Psychologie des Befragten einzudringen und seine Sichtweise, sein Verhalten, seine Einstellungen, Stereotypen usw. besser zu verstehen. Detaillierte Interviews erweisen sich trotz des hohen Zeitaufwands (im Vergleich zu Fokusgruppen) als sehr nützlich in Situationen, in denen die Atmosphäre einer Gruppendiskussion unerwünscht ist. Dies kann erforderlich sein, wenn individuelle Probleme und Situationen untersucht werden, die normalerweise nicht in einem breiten Kreis diskutiert werden, oder wenn einzelne Standpunkte stark von gesellschaftlich anerkanntem Verhalten abweichen können – beispielsweise bei der Diskussion von Fragen des Geschlechterverhältnisses, des Geschlechts, bestimmter Krankheiten oder versteckter Themen politische Überzeugungen usw. .P. Tiefeninterviews werden bei der Erprobung und Entwicklung erster Werbeentwicklungen (Kreativideen) eingesetzt, wenn es darum geht, direkte, individuelle Assoziationen, Reaktionen und Wahrnehmungen zu gewinnen – ohne Rücksicht auf die Gruppe. Die optimale Kombination ist in diesem Fall die Methode von Tiefeninterviews und Fokusgruppen mit denselben Befragten. Und schließlich sind Tiefeninterviews bei der Durchführung qualitativer Forschung unverzichtbar, wenn es aufgrund der Merkmale der Zielgruppe nicht möglich ist, Befragte für eine Fokusgruppe zu sammeln – d. h. auf einmal an einem Ort für 2-3 Stunden. Wenn es zum Beispiel um vielbeschäftigte Geschäftsleute, wohlhabende Bürger, enge Berufsgruppen usw. geht.

Halle - Tests- Hierbei handelt es sich um persönliche, halbstrukturierte Interviews in einem speziellen Raum. In der Regel werden Räumlichkeiten in Bibliotheken, Geschäften, Hallen genutzt Verwaltungsgebäude usw. Befragter und Interviewer setzen sich an einen Tisch und das Interview findet im strukturierten Gesprächsmodus statt. Die Notwendigkeit eines Hallentests hat in der Regel einen von mehreren Gründen:

  • Testen sperriger Proben, deren Transport in der Wohnung unpraktisch ist, oder es besteht kein Vertrauen, dass in der Wohnung die Möglichkeit besteht, unter normalen Bedingungen Befragungen durchzuführen;
  • die Prüfung ist durch die Anzahl der Proben begrenzt;
  • Verwendung von Spezial Ausrüstung (z. B. Fernsehvideo) zur Demonstration des getesteten Materials;
  • Das Interview wird an Orten geführt, an denen potenzielle Befragte zusammenkommen, es ist jedoch komplex und nicht für Gespräche auf den Beinen geeignet.

Hall-Tests beziehen sich formal auf quantitative Methoden zur Informationsgewinnung. Was der Hall-Test mit qualitativen Methoden gemeinsam hat, ist, dass die Informationen aus einer relativ kleinen gezielten Stichprobe (von 100 bis 400 Personen) gewonnen werden und dass der Befragte aufgefordert wird, sein Verhalten zu kommentieren (zu erklären). Zur Durchführung eines Hallentests werden Vertreter der Zielgruppe (potenzielle Verbraucher) in einen für die Verkostung von Produkten und/oder die Betrachtung von Werbung ausgestatteten Raum („Halle“) eingeladen, wo sie die Möglichkeit haben, ihre Reaktion auf das Testmaterial zu demonstrieren und erklären Sie den Grund für ihre Wahl. Im Zuge der Beantwortung der Fragen im Fragebogen werden die Auswahlkriterien, die Häufigkeit und das Volumen des Konsums von Marken der untersuchten Produktgruppe festgelegt. Die Methode dient zur Beurteilung der Verbrauchereigenschaften eines neuen Produkts: Geschmack, Geruch, Aussehen usw. Die Methode wird auch bei der Prüfung von Markenelementen, Verpackungen, Audio- und Videoclips, Werbebotschaften (Erkennbarkeit der Werbebotschaft, Einprägsamkeit, Zuverlässigkeit, Überzeugungskraft, Verständnis der primären und sekundären Ideen von Werbung, Slogan usw.) verwendet. usw.

Informelles Gruppeninterview (fokussiertes Interview, Fokusgruppe) – ist eine Gruppendiskussion über interessante Themen durch Vertreter der Zielgruppe. Der „Fokus“ in einer solchen Gruppe liegt auf der subjektiven Erfahrung von Menschen, die ihr Verständnis und ihre Erklärung zu einem bestimmten Thema mit all seinen Nuancen abgeben. Der Gesprächsverlauf wird vom Moderator nach einem vorgefertigten Plan gesteuert und auf Videoband aufgezeichnet. In der Regel werden während der Diskussion verschiedene projektive Techniken eingesetzt, um die „echte“ Einstellung der Verbraucher zum untersuchten Thema herauszufinden und so viel tiefere und detailliertere Informationen zu erhalten als auf der Ebene der „normalen“ Kommunikation. Normalerweise denken Menschen nicht konkret über die Themen nach, die in der Gruppe diskutiert werden, oder haben keine Möglichkeit, ihre Meinung mit der Meinung anderer Menschen zu vergleichen. In einer Fokusgruppe werden die Befragten nicht nur gebeten, etwas nach „Gefällt mir“ oder „Gefällt mir nicht“ zu bewerten, sondern auch ihren Standpunkt zu erläutern. Und die anschließende qualifizierte Analyse der erzielten Ergebnisse ermöglicht uns das Verständnis psychologische Mechanismen Bildung der einen oder anderen Meinung der Gruppenmitglieder. Der Hauptnachteil dieser Methode ist die verzerrte Natur der Ergebnisse. Mit anderen Worten: Die Ergebnisse fokussierter Interviews können nicht in ausgedrückt werden numerisch, zur weiteren Extrapolation auf die allgemeine Population von Forschungsobjekten. Daher wird in der Praxis die Fokusgruppentechnik in Kombination mit quantitativen Forschungsmethoden eingesetzt.

Beobachtung (Registrierung) ist eine Form der Marktforschung, mit deren Hilfe eine systematische, systematische Untersuchung des Verhaltens eines Objekts oder Subjekts durchgeführt wird. Eine Beobachtung ist, anders als eine Vermessung, nicht von der Informationsbereitschaft des beobachteten Objekts abhängig. Beobachtung ist der Prozess der offenen oder verborgenen Sammlung und Aufzeichnung von Ereignissen oder besonderen Momenten, die mit dem Verhalten des untersuchten Objekts verbunden sind. Gegenstand der Beobachtung können die Eigenschaften und das Verhalten einzelner Personen sein; Bewegung von Dingen, Gütern usw. Der Nachteil von Beobachtungen besteht darin, dass sie nicht die Meinungen, Ideen und das Wissen von Menschen erkennen können. Daher werden Beobachtungen in der Praxis meist in Verbindung mit anderen Forschungsmethoden verwendet.

Experiment ist die Untersuchung des Einflusses eines Faktors auf einen anderen bei gleichzeitiger Kontrolle fremder Faktoren. Die Experimente werden in Laborexperimente, die in einer künstlichen Umgebung stattfinden (Produkttest), und Feldexperimente, die unter realen Bedingungen stattfinden (Markttest), unterteilt. Die Hauptnachteile dieser Methode sind die erheblichen Kosten und die Dauer der Implementierung, was den Einsatz dieser Methode in der praktischen Forschung erheblich einschränkt.

Panel ist eine wiederholte Erhebung von Daten einer Gruppe von Befragten in regelmäßigen Abständen. Somit handelt es sich bei einem Panel um eine Art kontinuierliche Probenahme. Damit können Sie Änderungen der beobachteten Mengen und Merkmale erfassen. Bei einer Panelbefragung werden die Meinungen von Verbrauchern einer bestimmten Gruppe über einen bestimmten Zeitraum untersucht und dabei ihre Bedürfnisse, Gewohnheiten, Geschmäcker und Beschwerden ermittelt. Die Nachteile der Verwendung von Panels sind: die „Sterblichkeit“ des Panels, die sich in der allmählichen Weigerung der Teilnehmer äußert, zu kooperieren oder in eine andere Verbraucherkategorie zu wechseln, und der „Panel-Effekt“, der in einer bewussten oder unbewussten Veränderung der Verbraucherkategorie besteht Verhalten der Teilnehmer unter langfristiger Kontrolle.

Expertenbewertung- Dies ist eine Bewertung der untersuchten Prozesse durch qualifizierte Spezialisten - Experten. Eine solche Bewertung ist insbesondere dann erforderlich, wenn es unmöglich ist, indirekte Informationen über einen Prozess oder ein Phänomen zu erhalten. In der Praxis wird zur Durchführung von Expertengutachten am häufigsten die Delphi-Methode eingesetzt. Brainstorming und die Synektik-Methode.

Delphi-Methode- eine Form der Expertenbefragung, bei der deren anonyme Antworten über mehrere Runden gesammelt werden und durch das Kennenlernen der Zwischenergebnisse eine Gruppeneinschätzung des untersuchten Prozesses erfolgt.

Bei der Brainstorming-Methode handelt es sich um die unkontrollierte Generierung und spontane Verflechtung von Ideen durch die Teilnehmer einer Gruppendiskussion zu einem Problem. Auf dieser Grundlage entstehen Assoziationsketten, die zu einer unerwarteten Lösung des Problems führen können.

Synektik gilt als eine Methode mit hoher Qualität kreatives Potenzial. Die Idee der Methode besteht darin, das ursprüngliche Problem durch die Konstruktion von Analogien zu anderen Wissensgebieten schrittweise zu verfremden. Nach mehrstufigen Analogien erfolgt eine schnelle Rückkehr zum ursprünglichen Problem.

Analysetools

Der erste Schritt bei der Verarbeitung und Analyse von Marktforschungsdaten ist die Häufigkeitsanalyse. Im Folgenden werden die statistischen Indikatoren der untersuchten Merkmale beschrieben. Unter diesen können die folgenden Indikatoren als die wichtigsten genannt werden:

Der Durchschnitt (arithmetisches Mittel) ist der Quotient aus der Division der Summe aller Werte eines Merkmals durch deren Anzahl. Es ist definiert als die Summe der Werte dividiert durch ihre Anzahl. Charakterisiert eine Population als Ganzes. Wird nur zur Charakterisierung von Intervall- und Ordinalskalen verwendet.

Streuung- ein Wert, der dem Durchschnittswert der quadrierten Abweichungen entspricht individuelle Werte Zeichen vom Durchschnitt. Wird nur zur Charakterisierung von Intervall- und Ordinalskalen verwendet.

Durchschnittliche lineare Abweichung- ein Wert, der dem Durchschnittswert des Moduls der Abweichungen einzelner Merkmalswerte vom Durchschnitt entspricht. Wird nur zur Charakterisierung von Intervall- und Ordinalskalen verwendet.

Standardabweichung- Wert gleich Quadratwurzel aus der Zerstreuung. Dies ist ein Maß für die Streuung der Messwerte. Wird nur zur Charakterisierung von Intervall- und Ordinalskalen verwendet.

Der Variationskoeffizient ist das Verhältnis der Standardabweichung zum arithmetischen Mittel. Wird nur zur Charakterisierung metrischer Skalen verwendet.

Der Mindestwert beträgt kleinster Wert Variable im Datenarray gefunden

Der Maximalwert beträgt Höchster Wert Variable im Datenarray gefunden.

Der Median ist der Wert einer Variablen für die Bevölkerungseinheit, die in der Mitte der Rangreihe der Häufigkeitsverteilung liegt. Schneidet die Hälfte der Verteilerreihe ab. Wird nur zur Charakterisierung metrischer Skalen verwendet.

Das obere Quartil ist der Wert eines Merkmals, das 3/4 der Zeile der Verteilung abschneidet. Wird nur zur Charakterisierung metrischer Skalen verwendet.

Das untere Quartil ist der Wert eines Merkmals, das 1/4 der Verteilungsreihe abschneidet. Wird nur zur Charakterisierung metrischer Skalen verwendet.

Der Modus ist der am häufigsten vorkommende Wert einer Variablen, d. h. der Wert, der am wahrscheinlichsten im Array gefunden wird.

Die Häufigkeit ist der numerische Wert des Attributs (die Anzahl der Antworten der Befragten). Wird für alle Arten von Waagen verwendet.

Der gültige Prozentsatz ist der Anteil des numerischen Wertes eines Merkmals an der Gesamtzahl der Grundgesamtheit. Wird für alle Arten von Waagen verwendet.

Die zweite Stufe der Verarbeitung und Analyse von Marktforschungsdaten ist die Beschreibung der Korrelationen zwischen den untersuchten Variablen. Korrelation ist ein Maß für die Abhängigkeit von Variablen. Es gibt mehrere Korrelationskoeffizienten, die auf die enge Beziehung zwischen den untersuchten Variablen hinweisen. Die Korrelationskoeffizienten liegen zwischen +1 und -1. Wenn der Korrelationskoeffizient -1 ist, dann haben die Variablen eine streng negative Beziehung (je höher, desto niedriger), wenn der Korrelationskoeffizient +1 ist, dann haben die Variablen eine streng positive Beziehung (je höher, desto höher). Es ist zu beachten, dass bei einem Koeffizienten von Null keine Beziehung zwischen den Variablen besteht. Zu den bekanntesten und am häufigsten verwendeten Korrelationskoeffizienten gehören:

  • Pearson-Korrelationskoeffizient
  • Spearman-Korrelationskoeffizient
  • Cramers Korrelationskoeffizient
  • Korrelationskoeffizient Phi.

Die aufgestellten Forschungshypothesen werden mittels Korrelations-, Varianz- oder Faktorenanalysen überprüft. Als Ergebnis der Datenanalyse wird die aufgestellte Hypothese bestätigt oder verworfen, was in jedem Fall das erzielte Ergebnis anzeigt.

Conjoint-Analyse Eine Analysemethode zur Bewertung und zum Vergleich von Produktattributen, um diejenigen zu identifizieren, die den größten Einfluss auf Kaufentscheidungen haben. Die Conjoint-Analyse ist die beste Technik zur Messung der Wichtigkeit eines Faktors, da sie den Befragten dazu zwingt, nicht über das Wichtige nachzudenken, sondern nur über seine Präferenz. Der Vorteil der Methode liegt in der Möglichkeit, latente Einflussfaktoren auf das Verbraucherverhalten zu identifizieren. Mit dieser Methode können Sie die optimale Kombination von Produkteigenschaften auswählen und das Produkt in einer akzeptablen Preiskategorie belassen.

Bei der Clusteranalyse handelt es sich um eine Reihe von Methoden, mit denen Sie multivariate Beobachtungen klassifizieren können, die jeweils durch einen bestimmten Satz von Variablen beschrieben werden. Das Ziel der Clusteranalyse ist die Bildung von Gruppen gleichartiger Objekte, die üblicherweise als Cluster bezeichnet werden. Mithilfe der Clusteranalyse können Sie eine Marktsegmentierung durchführen (z. B. Identifizierung vorrangiger Verbrauchergruppen). Die Anwendung von Clustering-Methoden auf die Segmentierung basiert auf den folgenden Annahmen. Erstens wird angenommen, dass anhand der Werte der Variablen, die die Eigenschaften von Verbrauchern beschreiben, Gruppen ähnlicher Verbraucher identifiziert werden können. Zweitens wird davon ausgegangen, dass im zugewiesenen Segment bessere Marketingergebnisse bei der Produktwerbung erzielt werden können. Es wird davon ausgegangen, dass es für das Marketingergebnis von größerer Bedeutung ist, die Verbraucher unter Berücksichtigung der Nähe zueinander zu einer Gruppe zusammenzufassen. Zur Untermauerung dieser Annahmen wird die Methode der Varianzanalyse eingesetzt.

Varianzanalyse. Bei der Varianzanalyse wird der Einfluss einer oder mehrerer unabhängiger Variablen auf eine oder mehrere abhängige Variablen untersucht. Methode statistische Analyse, mit dem Sie die Zuverlässigkeit der Hypothese über Unterschiede in Durchschnittswerten anhand eines Vergleichs von Streuungen (Abweichungen) von Verteilungen bestimmen können (Sie können beispielsweise die Hypothese über die Unterschiede zwischen zwei durch Clustering identifizierten Verbrauchergruppen testen). . Im Gegensatz zur Korrelationsanalyse ermöglicht die Varianzanalyse keine Beurteilung der Nähe der Beziehung zwischen Variablen.

Regressionsanalyse. Eine statistische Methode zur Ermittlung der Beziehung zwischen unabhängigen und abhängigen Variablen. Die auf der konstruierten Regressionsgleichung basierende Regressionsanalyse bestimmt den Beitrag jeder unabhängigen Variablen zur Änderung der untersuchten (vorhergesagten) abhängigen Variable variable Größe. Wird häufig im Marketing verwendet, um die Nachfrage vorherzusagen.

Faktorenanalyse. Eine Reihe von Methoden, die es auf der Grundlage tatsächlich bestehender Verbindungen zwischen Merkmalen (oder Objekten) ermöglichen, latente (oder verborgene) verallgemeinernde Merkmale der untersuchten Phänomene und Prozesse zu identifizieren. Die Hauptziele der Faktorenanalyse bestehen darin, die Anzahl der Variablen zu reduzieren und die Struktur der Beziehungen zwischen Variablen, also die Klassifizierung von Variablen, zu bestimmen. Wenn die Anzahl der Variablen reduziert wird, enthält die resultierende Variable die wichtigsten Merkmale der kombinierten Variablen. Bei der Klassifizierung werden mehrere neue Faktoren aus miteinander verbundenen Variablen ausgewählt. Im Marketing wird diese Methode im Zusammenhang mit der Vertiefung der Analyse des Verbraucherverhaltens, der Entwicklung von Psychographien usw. eingesetzt. Aufgaben, bei denen es notwendig ist, eindeutig nicht beobachtbare Faktoren zu identifizieren.

Die Ergebnisse der Feldforschung stellen bedeutende Arrays von Variablen dar, deren manuelle Verarbeitung recht komplex ist. Forschern stehen heute zahlreiche Softwarepakete zur Verfügung, um den Analysevorgang zu optimieren und zu vereinfachen. Die am häufigsten verwendeten Pakete sind Vortex, SPSS und Statistica.

Das Programm „VORTEX“ richtet sich an:

  • Eingabe primärer Informationen, die im Rahmen angewandter Marketing- oder soziologischer Forschung gesammelt wurden;
  • Verarbeitung und Analyse dieser Informationen;
  • Präsentation der gewonnenen Analyseergebnisse in Form von Tabellen, Texten, Grafiken und Diagrammen mit der Möglichkeit, diese in Microsoft Word und andere Windows/NT-Anwendungen zu übertragen.

Möglichkeiten zur Informationsanalyse:

  • Mit dem Vortex-Programm können Sie deskriptive Statistiken der untersuchten Variablen erstellen (Berechnung statistischer Indikatoren: Mittelwert, Modus, Median, Quartile, Streuung, Standardabweichung, Variationskoeffizient, Skew, Kurtosis usw.);
  • Ermöglicht die Segmentierung von Verbrauchern nach mehreren Kriterien sowie die Beschreibung ausgewählter Zielgruppen (Auswahl von Kontexten – Unterarrays von Dokumenten für eine eingehende Analyse, z. B. nur Männer oder nur Befragte im Alter von 20 bis 25 Jahren).
  • Mit dem Vortex-Programm können Sie eine Korrelationsanalyse durchführen, mit der Sie die Abhängigkeiten der untersuchten Faktoren identifizieren können, die das Marketingergebnis beeinflussen (Berechnung für Tabellen der zweidimensionalen Verteilung der Korrelationskoeffizienten von Pearson, Gamma, Lambda, Cramer, Yule, Fisher, X-Quadrat, Student-Kriterien, Bestimmung der statistischen Signifikanz).

SPSS für Windows ist modular, vollständig integriert und verfügt über alle Funktionen, die Sie benötigen Software, konzipiert für alle Phasen des Analyseprozesses: Planung, Datenerfassung, Datenzugriff und Datenverwaltung, Analyse, Berichterstattung und Verbreitung der Ergebnisse. SPSS für Windows ist das Beste Software, sodass Sie Geschäftsprobleme lösen und Forschungsprobleme mithilfe statistischer Methoden lösen können.

Mit der SPSS-Software können Sie Häufigkeitsanalysen, deskriptive Statistiken, Korrelationsanalysen, Varianzanalysen, Clusteranalysen, Faktoranalysen und Regressionsanalysen durchführen.

Mithilfe der Analysefunktionen von SPSS können Sie die folgenden Daten erhalten:

  • Die profitabelsten Marktsegmente;
  • Strategien zur Positionierung von Produkten/Dienstleistungen im Vergleich zu ähnlichen Produkten/Dienstleistungen von Wettbewerbern;
  • Bewertung der Qualität von Waren/Dienstleistungen durch Kunden;
  • Entwicklungsperspektiven, neue Wachstumschancen;
  • Bestätigung oder Widerlegung von Forschungshypothesen.

Statistica ist ein universelles, integriertes System für statistische Analysen und Datenvisualisierung, Datenbankverwaltung und kundenspezifische Anwendungsentwicklung, das eine breite Palette von Analyseverfahren für den Einsatz in enthält wissenschaftliche Forschung, Technologie, Geschäft.

Statistica ist ein modernes statistisches Analysepaket, das alle neuesten Computer- und Datenverarbeitungsfunktionen implementiert mathematische Methoden Datenanalyse. Die Erfahrung vieler Menschen, die erfolgreich mit dem Paket gearbeitet haben, legt nahe, dass die Möglichkeit, auf neue, unkonventionelle Methoden der Datenanalyse zuzugreifen (und Statistica bietet diese Möglichkeiten in vollem Umfang), dabei hilft, neue Wege zum Testen von Arbeitshypothesen und zum Erkunden von Daten zu finden.

Mit der Statistica-Software können Sie die folgenden statistischen Datenverarbeitungsvorgänge durchführen:

  • Beschreibende Statistik;
  • Analyse mehrdimensionaler Tabellen;
  • Multivariate Regression;
  • Diskriminanzanalyse;
  • Korrespondenzanalyse;
  • Clusteranalyse;
  • Faktorenanalyse;
  • Varianzanalyse und vieles mehr.

In AHD verwendete Werkzeuge und ihre Klassifizierung

Als wesentliches Element ACD-Techniken bestehen aus technischen Techniken und Analysemethoden. Kurz gesagt, diese Methoden können aufgerufen werden Analysetools. Sie werden in verschiedenen Forschungsphasen verwendet für: A) Primärverarbeitung der gesammelten Informationen (Überprüfung, Gruppierung, Systematisierung); B) Untersuchung des Zustands und der Entwicklungsgesetze der untersuchten Objekte; C) Bestimmung des Einflusses von Faktoren auf die Ergebnisse von Aktivitäten; D) Berechnung ungenutzter und vielversprechender Reserven zur Steigerung der Produktionseffizienz;

D) Verallgemeinerung der Analyseergebnisse und umfassende Bewertung der Aktivitäten; E) Begründung wirtschaftlicher und sozialer Entwicklungspläne, Managemententscheidungen, verschiedene Veranstaltungen.

AHD verbraucht viel auf verschiedene Arten. Unter ihnen können wir hervorheben traditionelle Wege, die in anderen Disziplinen häufig zur Verarbeitung und Untersuchung von Informationen (Vergleiche, Grafiken, Bilanzen, Durchschnittswerte usw.) verwendet werden relative Zahlen, analytische Gruppen).

Um den Einfluss von Faktoren auf Geschäftsergebnisse zu untersuchen und Reserven in der Analyse zu berechnen, werden Methoden wie Kettensubstitutionen, absolute und relative Differenzen, Integralmethode, Korrelation, Komponente, Methoden der linearen, konvexen Programmierung und Theorie verwendet. Schlange stehen, Spieltheorie, Operations Research, heuristische Methoden zur Lösung wirtschaftlicher Probleme auf der Grundlage von Intuition, Erfahrungen aus der Vergangenheit, Experteneinschätzungen von Spezialisten usw. Der Einsatz bestimmter Methoden hängt vom Zweck und der Tiefe der Analyse, dem Untersuchungsgegenstand und den technischen Fähigkeiten von ab Berechnungen durchführen usw.

Analysewerkzeuge (Techniken):

1. Primärverarbeitung der gesammelten Informationen (Überprüfung, Gruppierung, Systematisierung).

2. Untersuchung des Zustands und der Entwicklungsmuster der untersuchten Objekte.

3. Bestimmung des Einflusses von Faktoren auf Leistungsergebnisse.

4. Berechnung ungenutzter und vielversprechender Reserven zur Effizienzsteigerung.

5. Verallgemeinerung der Analyseergebnisse und umfassende Bewertung der Unternehmensaktivitäten.

6. Begründung von Plänen zur wirtschaftlichen und sozialen Entwicklung. Begründung von Managemententscheidungen und verschiedenen Aktivitäten.


24. Anwendung der „Vergleichs“-Technik bei ACD, ihr Wesen, Zweck, Vergleichsarten

Eine äußerst wichtige Methode zur Untersuchung der Arbeit eines Unternehmens ist die Vergleichsmethode.

Wesen Bei dieser Technik handelt es sich um einen Vergleich homogener Objekte, um Ähnlichkeiten oder Unterschiede zwischen ihnen zu erkennen oder Trends in der Entwicklung des Management-(Forschungs-)Objekts festzustellen. Mit seiner Hilfe werden Veränderungen im Niveau der untersuchten Objekte festgestellt, Trends und Muster ihrer Entwicklung untersucht.

Vergleich– die wichtigste Erkenntnismethode und die älteste Technik der ACD.

Haupttypen Vergleiche: Ist-Daten mit gesetzten Zielen, Mit Durchschnittsdaten, Nach Struktureinteilungen, Verschiedene Optionen wirtschaftliche Entscheidungen, parallele und dynamische Zahlenreihen, tatsächliche Daten mit einer festgelegten Aufgabe, einem Plan, Standards, mit fortgeschrittenen Erfolgen, mit der vergangenen Periode, mit Indikatoren eines ähnlichen Unternehmens. In der Praxis werden die untersuchten Indikatoren vor dem Einsatz der Vergleichstechnik manchmal in eine vergleichbare Form gebracht. Aus dieser Perspektive sollten folgende Bedingungen für den Vergleich von Indikatoren beachtet werden: Identität der Zeiträume, Einheit von Raum, Territorium, Jahreszeit, Einheit der Berechnungsmethoden, Einheit quantitativer und struktureller Faktoren, Einheit der Bewertung. Sind die Indikatoren beispielsweise aufgrund einer Änderung des Produktionsvolumens nicht vergleichbar, kann ihre Vergleichbarkeit durch Umrechnung der vergleichbaren qualitativen Indikatoren auf die gleiche Menge (Neutralisierung des quantitativen Faktors) erreicht werden. Neutralisierung des Zeitfaktors. Wenn Kalenderzeiträume nicht vergleichbar sind, statt absolute Indikatoren Es werden durchschnittliche und relative Werte verwendet. Wachstumsrate, Wachstumsrate, Wachstumsrate. Wenn der Januar beispielsweise 24 Arbeitstage und der Februar 20 Arbeitstage hat, beträgt die Neuberechnung x*20/24 (Wachstumsrate), Vergleich – Y: x*20/24 (Beispiel für Produktionsvolumen). Detaillierungstechnik – diese Technik wird in der Analyse verwendet, um die Faktoren und Ergebnisse der Wirtschaftstätigkeit nach Zeit und Ort (Raum) zu unterteilen. Mit dieser Technik werden + und – Wirkungen von Faktoren identifiziert Produktionseinheiten Unternehmen und für einen bestimmten Zeitraum.

Daher werden wir uns heute mit grafischen Analysetools befassen, mit denen verschiedene Optionshandelssysteme erstellt werden können. Als Beispiel für einen Dienst grafischer Analysetools verwenden wir diesen auf der Handelsplattform des Binomo-Brokers präsentierten Toolplan, da dieser Satz in Bezug auf Effizienz und Vollständigkeit zu den fortschrittlichsten gehört.

Liniengrafik-Tool

Das grafische Analysetool Line ist für Fans von Price Action-Systemen unverzichtbar., also prognostizieren sauberer Zeitplan. Das grafische Tool „Linie“ wird häufig verwendet, um Trendniveaus oder geometrische Muster für den Wert eines Vermögenswerts für effektive Marktprognosen zu bilden. Strategie für binäre Optionen, bei der Es wird das grafische Analysetool Line verwendet ist ein Ansatz für den Handel auf Trendniveaus. Indem Sie die Hochs und Tiefs der Notierungen für einen bestimmten Zeitraum der Marktbewegung mit einer grafischen Linie verbinden, können Sie Preisniveaus identifizieren, die der Vermögenspreis auf natürliche Weise nutzt, um in die entgegengesetzte Richtung zu steigen.

Auch Mit dem grafischen Analysetool Line können Kanäle für Preisschwankungen erstellt werden Handelsvermögenswert. Solch Strategieoption mit einem grafischen Analysetool für binäre Optionen Line ermöglicht Ihnen den gleichzeitigen Empfang von Signalen für den Handel in zwei Richtungen der Marktbewegung.

Wir stellen außerdem fest, dass grafische Analysetools für binäre Optionen in der Lage sind, sicherzustellen, dass über 85 % der Handelsverträge mit Gewinn abgeschlossen werden.

Grafisches Analysetool-Rechteck

Das Rechteck-Grafiktool wird hauptsächlich für professionelle Strategien für binäre Optionen verwendet, die auf der Identifizierung bestimmter Marktzonen basieren, beispielsweise einer Konsolidierung oder einer Preislimitzone einer Handelssitzung. Betrachten wir als Beispiel für die Analyse mit dem grafischen Tool „Rechteck“ die klassische Technik Verwendung einer Konsolidierungszone. In diesem Fall Als Hauptarbeitswerkzeug dient das Rechteck in einer Strategie zur eindeutigen Identifizierung spezifischer Marktperioden, in denen der Preis eines Vermögenswerts seine Schwankungsbreite einschränkt.

Verwendung von Signalen für binäre Optionen, die durch die Aufschlüsselung von Grenzkursen angezeigt werden Konsolidierungszonen, die durch das grafische Analysetool „Rechteck“ hervorgehoben werden erhält der Händler die Möglichkeit, 87 % der ausgeführten Verträge mit Gewinn abzuschließen.

Schauen wir uns nun Handelsansätze mit halbautomatischen Analysediensten an, nämlich grafische Tools Fork und Fibonacci-Levels.

Grafische Tools zur Analyse – mit Fibonacci-Ebenen

Wir stellen sofort fest, dass der Binomo-Broker Angebote anbietet grafische Tools Fibonacci-Niveaus zur Analyse auf Ihrem Handelsplattform in mehreren Konstruktionsoptionen gleichzeitig, wodurch Sie über erweiterte Möglichkeiten zur Marktanalyse verfügen. Also mathematisch Die Technik zur Identifizierung von Fibonacci-Levels ist weit verbreitet unter professionellen Händlern. Grafisches Analysesystem mit Fibonacci-Ebenen Im klassischen Format gibt es das einfachste Format für die Darstellung von Handelssignalen:


Mit dieser Art der Handelsprognose können Sie bei 85 % der Kontrakte einen Gewinn erzielen. Außerdem, mit dem grafischen Analysetool Fibonacci Levels Sie können auch Ihre eigenen proprietären Strategien für binäre Optionen erstellen, die hohe Handelsergebnisse erzielen.

Fork-Grafiktool

Fork ist ein halbautomatisches Tool auf der grafischen Plattform, mit dem Sie Regressionskanäle erstellen können, wo Sie nicht nur die Marktextreme sehen können, sondern auch die Durchschnittswerte des Vermögenswertpreises, dem sich der Wert des Vermögenswerts während der Bewegung ständig nähert. Somit sind die allgemeinen Indikatoren und Preisbewegungsmuster, die ermittelt mit dem grafischen Analysetool Forks ermöglicht es, bis zu 90 % der Bestellungen mit profitablen Ergebnissen abzuwickeln, da das auf der Website angebotene Binomo Satz grafischer Analysetools ermöglicht es Händlern, ihre eigenen unterschiedlichen Strategien für Turbo-Optionen sowie klassische langfristige Verträge zu erstellen.

Forschungstools

Forschungsinstrumente sind eine Reihe von Forschungsdokumenten, mit deren Hilfe eine spezifische soziologische Studie durchgeführt wird. Die Art der soziologischen Instrumente hängt vollständig von den gewählten Methoden der Informationserhebung ab. Und deren konkreter Inhalt wird vom Forscher selbst bestimmt. Jede Methode wird durch eine eigene Reihe von Werkzeugen implementiert. Es ist jedoch möglich, bestimmte allgemeine Instrumente zu identifizieren, über die ein Forscher verfügen sollte, je nachdem, welche Strategie er wählt (qualitativ oder quantitativ).

Wenn der Forscher qualitative Methoden wählt, gehören zu seinen Werkzeugen:

Vorbereiteter Forschungsplan oder -szenario (Anhang 1);

Vorbereiteter Fragentext (den der Forscher später ergänzen oder kürzen kann) (Anhang 2);

Verschiedene Medien, auf denen die vorläufigen Ergebnisse der Studie festgehalten werden (Karten, Protokolle, Kodierformulare, Audio- oder Videomedien usw.) (Anlage 3);

Zusätzliche Anwendungen (Handouts, Präsentationen, Mikrofon, Computer usw.);

Wenn der Forscher quantitative Forschungsmethoden gewählt hat, sind seine Werkzeuge:

Vorgefertigte Texte von Fragebögen, Interviews, Umfragen usw. und seine Verbreitung (Anhang 1);

Antwortformulare (Anhang 4);

Anweisungen an Fragebögen, andere Forscher, wissenschaftliche Mitarbeiter usw. (wenn die Studie gleichzeitig an mehreren Orten durchgeführt wird) (Anlage 5);

Zusätzliche Tools (Audio- und Videomedien, Mikrofone usw.).

Es sei noch einmal darauf hingewiesen, dass die obige Liste der Recherchetools weder vollständig noch erschöpfend ist. Dies ist lediglich eine allgemeine Liste, die jeder Forscher entsprechend seiner Forschung hinzufügen oder entfernen kann.

Grundlegende Methoden der Datenanalyse

Die Analyse der gesammelten Informationen ist die spannendste Phase der Forschung. In dieser Phase wird überprüft, wie richtig die ursprünglichen Annahmen waren, und es werden Antworten gegeben Fragen gestellt und neue Probleme werden identifiziert. Methodisches Werkzeug zur Datenanalyse – Hypothesen, die im Programm formuliert wurden und die sich ergeben, wenn sie bereits im Prozess der Analyse der gesammelten Daten getestet und verworfen werden. Datenanalysemethoden in Soziologische Forschung sind eng mit der Verarbeitung dieser Daten verknüpft. Obwohl es keine klare Grenze zwischen diesen Prozessen gibt, wird allgemein angenommen, dass es sich bei der Verarbeitung um routinemäßige, mechanische Transformationen und bei der Analyse um komplexere Transformationen handelt, die mit Interpretation verknüpft sind.

Angesichts Hauptziel gegeben Kursarbeit- Ermittlung der Grundlagen für eine vergleichende Analyse quantitativer und qualitativer Methoden zur Diagnose von Jugendproblemen. Alle wesentlichen Methoden zur Analyse der im Forschungsprozess gewonnenen Daten werden entsprechend weiter unterteilt: Methoden der Datenanalyse in der qualitativen Forschung und Methoden der Datenanalyse in der quantitativen Forschung Forschung (siehe Tabelle 2)

Tabelle 2

Grundlegende Methoden der Datenanalyse in der qualitativen und quantitativen Forschung

In der qualitativen Forschung erfolgt die Datenanalyse mithilfe statistischer Methoden, zu denen Gruppierung, Klassifizierung und Typologie gehören.

Datengruppierungsmethode. Die Gruppierungsmethode ist die Grundlage für den Einsatz anderer Methoden der statistischen Analyse der Hauptaspekte und charakteristischen Merkmale der untersuchten Phänomene und Prozesse. Hinsichtlich ihrer Rolle im Forschungsprozess erfüllt diese Methode einige ähnliche Funktionen wie das Experiment in Naturwissenschaften: Durch die Gruppierung nach einzelnen Merkmalen und Kombinationen der Merkmale selbst hat die Statistik die Möglichkeit, Muster und Beziehungen zwischen Phänomenen in von ihr bestimmten Bedingungen zu erkennen. Mit der Gruppierungsmethode wird es möglich, den Zusammenhang zwischen verschiedenen Faktoren zu erkennen und die Stärke ihres Einflusses auf Leistungsindikatoren zu bestimmen. Es gibt folgende Arten von Gruppierungen: Unter einfacher Gruppierung versteht man die Klassifizierung bzw. Sortierung von Daten nach einem Kriterium. Die Sachverhaltsverknüpfung erfolgt hier nach einer deskriptiven Hypothese zum Leitzeichen der Gruppierung (bzw. Klassifikationszeichen).

Somit kann die Stichprobenpopulation je nach Hypothese nach Alter, Geschlecht, Beruf, Bildung, getroffenen Urteilen usw. gruppiert werden. Kreuzgruppierung (oder Kreuzklassifizierung) ist die Verknüpfung von nach zwei Indikatoren vorgeordneten Daten, um etwaige gegenseitige Abhängigkeiten zu erkennen, eine gegenseitige Überwachung von Indikatoren durchzuführen, einen neuen zusammengesetzten Index basierend auf der Kombination zweier Eigenschaften oder Zustände eines Objekts zu bilden und zu bestimmen Einfluss eines Phänomens (Merkmale, Eigenschaften) auf ein anderes. Eine der Aufgaben der Kreuzklassifizierung ist die Suche nach stabilen Verbindungen, die die strukturellen Eigenschaften des untersuchten Phänomens offenbaren. Je nach Aufgabenstellung werden typologische, strukturelle und analytische Gruppierungen unterschieden: Eine typologische Gruppierung ist eine Aufteilung der untersuchten Bevölkerung in homogene Gruppen; strukturelle Gruppierung – eine Gruppierung, bei der eine homogene Bevölkerung in Gruppen unterteilt wird, die ihre Struktur anhand unterschiedlicher Merkmale charakterisieren; Die analytische (faktorielle) Gruppierung ermöglicht es uns, Beziehungen zwischen den untersuchten Phänomenen und ihren Eigenschaften zu identifizieren. Quantitative qualitative Forschungssoziologie

Typologie. Mithilfe der typologischen Analyse wird nach Erkenntnissen über die Realität gesucht vorhandene Typen(Formen, Typen) des untersuchten sozialen Phänomens. Es gibt auch mehrere Haupttypen der Typologisierung: Die empirische Typologisierung ist die leistungsstärkste Technik der deskriptiven Analyse. Charakteristisch für diese Methode ist die Suche nach stabilen Kombinationen von Eigenschaften sozialer Objekte oder Phänomene, die gemäß deskriptiven Hypothesen in mehreren Dimensionen gleichzeitig betrachtet werden. Die theoretische (oder konstruierte) Typologie ist eine Methode zur Verallgemeinerung der Merkmale sozialer Phänomene auf der Grundlage eines idealen theoretischen Modells und nach theoretisch fundierten Kriterien. Die Analyse der erhaltenen Daten gemäß der theoretischen Typologie umfasst: Bestimmung der Verteilungshäufigkeiten für jeden Typ; Untersuchung von Abweichungen von idealisierten Modellen entlang einzelner Parameter und, wenn möglich, Messung der Intensität und Wahrscheinlichkeit dieser Abweichungen.

Einstufung. Die Klassifizierungsmethode kann als der Prozess definiert werden, bei dem der Inhalt von Textinformationen in eine bestimmte verallgemeinerte Kategorie – in eine Klasse – zusammengefasst wird. Es ist notwendig, verschiedene Informationen (Beweise), die von einem Befragten innerhalb eines „Falls“ erhalten wurden, zu vergleichen oder diesen „Fall“ mit ähnlichen zu vergleichen, d. h. Die Klassifizierung erfolgt durch die Identifizierung von Fällen.

Methoden zur Analyse der in der qualitativen Forschung gewonnenen Daten:

Beschreibung der Fälle. IN allgemeine Beschreibung kann als eine Auflistung aller Merkmale des Analyseobjekts (d. h. Ereignisse) definiert werden, die den Forscher interessieren. In der qualitativen Forschung wird eine solche Beschreibung als reichhaltige, dichte Beschreibung bezeichnet, in der neben der Erfassung des Ereignisses oder der Beziehung selbst auch deren Kontext sowie die subjektive Bedeutung dieses Ereignisses für die Teilnehmer dieser Aktion hervorgehoben werden sollen und wie der Prozess ablief. Es ist wichtig, dass die Beschreibung so konkret und umfassend wie möglich ist. Diese Phase umfasst ein Minimum an explorativen Bewertungen.

Inhaltsanalyse: Anhand einer Liste codierter Kategorien wird jedes Segment der aufgezeichneten Daten einer der Kategorien zugeordnet. Dies kann manuell oder bei großen Datenmengen mithilfe von erfolgen Computerprogramme. Aussagen aller Teilnehmer zu einem bestimmten Thema können miteinander verglichen und daraus komplexere Schlussfolgerungen gezogen werden, zum Beispiel „Stimmt es, dass Personen, die A angegeben haben, auch dazu neigen, B zu sagen?“

Verallgemeinerungen von Ideen aus gesammelten Beweisen ist auch eine Möglichkeit zur Datenanalyse in der qualitativen Forschung.

Abschließend ist festzuhalten, dass bei der Forschung mit quantitativen Methoden das Endergebnis die Präsentation von Daten in Form von Tabellen und der Nachweis von Hypothesen auf systematische Weise ist. In der qualitativen Forschung kann die Art und Weise, wie Daten, Hypothesen und Theorien präsentiert werden, in unterschiedlichen Kombinationen präsentiert werden, abhängig vom Zweck und Schwerpunkt der Veröffentlichung: an wen sie sich richtet (Kollegen, Studierende oder die breite Öffentlichkeit) und was sie ist Der Fokus liegt auf (dem Papier selbst). Lebenssituation oder deren Analyse durch den Forscher).