Induktion von Entscheidungsbäumen mit CHAID

Johannes Lüken / Dr. Heiko Schimmelpfennig Zu den bekanntesten Algorithmen für das Aufstellen von Entscheidungsbäumen zählt CHAID (Chi-squared Automatic Interaction Detector). Ein solcher Entscheidungsbaum veranschaulicht die hierarchische Aufteilung eines Datensatzes in immer homogener werdende Teilgruppen. Am Beispiel einer Kundenzufriedenheitsanalyse wird das Verfahren vorgestellt und gezeigt, wie Kombinationen von Variablen ermittelt werden, die Segmente zufriedener und unzufriedener Kunden definieren.   (Fiktives) Beispiel Von 1100 Kunden eines Online-Shops wurde neben der Gesamtzufriedenheit die Zufriedenheit mit dem Bestellvorgang,…

Bedeutung der Effektstärke

Johannes Lüken / Dr. Heiko Schimmelpfennig Ein signifikantes Ergebnis eines statistischen Tests wird häufig gleich gesetzt mit hoher Relevanz zum Beispiel für Entscheidungen. Diese Gleichung geht jedoch aufgrund der Abhängigkeit der Signifikanz vom Stichprobenumfang nicht ohne weiteres auf. Zur Beurteilung der Relevanz eines Ergebnisses sollte deshalb mit der Effektstärke ein weiteres Maß herangezogen werden.   Statistische Signifikanz vs. Relevanz Was bedeutet statistisch signifikant? Wir gehen davon aus, dass ein Effekt – ein Unterschied zwischen zwei…

Datenschutz bei Mitarbeiterbefragungen

Befragung ist nicht gleich Befragung. So ist ein spontanes Meinungsbild über bekannte und verwendete Markenprodukte schnell einmal eingeholt. Das gilt jedoch nicht gleichermaßen für alle Umfragethemen. Spätestens beim Thema „Mitarbeiterbefragung“ steigt die Sensibilität bei allen Stakeholdern. Kein Wunder, denn hier geht es darum, dass Menschen ihre Einstellungen, Erwartungen und Bedürfnisse, aber auch Sorgen, Kritik und Unzufriedenheiten hinsichtlich ihres Arbeitgebers, ihrer Kollegen, ihrer Vorgesetzten etc.  preisgeben – und dies in vollstrukturierten „Formularen“ wie Paper-Pencil-, Computer- oder…

Die Alternative zu Netigate: Mit der CIS Survey Software die eigene Domain im Befragungslink

Jetzt www.deine-eigene-domain.de bei CIS-Online-Umfragen

Wir waren wieder fleißig für Sie. Mit der SNI-Technologie können Sie jetzt Ihren individuellen Wunsch-Hostnamen im Befragungslink verwenden. Warum das wichtig sein kann und wie es funktioniert erfahren Sie hier. Wer Online-Umfragen professionell durchführt, möchte bei der Gestaltung der Fragebogen-Seiten oder Feedback-Formulare keine Kompromisse eingehen. Neben den rein funktionalen Aspekten wie der Fragebogen-Steuerung, dem responsiven Design und der Usability spielt auch das professionelle Corporate Design eine entscheidende Rolle. Denn ein Online-Fragebogen ist mehr als nur…

Mittelwertvergleiche mittels t-Test

Johannes Lüken / Dr. Heiko Schimmelpfennig Der t-Test für unverbundene bzw. unabhängige Stichproben zählt zu den am häufigsten genutzten statistischen Tests. Er überprüft, ob sich die Mittelwerte metrischer Merkmale in zwei Test- oder Teilgruppen signifikant voneinander unterscheiden.   Einführungsbeispiel Auf einer 7-stufigen Rating-Skala wurde die Kaufabsicht für ein neues Produkt erhoben. Die durchschnittliche Kaufabsicht beträgt in der (Teil-)Stichprobe der weiblichen Befragten 5, in der der männlichen Befragten 4. Ist der Unterschied signifikant? Auskunft darüber gibt…

Klassifizieren mittels Diskriminanzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Zu den Aufgaben der Diskriminanzanalyse zählt die Identifikation der Eigenschaften, hinsichtlich der sich Objekte verschiedener Gruppen unterscheiden (siehe Blog-Beitrag „Diskriminanzanalyse“). Größere praktische Bedeutung besitzt sie jedoch als Klassifizierungs- bzw. Allokationstool, dessen Ziel in der Zuordnung von Objekten mit unbekannter Gruppenzugehörigkeit zu den vorgegebenen Gruppen besteht.   Typisches Beispiel für das Klassifizieren (neuer) Objekte Häufig ist die Gruppenzugehörigkeit das Resultat einer Clusteranalyse. Personen, die nicht Teil der Clusteranalyse waren, lassen…

Diskriminanzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Ausgehend von einer Gruppierung von Objekten beschäftigt sich eine Diskriminanzanalyse mit der Identifikation der Variablen bezüglich derer sich diese Gruppen voneinander trennen lassen Zuordnung von „neuen“ Objekten zu den Gruppen auf Basis ihrer Variablenausprägungen (Klassifizieren) Mit der ersten Aufgabe befasst sich dieser Beitrag, mit der zweiten der kommende Beitrag dieser Reihe.   Ableitung der Diskriminanzfunktionen Abbildung 1 zeigt 12 Objekte, die anhand von zwei Eigenschaften charakterisiert und jeweils einer…

Latent-Class-Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Klassische Verfahren der Clusteranalyse weisen ein Objekt eindeutig einem Cluster zu. Ergebnis einer Latent-Class-Clusteranalyse sind dagegen Wahrscheinlichkeiten, mit denen Objekte den einzelnen Clustern zugeordnet werden. Es wird davon ausgegangen, dass latente (nicht beobachtbare) Klassen für Unterschiede in den Daten mit verantwortlich sind.   Einführungsbeispiel In einer Befragung zur Ermittlung der Präferenzen beim Reisen wurde unter anderem gefragt wie Reisen gebucht werden: (a) überwiegend Online / (b) überwiegend Reisebüro /…

🎄 Frohe Weihnachten 🎄

 Natürlich haben Sie Recht, „ … das muss noch schnell erledigt werden, das Angebot noch raus, der Bericht vor dem Fest druckreif gestaltet werden …“, aber halt, jetzt ist auch mal die Zeit zum Durchatmen, sich auf alles Mögliche freuen und Innehalten. Gönnen Sie sich Momente der Gelassenheit und Vorfreude. Wir wünschen Ihnen – und uns auch – zwischendurch ein paar besinnliche und beschauliche Stunden in dieser wunderschönen Spät-Adventszeit. Beste vorweihnachtliche Grüße aus Hamburg von…

Dynamischer Signifikanztest im Analyzer Dashboard www,reportbook.de

Dashboard reportbook jetzt mit Signifikanztest

Signifikanztests in Tabellen und Dashboards sind eigentlich nichts Besonderes. Meist weisen kleine Buchstaben auf signifikante Abweichungen hin, und dann beginnt die Suche nach den dazugehörigen Werten. In reportbook erkennen Sie jetzt signifikante Abweichungen, deren Niveau und Ausrichtung auf einen Blick. Mit der Maus oder dem Finger werden ihre Erkenntnisse dann noch detaillierter. Hier können Sie den Signifikanztest von reportbook gleich einmal testen. Mehr Informationen von Peter Sonneck +49 40 25 17 13 64 psonneck@ifad.de  …

R&R-Workshop „Conjoint meets Preispsychologie“

Am 26. Oktober haben wir auf der Messe R&R in München einen Workshop mit dem Titel „Kaufen sie oder nicht? Realistischere Conjoints durch Modellierung von Preispsychologie, Trägheit und externen Effekten“ gestaltet. Wir stellten eine Conjoint-Studie mit 2.500 Neuwageninteressenten in Deutschland und China vor, auf deren Basis segmentspezifische Markttrends für Elektroautos, Plug-in-Hybriden und Benzinern unter Berücksichtigung von preispsychologischem Verhalten, Trägheitseffekten und rechtlichen Förderszenarien simuliert werden. Wegen der hohen Nachfrage haben wir das Skript nun auf unserer…

Entscheidungsbäume

Johannes Lüken / Dr. Heiko Schimmelpfennig Allgemein stellen Entscheidungsbäume den Weg zu einer Entscheidung grafisch dar. In der Marktforschung werden sie eingesetzt, um Segmente zu bilden und Klassifikationsregeln zu bestimmen. Ziele Im Gegensatz zu der zumeist zur Segmentierung genutzten Clusteranalyse differenzieren Entscheidungsbäume zwischen einer abhängigen Variable und unabhängigen Variablen. Ziel ist es, Segmente in einer Stichprobe zu finden, die durch die unabhängigen Variablen definiert und hinsichtlich der abhängigen Variable möglichst homogen sind. Somit helfen Entscheidungsbäume…

Bestimmung der Clusteranzahl

Johannes Lüken / Dr. Heiko Schimmelpfennig Im Allgemeinen strebt man an, mithilfe einer Clusteranalyse möglichst wenige Gruppen zu identifizieren, weil eine kleine Anzahl an Segmenten (zum Beispiel Kundengruppen) einfacher zu handhaben ist. Gleichwohl geht eine geringere Anzahl an Clustern immer zu Lasten der Homogenität der Gruppen. Daher werden mit einer Clusteranalyse zumeist mehrere Klassifikationen unterschiedlicher Clusteranzahlen erzeugt, aus denen dann diejenige auszuwählen ist, die beiden Anforderungen am besten gerecht wird. Anhaltspunkte für diese Entscheidung sind…

Partitionierende Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Partitionierende Verfahren zählen neben den hierarchischen zu den bedeutendsten Methoden der Clusteranalyse. Sie gehen von einer gegebenen Klassifikation der Elemente aus und versuchen diese durch Umgruppierungen zu verbessern. Beide Verfahrenstypen sind aber nicht sich ausschließende Alternativen, sondern können gemeinsam eingesetzt werden, um die Stärken beider zu nutzen. K-Means-Algorithmus Das bekannteste Verfahren der partitionierenden Clusteranalyse basiert auf dem K-Means-Algorithmus, der folgende Schritte umfasst: Für eine vorgegebene Anzahl an Clustern wird…

Hierarchische Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Neben den partitionierenden zählen die hierarchischen Verfahren zu den bedeutendsten Methoden der Clusteranalyse. Sie fassen die zu gruppierenden Elemente schrittweise zu immer größeren Clustern zusammen. Dagegen gehen partitionierende Verfahren von einer gegebenen Klassifikation der Elemente aus und versuchen diese durch Umgruppierungen zu verbessern.   Verfahren der Hierarchischen Clusteranalyse Hierarchische Verfahren werden unterteilt in agglomerative und divisive Algorithmen. Praktische Relevanz besitzt jedoch nur die agglomerative Vorgehensweise. Im Fall einer deterministischen…

Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Segmentierung von Nachfragern anhand ihrer Präferenzen bzw. von Produkten anhand ihrer Eigenschaften oder die Bestimmung von Konsumententypologien mittels psychografischer Merkmale zählen zu den klassischen Anwendungsgebieten der Clusteranalyse. Daneben eröffnen die verschiedenen Varianten viele weitere Anwendungsmöglichkeiten.   Homogenität und Heterogenität von Clustern Ziel einer Clusteranalyse ist es zumeist, eine Menge von Objekten wie Personen oder Produkten so in Gruppen, Klassen bzw. Clustern zusammenzufassen, dass diese in sich homogen sind,…

Varianzanalyse mit Messwiederholung

Johannes Lüken / Dr. Heiko Schimmelpfennig Wenn eine Person Bewertungen zu verschiedenen Objekten – beispielsweise Marken – abgibt oder bei ihr Erhebungen zu mehreren Zeitpunkten erfolgen, sind die Messwerte voneinander abhängig. Ob sich die zweiten Messungen einer Variable signifikant von den ersten unterscheiden, kann mit einem t-Test für abhängige Stichproben überprüft werden. Liegen Messwerte zu mehr als zwei Zeitpunkten vor, wird eine Varianzanalyse mit Messwiederholung eingesetzt. Um den Vorteil dieser Verfahren gegenüber der Anwendung des…

Das Messe-Team von IfaD auf der Research & Results 2017

  IfaD’s Eleven 2017 Das ist unser Messe-Team auf der Marktforschungsmesse Research & Results 2017 in München. Erfahren Sie hier mehr über jeden einzelnen und vereinbaren Sie direkt einen persönlichen Termin mit Ihrem Ansprechpartner. Wir freuen uns auf Ihren Besuch am Stand 151 in Halle 1!   Geschäftsführung           Martin Cyrus,  Geschäftsführer Geschäftsführer und Gesellschafter von IfaD, er ist IfaD und IfaD ist Martin Cyrus. Als Mann der ersten Stunde (schon…

Shapley Value

Johannes Lüken / Dr. Heiko Schimmelpfennig Der Shapley Value ist ein Lösungskonzept der kooperativen Spieltheorie. Die ihm zugrunde liegende Berechnungsvorschrift findet darüber hinaus für Treiberanalysen sowie Produktlinien- oder Sortimentsoptimierungen Anwendung.   Der Shapley Value in der Spieltheorie Die kooperative Spieltheorie untersucht, wie die Teilnehmer an einem Spiel durch die Bildung von Koalitionen ihren eigenen Nutzen maximieren können. Ein Beispiel: Drei Einzelhändlern – den Spielern 1, 2 und 3 – ist es möglich, durch Zusammenschlüsse zu…

Ein Must für Marktforscher: die R&R 2017

Begegnungs-Marketing ist wichtiges Instrument Es heißt zwar heutzutage „every business is a digital business“, aber B2B-Geschäfte ohne Augenkontakt und Händedruck sind für die meisten von uns nach wie vor nicht vorstellbar. So ist es denn auch kein Wunder, wenn die Veranstalter der Research & Results 3.200 Teilnehmer in München erwarten, 175 Aussteller und 104 Workshops melden. Begegnungs-Marketing ist auch für die doch überschaubare Familie der Marktforscher ein wichtiges Instrument, als Anbieter wie als Nachfrager. Die…

Total Unduplicated Reach and Frequency (TURF)

Johannes Lüken / Dr. Heiko Schimmelpfennig Total Unduplicated Reach (Nettoreichweite) und Frequency (Frequenz) sind Kennzahlen, die aus der Mediaplanung stammen. Eine TURF-Analyse nutzt sie insbesondere zur Unterstützung von Entscheidungen über das Produktprogramm oder das Sortiment. Eingesetzt werden sie beispielsweise, um die richtige Auswahl an Farben, Düften oder Geschmacksrichtungen zu treffen.   Nettoreichweite und Frequenz Die Nettoreichweite ist die Anzahl oder der Anteil der Personen in einer Stichprobe, die zumindest ein Produkt eines Sortiments bzw. eine…

Conjoint meets Preispsychologie auf der R&R 2017

Manch Auftraggeber befürchtet, dass Conjoints Marktdynamiken und irrationales Verhalten nur unvollkommen berücksichtigen und somit Ergebnisse nur eingeschränkt für seine Business-Planungen nutzbar sind. Johannes Lüken (IfaD) und Yvonne Martini (mm customer strategy) werden auf der Research&Results 2017 eine Conjoint-Studie mit 2.500 Neuwageninteressenten in Deutschland und China vorstellen, auf deren Basis segmentspezifische Markttrends für Elektroautos, Plug-in-Hybriden und Benzinern unter Berücksichtigung von preispsychologischem Verhalten, Trägheitseffekten und rechtlichen Förderszenarien simuliert werden. „Kaufen sie oder nicht? Realistischere Conjoints durch Modellierung von Preispsychologie,…

Shopper Reseaerch mit der Umfrage App CIS von IfaD

Bestes vom Umfragetool CIS: Shopper Research am Regal

Die Entscheidung darüber, welches Produkt von welcher Marke im Einkaufswagen landet, treffen Kunden sehr häufig erst am Regal im Supermarkt. Diesem oft als „Moment der Wahrheit“ bezeichneten Zeitpunkt geht nicht selten eine Such- und Orientierungsphase voraus, in der sich ein Produkt mit seiner Platzierung, seiner Verpackung, seinem Markenversprechen, seiner Wiedererkennung und einigem mehr behaupten muss. Shopper Research hat sich zur Aufgabe gesetzt, unter anderem diese „Momente der Wahrheit“ zu untersuchen und zu analysieren. Verschiedene Forschungsansätze…

Maximum Difference Scaling (MaxDiff)

Maximum Difference Scaling (MaxDiff) Johannes Lüken / Dr. Heiko Schimmelpfennig Maximum Difference Scaling (MaxDiff) bzw. Best-Worst-Scaling ist ein Verfahren zur Messung der Wichtigkeit oder Präferenz beispielsweise von Produkteigenschaften, Marken oder Werbeslogans. Im Allgemeinen trennt es besser zwischen den zu beurteilenden Items als entsprechende Abfragen auf einer Ratingskala bzw. vereinfacht die Erhebung im Vergleich zu einer Konstantsummenskala.   Klassisches MaxDiff Aus einer vorgegebenen Menge von Items wird jedem Befragten mehrfach eine Teilmenge aus zumeist drei bis…

Analytic Hierarchy Process (AHP)

Johannes Lüken / Dr. Heiko Schimmelpfennig Ursprünglich ist der AHP ein Instrument zur Entscheidungsunterstützung, das auf Basis hierarchisch strukturierter Ziele eine Rangordnung von Alternativen ermittelt. Eingesetzt wird er unterdessen ebenfalls zur Präferenzmessung. Im Gegensatz zur Conjoint-Analyse finden keine ganzheitlichen Beurteilungen von Konzepten statt, sondern werden wiederholt einzelne Merkmale bzw. Ausprägungen miteinander verglichen.   Datenerhebung Zur Präferenzmessung werden Merkmale und Ausprägungen, aus denen sich zum Beispiel ein Produkt zusammensetzt, hierarchisch angeordnet. Eine einfache Hierarchie bildet das…

Menu Based Choice (MBC)

Johannes Lüken / Dr. Heiko Schimmelpfennig In vielen Kaufsituationen wählt der Entscheider aus fertigen Produkten (zum Beispiel Shampoos, Fernsehgeräten oder Pauschalreisen) aus. Um diese Art der Kaufentscheidung abzubilden, eignen sich Conjoint-Verfahren. Anders ist das jedoch bei Fahrzeugen, Menüs im Restaurant oder Versicherungen. Hier sind die Kombinationsmöglichkeiten meistens vielfältig und die Annahme einer „First Choice“ aus vordefinierten Produkten entspricht nicht der Realität. Das Menu Based Choice (MBC) ermöglicht die Untersuchung dieser Art von Entscheidungssituationen. Es analysiert…

Mehrfaktorielle Varianzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Häufig interessiert der Einfluss, den zwei oder mehr Merkmale auf eine metrische Variable besitzen. Sind die unabhängigen Merkmale nominal skaliert, kann dazu die mehrfaktorielle Varianzanalyse eingesetzt werden. Um die ihr zugrunde liegende Idee darzustellen, genügt die Betrachtung der zweifaktoriellen Varianzanalyse.   Zweifaktorielle Varianzanalyse Es soll herausgefunden werden, ob die Kaufbereitschaft für ein Produkt von der Verpackung abhängt, die sich in Form (quadratisch oder rund) und Farbe (rot, blau oder…

Data Sciences brauchen Consulting

„Data Science … bezeichnet generell die Extraktion von Wissen aus Daten. Der Studiengang Data Science verwendet Techniken und Theorien aus den Fächern Mathematik, Statistik und Informationstechnologie, einschließlich der Signalverarbeitung, verwendet Wahrscheinlichkeitsmodelle, des maschinellen Lernens, des statistischen Lernens, der Computerprogrammierung, der Datentechnik, der Mustererkennung, der Prognostik, der Modellierung von Unsicherheiten und der Datenlagerung.“ (Wikipedia) Bei der Anwendung von Verfahren der Data Sciences handelt es sich in der Regel um komplexe Vorgänge, für die ein ausgeprägtes Fachwissen…

Clustern – Der Clou von 2/Clu

Bei der Analyse quantitativer Daten möchte man die Ergebnisse in der Regel nicht nur in der Totalen interpretieren, sondern auch für in sich homogene Gruppen. Solche Teilgruppen lassen sich ohne weiteren analytischen Aufwand Adhoc definieren, etwa über soziodemographische Variablen wie Alter, Geschlecht, Einkommen, Kundengruppe wie Gelegenheitskunden, Stammkunden, Nichtkunden etc. Wenn aber Personen, die eine annähernd einheitliche Meinung zum Ziel haben, in möglichst homogene Untergruppen oder Cluster eingeteilt werden sollen, ist eine Clusteranalyse gefragt. Die anerkannten…

Maximum-Likelihood-Schätzung

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Maximum-Likelihood (ML)-Methode zählt zu den gängigsten Verfahren zur Schätzung von Parametern einer Grundgesamtheit auf Basis einer Stichprobe. Ihr Grundgedanke ist, den Wert eines Parameters so zu bestimmen, dass das Auftreten der konkreten Beobachtungen in der Stichprobe am wahrscheinlichsten ist.   Maximum-Likelihood-Prinzip Ein Anbieter möchte wissen, mit welcher Wahrscheinlichkeit ein Kunde infolge eines Mailings bei ihm kauft. Bezeichnet p diese Wahrscheinlichkeit, so ist 1-p die Wahrscheinlichkeit, dass kein Kauf…