Zurück zur Übersicht
Mit Conjoint bringen Sie Ihr Innovationsmarketing voran

Innovationsmarketing mit Conjoint

Eine erfolgreiche Innovation braucht das passende Marketing – und das Marketing braucht Innovation für den Produkterfolg. Beim Innovationsmarketing geht es nicht nur um die Vermarktung neuer Produkte, sondern auch um die Erforschung der – aktuellen und zukünftigen – Kundenbedürfnisse, mögliche Marktpotentiale und Konzept- und Prototypentests mit Kunden. Produkte und Dienstleistungen müssen marktgerecht und auf den Kundennutzen ausgerichtet gestaltet werden.  Typische Fragen, denen sich Marktforschung und Innovationsmarketing gegenüber stehen, sind beispielsweise: Welche Produktmerkmale sind für den…

So wählen Sie das richtige Conjoint-Verfahren

Das richtige Conjoint-Verfahren

Sie möchten; Ihre Produkte oder Dienstleistungen marktgerecht und auf den Kundennutzen ausgerichtet gestalten? Dann sollten Sie in Erfahrung bringen, welche Produktmerkmale für den Kunden kaufentscheidend sind, wo möglichen Kaufschwellen liegen und wo der optimale Preis liegt. Denn diese Informationen helfen Ihnen dabei, die Produktkonfiguration mit den besten Marktchancen zu identifizieren – eine fundierte Entscheidungshilfe für Management und Innovationsmarketing. Dem kundenindividuellen Nutzen können Sie am besten über eine Primärerhebung ermitteln, der die Produktmerkmale und deren Ausprägungen…

Planung des Stichprobenumfangs

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Abhängigkeit des Ergebnisses eines Signifikanztests vom Stichprobenumfang führt zu einem Dilemma: Ist der Stichprobenumfang hoch, werden Effekte – zum Beispiel Unterschiede zwischen zwei Mittel- oder Anteilswerten – als signifikant ausgewiesen, obwohl sie aus praktischer Sicht irrelevant sind. Ist er gering, bleiben praktisch relevante Effekte durch einen statistischen Test unerkannt. Gibt man vor, ab welcher Stärke Effekte relevant sind, lässt sich ein optimaler Stichprobenumfang bestimmen, so dass diese Effekte…

Power eines statistischen Tests

Johannes Lüken / Dr. Heiko Schimmelpfennig Ab und an ist man vielleicht verwundert, dass zum Beispiel ein Unterschied zwischen zwei Mittelwerten als nicht signifikant ausgewiesen wird. Ob dann davon ausgegangen werden soll, dass tatsächlich kein Unterschied besteht, ist abhängig von der Power des Tests bzw. der Teststärke. Das heißt es ist zu überprüfen, ob der Effekt eine „faire“ Chance hatte, auf Basis der Stichprobe erkannt zu werden.   Signifikanztest und Signifikanzniveau Ein Signifikanztest beginnt mit…

Induktion von Entscheidungsbäumen mit CHAID

Johannes Lüken / Dr. Heiko Schimmelpfennig Zu den bekanntesten Algorithmen für das Aufstellen von Entscheidungsbäumen zählt CHAID (Chi-squared Automatic Interaction Detector). Ein solcher Entscheidungsbaum veranschaulicht die hierarchische Aufteilung eines Datensatzes in immer homogener werdende Teilgruppen. Am Beispiel einer Kundenzufriedenheitsanalyse wird das Verfahren vorgestellt und gezeigt, wie Kombinationen von Variablen ermittelt werden, die Segmente zufriedener und unzufriedener Kunden definieren.   (Fiktives) Beispiel Von 1100 Kunden eines Online-Shops wurde neben der Gesamtzufriedenheit die Zufriedenheit mit dem Bestellvorgang,…

Bedeutung der Effektstärke

Johannes Lüken / Dr. Heiko Schimmelpfennig Ein signifikantes Ergebnis eines statistischen Tests wird häufig gleich gesetzt mit hoher Relevanz zum Beispiel für Entscheidungen. Diese Gleichung geht jedoch aufgrund der Abhängigkeit der Signifikanz vom Stichprobenumfang nicht ohne weiteres auf. Zur Beurteilung der Relevanz eines Ergebnisses sollte deshalb mit der Effektstärke ein weiteres Maß herangezogen werden.   Statistische Signifikanz vs. Relevanz Was bedeutet statistisch signifikant? Wir gehen davon aus, dass ein Effekt – ein Unterschied zwischen zwei…

Mittelwertvergleiche mittels t-Test

Johannes Lüken / Dr. Heiko Schimmelpfennig Der t-Test für unverbundene bzw. unabhängige Stichproben zählt zu den am häufigsten genutzten statistischen Tests. Er überprüft, ob sich die Mittelwerte metrischer Merkmale in zwei Test- oder Teilgruppen signifikant voneinander unterscheiden.   Einführungsbeispiel Auf einer 7-stufigen Rating-Skala wurde die Kaufabsicht für ein neues Produkt erhoben. Die durchschnittliche Kaufabsicht beträgt in der (Teil-)Stichprobe der weiblichen Befragten 5, in der der männlichen Befragten 4. Ist der Unterschied signifikant? Auskunft darüber gibt…

Klassifizieren mittels Diskriminanzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Zu den Aufgaben der Diskriminanzanalyse zählt die Identifikation der Eigenschaften, hinsichtlich der sich Objekte verschiedener Gruppen unterscheiden (siehe Blog-Beitrag „Diskriminanzanalyse“). Größere praktische Bedeutung besitzt sie jedoch als Klassifizierungs- bzw. Allokationstool, dessen Ziel in der Zuordnung von Objekten mit unbekannter Gruppenzugehörigkeit zu den vorgegebenen Gruppen besteht.   Typisches Beispiel für das Klassifizieren (neuer) Objekte Häufig ist die Gruppenzugehörigkeit das Resultat einer Clusteranalyse. Personen, die nicht Teil der Clusteranalyse waren, lassen…

Diskriminanzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Ausgehend von einer Gruppierung von Objekten beschäftigt sich eine Diskriminanzanalyse mit der Identifikation der Variablen bezüglich derer sich diese Gruppen voneinander trennen lassen Zuordnung von „neuen“ Objekten zu den Gruppen auf Basis ihrer Variablenausprägungen (Klassifizieren) Mit der ersten Aufgabe befasst sich dieser Beitrag, mit der zweiten der kommende Beitrag dieser Reihe.   Ableitung der Diskriminanzfunktionen Abbildung 1 zeigt 12 Objekte, die anhand von zwei Eigenschaften charakterisiert und jeweils einer…

Latent-Class-Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Klassische Verfahren der Clusteranalyse weisen ein Objekt eindeutig einem Cluster zu. Ergebnis einer Latent-Class-Clusteranalyse sind dagegen Wahrscheinlichkeiten, mit denen Objekte den einzelnen Clustern zugeordnet werden. Es wird davon ausgegangen, dass latente (nicht beobachtbare) Klassen für Unterschiede in den Daten mit verantwortlich sind.   Einführungsbeispiel In einer Befragung zur Ermittlung der Präferenzen beim Reisen wurde unter anderem gefragt wie Reisen gebucht werden: (a) überwiegend Online / (b) überwiegend Reisebüro /…

R&R-Workshop „Conjoint meets Preispsychologie“

Am 26. Oktober haben wir auf der Messe R&R in München einen Workshop mit dem Titel „Kaufen sie oder nicht? Realistischere Conjoints durch Modellierung von Preispsychologie, Trägheit und externen Effekten“ gestaltet. Wir stellten eine Conjoint-Studie mit 2.500 Neuwageninteressenten in Deutschland und China vor, auf deren Basis segmentspezifische Markttrends für Elektroautos, Plug-in-Hybriden und Benzinern unter Berücksichtigung von preispsychologischem Verhalten, Trägheitseffekten und rechtlichen Förderszenarien simuliert werden. Wegen der hohen Nachfrage haben wir das Skript nun auf unserer…

Entscheidungsbäume

Johannes Lüken / Dr. Heiko Schimmelpfennig Allgemein stellen Entscheidungsbäume den Weg zu einer Entscheidung grafisch dar. In der Marktforschung werden sie eingesetzt, um Segmente zu bilden und Klassifikationsregeln zu bestimmen. Ziele Im Gegensatz zu der zumeist zur Segmentierung genutzten Clusteranalyse differenzieren Entscheidungsbäume zwischen einer abhängigen Variable und unabhängigen Variablen. Ziel ist es, Segmente in einer Stichprobe zu finden, die durch die unabhängigen Variablen definiert und hinsichtlich der abhängigen Variable möglichst homogen sind. Somit helfen Entscheidungsbäume…

Bestimmung der Clusteranzahl

Johannes Lüken / Dr. Heiko Schimmelpfennig Im Allgemeinen strebt man an, mithilfe einer Clusteranalyse möglichst wenige Gruppen zu identifizieren, weil eine kleine Anzahl an Segmenten (zum Beispiel Kundengruppen) einfacher zu handhaben ist. Gleichwohl geht eine geringere Anzahl an Clustern immer zu Lasten der Homogenität der Gruppen. Daher werden mit einer Clusteranalyse zumeist mehrere Klassifikationen unterschiedlicher Clusteranzahlen erzeugt, aus denen dann diejenige auszuwählen ist, die beiden Anforderungen am besten gerecht wird. Anhaltspunkte für diese Entscheidung sind…

Partitionierende Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Partitionierende Verfahren zählen neben den hierarchischen zu den bedeutendsten Methoden der Clusteranalyse. Sie gehen von einer gegebenen Klassifikation der Elemente aus und versuchen diese durch Umgruppierungen zu verbessern. Beide Verfahrenstypen sind aber nicht sich ausschließende Alternativen, sondern können gemeinsam eingesetzt werden, um die Stärken beider zu nutzen. K-Means-Algorithmus Das bekannteste Verfahren der partitionierenden Clusteranalyse basiert auf dem K-Means-Algorithmus, der folgende Schritte umfasst: Für eine vorgegebene Anzahl an Clustern wird…

Hierarchische Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Neben den partitionierenden zählen die hierarchischen Verfahren zu den bedeutendsten Methoden der Clusteranalyse. Sie fassen die zu gruppierenden Elemente schrittweise zu immer größeren Clustern zusammen. Dagegen gehen partitionierende Verfahren von einer gegebenen Klassifikation der Elemente aus und versuchen diese durch Umgruppierungen zu verbessern.   Verfahren der Hierarchischen Clusteranalyse Hierarchische Verfahren werden unterteilt in agglomerative und divisive Algorithmen. Praktische Relevanz besitzt jedoch nur die agglomerative Vorgehensweise. Im Fall einer deterministischen…

Clusteranalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Segmentierung von Nachfragern anhand ihrer Präferenzen bzw. von Produkten anhand ihrer Eigenschaften oder die Bestimmung von Konsumententypologien mittels psychografischer Merkmale zählen zu den klassischen Anwendungsgebieten der Clusteranalyse. Daneben eröffnen die verschiedenen Varianten viele weitere Anwendungsmöglichkeiten.   Homogenität und Heterogenität von Clustern Ziel einer Clusteranalyse ist es zumeist, eine Menge von Objekten wie Personen oder Produkten so in Gruppen, Klassen bzw. Clustern zusammenzufassen, dass diese in sich homogen sind,…

Varianzanalyse mit Messwiederholung

Johannes Lüken / Dr. Heiko Schimmelpfennig Wenn eine Person Bewertungen zu verschiedenen Objekten – beispielsweise Marken – abgibt oder bei ihr Erhebungen zu mehreren Zeitpunkten erfolgen, sind die Messwerte voneinander abhängig. Ob sich die zweiten Messungen einer Variable signifikant von den ersten unterscheiden, kann mit einem t-Test für abhängige Stichproben überprüft werden. Liegen Messwerte zu mehr als zwei Zeitpunkten vor, wird eine Varianzanalyse mit Messwiederholung eingesetzt. Um den Vorteil dieser Verfahren gegenüber der Anwendung des…

Shapley Value

Johannes Lüken / Dr. Heiko Schimmelpfennig Der Shapley Value ist ein Lösungskonzept der kooperativen Spieltheorie. Die ihm zugrunde liegende Berechnungsvorschrift findet darüber hinaus für Treiberanalysen sowie Produktlinien- oder Sortimentsoptimierungen Anwendung.   Der Shapley Value in der Spieltheorie Die kooperative Spieltheorie untersucht, wie die Teilnehmer an einem Spiel durch die Bildung von Koalitionen ihren eigenen Nutzen maximieren können. Ein Beispiel: Drei Einzelhändlern – den Spielern 1, 2 und 3 – ist es möglich, durch Zusammenschlüsse zu…

Total Unduplicated Reach and Frequency (TURF)

Johannes Lüken / Dr. Heiko Schimmelpfennig Total Unduplicated Reach (Nettoreichweite) und Frequency (Frequenz) sind Kennzahlen, die aus der Mediaplanung stammen. Eine TURF-Analyse nutzt sie insbesondere zur Unterstützung von Entscheidungen über das Produktprogramm oder das Sortiment. Eingesetzt werden sie beispielsweise, um die richtige Auswahl an Farben, Düften oder Geschmacksrichtungen zu treffen.   Nettoreichweite und Frequenz Die Nettoreichweite ist die Anzahl oder der Anteil der Personen in einer Stichprobe, die zumindest ein Produkt eines Sortiments bzw. eine…

Maximum Difference Scaling (MaxDiff)

Maximum Difference Scaling (MaxDiff) Johannes Lüken / Dr. Heiko Schimmelpfennig Maximum Difference Scaling (MaxDiff) bzw. Best-Worst-Scaling ist ein Verfahren zur Messung der Wichtigkeit oder Präferenz beispielsweise von Produkteigenschaften, Marken oder Werbeslogans. Im Allgemeinen trennt es besser zwischen den zu beurteilenden Items als entsprechende Abfragen auf einer Ratingskala bzw. vereinfacht die Erhebung im Vergleich zu einer Konstantsummenskala.   Klassisches MaxDiff Aus einer vorgegebenen Menge von Items wird jedem Befragten mehrfach eine Teilmenge aus zumeist drei bis…

Analytic Hierarchy Process (AHP)

Johannes Lüken / Dr. Heiko Schimmelpfennig Ursprünglich ist der AHP ein Instrument zur Entscheidungsunterstützung, das auf Basis hierarchisch strukturierter Ziele eine Rangordnung von Alternativen ermittelt. Eingesetzt wird er unterdessen ebenfalls zur Präferenzmessung. Im Gegensatz zur Conjoint-Analyse finden keine ganzheitlichen Beurteilungen von Konzepten statt, sondern werden wiederholt einzelne Merkmale bzw. Ausprägungen miteinander verglichen.   Datenerhebung Zur Präferenzmessung werden Merkmale und Ausprägungen, aus denen sich zum Beispiel ein Produkt zusammensetzt, hierarchisch angeordnet. Eine einfache Hierarchie bildet das…

Menu Based Choice (MBC)

Johannes Lüken / Dr. Heiko Schimmelpfennig In vielen Kaufsituationen wählt der Entscheider aus fertigen Produkten (zum Beispiel Shampoos, Fernsehgeräten oder Pauschalreisen) aus. Um diese Art der Kaufentscheidung abzubilden, eignen sich Conjoint-Verfahren. Anders ist das jedoch bei Fahrzeugen, Menüs im Restaurant oder Versicherungen. Hier sind die Kombinationsmöglichkeiten meistens vielfältig und die Annahme einer „First Choice“ aus vordefinierten Produkten entspricht nicht der Realität. Das Menu Based Choice (MBC) ermöglicht die Untersuchung dieser Art von Entscheidungssituationen. Es analysiert…

Mehrfaktorielle Varianzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Häufig interessiert der Einfluss, den zwei oder mehr Merkmale auf eine metrische Variable besitzen. Sind die unabhängigen Merkmale nominal skaliert, kann dazu die mehrfaktorielle Varianzanalyse eingesetzt werden. Um die ihr zugrunde liegende Idee darzustellen, genügt die Betrachtung der zweifaktoriellen Varianzanalyse.   Zweifaktorielle Varianzanalyse Es soll herausgefunden werden, ob die Kaufbereitschaft für ein Produkt von der Verpackung abhängt, die sich in Form (quadratisch oder rund) und Farbe (rot, blau oder…

Data Sciences brauchen Consulting

„Data Science … bezeichnet generell die Extraktion von Wissen aus Daten. Der Studiengang Data Science verwendet Techniken und Theorien aus den Fächern Mathematik, Statistik und Informationstechnologie, einschließlich der Signalverarbeitung, verwendet Wahrscheinlichkeitsmodelle, des maschinellen Lernens, des statistischen Lernens, der Computerprogrammierung, der Datentechnik, der Mustererkennung, der Prognostik, der Modellierung von Unsicherheiten und der Datenlagerung.“ (Wikipedia) Bei der Anwendung von Verfahren der Data Sciences handelt es sich in der Regel um komplexe Vorgänge, für die ein ausgeprägtes Fachwissen…

Maximum-Likelihood-Schätzung

Johannes Lüken / Dr. Heiko Schimmelpfennig Die Maximum-Likelihood (ML)-Methode zählt zu den gängigsten Verfahren zur Schätzung von Parametern einer Grundgesamtheit auf Basis einer Stichprobe. Ihr Grundgedanke ist, den Wert eines Parameters so zu bestimmen, dass das Auftreten der konkreten Beobachtungen in der Stichprobe am wahrscheinlichsten ist.   Maximum-Likelihood-Prinzip Ein Anbieter möchte wissen, mit welcher Wahrscheinlichkeit ein Kunde infolge eines Mailings bei ihm kauft. Bezeichnet p diese Wahrscheinlichkeit, so ist 1-p die Wahrscheinlichkeit, dass kein Kauf…

Discrete Choice Modelle

Johannes Lüken / Dr. Heiko Schimmelpfennig Eine bedeutende Aufgabenstellung der Marktforschung ist die Bestimmung der maßgeblichen Einflüsse auf Kaufentscheidungen. Die zu erklärende Variable bildet die Entscheidung ab und ist somit kategorial. Zur Analyse derartiger diskreter Auswahlsituationen kommen häufig Logit-Modelle zum Einsatz.   Binäres Logit-Modell Im einfachsten Fall stehen zwei Alternativen zur Auswahl. Beispielsweise könnte interessieren, was die Entscheidung für oder gegen den Kauf eines Produktes bestimmt. Abbildung 1 zeigt einen Ausschnitt aus einer möglichen Datenbasis,…

Kategoriale Variablen in Regressionsmodellen

Johannes Lüken / Dr. Heiko Schimmelpfennig Regressionsmodelle sind nicht beschränkt auf metrische unabhängige Variablen. Kategoriale Variablen wie Geschlecht, Beruf etc. können Berücksichtigung finden, wenn ihre Ausprägungen als Zahlen dargestellt werden. Eine gängige Vorgehensweise ist die Dummy-Codierung.   Dummy-Codierung unabhängiger dichotomer Variablen Es soll untersucht werden, welchen Einfluss neben dem Preis das Schalten einer Werbung auf den monatlichen Absatz besitzt. Die lineare Regressionsfunktion ist somit Absatzmenge = b0 + b1×Preis + b2×Werbung Während der Preis eine…

Einfaktorielle Varianzanalyse

Johannes Lüken / Dr. Heiko Schimmelpfennig Mit der einfaktoriellen Varianzanalyse wird überprüft, ob sich die Mittelwerte eines metrischen Merkmals zwischen drei oder mehr Gruppen signifikant voneinander unterscheiden. Die Gruppen stellen die Ausprägungen beziehungsweise Stufen des Faktors dar, dessen Einfluss auf die metrische Variable untersucht wird.   Multiple t-Tests Es soll herausgefunden werden, ob die Kaufbereitschaft für ein Produkt von der Verpackung abhängt. Zur Auswahl stehen beispielsweise drei verschiedene Verpackungen. Die Probanden bekommen zufällig eine davon…

Interaktionseffekte in Kausalanalysen

Johannes Lüken / Dr. Heiko Schimmelpfennig Interaktionen bzw. Wechselwirkungen zwischen unabhängigen Variablen liegen in einer Kausalanalyse vor, wenn sich Variablen in ihrer Wirkung auf eine abhängige Variable gegenseitig verstärken oder abschwächen. Häufig wird beispielsweise berichtet, dass reiche Menschen gesünder sind als arme und sich dieser Unterschied mit zunehmendem Alter vergrößert. Das Alter verstärkt demnach den Einfluss des Einkommens auf die Gesundheit. Eine Berücksichtigung von Interaktionen kann Vorhersagen somit deutlich verbessern.   Interaktion zwischen zwei Variablen…

Systematik der Multivariaten Verfahren und Präferenzanalysen

Es gibt heute eine ganze Reihe mathematisch-analytischer Verfahren auf dem Markt, die sich für viele Fragstellungen in Marktforschung und Marketing eignen. IfaD ist seit über 30 Jahren Spezialist auf diesem Gebiet und Marktführer im Bereich der Conjoints. Hier ein Ansatz, die Verfahren einer Ordnung zuzuführen. Multivariate Verfahren Die multivariaten Verfahren analysieren die gegenseitigen Beziehungen zwischen mindestens zwei Variablen. Sie ermöglichen daher aussagekräftigere Berechnungen im Vergleich zu uni- oder bivariaten Analyseverfahren. Mit Hilfe der multivariaten Datenanalyse…