Modelos de toma de decisiones

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Modelado de toma de decisiones (o elecciones, del inglés choice modelling) intenta modelar el proceso de decisión de un individuo o segmento a través de preferencias reveladas o preferencias declaradas hechas en un contexto o contextos particulares. Por lo general, intenta usar opciones discretas (A sobre B; B sobre A, B y C) para inferir las posiciones de los elementos (A, B y C) en alguna escala latente relevante (típicamente "utilidad" en economía y varios). campos relacionados). De hecho, existen muchos modelos alternativos en econometría, marketing, sociometría y otros campos, incluida la maximización de la utilidad, la optimización aplicada a la teoría del consumidor y una plétora de otras estrategias de identificación que pueden ser más o menos precisas según los datos, la muestra, la hipótesis y el particular. decisión que se está modelando. Además, el modelo de elección se considera el método más adecuado para estimar la preferencia de los consumidores.

Términos relacionados

Hay una serie de términos que se consideran sinónimos del término modelado de elección. Algunos son precisos (aunque suelen ser específicos de la disciplina o del continente) y otros se utilizan en aplicaciones industriales, aunque se consideran inexactos en el mundo académico (como el análisis conjunto).

Estos incluyen lo siguiente:

  1. Modelado de elección discreta de preferencia declarada
  2. Elección discreta
  3. Experimento de elección
  4. Estudios de preferencia declarada
  5. Análisis conjunto
  6. Experimentos controlados

Aunque persisten los desacuerdos en la terminología, es notable que la revista académica destinada a proporcionar una fuente interdisciplinaria de investigación nueva y empírica en el campo se llame Journal of Choice Modelling.

Antecedentes teóricos

La teoría detrás del modelo de elección fue desarrollada de forma independiente por economistas y psicólogos matemáticos. Los orígenes de los modelos de elección se remontan a la investigación de Thurstone sobre las preferencias alimentarias en la década de 1920 y a la teoría de la utilidad aleatoria. En economía, la teoría de la utilidad aleatoria fue luego desarrollada por Daniel McFadden y en psicología matemática principalmente por Duncan Luce y Anthony Marley.En esencia, el modelo de elección asume que la utilidad (beneficio o valor) que un individuo obtiene del artículo A sobre el artículo B es una función de la frecuencia con la que elige el artículo A sobre el artículo B en elecciones repetidas. Debido a su uso de la distribución normal, Thurstone no pudo generalizar esta opción binaria en un marco de elección multinomial (que requería la regresión logística multinomial en lugar de la función de enlace probit), por lo que el método languideció durante más de 30 años. Sin embargo, en las décadas de 1960 a 1980, el método se axiomatizó y se aplicó en una variedad de tipos de estudio.

Distinción entre estudios de preferencia revelada y declarada

El modelo de elección se utiliza tanto en estudios de preferencia revelada (RP) como de preferencia declarada (SP). Los estudios de RP utilizan las elecciones que ya han hecho los individuos para estimar el valor que atribuyen a los artículos: "revelan sus preferencias y, por lo tanto, valores (utilidades) a través de sus elecciones". Los estudios de SP utilizan las elecciones realizadas por individuos en condiciones experimentales para estimar estos valores: "indican sus preferencias a través de sus elecciones". McFadden utilizó con éxito las preferencias reveladas (realizadas en estudios de transporte anteriores) para predecir la demanda del Tránsito Rápido del Área de la Bahía (BART) antes de que se construyera. Luce y Marley habían axiomatizado previamente la teoría de la utilidad aleatoria pero no la habían usado en una aplicación del mundo real; además, pasaron muchos años probando el método en estudios de PS con estudiantes de psicología.

Historia

El trabajo de McFadden le valió el Premio Nobel de Ciencias Económicas en 2000. Sin embargo, gran parte del trabajo en modelos de elección se había desarrollado durante casi 20 años en el campo de las preferencias declaradas. Dicho trabajo surgió en varias disciplinas, originalmente transporte y marketing, debido a la necesidad de predecir la demanda de nuevos productos que eran potencialmente costosos de producir. Este trabajo se basó en gran medida en los campos del análisis conjunto y el diseño de experimentos, con el fin de:

  1. Presentar a los consumidores bienes o servicios definidos por características particulares (atributos) que tenían niveles, por ejemplo, "precio" con niveles "$10, $20, $30"; "servicio de seguimiento" con niveles "sin garantía, 10 años de garantía";
  2. Presentar configuraciones de estos bienes que minimizan el número de elecciones necesarias para estimar la función de utilidad del consumidor (regla de decisión).

Específicamente, el objetivo era presentar el número mínimo de pares/triples, etc. de (por ejemplo) teléfonos móviles/celulares para que el analista pudiera estimar el valor que el consumidor obtuvo (en unidades monetarias) de cada característica posible de un teléfono. A diferencia de gran parte del trabajo en el análisis conjunto, se debían realizar elecciones discretas (A frente a B; B frente a A, B y C), en lugar de calificaciones en escalas de calificación de categorías (escalas de Likert). A David Hensher y Jordan Louviere se les atribuye ampliamente el primer modelo de elección de preferencia establecido. Siguieron siendo figuras fundamentales, junto con otros como Joffre Swait y Moshe Ben-Akiva, y durante las siguientes tres décadas en los campos del transporte y el marketing ayudaron a desarrollar y difundir los métodos.Sin embargo, muchas otras figuras, predominantemente trabajando en economía y marketing del transporte, contribuyeron a la teoría y la práctica y ayudaron a difundir ampliamente el trabajo.

Relación con el análisis conjunto

El modelo de elección desde el principio sufrió de una falta de estandarización de la terminología y todos los términos dados anteriormente se han utilizado para describirlo. Sin embargo, el mayor desacuerdo resultó ser geográfico: en las Américas, siguiendo la práctica de la industria allí, el término "análisis conjunto basado en la elección" ha llegado a dominar. Esto reflejó el deseo de que los modelos de elección (1) reflejen la estructura de atributos y niveles heredada del análisis conjunto, pero (2) muestren que las elecciones discretas, en lugar de las calificaciones numéricas, se utilicen como la medida de resultado obtenida de los consumidores. En otras partes del mundo, el término experimento de elección discreta ha llegado a dominar prácticamente en todas las disciplinas.Louviere (marketing y transporte) y sus colegas en economía ambiental y de la salud llegaron a rechazar la terminología estadounidense, afirmando que era engañosa y disfrazaba una diferencia fundamental que tienen los experimentos de elección discreta de los métodos conjuntos tradicionales: los experimentos de elección discreta tienen una teoría comprobable de la decisión humana. haciendo que los sustenten (teoría de la utilidad aleatoria), mientras que los métodos conjuntos son simplemente una forma de descomponer el valor de un bien utilizando diseños estadísticos a partir de calificaciones numéricas que no tienen una teoría psicológica para explicar qué significan los números de la escala de calificación.

Diseño de un modelo de elección

El diseño de un modelo de elección o experimento de elección discreta (DCE) generalmente sigue los siguientes pasos:

  1. Identificar el bien o servicio a valuar;
  2. Decidir qué atributos y niveles describen completamente el bien o servicio;
  3. Construir un diseño experimental que sea apropiado para esos atributos y niveles, ya sea a partir de un catálogo de diseño o mediante un programa de software;
  4. Construir la encuesta, reemplazando los códigos de diseño (números) con los niveles de atributos relevantes;
  5. Administrar la encuesta a una muestra de encuestados en cualquiera de varios formatos, incluidos papel y bolígrafo, pero cada vez más a través de encuestas web;
  6. Analizar los datos usando modelos apropiados, a menudo comenzando con el modelo de regresión logística multinomial, dadas sus atractivas propiedades en términos de consistencia con la teoría de la demanda económica.

Identificar el bien o servicio a valorar

Esta es a menudo la tarea más fácil, típicamente definida por:

  • la pregunta de investigación en un estudio académico, o
  • las necesidades del cliente (en el contexto de un bien o servicio de consumo)

Decidir qué atributos y niveles describen completamente el bien o servicio

Un bien o servicio, por ejemplo, un teléfono móvil (celular), generalmente se describe mediante una serie de atributos (características). Los teléfonos a menudo se describen por forma, tamaño, memoria, marca, etc. Los atributos que se van a variar en el DCE deben ser todos aquellos que sean de interés para los encuestados. La omisión de atributos clave generalmente hace que los encuestados hagan inferencias (suposiciones) sobre los que faltan en el DCE, lo que lleva a problemas de variables omitidas. Por lo general, los niveles deben incluir todos los que están disponibles en la actualidad y, a menudo, se amplían para incluir los que serán posibles en el futuro; esto es particularmente útil para guiar el desarrollo de productos.

Construir un diseño experimental que sea apropiado para esos atributos y niveles, ya sea a partir de un catálogo de diseño o a través de un programa de software

Una fortaleza de los DCE y los análisis conjuntos es que normalmente presentan un subconjunto del factorial completo. Por ejemplo, un teléfono con dos marcas, tres formas, tres tamaños y cuatro cantidades de memoria tiene 2x3x3x4=72 configuraciones posibles. Este es el factorial completo y en la mayoría de los casos es demasiado grande para administrarlo a los encuestados. Los subconjuntos del factorial completo se pueden generar de varias formas, pero en general tienen el siguiente objetivo: permitir la estimación de un número limitado de parámetros que describen el bien: efectos principales (por ejemplo, el valor asociado con la marca, manteniendo todo lo demás iguales), interacciones bidireccionales (por ejemplo, el valor asociado con esta marca y el tamaño más pequeño, esa marca y el tamaño más pequeño), etc. Esto generalmente se logra al confundir deliberadamente interacciones de orden superior con interacciones de orden inferior. Por ejemplo, las interacciones bidireccionales y tridireccionales pueden confundirse con los efectos principales. Esto tiene las siguientes consecuencias:

  • El número de perfiles (configuraciones) se reduce significativamente;
  • Un coeficiente de regresión para un efecto principal dado es insesgado si y solo si los términos de confusión (interacciones de orden superior) son cero;
  • Un coeficiente de regresión está sesgado en una dirección desconocida y con una magnitud desconocida si los términos de interacción confundidos son distintos de cero;
  • No se puede hacer ninguna corrección en el análisis para resolver el problema, en caso de que los términos confundidos sean distintos de cero.

Por lo tanto, a los investigadores se les ha advertido repetidamente que el diseño implica decisiones críticas que deben tomarse con respecto a si es probable que las interacciones bidireccionales y de orden superior sean distintas de cero; cometer un error en la etapa de diseño invalida efectivamente los resultados ya que la hipótesis de que las interacciones de orden superior son distintas de cero no es comprobable.

Los diseños están disponibles en catálogos y programas estadísticos. Tradicionalmente tenían la propiedad de ortogonalidad donde todos los niveles de atributos pueden estimarse independientemente unos de otros. Esto asegura una colinealidad cero y se puede explicar usando el siguiente ejemplo.

Imagine un concesionario de automóviles que vende tanto automóviles de lujo como vehículos usados ​​de gama baja. Utilizando el principio de maximización de la utilidad y suponiendo un modelo MNL, planteamos la hipótesis de que la decisión de comprar un automóvil en este concesionario es la suma de la contribución individual de cada uno de los siguientes a la utilidad total.

  • Precio
  • Marca (BMW, Chrysler, Mitsubishi)
  • Origen (alemán, americano)
  • Actuación

Sin embargo, el uso de la regresión multinomial en los datos de ventas no nos dirá lo que queremos saber. La razón es que gran parte de los datos son colineales ya que los autos en este concesionario son:

  • coches alemanes caros y de alto rendimiento
  • Coches americanos baratos y de bajo rendimiento.

No hay suficiente información, ni la habrá nunca, para saber si la gente compra coches porque son europeos, porque son BMW o porque son de alto rendimiento. Esta es una razón fundamental por la cual los datos de RP a menudo no son adecuados y por qué se requieren datos de SP. En los datos de RP, estos tres atributos siempre coexisten y, en este caso, están perfectamente correlacionados. Es decir: todos los BMW se fabrican en Alemania y son de alto rendimiento. Estos tres atributos: origen, marca y rendimiento se dice que son colineales o no ortogonales. Solo en condiciones experimentales, a través de datos de SP, el rendimiento y el precio pueden variar de forma independiente: descomponer sus efectos.

Un diseño experimental (abajo) en un experimento de elección es un esquema estricto para controlar y presentar escenarios hipotéticos o conjuntos de elección a los encuestados. Para el mismo experimento, se pueden usar diferentes diseños, cada uno con diferentes propiedades. El mejor diseño depende de los objetivos del ejercicio.

Es el diseño experimental el que impulsa el experimento y las capacidades últimas del modelo. Existen muchos diseños muy eficientes en el dominio público que permiten realizar experimentos casi óptimos.

Por ejemplo, el diseño del cuadrado latino 16 permite estimar todos los efectos principales de un producto que puede tener hasta 16 (aproximadamente 295 seguido de dieciocho ceros) configuraciones. Además, esto podría lograrse dentro de un marco de muestra de solo alrededor de 256 encuestados.

A continuación se muestra un ejemplo de un diseño mucho más pequeño. Este es un diseño de 3 efectos principales.

0000
0112
0221
1011
1120
1202
2022
2101
2210

Este diseño permitiría la estimación de las utilidades de los efectos principales a partir de 81 (3) posibles configuraciones de productos, asumiendo que todas las interacciones de orden superior son cero. Una muestra de alrededor de 20 encuestados pudo modelar los efectos principales de las 81 configuraciones de productos posibles con resultados estadísticamente significativos.

Algunos ejemplos de otros diseños experimentales comúnmente utilizados:

  • Diseños de bloques incompletos balanceados (BIBD)
  • Diseños aleatorios
  • Efectos principales
  • Diseños de interacción de orden superior
  • Factorial completo

Más recientemente, se han producido diseños eficientes. Estos típicamente minimizan las funciones de la varianza de los parámetros (desconocidos pero estimados). Una función común es la eficiencia D de los parámetros. El objetivo de estos diseños es reducir el tamaño de muestra necesario para lograr la significación estadística de los parámetros de utilidad estimados. Dichos diseños a menudo han incorporado priores bayesianos para los parámetros, para mejorar aún más la precisión estadística. Los diseños altamente eficientes se han vuelto extremadamente populares debido a los costos de reclutar un mayor número de encuestados. Sin embargo, figuras clave en el desarrollo de estos diseños han advertido de posibles limitaciones, entre las que destacan las siguientes.La eficiencia del diseño generalmente se maximiza cuando el bien A y el bien B son lo más diferentes posible: por ejemplo, cada atributo (característica) que define el teléfono difiere entre A y B. Esto obliga al encuestado a intercambiar precio, marca, tamaño, memoria, etc. ningún atributo tiene el mismo nivel tanto en A como en B. Esto puede imponer una carga cognitiva al encuestado, llevándolo a usar heurísticas simplificadoras ("elegir siempre el teléfono más barato") que no reflejan su verdadera función de utilidad (decisión regla). El trabajo empírico reciente ha confirmado que los encuestados tienen reglas de decisión diferentes cuando responden un diseño menos eficiente en comparación con un diseño altamente eficiente.

Puede encontrar más información sobre diseños experimentales aquí. Vale la pena reiterar, sin embargo, que los diseños pequeños que estiman los efectos principales generalmente lo hacen confundiendo deliberadamente las interacciones de orden superior con los efectos principales. Esto significa que a menos que esas interacciones sean cero en la práctica, el analista obtendrá estimaciones sesgadas de los efectos principales. Además (s) tiene (1) ninguna forma de probar esto, y (2) ninguna forma de corregirlo en el análisis. Esto enfatiza el papel crucial del diseño en los DCE.

Construyendo la encuesta

La construcción de la encuesta normalmente implica:

  • Hacer una "búsqueda y reemplazo" para que los códigos de diseño experimental (generalmente los números que se dan en el ejemplo anterior) se reemplacen por los niveles de atributo del bien en cuestión.
  • Colocar las configuraciones resultantes (por ejemplo, tipos de teléfonos móviles/celulares) en una encuesta más amplia que puede incluir preguntas relacionadas con la sociodemografía de los encuestados. Esto puede ayudar a segmentar los datos en la etapa de análisis: por ejemplo, los hombres pueden diferir de las mujeres en sus preferencias.

Administrar la encuesta a una muestra de encuestados en cualquiera de varios formatos, incluidos papel y bolígrafo, pero cada vez más a través de encuestas web.

Tradicionalmente, los DCE se administraban mediante métodos de papel y bolígrafo. Cada vez más, con el poder de la web, las encuestas por Internet se han convertido en la norma. Estos tienen ventajas en términos de costo, asignando aleatoriamente a los encuestados a diferentes versiones de la encuesta y utilizando la selección. Un ejemplo de esto último sería lograr el equilibrio de género: si contestan demasiados hombres, se pueden descartar para que el número de mujeres coincida con el de hombres.

Analizar los datos usando modelos apropiados, a menudo comenzando con el modelo de regresión logística multinomial, dadas sus atractivas propiedades en términos de consistencia con la teoría de la demanda económica.

Analizar los datos de un DCE requiere que el analista asuma un tipo particular de regla de decisión, o forma funcional de la ecuación de utilidad en términos de economistas. Esto suele estar dictado por el diseño: si se ha utilizado un diseño de efectos principales, los términos de interacción bidireccional y de orden superior no se pueden incluir en el modelo. Luego, los modelos de regresión generalmente se estiman. Estos a menudo comienzan con el modelo logit condicional, tradicionalmente, aunque un poco engañoso, denominado modelo de regresión logística multinomial (MNL) por los modeladores de elección. El modelo MNL convierte las frecuencias de elección observadas (que son probabilidades estimadas, en una escala de razón) en estimaciones de utilidad (en una escala de intervalo) a través de la función logística. La utilidad (valor) asociada con cada nivel de atributo se puede estimar, permitiendo así al analista construir la utilidad total de cualquier configuración posible (en este caso, de coche o teléfono). Sin embargo, un DCE puede usarse alternativamente para estimar los beneficios y costos ambientales no relacionados con el mercado.

Fortalezas

  • Obliga a los encuestados a considerar compensaciones entre atributos;
  • Hace que el marco de referencia sea explícito para los encuestados mediante la inclusión de una serie de atributos y alternativas de productos;
  • Permite estimar precios implícitos para atributos;
  • Permite estimar los impactos en el bienestar para múltiples escenarios;
  • Se puede utilizar para estimar el nivel de demanda de los clientes de un 'producto de servicio' alternativo en términos no monetarios; y
  • Reduce potencialmente el incentivo para que los encuestados se comporten estratégicamente.

Debilidades

  • Las opciones discretas solo proporcionan datos ordinales, que proporcionan menos información que los datos de razón o de intervalo;
  • Las inferencias a partir de datos ordinales, para producir estimaciones en una escala de intervalo/razón, requieren suposiciones sobre las distribuciones de error y la regla de decisión del encuestado (forma funcional de la función de utilidad);
  • Los diseños factoriales fraccionados utilizados en la práctica confunden deliberadamente las interacciones bidireccionales y de orden superior con estimaciones de orden inferior (normalmente efectos principales) para hacer que el diseño sea pequeño: si las interacciones de orden superior son distintas de cero, entonces los efectos principales están sesgados, de ninguna manera. para que el analista conozca o corrija esto ex post;
  • La toma de decisiones no probabilística (determinista) por parte del individuo viola la teoría de la utilidad aleatoria: bajo un modelo de utilidad aleatoria, las estimaciones de utilidad se vuelven infinitas.
  • Hay una debilidad fundamental de todos los modelos de variable dependiente limitada, como los modelos logit y probit: las medias (posiciones verdaderas) y las varianzas en la escala latente están perfectamente confundidas. En otras palabras, no se pueden separar.

El factor de confusión media-varianza

Yatchew y Griliches demostraron por primera vez que las medias y las varianzas se confundían en modelos de variable dependiente limitada (donde la variable dependiente toma cualquiera de un conjunto discreto de valores en lugar de uno continuo como en la regresión lineal convencional). Esta limitación se agudiza en el modelo de elección por la siguiente razón: una gran beta estimada del modelo de regresión MNL o cualquier otro modelo de elección puede significar:

  1. Los encuestados colocan el elemento en lo alto de la escala latente (lo valoran mucho), o
  2. Los encuestados no colocan el elemento en lo alto de la escala, PERO están muy seguros de sus preferencias, eligiendo consistentemente (con frecuencia) el elemento sobre otros presentados al lado, o
  3. Alguna combinación de (1) y (2).

Esto tiene implicaciones significativas para la interpretación del resultado de un modelo de regresión. Todos los programas estadísticos "resuelven" la confusión de la varianza media al establecer la varianza igual a una constante; todos los coeficientes beta estimados son, de hecho, una beta estimada multiplicada por una lambda estimada (una función inversa de la varianza). Esto tienta al analista a ignorar el problema. Sin embargo, debe considerar si un conjunto de coeficientes beta grandes refleja fuertes preferencias (una beta verdadera grande) o consistencia en las elecciones (una lambda verdadera grande), o alguna combinación de las dos. Dividir todas las estimaciones entre sí, generalmente la de la variable de precio, cancela el término lambda confundido del numerador y el denominador.Esto resuelve el problema, con el beneficio adicional de que proporciona a los economistas la disposición a pagar del encuestado por cada nivel de atributo. Sin embargo, el hallazgo de que los resultados estimados en "espacio de utilidad" no coinciden con los estimados en "espacio de disposición a pagar", sugiere que el problema de confusión no se resuelve con este "truco": las variaciones pueden ser atributos específicos o alguna otra función del variables (lo que explicaría la discrepancia). Este es un tema de investigación actual en el campo.

Versus métodos conjuntos tradicionales basados ​​en calificaciones

Los principales problemas con las preguntas de calificación que no ocurren con los modelos de elección son:

  • sin información de compensación. Un riesgo con las calificaciones es que los encuestados tienden a no diferenciar entre los atributos 'buenos' percibidos y calificarlos a todos como atractivos.
  • escalas personales variantes. Diferentes individuos valoran un '2' en una escala de 1 a 5 de manera diferente. La agregación de las frecuencias de cada una de las medidas de la escala no tiene base teórica.
  • ninguna medida relativa. ¿Cómo compara un analista algo clasificado como 1 con algo clasificado como 2? ¿Es uno el doble de bueno que el otro? Una vez más, no existe una forma teórica de agregar los datos.

Otros tipos

Clasificación

Las clasificaciones tienden a obligar al individuo a indicar preferencias relativas por los elementos de interés. Por lo tanto, las compensaciones entre estos pueden, como en un DCE, típicamente estimarse. Sin embargo, los modelos de clasificación deben probar si se estima la misma función de utilidad en cada profundidad de clasificación: por ejemplo, las mismas estimaciones (hasta la escala de varianza) deben resultar de los datos de clasificación inferior que de los datos de clasificación superior.

Mejor-peor escala

La escala mejor-peor (BWS) es una alternativa bien considerada a las calificaciones y la clasificación. Pide a las personas que elijan las opciones que más y menos prefieren de una variedad de alternativas. Al restar o integrar entre las probabilidades de elección, se pueden estimar las puntuaciones de utilidad para cada alternativa en una escala de intervalo o razón, para individuos y/o grupos. Los individuos pueden utilizar varios modelos psicológicos para producir los mejores y los peores datos, incluido el modelo MaxDiff.

Usos

El modelo de elección es particularmente útil para:

  • Predecir la adopción y perfeccionar el desarrollo de nuevos productos
  • Estimación de la disposición a pagar implícita (DAP) por bienes y servicios
  • Pruebas de viabilidad de productos o servicios
  • Estimación de los efectos de las características del producto en la elección del consumidor
  • Variaciones de los atributos del producto.
  • Comprender el valor y la preferencia de la marca
  • Estimaciones de demanda y precios óptimos

Contenido relacionado

Jean-Baptiste Say

Jean-Baptiste Say fue un economista y hombre de negocios francés liberal que argumentó a favor de la competencia, el libre comercio y el levantamiento de...

James marca baldwin

James Mark Baldwin fue un filósofo y psicólogo estadounidense que se educó en Princeton bajo la supervisión del filósofo escocés James McCosh. y quien...

Modelado de riesgos financieros

El modelado de riesgo financiero o modelamiento de riesgos financieros es el uso de técnicas econométricas formales para determinar el riesgo agregado en...
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save