Modelos de ecuaciones estructurales

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar
Forma de modelado causal que se ajusta a las redes de constructos a los datos
An example structural equation model
Figura 1. Un ejemplo modelo de ecuación estructural después de la estimación. Las variables latentes se indican a veces con ovalaciones mientras que las variables observadas se muestran en rectángulos. Los residuales y las diferencias se dibujan a veces como flechas de doble cabeza (que aparecen aquí) o flechas individuales y un círculo (como en la Figura 2). La varianza de IQ latente se fija a 1 para proporcionar escala al modelo. En el gráfico 1 se describen los errores de medición que influyen en cada indicador de inteligencia latente y cada indicador de progreso latente. Ni los indicadores ni los errores de medición de los indicadores se modelan como influencia de las variables latentes.
An example structural equation model pre-estimation
Gráfico 2. Ejemplo de modelo de ecuación estructural antes de la estimación. Similar a la Figura 1 pero sin valores estandarizados y menos elementos. Debido a que la inteligencia y el rendimiento académico son meramente variables imaginadas o postuladas por teoría, sus valores de escala precisa son desconocidos, aunque el modelo especifica que los valores de cada variable latente deben caer en algún lugar a lo largo de la escala observable poseída por uno de los indicadores. El efecto 1.0 que conecta un latente a un indicador especifica que cada unidad real aumenta o disminuye en los resultados de valor de la variable latente en un aumento o disminución correspondiente del valor del indicador. Se espera que se haya elegido un buen indicador para cada latente, pero los valores 1.0 no indican una medición perfecta porque este modelo también postula que hay otras entidades no especificadas que afectan causalmente las mediciones de los indicadores observados, introduciendo así error de medición. Este modelo postula que los errores de medición separados influyen en cada uno de los dos indicadores de inteligencia latente, y cada indicador de progreso latente. La flecha no etiquetada que apunta al rendimiento académico reconoce que cosas distintas de la inteligencia también pueden influir en el rendimiento académico.
El

modelado de ecuaciones estructurales (SEM) es un conjunto diverso de métodos utilizados por científicos que realizan investigaciones tanto observacionales como experimentales. SEM se utiliza principalmente en las ciencias sociales y del comportamiento, pero también en epidemiología, negocios y otros campos. Es difícil definir SEM sin hacer referencia al lenguaje técnico, pero un buen punto de partida es el nombre mismo.

SEM implica un modelo que representa cómo se cree que varios aspectos de un fenómeno se conectan causalmente entre sí. Los modelos de ecuaciones estructurales a menudo contienen conexiones causales postuladas entre algunas variables latentes (variables que se cree que existen pero que no se pueden observar directamente). Conexiones causales adicionales vinculan esas variables latentes con variables observadas cuyos valores aparecen en un conjunto de datos. Las conexiones causales se representan mediante ecuaciones, pero la estructuración postulada también se puede presentar mediante diagramas que contienen flechas como en las Figuras 1 y 2. Las estructuras causales implican que deben aparecer patrones específicos entre los valores de las variables observadas. Esto permite utilizar las conexiones entre las variables observadas' valores para estimar las magnitudes de los efectos postulados y para probar si los datos observados son consistentes o no con los requisitos de las estructuras causales hipotéticas.

El límite entre lo que es y lo que no es un modelo de ecuación estructural no siempre es claro, pero los modelos SE a menudo contienen conexiones causales postuladas entre un conjunto de variables latentes (variables que se cree que existen pero que no se pueden observar directamente, como una actitud, inteligencia o enfermedad mental) y conexiones causales que vinculan las variables latentes postuladas con variables que pueden observarse y cuyos valores están disponibles en algún conjunto de datos. Las variaciones entre los estilos de conexiones causales latentes, las variaciones entre las variables observadas que miden las variables latentes y las variaciones en las estrategias de estimación estadística dan como resultado el conjunto de herramientas SEM que incluye análisis factorial confirmatorio, análisis compuesto confirmatorio, análisis de ruta, modelado multigrupo y modelado longitudinal. , modelado de trayectorias de mínimos cuadrados parciales, modelado de crecimiento latente y modelado jerárquico o multinivel.

Los investigadores de SEM utilizan programas informáticos para estimar la fuerza y el signo de los coeficientes correspondientes a las conexiones estructurales modeladas, por ejemplo, los números conectados a las flechas en la Figura 1. Debido a que un modelo postulado como la Figura 1 puede no corresponder al mundo fuerzas que controlan las mediciones de los datos observados, los programas también proporcionan pruebas de modelos y pistas de diagnóstico que sugieren qué indicadores, o qué componentes del modelo, podrían introducir inconsistencia entre el modelo y los datos observados. Las críticas a los métodos SEM insinúan: desprecio por las pruebas de modelos disponibles, problemas en la especificación del modelo, una tendencia a aceptar modelos sin considerar la validez externa y posibles sesgos filosóficos.

Una gran ventaja de SEM es que todas estas mediciones y pruebas ocurren simultáneamente en un procedimiento de estimación estadística, donde todos los coeficientes del modelo se calculan utilizando toda la información de las variables observadas. Esto significa que las estimaciones son más precisas que si un investigador calculara cada parte del modelo por separado.

Historia

El modelado de ecuaciones estructurales (SEM) comenzó a diferenciarse de la correlación y la regresión cuando Sewall Wright proporcionó interpretaciones causales explícitas para un conjunto de ecuaciones de estilo de regresión basadas en una sólida comprensión de los mecanismos físicos y fisiológicos que producen efectos directos e indirectos entre sus resultados observados. variables. Las ecuaciones se estimaron como ecuaciones de regresión ordinarias, pero el contexto sustantivo de las variables medidas permitió una comprensión causal clara, no meramente predictiva. O. D. Duncan introdujo el SEM en las ciencias sociales en su libro de 1975 y el SEM floreció a finales de los años 1970 y 1980, cuando el aumento de la potencia informática permitió la estimación práctica de modelos. En 1987, Hayduk proporcionó la primera introducción en un libro al modelado de ecuaciones estructurales con variables latentes, y pronto fue seguida por el popular texto de Bollen (1989).

Enfoques de modelado diferentes pero relacionados matemáticamente desarrollados en psicología, sociología y economía. Los primeros trabajos de la Comisión Cowles sobre estimación de ecuaciones simultáneas se centraron en los algoritmos de Koopman y Hood (1953) de la economía del transporte y el enrutamiento óptimo, con estimación de máxima verosimilitud y cálculos algebraicos de forma cerrada, ya que las técnicas iterativas de búsqueda de soluciones eran limitadas en los días anteriores. ordenadores. La convergencia de dos de estas corrientes de desarrollo (el análisis factorial desde la psicología y el análisis de trayectorias desde la sociología a través de Duncan) produjo el núcleo actual del SEM. Uno de los varios programas que Karl Jöreskog desarrolló en Educational Testing Services, LISREL incorporó variables latentes (que los psicólogos conocían como factores latentes del análisis factorial) dentro de ecuaciones de estilo análisis de trayectoria (que los sociólogos heredaron de Wright y Duncan). La parte del modelo estructurada por factores incorporó errores de medición que permitieron el ajuste del error de medición, aunque no necesariamente una estimación libre de errores, de los efectos que conectan diferentes variables latentes postuladas.

Persisten rastros de la convergencia histórica de las tradiciones del análisis de factores y del análisis de trayectorias como la distinción entre las partes de medición y estructurales de los modelos; y como desacuerdos continuos sobre las pruebas de modelos y sobre si la medición debe preceder o acompañar a las estimaciones estructurales. Ver el análisis factorial como una técnica de reducción de datos resta importancia a las pruebas, lo que contrasta con la apreciación analítica de la ruta para probar conexiones causales postuladas, donde el resultado de la prueba podría indicar una especificación errónea del modelo. La fricción entre las tradiciones de análisis de factores y análisis de rutas continúa apareciendo en la literatura y en SEMNET, un servidor de listas gratuito que circula publicaciones SEM a más de 3.000 registrantes, respaldado por un servidor de listas de la Universidad de Alabama. Se pueden buscar temas especificados por el usuario en el archivo de SEMNET, y muchas de las actualizaciones de 2023 de esta página de Wikipedia circularon previamente en SEMNET para revisión y comentarios informados.

El análisis de trayectoria de Wright influyó en Hermann Wold, el estudiante de Wold Karl Jöreskog, y el estudiante de Jöreskog Claes Fornell, pero SEM nunca obtuvo un gran seguimiento entre econométricos estadounidenses, posiblemente debido a diferencias fundamentales en objetivos de modelado y estructuras de datos típicas. La separación prolongada de la rama económica del SEM llevó a diferencias procesales y terminológicas, aunque permanecen profundas conexiones matemáticas y estadísticas. La versión económica de SEM se puede ver en los debates de SEMNET sobre la endogeneidad, y en el calor producido como Judea Pearl acercamiento a la causalidad a través de gráficos acíclicos dirigidos (DAG) se frota contra enfoques económicos para modelar. Existen conversaciones que comparan y contrastan diversos enfoques de la SEM, pero las diferencias disciplinarias en las estructuras de datos y las preocupaciones que motivan los modelos económicos hacen improbable la reunión. Pearl extendió SEM de modelos lineales a no paramétricos, y propuso interpretaciones causales y contrafactuales de las ecuaciones. No paramétrica Los SEM permiten estimar efectos totales, directos e indirectos sin comprometerse a la linealidad de efectos o supuestos sobre las distribuciones de los términos de error.

Los análisis SEM son populares en las ciencias sociales porque los programas informáticos permiten estimar estructuras causales complicadas, pero la complejidad de los modelos introduce una variabilidad sustancial en la calidad de los resultados. Algunos resultados, pero no todos, se obtienen sin el "inconveniente" de comprender el diseño experimental, el control estadístico, las consecuencias del tamaño de la muestra y otras características que contribuyen a un buen diseño de investigación.

Pasos y consideraciones generales

Las siguientes consideraciones se aplican a la construcción y evaluación de muchos modelos de ecuaciones estructurales.

Especificación del modelo

Construir o especificar un modelo requiere prestar atención a:

  • el conjunto de variables a emplear,
  • lo que se sabe sobre las variables,
  • lo que se presume o hipotetiza sobre las conexiones causales de las variables y desconexiones,
  • lo que el investigador busca aprender del modelado,
  • y los casos para los cuales los valores de las variables estarán disponibles (kids? ¿trabajadores? ¿empresas? países? ¿células? accidentes? ¿cultos?).

Los modelos de ecuaciones estructurales intentan reflejar las fuerzas mundanas que operan en casos causalmente homogéneos, es decir, casos enredados en las mismas estructuras causales mundanas pero cuyos valores sobre las causas difieren y que, por lo tanto, poseen diferentes valores sobre las variables de resultado. La homogeneidad causal puede facilitarse mediante la selección de casos o mediante la segregación de casos en un modelo multigrupo. La especificación de un modelo no está completa hasta que el investigador especifica:

  • qué efectos y/o correlaciones/covariancias deben incluirse y estimarse,
  • que efectos y otros coeficientes están prohibidos o presuntos innecesarios,
  • y qué coeficientes se darán valores fijos e inalterables (por ejemplo, para proporcionar escalas de medición para variables latentes como en la Figura 2).

El nivel latente de un modelo se compone de variables endógenas y exógenas. Las variables latentes endógenas son las variables de puntuación verdadera que se postula que reciben efectos de al menos otra variable modelada. Cada variable endógena se modela como variable dependiente en una ecuación de estilo regresión. Las variables latentes exógenas son variables de fondo que se postula que causan una o más de las variables endógenas y se modelan como las variables predictoras en ecuaciones de estilo de regresión. Las conexiones causales entre las variables exógenas no se modelan explícitamente, pero generalmente se reconocen al modelar las variables exógenas como que se correlacionan libremente entre sí. El modelo puede incluir variables intermedias: variables que reciben efectos de algunas variables pero que también envían efectos a otras variables. Como en la regresión, a cada variable endógena se le asigna una variable residual o de error que encapsula los efectos de causas no disponibles y generalmente desconocidas. Se piensa que cada variable latente, ya sea exógena o endógena, contiene los casos & # 39; puntuaciones verdaderas en esa variable, y estas puntuaciones verdaderas contribuyen causalmente a variaciones válidas/genuinas en una o más de las variables indicadoras observadas/reportadas.

El programa LISREL asignó nombres griegos a los elementos de un conjunto de matrices para realizar un seguimiento de los distintos componentes del modelo. Estos nombres se convirtieron en notación relativamente estándar, aunque la notación se ha ampliado y modificado para adaptarse a una variedad de consideraciones estadísticas. Textos y programas "simplificadores" especificación del modelo a través de diagramas o mediante el uso de ecuaciones que permitan nombres de variables seleccionados por el usuario, reconvierta el modelo del usuario en alguna forma estándar de álgebra matricial en segundo plano. Las "simplificaciones" se logran introduciendo implícitamente "supuestos" sobre características del modelo de las que los usuarios supuestamente no deben preocuparse. Desafortunadamente, estos supuestos predeterminados oscurecen fácilmente los componentes del modelo, lo que deja problemas no reconocidos acechando dentro de la estructura del modelo y de las matrices subyacentes.

Dos componentes principales de los modelos se distinguen en SEM: modelo estructural mostrando posibles dependencias causales entre variables latentes endógenas y exógenas, y las modelo de medición mostrando las conexiones causales entre las variables latentes y los indicadores. Los modelos de análisis de factores exploratorios y confirmatorios, por ejemplo, se centran en las conexiones de medición causales, mientras que los modelos de trayectoria corresponden más estrechamente a las conexiones estructurales latentes de los SEM.

Los modelos especifican cada coeficiente en un modelo gratis a ser estimados, o fijo en algún valor. Los coeficientes libres pueden ser efectos postulados que el investigador desea probar, correlaciones de fondo entre las variables exógenas, o las diferencias de las variables residuales o de error que proporcionan variaciones adicionales en las variables latentes endógenas. Los coeficientes fijos pueden ser valores como los valores 1.0 en la Figura 2 que proporcionan una escala para las variables latentes, o valores de 0.0 que afirman desconexiones causales tales como la afirmación de efectos no directos (no flechas) señalando desde el logro académico a cualquiera de las cuatro escalas en la Figura 1. Los programas SEM proporcionan estimaciones y pruebas de los coeficientes libres, mientras que los coeficientes fijos contribuyen de manera importante a probar la estructura general del modelo. También se pueden utilizar diversos tipos de limitaciones entre coeficientes. La especificación del modelo depende de lo que se conoce de la literatura, la experiencia del investigador con las variables indicadoras modeladas, y las características que se están investigando utilizando la estructura del modelo.

Existe un límite en cuanto a la cantidad de coeficientes que se pueden estimar en un modelo. Si hay menos puntos de datos que el número de coeficientes estimados, se dice que el modelo resultante es "no identificado" y no se pueden obtener estimaciones de coeficientes. El efecto recíproco y otros bucles causales también pueden interferir con la estimación.

Estimación de coeficientes del modelo libre

Los coeficientes del modelo fijados en cero, 1,0 u otros valores no requieren estimación porque ya tienen valores especificados. Los valores estimados para los coeficientes del modelo libre se obtienen maximizando el ajuste o minimizando la diferencia de los datos en relación con las características de los datos si los coeficientes del modelo libre tomaran los valores estimados. Las implicaciones del modelo sobre cómo deberían verse los datos para un conjunto específico de valores de coeficientes dependen de: a) los coeficientes' ubicaciones en el modelo (por ejemplo, qué variables están conectadas/desconectadas), b) la naturaleza de las conexiones entre las variables (covarianzas o efectos; a menudo se supone que los efectos son lineales), c) la naturaleza del error o de las variables residuales (a menudo se supone que son independientes de muchas variables o están causalmente desconectadas de ellas), y d) las escalas de medición apropiadas para las variables (a menudo se supone una medición a nivel de intervalo).

Un efecto más fuerte que conecta dos variables latentes implica que los indicadores de esas variables latentes deberían estar más fuertemente correlacionados. Por lo tanto, una estimación razonable del efecto latente será cualquier valor que mejor coincida con las correlaciones entre los indicadores de las variables latentes correspondientes, es decir, el valor estimado que maximiza la coincidencia con los datos o minimiza las diferencias con los datos. Con la estimación de máxima verosimilitud, los valores numéricos de todos los coeficientes del modelo libre se ajustan individualmente (aumentan o disminuyen progresivamente desde los valores iniciales) hasta que maximizan la probabilidad de observar los datos de la muestra, ya sea que los datos sean las variables & # 39; covarianzas/correlaciones, o los casos' valores reales de las variables indicadoras. Las estimaciones de mínimos cuadrados ordinarios son los valores de los coeficientes que minimizan las diferencias al cuadrado entre los datos y cómo se verían los datos si el modelo se especificara correctamente, es decir, si todas las características estimadas del modelo corresponden a características del mundo real.

La característica estadística adecuada a maximizar o minimizar para obtener estimaciones depende de las variables' niveles de medición (la estimación es generalmente más fácil con mediciones a nivel de intervalo que con medidas nominales u ordinales), y cuando aparece una variable específica en el modelo (por ejemplo, las variables dicotómicas endógenas crean más dificultades de estimación que las variables dicotómicas exógenas). La mayoría de los programas SEM ofrecen varias opciones sobre lo que se debe maximizar o minimizar para obtener estimaciones de los coeficientes del modelo. Las opciones a menudo incluyen estimación de máxima verosimilitud (MLE), máxima verosimilitud con información completa (FIML), mínimos cuadrados ordinarios (OLS), mínimos cuadrados ponderados (WLS), mínimos cuadrados ponderados diagonalmente (DWLS) y mínimos cuadrados de dos etapas.

Un problema común es que el valor estimado de un coeficiente puede estar subidentificado porque no está suficientemente limitado por el modelo y los datos. No existe una mejor estimación única a menos que el modelo y los datos juntos restrinjan o restrinjan suficientemente el valor de un coeficiente. Por ejemplo, la magnitud de una única correlación de datos entre dos variables es insuficiente para proporcionar estimaciones de un par recíproco de efectos modelados entre esas variables. La correlación podría explicarse porque uno de los efectos recíprocos es más fuerte que el otro efecto, o porque el otro efecto es más fuerte que aquel, o por efectos de igual magnitud. Las estimaciones de efectos no identificados pueden identificarse introduciendo restricciones adicionales de modelo y/o datos. Por ejemplo, los efectos recíprocos pueden identificarse restringiendo una estimación del efecto a ser doble, triple o equivalente a la otra estimación del efecto, pero las estimaciones resultantes sólo serán confiables si la restricción adicional del modelo corresponde a la estructura. Los datos sobre una tercera variable que causa directamente sólo una de un par de variables recíprocamente conectadas causalmente también pueden ayudar a la identificación. Restringir una tercera variable para que no cause directamente una de las variables recíprocamente causales rompe la simetría que de otro modo afectaría las estimaciones del efecto recíproco porque esa tercera variable debe estar más fuertemente correlacionada con la variable que causa directamente que con la variable en el "otro". #34; extremo del recíproco al que afecta sólo indirectamente. Observe que esto nuevamente supone la idoneidad de la especificación causal del modelo, es decir, que realmente hay un efecto directo que va de la tercera variable a la variable en este extremo de los efectos recíprocos y ningún efecto directo sobre la variable en el & #34;otro extremo" del par de variables recíprocamente conectadas. Las demandas teóricas de efectos nulos/cero proporcionan restricciones útiles que ayudan a la estimación, aunque las teorías a menudo no informan claramente qué efectos son supuestamente inexistentes.

Evaluación del modelo

La evaluación del modelo depende de la teoría, los datos, el modelo y la estrategia de estimación. Por lo tanto, las evaluaciones de modelos consideran:

  • si los datos contienen mediciones razonables de variables apropiadas,
  • si el caso modelado es causalmente homogéneo, (No tiene sentido estimar un modelo si los casos de datos reflejan dos o más redes causales diferentes).
  • si el modelo representa adecuadamente la teoría o características de interés, (Los modelos son inpersuasivos si omiten características requeridas por una teoría, o contienen coeficientes inconsistentes con esa teoría).
  • si las estimaciones son justificables estadísticamente, (Las evaluaciones sustantivas pueden ser devastadas: violando las suposiciones, utilizando un estimador inapropiado, y/o encontrando no convergencia de estimadores iterativos.)
  • la razonabilidad sustantiva de las estimaciones, (Las diferencias negativas y las correlaciones superiores a 1.0 o -1.0 son imposibles. Estimaciones estadísticamente posibles que son inconsistentes con la teoría también pueden desafiar la teoría, y nuestro entendimiento.)
  • la consistencia restante, o incoherencia, entre el modelo y los datos. (El proceso de estimación minimiza las diferencias entre el modelo y los datos, pero pueden permanecer diferencias importantes e informativas).

Investigaciones que pretenden probar o "investigar" una teoría requiere atender a la inconsistencia de los datos del modelo más allá del azar. La estimación ajusta los coeficientes libres del modelo para proporcionar el mejor ajuste posible a los datos. El resultado de los programas SEM incluye una matriz que informa las relaciones entre las variables observadas que se observarían si los efectos estimados del modelo realmente controlaran las variables observadas. valores. El "en forma" de un modelo informa coincidencia o discrepancia entre las relaciones implícitas en el modelo (a menudo covarianzas) y las correspondientes relaciones observadas entre las variables. Las diferencias grandes y significativas entre los datos y las implicaciones del modelo señalan problemas. La probabilidad que acompaña a una prueba χ2 (chi-cuadrado) es la probabilidad de que los datos puedan surgir mediante variaciones de muestreo aleatorias si el modelo estimado constituyera el modelo real. fuerzas demográficas subyacentes. Una pequeña probabilidad χ2 indica que sería poco probable que los datos actuales hubieran surgido si la estructura modelada constituyera las fuerzas causales reales de la población – con el resto diferencias atribuidas a variaciones de muestreo aleatorio.

Si un modelo sigue siendo inconsistente con los datos a pesar de seleccionar estimaciones de coeficientes óptimas, una respuesta de investigación honesta informa y atiende a esta evidencia (a menudo un modelo significativo χ2 prueba). La inconsistencia de los datos del modelo más allá del azar desafía tanto las estimaciones de los coeficientes como la capacidad del modelo para adjudicar la estructura del modelo, independientemente de si la inconsistencia se origina en datos problemáticos, una estimación estadística inapropiada o una especificación incorrecta del modelo. Las estimaciones de coeficientes en modelos con datos inconsistentes ("fallidos") son interpretables, como informes de cómo le parecería el mundo a alguien que cree en un modelo que entra en conflicto con los datos disponibles. Las estimaciones en modelos con datos inconsistentes no necesariamente se vuelven "obviamente incorrectas" volviéndose estadísticamente extraño o mal firmado según la teoría. Las estimaciones pueden incluso coincidir estrechamente con los requisitos de una teoría, pero la inconsistencia restante de los datos hace que la coincidencia entre las estimaciones y la teoría no pueda proporcionar ayuda. Los modelos fallidos siguen siendo interpretables, pero sólo como interpretaciones que entran en conflicto con la evidencia disponible.

Es poco probable que la replicación detecte modelos mal especificados que no se ajusten apropiadamente a los datos. Si los datos replicados se encuentran dentro de variaciones aleatorias de los datos originales, las mismas ubicaciones incorrectas de los coeficientes que proporcionaron un ajuste inadecuado a los datos originales probablemente también ajustarán incorrectamente los datos replicados. La replicación ayuda a detectar problemas como errores en los datos (cometidos por diferentes grupos de investigación), pero es especialmente débil a la hora de detectar especificaciones erróneas después de la modificación exploratoria del modelo, como cuando se aplica el análisis factorial confirmatorio (AFC) a una segunda mitad aleatoria de los datos después del análisis factorial exploratorio. (EFA) de los datos del primer semestre.

Un índice de modificación es una estimación de cuánto "mejoraría" el ajuste de un modelo a los datos. (pero no necesariamente cuánto mejoraría la estructura del modelo) si se liberara para la estimación un coeficiente específico del modelo actualmente fijo. Los investigadores que confrontan modelos con datos inconsistentes pueden liberar fácilmente los coeficientes que los índices de modificación reportan como propensos a producir mejoras sustanciales en el ajuste. Esto simultáneamente introduce un riesgo sustancial de pasar de un modelo causalmente incorrecto y fallido a un modelo causalmente incorrecto pero ajustado porque un mejor ajuste de datos no proporciona seguridad de que los coeficientes liberados sean sustancialmente razonables o coincidan con el mundo. El modelo original puede contener especificaciones causales erróneas, como efectos dirigidos incorrectamente o suposiciones incorrectas sobre variables no disponibles, y dichos problemas no pueden corregirse agregando coeficientes al modelo actual. En consecuencia, dichos modelos siguen estando mal especificados a pesar del ajuste más cercano proporcionado por coeficientes adicionales. Es especialmente probable que surjan modelos ajustados pero inconsistentes si un investigador comprometido con un modelo particular (por ejemplo, un modelo factorial que tiene un número deseado de factores) consigue que un modelo que inicialmente falla se ajuste insertando covarianzas de error de medición "sugeridas". #34; por índices de modificación. MacCallum (1986) demostró que "incluso en condiciones favorables, los modelos que surgen de los buscadores de especificaciones deben considerarse con precaución". La especificación errónea del modelo a veces puede corregirse mediante la inserción de coeficientes sugeridos por los índices de modificación, pero se plantean muchas más posibilidades correctivas empleando algunos indicadores de variables latentes similares pero significativamente diferentes.

"Aceptando" los modelos fallidos son "lo suficientemente parecidos" Tampoco es una alternativa razonable. Browne, MacCallum, Kim, Anderson y Glaser brindaron un ejemplo de advertencia, quienes abordaron las matemáticas detrás de por qué la prueba χ2 puede tener (aunque no siempre tiene) un poder considerable para detectar especificaciones erróneas del modelo. La probabilidad que acompaña a una prueba χ2 es la probabilidad de que los datos puedan surgir mediante variaciones de muestreo aleatorias si el modelo actual, con sus estimaciones óptimas, constituyera el fuerzas demográficas subyacentes reales. Una pequeña probabilidad χ2 indica que sería poco probable que los datos actuales hubieran surgido si la estructura del modelo actual constituyera las fuerzas causales reales de la población, con la las diferencias restantes se atribuyen a variaciones aleatorias del muestreo. Browne, McCallum, Kim, Andersen y Glaser presentaron un modelo factorial que consideraron aceptable a pesar de que el modelo era significativamente inconsistente con sus datos según χ2 . La falacia de su afirmación de que el ajuste perfecto debería considerarse suficientemente bueno fue demostrada por Hayduk, Pazkerka-Robinson, Cummings, Levers y Beres, quienes demostraron un modelo apropiado para los propios datos de Browne y otros incorporando un característica experimental Browne, et al. pasado por alto. El fallo no estaba en las matemáticas de los índices ni en la excesiva sensibilidad de las pruebas χ2. La culpa fue que Browne, MacCallum y los otros autores olvidaron, descuidaron o pasaron por alto que no se puede confiar en que la cantidad de mal ajuste corresponda a la naturaleza, ubicación o gravedad de los problemas en la especificación de un modelo.

Muchos investigadores intentaron justificar el cambio a índices de ajuste, en lugar de probar sus modelos, afirmando que χ2 aumenta (y por lo tanto χ2 probabilidad disminuye) al aumentar el tamaño de la muestra (N). Hay dos errores al descontar χ2 sobre esta base. Primero, para modelos adecuados, χ2 no aumenta al aumentar N, por lo que si χ2 aumenta con N, lo que en sí mismo es una señal de que algo es detectablemente problemático. Y en segundo lugar, para los modelos que están claramente mal especificados, el aumento de χ2 con N proporciona la buena noticia de un mayor poder estadístico para detectar errores de especificación del modelo (es decir, poder para detectar errores de tipo II). Algunos tipos de especificaciones erróneas importantes no pueden detectarse mediante χ2, por lo que cualquier cantidad de mal ajuste más allá de lo que podría producirse razonablemente mediante variaciones aleatorias merece informe y consideración. . La prueba del modelo χ2, posiblemente ajustada, es la prueba del modelo de ecuaciones estructurales más sólida disponible.

Numerosos índices de ajuste cuantifican qué tan cerca se ajusta un modelo a los datos, pero todos los índices de ajuste sufren la dificultad lógica de que el tamaño o la cantidad del mal ajuste no están coordinados de manera confiable con la gravedad o la naturaleza de los problemas que producen la inconsistencia de los datos. Los modelos con diferentes estructuras causales que se ajustan idénticamente bien a los datos se denominan modelos equivalentes. Dichos modelos son equivalentes en términos de ajuste de datos, aunque no causalmente equivalentes, por lo que al menos uno de los llamados modelos equivalentes debe ser inconsistente con la estructura del mundo. Si existe una correlación perfecta de 1,0 entre X e Y y la modelamos como X causa Y, habrá un ajuste perfecto y un error residual cero. Pero es posible que el modelo no coincida con el mundo porque Y puede en realidad causar X, o tanto X como Y pueden estar respondiendo a una causa común Z, o el mundo puede contener una mezcla de estos efectos (por ejemplo, como una causa común más un efecto de Y). en X), u otras estructuras causales. El ajuste perfecto no nos dice que la estructura del modelo corresponde a la estructura del mundo, y esto a su vez implica que acercarse al ajuste perfecto no necesariamente corresponde a acercarse a la estructura del mundo. – tal vez sí, tal vez no. Esto hace que sea incorrecto que un investigador afirme que incluso un ajuste perfecto del modelo implica que el modelo está correctamente especificado causalmente. Incluso para modelos moderadamente complejos, los modelos que se ajustan con precisión equivalente son raros. Los modelos que casi se ajustan a los datos, según cualquier índice, inevitablemente introducen especificaciones erróneas adicionales potencialmente importantes pero desconocidas. Estos modelos constituyen un impedimento mayor para la investigación.

Esta debilidad lógica hace que todos los índices ajustados sean "inútiles" siempre que un modelo de ecuación estructural sea significativamente inconsistente con los datos, pero varias fuerzas continúan propagando el uso del índice de ajuste. Por ejemplo, Dag Sorbom informó que cuando alguien le preguntó a Karl Joreskog, el desarrollador del primer programa de modelado de ecuaciones estructurales, "¿Por qué entonces agregó GFI?" a su programa LISREL, Joreskog respondió: "Bueno, los usuarios nos amenazan diciendo que dejarían de usar LISREL si siempre produce chi-cuadrados tan grandes". Entonces tuvimos que inventar algo para hacer feliz a la gente. GFI cumple ese propósito." La evidencia χ2 de la inconsistencia de los datos del modelo era demasiado sólida estadísticamente para ser desalojada o descartada, pero al menos se podía proporcionar a las personas una manera de distraerse de la atención. el "inquietante" evidencia. Aún se pueden acumular beneficios profesionales desarrollando índices adicionales, informando investigaciones sobre el comportamiento de los índices y publicando modelos que entierran intencionalmente evidencia de inconsistencia de los datos del modelo bajo un MDI (un montón de índices que distraen). No parece haber ninguna justificación general de por qué un investigador debería “aceptar” una evaluación. un modelo causalmente incorrecto, en lugar de intentar corregir las especificaciones erróneas detectadas. Y algunas partes de la literatura parecen no haber notado que "aceptar un modelo" (sobre la base de "satisfacer" un valor de índice) sufre una versión intensificada de la crítica aplicada a la "aceptación" de una hipótesis nula. Los textos introductorios a las estadísticas suelen recomendar sustituir el término “aceptar” por el de “aceptar”. con "no se pudo rechazar la hipótesis nula" para reconocer la posibilidad de error de tipo II. Un error de tipo III surge de "aceptar" una hipótesis de modelo cuando los datos actuales son suficientes para rechazar el modelo.

Una preocupación fundamental es si los investigadores están comprometidos o no con la búsqueda de la estructura del mundo. Desplazar la evidencia de la inconsistencia de los datos del modelo ocultándola detrás de afirmaciones de ajuste aceptable del índice, introduce el costo en toda la disciplina de desviar la atención de cualquier cosa que la disciplina podría haber hecho para lograr una comprensión estructuralmente mejorada de la sustancia de la disciplina. La disciplina termina pagando costos reales por el desplazamiento basado en índices de la evidencia de especificación errónea del modelo. Las fricciones creadas por los desacuerdos sobre la necesidad de corregir las especificaciones erróneas de los modelos probablemente aumentarán con el uso cada vez mayor de modelos no estructurados por factores y con el uso de menos indicadores y más precisos de variables latentes similares pero significativamente diferentes.

Las consideraciones relevantes para el uso de índices de ajuste incluyen verificar:

  1. si se han abordado los problemas de datos (para garantizar que los errores de datos no conduzcan a la incoherencia de los datos modelo);
  2. si los valores de criterio para el índice se han investigado para modelos estructurados como el modelo del investigador (por ejemplo, el criterio de índice basado en modelos estructurados de factor sólo es apropiado si el modelo del investigador realmente está estructurado);
  3. si los tipos de posibles inespecciones en el modelo actual corresponden a los tipos de inespecciones en que se basa el criterio del índice (por ejemplo, los criterios basados en la simulación de cargas de factores omitidos pueden no ser apropiados para la inespección resultante de la falta de incluir variables de control apropiadas);
  4. si el investigador acepta a sabiendas ignorar las pruebas señalando los tipos de inespecciones sobre las que se basaban los criterios del índice. (Si el criterio del índice se basa en simular una carga de factor que falta o dos, usando ese criterio se reconoce la voluntad del investigador de aceptar un modelo que falta una carga de factor o dos).
  5. si se utilizan los criterios de índice más recientes, no obsoletos (porque los criterios para algunos índices se ajustan con el tiempo);
  6. si se requieren valores de criterio satisfactorios sobre pares de índices (por ejemplo, Hu y Bentler informan de que algunos índices comunes funcionan inapropiadamente a menos que sean evaluados juntos).
  7. si una prueba modelo está o no está disponible. (A χ2 valores, grados de libertad y probabilidad estarán disponibles para los modelos que presentan índices basados en χ2)
  8. y si el investigador ha considerado tanto alfa (Tipo I) como beta (Tipo II) errores en la toma de sus decisiones basadas en índices (por ejemplo, si el modelo es significativamente inconsistente a los datos, es probable que la cantidad "tolerable" de inconsistencia difiera en el contexto de contextos médicos, empresariales, sociales y psicológicos).

Algunas de las estadísticas de ajuste más utilizadas incluyen

  • Chi-square
    • Una prueba fundamental de ajuste utilizada en el cálculo de muchas otras medidas de ajuste. Es una función de la discrepancia entre la matriz de covariancia observada y la matriz de covariancia basada en modelos. Chi-square aumenta con el tamaño de la muestra sólo si el modelo es detectablemente mal especificado.
  • Akaike information criterion (AIC)
    • Un índice de ajuste relativo modelo: El modelo preferido es el que tiene el valor AIC más bajo.
    • AIC=2k− − 2In⁡ ⁡ ()L){fnMitit {fnMitit}=2k-2ln(L),}
    • Donde k es el número de parámetros del modelo estadístico, y L es el valor máximo de la probabilidad del modelo.
  • Root Mean Square Error de aproximación (RMSEA)
    • Índice de ajuste donde un valor de cero indica el mejor ajuste. Las directrices para la determinación de un "close fit" utilizando RMSEA son altamente impugnadas.
  • Standardized Root Mean Squared Residual (SRMR)
    • El SRMR es un indicador de ajuste absoluto popular. Hu y Bentler (1999) sugirieron. 08 o más pequeño como una guía para buen ajuste.
  • Índice de Fito Comparativo (CFI)
    • Al examinar las comparaciones de referencia, el CFI depende en gran parte del tamaño promedio de las correlaciones en los datos. Si la correlación promedio entre variables no es alta, entonces el CFI no será muy alto. Un valor de CFI. 95 o superior es deseable.

La siguiente tabla proporciona referencias que documentan estas y otras características de algunos índices comunes: RMSEA (error cuadrático medio de aproximación), SRMR (residual cuadrático medio estandarizado), CFI (índice de ajuste confirmatorio) y TLI. (el índice Tucker-Lewis). En la mayoría de las presentaciones de SEM se pueden encontrar índices adicionales como el AIC (Akaike Information Criterion). Para cada medida de ajuste, una decisión sobre qué representa un ajuste suficientemente bueno entre el modelo y los datos refleja el objetivo de modelado del investigador (quizás desafiar el modelo de otra persona o mejorar la medición); si se debe afirmar o no que el modelo ha sido "probado"; y si el investigador se siente cómodo "ignorando" evidencia del grado de mal ajuste documentado por el índice.

Características de los índices de fito
RMSEA SRMR CFI
Nombre del índice Root Mean Square Error de aproximación Root estándar Mean Squared Residual Índice de Fit de confirmación
Formula RMSEA = sq-root(χ2 - d)/(d(N-1)))
Referencias básicas
Modelo de fábrica propuesta de redacción

para valores críticos

.06 redacción?
Modelo NON-Factor propuesta de redacción

para valores críticos

Referencias propuestas revisadas/cambiadas,

desacuerdos sobre valores críticos

Referencias indicando dos índices o índice pareado

criterios necesarios

Índice basado en χ2Sí. No Sí.
Referencias que recomiendan contra el uso

de este índice

Tamaño de la muestra, poder y estimación

Los investigadores coinciden en que las muestras deben ser lo suficientemente grandes como para proporcionar estimaciones de coeficientes estables y un poder de prueba razonable, pero no existe un consenso general sobre los tamaños de muestra específicos requeridos, ni siquiera sobre cómo determinar los tamaños de muestra apropiados. Las recomendaciones se han basado en la cantidad de coeficientes que se estimarán, la cantidad de variables modeladas y simulaciones de Monte Carlo que abordan coeficientes específicos del modelo. Las recomendaciones sobre el tamaño de la muestra basadas en la relación entre el número de indicadores y los latentes están orientadas a factores y no se aplican a modelos que emplean indicadores únicos que tienen varianzas de error de medición fijas distintas de cero. En general, para modelos de tamaño moderado sin coeficientes estadísticamente difíciles de estimar, los tamaños de muestra (N) requeridos parecen más o menos comparables a los N requeridos para una regresión que emplea todos los indicadores.

Cuanto mayor sea el tamaño de la muestra, mayor será la probabilidad de incluir casos que no sean causalmente homogéneos. En consecuencia, el aumento de N para mejorar la probabilidad de poder reportar un coeficiente deseado como estadísticamente significativo, aumenta simultáneamente el riesgo de inespección modelo, y el poder para detectar la inespección errónea. Los investigadores que traten de aprender de su modelado (incluyendo el aprendizaje potencial de su modelo requiere ajuste o sustitución) se esforzarán por un tamaño de muestra tan grande como lo permita la financiación y por su evaluación de la probable heterogeneidad causal de la población/homogeneidad. Si el N disponible es enorme, los subconjuntos de modelos de casos pueden controlar variables que de otro modo podrían alterar la homogeneidad causal. Los investigadores que temen que puedan tener que reportar las deficiencias de su modelo se rompen entre querer un N más grande para proporcionar suficiente poder para detectar coeficientes estructurales de interés, evitando al mismo tiempo el poder capaz de señalar la inconsistencia de los modelos-datos. La enorme variación en las estructuras modelo y las características de los datos sugiere que los tamaños adecuados de la muestra podrían ser útiles considerando experiencias de otros investigadores (tanto buenas como malas) con modelos de tamaño y complejidad comparables que se han estimado con datos similares.

Interpretación

Las interpretaciones causales de los modelos SE son las más claras y comprensibles, pero esas interpretaciones serán falaces o incorrectas si la estructura del modelo no se corresponde con la estructura causal del mundo. En consecuencia, la interpretación debe abordar el estado y la estructura generales del modelo, no simplemente los coeficientes estimados del modelo. Si un modelo se ajusta a los datos y/o cómo llegó a ajustarse a los datos, son aspectos fundamentales para la interpretación. El ajuste de los datos obtenido mediante la exploración o siguiendo índices de modificación sucesivos no garantiza que el modelo sea incorrecto, pero plantea serias dudas porque estos enfoques son propensos a modelar incorrectamente las características de los datos. Por ejemplo, explorar para ver cuántos factores se requieren evita encontrar que los datos no están estructurados por factores, especialmente si se ha "persuadido" al modelo de factores para que se ajuste mediante la inclusión de covarianzas de error de medición. La capacidad de los datos para hablar en contra de un modelo postulado se erosiona progresivamente con cada inclusión injustificada de un efecto de “índice de modificación sugerido” o covarianza de error. Resulta extremadamente difícil recuperar un modelo adecuado si el modelo inicial/base contiene varias especificaciones erróneas.

Las estimaciones de efectos directos se interpretan en paralelo a la interpretación de los coeficientes en las ecuaciones de regresión, pero con un compromiso causal. Se considera que cada aumento unitario en el valor de una variable causal produce un cambio de la magnitud estimada en el valor de la variable dependiente dado el control o ajuste de todos los demás mecanismos causales operativos/modelados. Los efectos indirectos se interpretan de manera similar, siendo la magnitud de un efecto indirecto específico igual al producto de la serie de efectos directos que comprende ese efecto indirecto. Las unidades involucradas son las escalas reales de los valores de las variables observadas y los valores de escala asignados para las variables latentes. Un efecto 1.0 especificado/fijo de un indicador latente en un indicador específico coordina la escala de ese indicador con la escala de la variable latente. La presunción de que el resto del modelo permanece constante o sin cambios puede requerir descontar efectos indirectos que, en el mundo real, podrían ser provocados simultáneamente por un aumento de unidades reales. Y el aumento unitario en sí mismo podría ser inconsistente con lo que es posible en el mundo real porque puede que no se conozca una manera de cambiar el valor de la variable causal. Si un modelo ajusta los errores de medición, el ajuste permite interpretar los efectos de nivel latente como si se refirieran a variaciones en las puntuaciones reales.

Las interpretaciones SEM se apartan más radicalmente de las interpretaciones de regresión cuando una red de coeficientes causales conecta las variables latentes porque las regresiones no contienen estimaciones de efectos indirectos. Las interpretaciones SEM deben transmitir las consecuencias de los patrones de efectos indirectos que transmiten efectos desde las variables de fondo, a través de las variables intermedias, hasta las variables dependientes posteriores. Las interpretaciones SEM fomentan la comprensión de cómo múltiples vías causales mundanas pueden funcionar en coordinación, de forma independiente o incluso contrarrestarse entre sí. Los efectos directos pueden ser contrarrestados (o reforzados) por efectos indirectos, o sus implicaciones correlacionales pueden contrarrestarse (o reforzarse) por los efectos de causas comunes. El significado y la interpretación de estimaciones específicas deben contextualizarse en el modelo completo.

La interpretación del modelo SE debe conectar segmentos causales específicos del modelo con sus implicaciones de varianza y covarianza. Un solo efecto directo informa que la varianza en la variable independiente produce una cantidad específica de variación en los valores de la variable dependiente, pero los detalles causales de exactamente qué hace que esto suceda permanece sin especificar porque un coeficiente de efecto único no contiene subcomponentes disponibles para la integración. en una historia estructurada de cómo surge ese efecto. Se necesitaría un modelo SE más detallado que incorporara variables que intervienen entre la causa y el efecto para proporcionar características que constituyan una historia sobre cómo funciona cualquier efecto. Hasta que llegue ese modelo, cada efecto directo estimado conserva un matiz de desconocido, invocando así la esencia de una teoría. Una incógnita esencial paralela acompañaría a cada coeficiente estimado incluso en el modelo más detallado, por lo que la sensación de misterio fundamental nunca se erradica por completo de los modelos SE.

Incluso si cada efecto modelado se desconoce más allá de la identidad de las variables involucradas y la magnitud estimada del efecto, las estructuras que vinculan múltiples efectos modelados brindan oportunidades para expresar cómo funcionan las cosas para coordinar las variables observadas, brindando así posibilidades de interpretación útiles. Por ejemplo, una causa común contribuye a la covarianza o correlación entre dos variables afectadas, porque si el valor de la causa aumenta, los valores de ambos efectos también deberían aumentar (asumiendo efectos positivos) incluso si no conocemos la historia completa. subyacente a cada causa. (Una correlación es la covarianza entre dos variables que han sido estandarizadas para tener una varianza de 1,0). Se podría hacer otra contribución interpretativa expresando cómo dos variables causales pueden explicar la varianza en una variable dependiente, así como cómo la covarianza entre dos de esas causas puede aumentar o disminuir la varianza explicada en la variable dependiente. Es decir, la interpretación puede implicar explicar cómo un patrón de efectos y covarianzas puede contribuir a disminuir la varianza de una variable dependiente. Comprender las implicaciones causales se conecta implícitamente con la comprensión del “control” y, potencialmente, con la explicación de por qué algunas variables, pero no otras, deben controlarse. A medida que los modelos se vuelven más complejos, estos componentes fundamentales pueden combinarse de maneras no intuitivas, como explicar cómo no puede haber correlación (covarianza cero) entre dos variables a pesar de que las variables estén conectadas por un efecto causal directo distinto de cero.

La insignificancia estadística de una estimación del efecto indica que la estimación podría surgir fácilmente como una variación de muestreo aleatoria en torno a un efecto nulo/cero, por lo que interpretar la estimación como un efecto real resulta equívoco. Al igual que en la regresión, la proporción de la varianza de cada variable dependiente explicada por variaciones en las causas modeladas la proporciona R2, aunque el error bloqueado R2 debe usarse si la variable dependiente está involucrada en efectos recíprocos o de bucle, o si tiene una variable de error correlacionada con cualquier variable de error del predictor.

La precaución que aparece en la sección Evaluación del modelo merece repetirse. Debería ser posible interpretar si un modelo es o no consistente con los datos. Las estimaciones informan cómo le parecería el mundo a alguien que creyera en el modelo, incluso si esa creencia es infundada porque resulta que el modelo es incorrecto. La interpretación debe reconocer que los coeficientes del modelo pueden corresponder o no a “parámetros”, porque los coeficientes del modelo pueden no tener características estructurales mundanas correspondientes.

Agregar nuevas variables latentes que entran o salen del modelo original en algunas ubicaciones/variables causales claras contribuye a detectar especificaciones erróneas del modelo que, de otro modo, podrían arruinar las interpretaciones de los coeficientes. Las correlaciones entre los nuevos indicadores latentes y todos los indicadores originales contribuyen a probar la estructura del modelo original porque los pocos coeficientes de efectos nuevos y enfocados deben trabajar en coordinación con los efectos directos e indirectos originales del modelo para coordinar los nuevos indicadores con los indicadores originales. Si la estructura del modelo original era problemática, las escasas nuevas conexiones causales serán insuficientes para coordinar los nuevos indicadores con los indicadores originales, lo que indicaría lo inadecuado de los coeficientes del modelo original a través de la inconsistencia de los datos del modelo. Las restricciones correlacionales basadas en coeficientes de efecto nulo/cero y los coeficientes a los que se les asignan valores fijos distintos de cero contribuyen tanto a la prueba del modelo como a la estimación de coeficientes y, por lo tanto, merecen reconocimiento como el andamiaje que respalda las estimaciones y su interpretación.

Las interpretaciones se vuelven progresivamente más complejas para los modelos que contienen interacciones, no linealidades, múltiples grupos, múltiples niveles y variables categóricas. Para interpretaciones de coeficientes en modelos que contienen interacciones, consulte {referencia necesaria}, para modelos multinivel, consulte {referencia necesaria}, para modelos longitudinales, consulte {referencia necesaria} y para modelos que contienen variables categóricas, consulte {referencia necesaria}. Los efectos que tocan bucles causales, efectos recíprocos o residuos correlacionados también requieren interpretaciones ligeramente revisadas.

La interpretación cuidadosa de los modelos de ajuste y de falla puede proporcionar avances en la investigación. Para ser confiable, el modelo debe investigar estructuras causales académicamente informativas, ajustar los datos aplicables con estimaciones comprensibles y no incluir coeficientes vacíos. Los modelos que se ajustan confiablemente son más raros que los modelos que fallan o que los modelos que se ajustan de manera inapropiada, pero los modelos que se ajustan apropiadamente son posibles.

Las múltiples formas de conceptualizar los modelos PLS complican la interpretación de los modelos PLS. Muchos de los comentarios anteriores son aplicables si un modelador de PLS adopta una perspectiva realista esforzándose por garantizar que sus indicadores modelados se combinen de una manera que coincida con alguna variable latente existente pero no disponible. Los modelos PLS no causales, como los que se centran principalmente en R2 o en el poder predictivo fuera de muestra, cambian los criterios de interpretación al disminuir la preocupación por si el modelo Los coeficientes tienen contrapartes mundanas. Se puede ganar dinero con predictores estadísticamente significativos incluso si el modelador no está interesado en las fuerzas estructurales mundanas que proporcionan el poder predictivo. Las características fundamentales que diferencian las cinco perspectivas de modelado PLS discutidas por Rigdon, Sarstedt y Ringle apuntan a diferencias en los objetivos de los modeladores PLS y las correspondientes diferencias en las características del modelo que justifican su interpretación.

Se debe tener precaución al hacer afirmaciones de causalidad, incluso cuando se hayan realizado experimentos o investigaciones ordenadas en el tiempo. Debe entenderse que el término modelo causal significa "un modelo que transmite supuestos causales", no necesariamente un modelo que produce conclusiones causales validadas; tal vez sí, tal vez no. La recopilación de datos en múltiples momentos y el uso de un diseño experimental o cuasiexperimental puede ayudar a descartar ciertas hipótesis rivales, pero ni siquiera un experimento aleatorio puede descartar por completo las amenazas a las afirmaciones causales. Ningún diseño de investigación puede garantizar plenamente las estructuras causales.

Controversias y Movimientos

El modelado de ecuaciones estructurales está plagado de controversias, muchas de las cuales surgieron en discusiones sobre SEMNET y que permanecen disponibles en el archivo de SEMNET. SEMNET es un servidor de listas gratuito puesto a disposición por la Universidad de Alabama. Los investigadores de la tradición analítica factorial comúnmente intentan reducir conjuntos de indicadores múltiples a menos escalas o puntuaciones de factores más manejables para su uso posterior en modelos estructurados por trayectorias. Esto constituye un proceso gradual en el que el paso de medición inicial proporciona escalas o puntuaciones de factores que se utilizarán más adelante en un modelo estructurado por trayectoria. Este enfoque gradual parece obvio, pero en realidad enfrenta graves deficiencias subyacentes. La segmentación en pasos interfiere con la verificación exhaustiva de si las escalas o puntuaciones de factores representan válidamente los indicadores y/o informan válidamente sobre los efectos de nivel latente. Un modelo de ecuaciones estructurales que incorpora simultáneamente las estructuras de nivel latente y de medición no sólo verifica si los factores latentes coordinan apropiadamente los indicadores, sino que también verifica si ese mismo latente coordina simultáneamente de manera apropiada los indicadores de cada latente con los indicadores de las causas y/o consecuencias teorizadas de que latente. Si un latente es incapaz de realizar ambos estilos de coordinación, se cuestiona la validez de ese latente y se cuestiona una escala o puntuaciones de factores que pretenden medir ese latente. Los desacuerdos de SEMNET giraron en torno al respeto o la falta de respeto hacia la evidencia que cuestionaba la validez de los factores latentes postulados. Las discusiones de SEMNET, a fuego lento, a veces hirviendo, dieron como resultado un número especial de la revista Structural Equation Modeling centrado en un artículo objetivo de Hayduk y Glaser seguido de varios comentarios y una réplica, todos disponibles gratuitamente, gracias a los esfuerzos de George Marcoulides.

Estas discusiones alimentaron el desacuerdo sobre si los modelos de ecuaciones estructurales deberían probarse o no para determinar su coherencia con los datos, y las pruebas de modelos se convirtieron en el siguiente foco de las discusiones de SEMNET. Los usuarios de SEMNET que tenían historiales de modelado de rutas tendían a defender pruebas cuidadosas de los modelos, mientras que aquellos con historiales de factores tendían a defender la indexación de ajuste en lugar de las pruebas de ajuste. Esta ronda de discusiones de SEMNET condujo a un artículo objetivo en Personality and Individual Differences de Paul Barrett que decía: “De hecho, ahora recomendaría prohibir que TODOS esos índices aparezcan en cualquier artículo como indicativos de la “aceptabilidad” o el “grado de aceptación” del modelo. inadaptado"." (página 821). El artículo de Barrett también estuvo acompañado de comentarios desde ambas perspectivas.

La controversia sobre las pruebas de modelos disminuyó a medida que SEMNET avanzó hacia la exigencia de informes claros sobre inconsistencias significativas entre los datos del modelo. Los científicos no pueden ignorar o dejar de informar la evidencia simplemente porque no les gusta lo que informa. El requisito de prestar atención a la evidencia que apunta a una especificación errónea del modelo sustenta la preocupación más reciente de SEMNET por abordar la “endogeneidad”, un estilo de especificación errónea del modelo que interfiere con la estimación debido a la falta de independencia de las variables de error/residuales. En general, también ha ido disminuyendo la controversia sobre la naturaleza causal de los modelos de ecuaciones estructurales, incluidos los modelos factoriales. Incluso Stan Mulaik, un incondicional del análisis factorial, ha reconocido la base causal de los modelos factoriales. Los comentarios de Bollen y Pearl sobre los mitos sobre la causalidad en el contexto de SEM reforzaron la centralidad del pensamiento causal en el contexto de SEM.

Una controversia más breve sobre SEMNET se centró en modelos competitivos. Comparar modelos competitivos puede resultar muy útil, pero hay cuestiones fundamentales que no se pueden resolver creando dos modelos y conservando el modelo que mejor se ajuste. La sofisticación estadística de presentaciones como las de Levy y Hancock (2007), por ejemplo, hace que sea fácil pasar por alto que un investigador puede comenzar con un modelo terrible y un modelo atroz, y terminar reteniendo el modelo estructuralmente terrible porque algún índice lo reporta como mejor. más apropiado que el modelo atroz. Es desafortunado que incluso textos SEM sólidos como Kline (2016) sigan siendo inquietantemente débiles en su presentación de las pruebas de modelos. En general, las contribuciones que pueden hacerse mediante el modelado de ecuaciones estructurales dependen de una evaluación cuidadosa y detallada del modelo, incluso si el modelo fallido resulta ser el mejor disponible.

Una controversia adicional que tocó los márgenes de las controversias anteriores espera encenderse en SEMNET. Los modelos factoriales y las estructuras factoriales incorporadas en la teoría que tienen múltiples indicadores tienden a fallar, y eliminar indicadores débiles tiende a reducir la inconsistencia de los datos del modelo. La reducción del número de indicadores genera preocupación y controversia sobre el número mínimo de indicadores necesarios para respaldar una variable latente en un modelo de ecuación estructural. Se puede persuadir a los investigadores vinculados a la tradición factorial para que reduzcan el número de indicadores a tres por variable latente, pero tres o incluso dos indicadores aún pueden ser inconsistentes con una causa común de factor subyacente propuesta. Hayduk y Littvay (2012) analizaron cómo pensar, defender y ajustar el error de medición cuando se utiliza un solo indicador para cada variable latente modelada. Los indicadores únicos se han utilizado eficazmente en los modelos SE durante mucho tiempo, pero la controversia permanece tan lejana como la de un revisor que haya considerado la medición únicamente desde la perspectiva del análisis factorial.

Aunque van en declive, los rastros de estas controversias se encuentran dispersos por toda la literatura SEM, y es fácil incitar al desacuerdo preguntando: ¿Qué se debe hacer con los modelos que son significativamente inconsistentes con los datos? O preguntando: ¿La simplicidad del modelo anula el respeto por la evidencia de inconsistencia de los datos? O, ¿qué peso debería darse a los índices que muestran un ajuste de datos cercano o no tan cercano para algunos modelos? ¿O deberíamos ser especialmente indulgentes y “recompensar” los modelos parsimoniosos que son inconsistentes con los datos? O, dado que la RMSEA tolera ignorar algún mal ajuste real para cada grado de libertad del modelo, ¿no significa eso que las personas que prueban modelos con hipótesis nulas de RMSEA distinto de cero están realizando pruebas de modelos deficientes? Se requiere una variación considerable en la sofisticación estadística para abordar de manera convincente tales preguntas, aunque las respuestas probablemente se centrarán en la cuestión no técnica de si los investigadores están obligados o no a informar y respetar la evidencia.

Extensiones, alternativas de modelado y parientes estadísticos

  • Variables dependientes
  • Variables de intervención cateórica
  • Copulas {referencia requerida}
  • Modelo de Ecuación Estructural Exploradora
  • Modelos de validez de fusión
  • Modelos de teoría de la respuesta
  • Modelos de clase latentes
  • Modelo de crecimiento latente
  • Funciones de enlace
  • Modelos longitudinales
  • Modelos de invariancia de medición
  • Modelo de mezcla, modelos de clase latente
  • Modelos multinivel, modelos jerárquicos (por ejemplo, personas anidadas en grupos)
  • Modelización de grupos múltiples con o sin limitaciones entre grupos (géneros, culturas, formas de prueba, idiomas, etc.)
  • Modelos multi-trait multi-método
  • Modelos de interceptación aleatoria
  • Modelo de Ecuación Estructural Árboles

Software

Los programas de modelado de ecuaciones estructurales difieren ampliamente en sus capacidades y requisitos de usuario.

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save