¿QUÉ ES ANÁLISIS FACTORIAL?
En entregas anteriores
se presentaron dos procedimientos muy útiles en la investigación social, el
Análisis de la Varianza para un factor y el Análisis de la Varianza para dos factores o más. En ambos casos la respuesta del consumidor o el individuo
estudiado se clasificaba a priori según un factor, por ejemplo la ubicación
geográfica o dos o más factores, como ubicación, precio, edad, estímulos
externos o aquellos factores identificables antes del procesamiento de los
datos, generándose unos resultados muy útiles en la toma de decisiones.
En el artículo que aquí
se presenta se tiene que a diferencia de lo que ocurre en otras técnicas como
el análisis de varianza o el de regresión, en el análisis factorial todas las
variables del análisis cumplen el mismo papel: todas ellas son independientes en el sentido de que no existe a priori una dependencia conceptual de unas variables
sobre otras.
Así que el análisis
factorial es una técnica estadística de reducción de datos usada para explicar
las correlaciones entre las variables observadas en términos de un número menor
de variables no observadas llamadas factores. Las variables observadas se
modelan como combinaciones lineales de factores más expresiones de error.
En el análisis devarianza, la regresión múltiple y el análisis discriminante se considera una variable
como dependiente o de criterio, y a las otras como variables predictivas o
independientes. Sin embargo, en el análisis factorial no se hace dicha
distinción. El análisis factorial es más bien una técnica de interdependencia,
en la cual se examina el conjunto completo de relaciones interdependientes.
Cuándo usar el análisis factorial
El análisis factorial se utiliza en las siguientes circunstancias:
1. Para identificar las
dimensiones subyacentes, o factores, que explican las correlaciones entre un
conjunto de variables. Por ejemplo, puede emplearse un conjunto de enunciados
acerca del estilo de vida para medir el perfil psicográfico de los
consumidores. Estos enunciados se someten luego a un análisis factorial para
identificar los factores psicográficos subyacentes.
2. Para identificar un
conjunto nuevo y más reducido de variables no correlacionadas que reemplacen al
conjunto original de variables correlacionadas en el análisis multivariado
posterior (regresión o análisis discriminante).
Por ejemplo, los
factores psicográficos identificados pueden utilizarse como variables
independientes, al explicar las diferencias entre los consumidores leales y los
no leales. De esta manera, en el análisis posterior, en vez de las siete
variables psicográficas correlacionadas pueden usarse dos factores no
correlacionados.
3. Identificar un
conjunto más reducido de variables que sobresalen en un conjunto mayor para utilizar
luego en el análisis multivariado. Por ejemplo, algunos de los enunciados
originales sobre el estilo de vida que tenían una elevada correlación con los
factores identificados pueden usarse como variables independientes, para
explicar las diferencias entre los consumidores leales y los no leales.
El análisis factorial
tiene numerosas aplicaciones en las ciencias sociales y en ciencias de la conducta, como en psicología e investigación de mercados. Por ejemplo:
- Es útil en la segmentación del mercado para
identificar las variables subyacentes en que se agrupan los
clientes. Los compradores de automóviles nuevos pueden agruparse de acuerdo con
la importancia relativa que le darían a la economía, la conveniencia, el
desempeño, la comodidad y el lujo. Esto daría como resultado cinco segmentos:
buscadores de economía, buscadores de conveniencia, buscadores de desempeño,
buscadores de comodidad y buscadores de lujo.
- En la investigación del producto, el análisis
factorial sirve para determinar los atributos de la marca
que influyen en la elección del consumidor. Las marcas de dentífricos pueden
evaluarse en términos de protección contra la caries, blancura de los dientes,
sabor, aliento fresco y precio.
- En estudios sobre publicidad, se utiliza el
análisis factorial para entender los hábitos de consumo de
medios de comunicación, por parte del mercado meta. Los consumidores de
alimentos congelados pueden ver mucha televisión por cable, ir al cine con
frecuencia y escuchar música country.
- El análisis factorial se emplea en estudios de asignación
de precios para identificar las características de los consumidores sensibles a
los precios. Por ejemplo, estos consumidores pueden ser metódicos, cuidadosos
de la economía y hogareños.
Historia del análisis factorial
Los factores latentes
de Francis Galton y los ejes principales de Karl Pearson fueron los precedentes
más inmediatos del análisis factorial. En 1904, Charles Spearman planteó una
teoría de la inteligencia basada en la existencia de factor común al que
denominó g. De acuerdo con esta teoría, la inteligencia de los individuos podía
ordenarse a lo largo de una sola dimensión.
En la obra Multiple Factor Analysis de Louis Leon
Thurstone se plantea un análisis factorial con más de un factor común y se
introducen la estructura simple y las rotaciones de factores. La existencia de
varias dimensiones latentes hacía imposible una ordenación de los individuos en
función de su inteligencia. También permitía ubicar las personalidades
neuróticas y psicóticas en dimensiones distintas, en contradicción con los
principios de los psicoanalistas, que establecían una continuidad entre ambos
extremos.
Los métodos modernos
para extraer los factores son los del análisis factorial canónico de C.R. Rao,
el método Alfa (H.F. Kaiser, J. Carey) y el método de la máxima verosimilitud
(D.N. Lawley, Karl Jöreskog).
El método varimax de
rotación ortogonal es de Kaiser. J.B. Carroll introdujo la rotación oblicua
quartimin y A.E. Hendrickson y P.O. White la promax.
Hasta los años sesenta,
el análisis factorial era principalmente exploratorio. En esa época nació el
análisis factorial confirmatorio que permite confirmar o rechazar hipótesis
planteadas en forma de una cierta estructura subyacente.
Tipos de análisis factorial
El
análisis factorial exploratorio, AFE, se usa para
tratar de descubrir la estructura interna de un número relativamente grande de
variables. La hipótesis a priori del investigador es que pueden existir una
serie de factores asociados a grupos de variables. Las cargas de los distintos
factores se utilizan para intuir la relación de éstos con las distintas
variables. Es el tipo de análisis factorial más común.
El análisis factorial
confirmatorio, AFC,
trata de determinar si el número de factores obtenidos y sus cargas se
corresponden con los que cabría esperar a la luz de una teoría previa acerca de
los datos. La hipótesis a priori es que existen unos determinados factores
preestablecidos y que cada uno de ellos está asociado con un determinado
subconjunto de las variables. El análisis factorial confirmatorio entonces
arroja un nivel de confianza para poder aceptar o rechazar dicha hipótesis.
Modelo de Análisis Factorial
A nivel matemático, el
análisis factorial se asemeja al análisis de regresión múltiple, en el hecho de
que cada variable se expresa como una combinación lineal de los factores
subyacentes. La cantidad de varianza que una variable comparte con el resto de
las variables incluidas en el análisis se conoce como contribución común. La
covariación entre las variables se describe en términos de un pequeño número de
factores comunes y un factor único para cada variable. Estos factores no se observan
abiertamente. Si las variables son estandarizadas, el modelo factorial se
representa de la siguiente manera:
Es posible elegir pesos
o coeficientes de calificación del factor de manera que el primer factor explique
la mayoría de la varianza total. Luego se selecciona un segundo conjunto de
pesos de forma que el segundo factor dé cuenta de la mayoría de la varianza
residual, siempre que no esté correlacionado con el primer factor
Estadísticos asociados con el análisis factorial
Los principales
estadísticos asociadas con el análisis factorial son los siguientes:
- Prueba de esfericidad de Bartlett.
Es una prueba estadística que se utiliza para examinar la hipótesis de que las
variables no están correlacionadas en la población. En otras palabras, la
matriz de correlación de la población es una matriz de identidad; cada variable
tiene una correlación perfecta consigo misma (r = 1), pero no se correlaciona
con las demás variables (r = 0).
- Matriz de correlación.
Es una matriz triangular inferior que muestra las correlaciones simples, r,
entre todos los pares posibles de variables incluidas en el análisis. Por lo
regular, se omiten los elementos de la diagonal que son todos iguales a 1.
- Contribución común.
Es la cantidad de varianza que una variable comparte con todas las otras variables
consideradas. También es la proporción de la varianza explicada por los
factores comunes.
- Valor propio.
Representa la varianza total explicada por cada factor. Cargas de los factores.
Son correlaciones simples entre las variables y los factores.
- Gráfica de las cargas de los
factores. Es una gráfica de las variables originales que usa
las cargas de los factores como coordenadas.
- Matriz factorial.
Contiene las cargas de los factores de todas las variables en todos los
factores extraídos.
- Puntuaciones de los factores.
Son calificaciones compuestas que se calculan para cada encuestado en los
factores derivados.
- Medida de lo apropiado del muestreo
de Kaiser-Meyer-Olkin (KMO). Es un indicador que sirve para
examinar si el análisis factorial es adecuado. Los valores altos (entre 0,5 y 1,0)
indican que el análisis factorial es apropiado. Valores inferiores a 0,5
implican que el análisis factorial quizá no sea adecuado.
- Porcentaje de varianza.
Es el porcentaje de la varianza total atribuida a cada factor.
- Residuales.
Son las diferencias entre las correlaciones observadas (tal como se presentan
en la matriz de correlaciones de entrada) y las correlaciones reproducidas,
(tal como se calcularon a partir de la matriz factorial).
- Gráfica de sedimentación.
Es una gráfica de los valores propios contra el número de factores en orden de
extracción.
Realización de un análisis factorial
En la siguiente figura se
ilustran los pasos que se siguen para realizar un análisis factorial. El primer
paso consiste en definir el problema del análisis factorial e identificar las
variables que se van a analizar.
Luego se construye una
matriz de correlaciones de esas variables y se elige un método de análisis factorial.
El investigador decide el número de factores que se extraerán y el método de
rotación.
A continuación deben
interpretarse los factores rotados. Según los objetivos, puede calcularse la puntuación
de los factores o elegir variables sustitutas que representen los factores en
un análisis multivariado posterior. Por último, se determina el ajuste del
modelo del análisis factorial. En las siguientes secciones se revisan esos
pasos con mayor detalle.
Planteamiento del problema
El planteamiento del
problema incluye varias tareas. Primero, deben identificarse los objetivos del
análisis factorial y especificarse las variables que se incluirán de acuerdo
con investigaciones previas, la teoría y el juicio del investigador. Es
importante que las variables se midan en forma apropiada en una de escala de
intervalo o de razón. El tamaño de la muestra tiene que ser adecuado; como guía
general, el número de observaciones (tamaño de la muestra) debería ser al menos
cuatro o cinco veces mayor que el número de variables.
Para ilustrar el
análisis factorial, suponga que el investigador desea determinar qué beneficios
buscan los consumidores al comprar un dentífrico. Para el levantamiento de datos
Plepso realizó las
operaciones de campo en Centros
Comerciales donde se entrevistó a una muestra de 30 individuos. Se solicitó
a los encuestados que utilizaran una escala de 7 puntos (1 = Muy en desacuerdo,
7 = Muy de acuerdo), para expresar su grado de acuerdo o desacuerdo con los siguientes
enunciados:
V1: Es
importante comprar dentífricos que prevengan las caries
V2: Me
gustan los dentífricos que dejan los dientes brillantes
V3: Un
dentífrico tiene que fortalecer las encías
V4: Prefiero
un dentífrico que refresque el aliento
V5: La
prevención de las caries no es un beneficio importante ofrecido por los
dentífricos
V6: La
consideración más importante al comprar un dentífrico son los dientes bellos
En la tabla a
continuación se presentan los datos obtenidos. Para propósitos de ilustración,
sólo se considera un número pequeño de observaciones. En la práctica real, el
análisis factorial se realiza en muestras mucho mayor. A partir de esos datos,
se elaboró una matriz de correlación.
Elaboración de una matriz de correlación
El proceso analítico se
basa en una matriz de las correlaciones entre las variables. Al examinar esta matriz
puede obtenerse información valiosa. Para que el análisis factorial sea
adecuado, esas variables necesitan estar correlacionadas. En la práctica, éste
suele ser el caso.
Si las correlaciones
entre todas las variables son pequeñas, el análisis factorial quizá no sea apropiado.
También se espera que las variables con una elevada correlación entre sí tengan
además una alta correlación con el mismo factor o los mismos factores.
Para probar la
pertinencia del modelo factorial se dispone de estadísticos formales. Por
ejemplo, la prueba de esfericidad de Bartlett permite probar la hipótesis nula
de que las variables no están correlacionadas en la población, es decir, que la
matriz de correlación de la población es una matriz de identidad. En la matriz
de identidad, todos los términos de la diagonal son iguales a 1; y todos los
términos fuera de la diagonal son iguales a 0. El estadístico de prueba de
esfericidad se basa en la transformación del determinante de la matriz de
correlación en una chi cuadrada (c2). Un valor alto
del estadístico de prueba favorecerá el rechazo de la hipótesis nula. Si esta
hipótesis no puede rechazarse, entonces debe cuestionarse la pertinencia del
análisis factorial. Otro estadístico útil es la medición de Kaiser-Meyer-Olkin
(KMO) sobre lo adecuado del muestreo. Este índice compara la magnitud de los
coeficientes de correlación observados con la magnitud de los coeficientes de
correlación parcial. Los valores pequeños del estadístico KMO indican que las
correlaciones entre los pares de variables no pueden explicarse por otras
variables y que tal vez el análisis factorial no sea adecuado. Por lo general,
es deseable un valor mayor a 0,5.
En la tabla que se
presenta a continuación se muestra la matriz de correlación elaborada a partir
de los datos obtenidos para entender los beneficios de los dentífricos. Aquí
las correlaciones entre V1 (prevención de las caries), V3
(encías fuertes) y V5 (debilitamiento de los dientes) son
relativamente elevadas, por lo que se esperaría que dichas variables se
correlacionen con el mismo conjunto de factores.
Asimismo, se observan
correlaciones relativamente altas entre V2 (dientes brillantes), V4
(aliento fresco) y V6 (dientes bellos), por lo que se espera que
también estas variables se correlacionen con los mismos factores.
En matriz de
correlación se presentan los resultados del análisis factorial. La prueba de
esfericidad de Bartlett rechaza la hipótesis nula de que la matriz de
correlación de la población es una matriz de identidad.
La chi cuadrada
aproximada es de 111,314 con 15 grados de libertad, lo cual es significativo a
un nivel de 0,05. El valor del estadístico de KMO (0,660) también es alto
(>0,5). Por ende, puede considerarse que el análisis factorial es una
técnica apropiada para analizar la matriz de correlación de la tabla.
Determinación del procedimiento del análisis factorial
Una vez que se
determina que el análisis factorial es una técnica adecuada para analizar los
datos, debe elegirse un procedimiento adecuado. Los diferentes tipos de
análisis factorial se distinguen en el procedimiento que usan para derivar los
pesos o los coeficientes de las puntuaciones de los factores.
Los dos enfoques
básicos son el análisis de los componentes principales y el análisis de los
factores comunes. En el análisis de los componentes principales se considera la
varianza total de los datos. La diagonal de la matriz de correlación consta de
unidades y la varianza total se incluye en la matriz factorial.
El análisis de componentes principales se recomienda cuando lo que interesa es determinar el número mínimo de factores que explicarán la máxima varianza de los datos para usarlos en análisis multivariados posteriores. Los factores se conocen como componentes principales.
El análisis de componentes principales se recomienda cuando lo que interesa es determinar el número mínimo de factores que explicarán la máxima varianza de los datos para usarlos en análisis multivariados posteriores. Los factores se conocen como componentes principales.
En el análisis de los
factores comunes, los factores se calculan a partir únicamente de la varianza común.
Las contribuciones comunes se introducen en la diagonal de la matriz de
correlación. Este procedimiento es adecuado si lo que interesa principalmente
es identificar las dimensiones subyacentes y la varianza común. Este análisis
se conoce también como factorización del eje principal.
Existen otros recursos
para calcular los factores comunes, entre los que se encuentran el
procedimiento de mínimos cuadrados no ponderados, mínimos cuadrados
generalizados, probabilidad máxima, método alfa y factorización de imagen.
Estos procedimientos son complejos y no se recomiendan para usuarios
inexpertos.
La tabla anterior
muestra la aplicación del análisis de los componentes principales al ejemplo
del dentífrico. En la sección de “Contribuciones comunes”, en la columna
“Inicial” se observa que las contribuciones comunes para cada variable, V1 a
V6, son 1,0 conforme las unidades se insertaron en la diagonal de la matriz de
correlación. Los valores propios se indican en la tabla con la etiqueta “Valores
propios iniciales”. Como se esperaba, los valores propios de los factores
aparecen en orden de magnitud decreciente conforme se pasa del factor 1 al 6.
El valor propio de un factor indica la varianza total que se le atribuye. La
varianza total explicada por los seis factores es 6,00, que es igual al número
de variables. El factor 1 explica la varianza de 2,731, es decir (2,731/6) o 45,52
por ciento de la varianza total. De igual manera, el segundo factor explica (2,218/6)
o 36,.97 por ciento de la varianza total, de manera que los dos primeros
factores combinados explican el 82,49 por ciento de la varianza total. Al
determinar el número de factores que se utilizarán en el análisis deben
considerarse muchas cuestiones.
Determinación del número de factores
Es posible calcular tantos
componentes principales como variables haya, aunque no se gane mucho con ello.
Para resumir la información contenida en las variables originales, debería
extraerse un número menor de factores. La pregunta es ¿cuántos? Para determinar
el número de factores, se sugieren varios procedimientos, como la determinación
a priori y otros que se basan en el
valor propio, la gráfica de sedimentación, el porcentaje de la varianza
explicada, la confiabilidad por la división en mitades y las pruebas de significancia.
Determinación
a priori. Hay ocasiones en que el investigador sabe, gracias
a la información previa, cuántos factores debe esperar, lo cual le permite
especificar de antemano el número de factores que hay que extraer. La
extracción de factores cesa cuando se ha obtenido el número deseado. La mayoría
de los programas de cómputo permiten que el usuario especifique el número de
factores, lo cual facilita el uso de este recurso.
Determinación
basada en valores propios. En este método sólo se conservan
los factores cuyo valor propio es mayor de 1,0; los otros factores no se
incluyen en el modelo. Un valor propio representa la cantidad de varianza
asociada con el factor, por lo cual sólo se incluyen los factores con varianza
mayor que 1,0. Los factores con varianza menor que 1.0 no son mejores que una
sola variable porque, debido a la estandarización, cada variable tiene una
varianza de 1.0. Si el número de variables es menor que 20, este procedimiento
dará como resultado un número de factores conservador.
Determinación
basada en una gráfica de sedimentación. La gráfica de
sedimentación diagrama los valores propios contra el número de factores en
orden de extracción. La forma de la gráfica se usa para determinar el número de
factores. Por lo general, la gráfica indica una separación notable entre la
pendiente pronunciada de los factores con valores propios grandes y un desvanecimiento
gradual asociado con el resto de los factores, lo cual se conoce como
sedimentación. La evidencia experimental señala que el punto en que comienza la
sedimentación denota el verdadero número de factores. Por lo general, el número
de factores determinado por una gráfica de sedimentación superará en uno o unos
cuantos factores el número determinado por los criterios del valor propio.
Determinación
basada en el porcentaje de la varianza. En este enfoque, el
número de factores extraído se determina de modo tal que el porcentaje
acumulado de varianza extraído por los factores alcance un nivel satisfactorio.
El nivel satisfactorio de varianza depende del problema. Sin embargo, es
recomendable que los factores extraídos expliquen por lo menos el 60 por ciento
de la varianza.
Determinación
basada en la confiabilidad de división en mitades.
La muestra se divide en mitades y cada mitad se somete al análisis factorial.
Sólo se conservan los factores con una alta correspondencia con las cargas de
los factores en las dos submuestras.
Determinación
basada en pruebas de significancia. Es posible determinar
la significancia estadística de los valores propios separados y conservar sólo
los factores que sean estadísticamente significativos
Rotación de factores
Un resultado importante
del análisis factorial es la matriz factorial, también llamada matriz de patrones
factoriales. La matriz factorial contiene los coeficientes que expresan las
variables estandarizadas en términos de los factores. Estos coeficientes, las
cargas factoriales, representan las correlaciones entre los factores y las
variables. Un coeficiente con un valor absoluto grande indica una estrecha
relación entre el factor y la variable. Los coeficientes de la matriz factorial
sirven para interpretar los factores.
Aunque la matriz factorial
inicial o no rotada indica la relación entre los factores y las variables individuales,
es raro que dé como resultado factores que puedan interpretarse, ya que los
factores están correlacionados con muchas variables.
Interpretación de los factores
La interpretación se
facilita al identificar las variables que tienen cargas altas sobre el mismo
factor. Ese factor puede interpretarse luego en términos de las variables que
tienen cargas altas de él. Otra forma de simplificar la interpretación consiste
en elaborar una gráfica con las variables, en que se empleen las cargas
factoriales como coordenadas. Las variables en el extremo de un eje son las que
tienen cargas altas sólo en ese factor y por ende lo describen. Las variables
cercanas al origen tienen cargas pequeñas en ambos factores. Las variables que
no están cerca de ninguno de los ejes se relacionan con ambos factores. Si un
factor no puede definirse con claridad en términos de las variables originales,
deberían etiquetarse como un factor indefinido o general.
En la matriz factorial
rotada, el factor 1 tiene coeficientes altos para las variables V1
(prevención de caries) y V3 (encías fuertes), y un coeficiente
negativo para V5 (la prevención del debilitamiento de los dientes no
es importante). Por lo tanto, este factor puede etiquetarse como factor benéfico
para la salud. Advierta que un coeficiente negativo para una variable negativa
(V5) conduce a una interpretación positiva de que es importante
prevenir el debilitamiento de los dientes.
El factor 2 tiene una
elevada relación con las variables V2 (dientes brillantes), V4
(aliento fresco) y V6 (dientes bellos). Por ende, el factor 2 puede
recibir la etiqueta de factor de beneficio social. La gráfica de las cargas
factoriales, que se presenta en la, confirma esta interpretación. Las variables
V1, V3 y V5 (denotadas con 1, 3 y 5,
respectivamente) se encuentran en los extremos del eje horizontal (factor 1),
con V5 en el extremo opuesto a V1 y V3, mientras que las
variables V2, V4
Cálculo de las puntuaciones de los factores
Después de la interpretación, de ser necesario pueden calcularse las puntuaciones de los factores. El análisis factorial tiene su propio valor independiente. No obstante, si el objetivo del análisis factorial es reducir el conjunto original de variables a un conjunto menor de variables compuestas (factores), para usarlo en análisis multivariados posteriores, es útil calcular para cada encuestado las puntuaciones de los factores. Un factor es simplemente una combinación lineal de las variables originales.
Las puntuaciones de los
factores para el i-ésimo factor se calculan de la siguiente manera:
Estos símbolos ya se
definieron en un apartado anterior del atículo.
Los pesos o coeficientes
de las puntuaciones de los factores que se usan para combinar las variables
estandarizadas y se obtienen de la matriz de dichos coeficientes. La mayoría de
los programas de cómputo permiten solicitar las puntuaciones de los factores. Sólo
en el caso del análisis de componentes principales es posible calcular las
puntuaciones exactas de los factores, las cuales no están correlacionadas. En
el análisis de los factores comunes se obtienen estimaciones de estas puntuaciones
y no hay garantía de que los factores no estén correlacionados entre sí.
En los análisis multivariados
posteriores pueden usarse las puntuaciones de los factores en vez de las
variables originales.
Por ejemplo, en la
matriz de coeficientes de puntuaciones de los factores de la tabla, es posible
calcular para cada encuestado las puntuaciones de dos factores. Los valores
estandarizados de la variable se multiplican por los coeficientes
correspondientes para obtener las puntuaciones de los factores.
Elección de variables sustitutas
En ocasiones, el
investigador desea elegir variables sustitutas en vez de calcular las puntuaciones
de los factores. Este proceso consiste en separar algunas variables originales
para usarlas en un análisis subsiguiente. Esto permite al investigador realizar
análisis posteriores e interpretar los resultados en términos de las variables
originales, en vez de las puntuaciones de los factores. Al examinar la matriz
factorial, puede elegirse para cada factor la variable con la carga más alta,
la cual serviría luego como una variable sustituta del factor asociado. Este
proceso funciona bien, si la carga factorial de una variable es con certeza
mayor que el resto de las cargas factoriales. Sin embargo, la elección no es
tan sencilla cuando dos o más variables tienen cargas de igual magnitud.
En ese caso, la
elección entre esas variables debería basarse en consideraciones teóricas y de
medición.
Por ejemplo, la teoría
puede sugerir que una variable con una carga ligeramente menor es más importante
que una variable con una carga algo más grande. Asimismo, si una variable tiene
una carga un poco menor pero su medición fue más precisa, debe elegirse como
variable sustituta. En la tabla, las variables V1, V3 y V5
tienen cargas altas en el factor 1 y su magnitud es muy similar, aunque la
carga de V1 es un poco mayor y por ende sería una candidata más
probable.
Sin embargo, si el
conocimiento previo sugiere que la prevención de las caries dentales es un
beneficio muy importante, se elegiría V5 como sustituta del factor
1. Tampoco resulta sencilla la elección de un sustituto para el factor 2. Las
variables V2, V4 y V6 tienen cargas altas
similares en este factor. Si el conocimiento previo sugiere que los dientes
bellos son el beneficio social más importante que se busca en un dentífrico, el
investigador elegiría V6.
Determinar el ajuste del modelo
El último paso en el
análisis factorial consiste en determinar el ajuste del modelo. Una premisa básica
que subyace al análisis factorial es que la correlación observada entre las
variables puede atribuirse a los factores comunes. Por consiguiente, las
correlaciones entre las variables pueden deducirse o reproducirse de las
correlaciones calculadas entre las variables y los factores.
Para determinar el
ajuste del modelo, se examinan las diferencias entre las correlaciones
observadas (como se presentan en la entrada de la matriz de correlación) y las
correlaciones reproducidas (según el cálculo a partir de la matriz factorial).
Estas diferencias se conocen como residuales. Si hay muchos residuales altos,
el modelo factorial no proporciona un buen ajuste para los datos y debería reconsiderarse.
En la tabla de análisis de los componentes principales se aprecia que sólo cinco residuales son mayores que 0,05, lo cual indica
un buen ajuste de modelo.
Resumen
El análisis factorial
es una técnica de reducción de datos que sirve para encontrar grupos homogéneos
de variables a partir de un conjunto numeroso de variables. Esos grupos
homogéneos se forman con las variables que correlacionan mucho entre sí y
procurando, inicialmente, que unos grupos sean independientes de otros.
Cuando se recoge un
gran número de variables de forma simultánea, como por ejemplo en un
cuestionario de satisfacción del cliente con los productos y servicios que
recibe de una empresa determinada, se pude estar interesados en averiguar si
las preguntas del cuestionario se agrupan de alguna forma característica.
Aplicando un análisis factorial a las respuestas de los sujetos pueden
encontrarse grupos de variables con significado común y conseguir de esta
manera reducir el número de dimensiones necesarias para explicar las respuestas
de los sujetos.
El análisis factorial
es, por tanto, una técnica de reducción de la dimensionalidad de los datos. Su propósito último consiste en
buscar el número mínimo de dimensiones capaces de explicar el máximo de
información contenida en los datos.
A diferencia de lo que
ocurre en otras técnicas como el análisis de varianza o el de regresión, en el
análisis factorial todas las variables del análisis cumplen el mismo papel:
todas ellas son independientes en el
sentido de que no existe a priori una
dependencia conceptual de unas variables sobre otras.
Si te gustó el artículo
o tienes alguna crítica constructiva coméntalo
y recuerda suscribirte al blog. Ah, y comparte con un Tiweet, +1 o por
Facebook tus comentarios. Hasta una próxima entrega.
Para diseños de
investigación de mercados, levantamiento de estudios de opinión pública y de
seguimiento electoral no dude en contactar por los teléfonos +582432375406 y +584124392585, al correo electrónico jpleal@yahoo.com
BIBLIOGRAFÍA
Y FUENTES DOCUMENTALES
- Aaker, D. y Day, G. S. (1989) Investigación de Mercados. México. Tercera Edición. Segunda Edición en Castellano. Mc Graw-Hill
- Abraira Santos, Víctor. Métodos Multivariantes en bioestadística.
- Cuadras, Carles (2008). «Capítulo 6: Análisis factorial». Nuevos métodos de análisis multivariante. CMC Editions.
- Kotler, Philup y Armstrong, Gary (1991) Fundamentos de Mercadotecnia. 2da Edición. México. Prentice-Hall Hispanoamericana
- Lovelock, Christopher (1997) Mercadotecnia de Servicios. 3ra Edición. México. Prentice-Hall Hispanoamericana
- Malhotra, N (1997) Investigación de mercado, un enfoque práctico. Naucalpan de Juárez México. Prentice Hall Segunda Edición
- Spearman, Charles (1927). The Abilities of Man.
- Zikmund, W (1998) Investigación de Mercados. 6ta edición. Naucalpán de Juárez - México Prentice-Hall Hispanoamericana, A. A.
Comentarios
Publicar un comentario
Aquí puede comentar este artículo o enviar su mensaje directo a asesoriatesis60@gmail.com