Correlación y regresión - Fabis

Tilde Nielsen | Download | HTML Embed
  • May 2, 2007
  • Views: 18
  • Page(s): 15
  • Size: 783.36 kB
  • Report

Share

Transcript

1 DOCUWEB FABIS Dot. Nm 0702005 Cmo realizar paso a paso un contraste de hiptesis con SPSS para Windows: (III) Relacin o asociacin y anlisis de la dependencia (o no) entre dos variables cuantitativas. Correlacin y regresin lineal simple. Aguayo Canela M, Lora Monge E Servicio de Medicina Interna. Hospital Universitario Virgen Macarena. Sevilla Resumen Cuando se desee evaluar el grado de asociacin o independencia de dos variables cuantitativas debe recurrirse a tcnicas de correlacin y/o regresin, aunque tambin es posible transformar una de ellas en una variable categrica u ordinal y luego aplicar un ANOVA. La correlacin es una tcnica matemtica que evala la asociacin o relacin entre dos variables cuantitativas, tanto en trminos de direccionalidad como de fuerza o intensidad, proporcionando un coeficiente de correlacin (r de Pearson). La regresin lineal simple es un modelo matemtico que explora la dependencia entre dos variables cuantitativas (supone que en el modelo una es la variable dependiente y otra la independiente), tratando de verificar si la citada relacin es lineal y aportando unos coeficientes (a y b) que sirven para construir la ecuacin de la recta de prediccin. Ambas tcnicas, basadas en la media y en la varianza de las variables evaluadas, tienen importantes condiciones de aplicacin, entre las que destacan la independencia de las observaciones y la normalidad, disponindose de alternativas no paramtricas (como el coeficiente rho de Spearman) para la correlacin cuando estas no se cumplen. Con el programa SPSS para Windows se pueden llevar a cabo ambos procedimientos y explorar visualmente la relacin entre dos variables cuantitativas a travs de grficos de dispersin (o nube de puntos). 0. INTRODUCCIN TERICA. Cuando tengamos que evaluar la asociacin entre dos variables cuantitativas, hay que recurrir a las tcnicas de CORRELACION Y REGRESION LINEAL SIMPLE. La CORRELACIN evala la fuerza de asociacin entre las variables, de forma similar al Riesgo Relativo y la OR en las variables categricas, indicando adems la direccin de esta asociacin, de forma que sabremos si cuando aumenta el valor de una de ellas aumenta tambin el valor de la otra variable (relacin directa) o por el contrario disminuye (relacin indirecta). El ndice resumen para evaluar la correlacin entre dos variables cuantitativas es el COEFICIENTE DE CORRELACIN. Hay varios coeficientes, siendo el ms conocido el llamado r de Pearson, cuyo clculo es paramtrico, esto es, se basa en la media y la varianza, y asume varios supuestos: a) Que las variables analizadas son simtricas (no hay una dependiente y otra Correspondencia: [email protected] 1 de 15

2 Aguayo Canela, Mariano DocuWeb fabis.org independiente) y, por tanto, son intercambiables mutuamente. b) Que lo que mide es el grado de ajuste de los puntos o pares de valores a una hipottica lnea recta (explora la relacin lineal). Esto quiere decir que podra existir otro tipo de asociacin (curvilnea, exponencial, etc.) y no ser detectada por este coeficiente. c) Que las variables se distribuyen normalmente (criterio de normalidad) en la poblacin de la que proviene la muestra. d) Que las variables exploradas provienen de observaciones independientes (esto es, solo debe haber un valor para cada variable en cada individuo de la muestra), para evitar lo que se conoce como autocorrelacin. e) En este mismo sentido, la correlacin lineal no es aplicable cuando una variable forma parte de la otra o su clculo incluye la otra variable (por ejemplo, no es correcto evaluar la correlacin entre la variable IMC ndice de masa corporal- y la variable talla). Cuando las condiciones b) y c) anteriores no se cumplen, o cuando una de las variables es ordinal, debe emplearse una aproximacin no paramtrica, siendo la ms empleada el Coeficiente de Correlacin Rho de Spearman. El Coeficiente de Correlacin 100 (sea o no paramtrico) es un 90 Fuerte relacin valor adimensional que oscila 80 directa. entre -1 y +1. El valor cero se da 70 cuando no existe ninguna 60 correlacin entre las variables 50 analizadas; el valor -1 implica una 40 correlacin perfecta de carcter 30 inverso (o indirecto) y el valor +1 140 150 160 170 180 190 200 una correlacin perfecta de tipo directo (cuando una crece tambin lo hace la otra). 80 70 Cierta relacin Una excelente aproximacin visual 60 inversa para explorar el grado de correlacin 50 es a travs de un grfico de 40 dispersin o nube de puntos. 30 Se habla de correlacin positiva (o directa) 20 cuando a valores crecientes de una de las 10 variables se observan valores crecientes de 0 la otra variable; por el contrario, se habla de 140 150 160 170 180 190 200 correlacin negativa (o inversa) cuando a valores crecientes de una variable 330 corresponden valores decrecientes de la Incorrelacin otra. 280 230 Cuando no hay correlacin y en el grfico 180 de dispersin se aprecian puntos en los cuatro cuadrantes del eje cartesiano se 130 habla de incorrelacin. Ello no significa que ambas variables no estn relacionadas 80 sino que no estn relacionadas 30 linealmente. 140 150 160 170 180 190 200 En trminos generales diremos que: Si | r | < 0,3 la asociacin es dbil DocuWeb fabis.org 2 de 15

3 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple Si 0,30 | r | 0,70 la asociacin es moderada Si | r | > 0,70 la asociacin es fuerte Por ltimo, debe recordarse que la estimacin del Coeficiente de Correlacin de Pearson en muestras de suficiente tamao debe completarse con la estimacin por intervalos (clculo de los intervalos de confianza de r) y el correspondiente test de hiptesis, que parte de la hiptesis nula de que el r vale cero en la poblacin (es una prueba a travs del estadstico t de Student). Por tanto, a la hora de interpretar adecuadamente un Coeficiente de Correlacin se deben tener en cuenta los siguientes aspectos: 1. Su signo 2. Su magnitud 3. Su significacin estadstica 4. Sus intervalos de confianza La REGRESIN LINEAL SIMPLE es un modelo matemtico que sirve para evaluar si la relacin entre dos variables cuantitativas es lineal, y proporciona unos coeficientes para ajustar una lnea recta a los diversos pares de valores que proporcionan cada individuo de la muestra. En este modelo se asume que una de las variables adopta el papel de predictora o independiente, y que la otra variable es el efecto, resultado o variable dependiente. La variable independiente o predictora suele ser un factor previamente determinado, a veces incluso controlado por el investigador, otras simplemente ms fcil de medir que la que se pretende explicar o predecir a partir de ella. Por consenso, la variable dependiente o efecto ocupa el lugar de la Y en el eje cartesiano (ordenada) y la variable independiente el lugar de la X (abscisa). El modelo de regresin lineal simple intenta ajustar, con los datos de la muestra, la siguiente ecuacin: Y = a + bX + e Donde a es el valor de la ordenada en el origen, esto es, el valor que adoptar Y (la variable dependiente) cuando X valga cero; b es conocido vulgarmente como pendiente de la recta y se interpreta como el cambio de Y por cada unidad de cambio de X; y e es el error o residual, y representa una cuantificacin del desajuste de los datos de la muestra al modelo lineal, lgicamente variable de un individuo a otro, puesto que corresponde a la cantidad que habra que sumar o restar a la prediccin para que coincida exactamente con lo observado. El anlisis de regresin lineal empieza siempre por un ANOVA, que trata de responder a la siguiente pregunta: es mejor usar X para predecir la variabilidad de Y, o por el contrario se puede conseguir la misma explicacin de Y sin tener en cuenta los valores de X, simplemente usando el valor ms representativo de Y, esto es, su media? Si fuese esto ltimo, la recta del modelo tendra pendiente cero, por lo que la hiptesis nula del contraste es precisamente: H0: = 0 Cuando se rechaza H0 (contraste estadsticamente significativo), se concluye diciendo que hay regresin lineal de Y sobre X, ya que se puede explicar una parte de los valores de la variable dependiente (Y) a partir de los valores de la variable independiente o predictora (X), o lo que es lo mismo, que conocido el valor x para un individuo se predice el valor de y mejor con la ecuacin de la recta que con el valor medio de Y. Sin embargo la prediccin que realiza el modelo de regresin lineal no es perfecta y siempre queda algo sin explicar. Este algo sin explicar es la varianza residual que aparece en la DocuWeb fabis.org 3 de 15

4 Aguayo Canela, Mariano DocuWeb fabis.org tabla del ANOVA. Otra forma de cuantificar el ajuste del modelo lineal a los datos es a travs del llamado Coeficiente de Determinacin, R2, que compara lo explicado por la regresin con la variabilidad total de Y, y se interpreta como el porcentaje de la variabilidad total de la variable dependiente Y que es explicada por la variable independiente X. Por ltimo, el anlisis de regresin lineal concluye calculando los coeficientes de regresin a y b de la recta, mediante el mtodo de ajuste conocido por mnimos cuadrados. Los programas estadsticos aportan para cada uno de ellos la estimacin puntual, el error estndar, la significacin estadstica del contraste y los intervalos de confianza, teniendo sentido interpretar las salidas del coeficiente b para tomar decisiones de que hasta qu punto y en qu magnitud la variacin de Y depende linealmente de X. Estas dos tcnicas, CORRELACION Y REGRESION LINEAL SIMPLE, tienen objetivos diferentes, aunque es comn que en los programas estadsticos vayan unidas. De hecho en SPSS se puede obtener un coeficiente de correlacin de forma aislada pero el programa tambin nos lo ofrece automticamente cuando se realiza un anlisis de regresin lineal. Vamos a trabajar con el ejemplo del estudio de obesidad e hipertensin. En esta base de datos, la variable TAD (presin arterial diastlica, medida en mm de Hg) es cuantitativa y desearamos saber si est relacionada con la edad de los individuos (otra variable cuantitativa, cuya medida son los aos cumplidos), esto es, responder a la pregunta hay relacin en la edad de los individuos y su presin diastlica? 1. PASOS A DAR EN SPSS PARA EVALUAR LA ASOCIACIN ENTRE DOS VARIABLES CUANTITATIVAS: OBTENCIN DEL COEFICIENTE DE CORRELACIN. 1.1. Antes de llevar a cabo ninguna prueba estadstica, cuando se analiza la relacin entre dos variables cuantitativas debe explorarse grficamente mediante una nube de puntos, o grfico de dispersin. En SPSS est en Grficos > Dispersin Al aplicar esta opcin debemos sealar > Diagrama de Dispersin Simple, y en la siguiente ventana de dilogo, tras oprimir la pestaa Definir, debemos seleccionar las dos variables cuantitativas que vamos a situar en el grfico, una en el eje X y otra en el eje Y. Da igual cul de las variables coloquemos en cada ventana: en la correlacin no tiene sentido la dependencia de las variables, ya que estas juegan un papel simtrico. El resultado de SPSS es el siguiente: DocuWeb fabis.org 4 de 15

5 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple Grfico 120 Como ya puede verse a simple vista, estas dos variables muestran una escasa correlacin lineal, arrojando una 110 nube de puntos muy dispersa, con parejas de valores en PRESIN ARTERIAL DIASTLICA los cuatro sectores del plano cartesiano. El coeficiente de 100 correlacin ser un nmero ms prximo a cero (ninguna correlacin) que a la unidad (correlacin lineal perfecta). 90 1.2. El paso siguiente consistira en evaluar la distribucin de ambas variables cuantitativas en 80 70 la muestra, para confirmar o no si siguen una Ley Normal. Obviamos este paso porque ya se ha 60 explicado en un documento anterior (Asociacin entre 40 45 50 55 60 una variable cuantitativa y una categrica).1 EDAD EN AOS CUMPLIDOS 1.3. A continuacin recurrimos a evaluar inferencialmente la relacin entre las variables, que en el programa SPSS est en Analizar > Correlaciones > Bivariadas En el siguiente cuadro de dilogo debemos seleccionar las variables cuantitativas que vamos a correlacionar, y as mismo indicar el tipo de Coeficiente de Correlacin que deseamos calcular (el de Pearson es el paramtrico y el de Spearman es el no paramtrico) y si el contraste o Prueba de significacin es unilateral o bilateral. Adems, en la pestaa Opciones podemos hacer que se muestren algunos estadsticos, como las medias y desviaciones tpicas y los productos cruzados y covarianzas. 1 Puede comprobarse que las pruebas de Kolmogorov-Smirnov y de Shapiro-Wilks detectan que la variable presin arterial diastlica no se ajusta a la Ley Normal. DocuWeb fabis.org 5 de 15

6 Aguayo Canela, Mariano DocuWeb fabis.org El resultado que se obtiene tras aplicar es el siguiente: Correlaciones La salida de SPSS muestra primero Estadsticos descriptivos una tabla o cuadro resumen de las Desviacin variables que se van a correlacionar, Media tpica N aportando los tres ndices que PRESIN ARTERIAL sintetizan las distribuciones: media, 82,74 12,503 50 desviacin tpica y tamao muestral. Y DIASTLICA EDAD EN AOS enseguida una tabla con la correlacin 49,22 5,132 50 lineal (por defecto), en la que vemos CUMPLIDOS una doble entrada con cuatro celdas cuyos valores en ngulo se repiten. Es una obviedad que hace el programa pero nos recuerda que en la correlacin las variables juegan un papel simtrico y son intercambiables. Correlaciones Vemos en dicho cuadro como la correlacin de cada variable consigo PRESIN EDAD EN ARTERIAL AOS misma es perfecta (Coef. de DIASTLICA CUMPLIDOS Correlacin lineal = 1), mientras que la PRESIN ARTERIAL Correlacin de Pearson 1 -,085 correlacin con la otra variable vale - DIASTLICA Sig. (bilateral) ,556 0,085, un valor negativo (la PAD - N 50 50 segn sto- disminuira conforme EDAD EN AOS Correlacin de Pearson -,085 1 CUMPLIDOS Sig. (bilateral) ,556 aumenta la edad) y muy pequeo, lo N 50 50 que traduce una baja correlacin entre ambas. En este mismo sentido, el valor de la p asociado al contraste de hiptesis (que evala la probabilidad de que en la poblacin ambas variables no estn correlacionadas linealmente y el el Coeficiente de Correlacin sea cero) es 0,556, no permitiendo rechazar la hiptesis nula (contraste no significativo). Si se lo hemos indicado en la casilla correspondiente, el programa nos ofrece seguidamente el anlisis de correlacin no paramtrco. Correlaciones no paramtricas DocuWeb fabis.org 6 de 15

7 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple Correlaciones En nuestro ejemplo ste anlisis sera PRESIN EDAD EN el ms adecuado y deberamos ARTERIAL AOS interpretar la correlacin no DIASTLICA CUMPLIDOS Rho de Spearman PRESIN ARTERIAL Coeficiente de paramtrica, ya que una de las 1,000 -,154 DIASTLICA correlacin variables incumple el criterio de Sig. (bilateral) . ,287 distribucin normal. N 50 50 EDAD EN AOS Coeficiente de -,154 1,000 CUMPLIDOS correlacin Con el mismo formato de salida, el Sig. (bilateral) ,287 . programa ha calculado el coeficiente N 50 50 de correlacin Rho de Spearman, que vale -0,154 y tiene un valor p asociado de 0,287. Estos resultados se interpretan como sigue: Existe una baja o escasa correlacin lineal entre la presin arterial diastlica y la edad de los individuos. Esta baja correlacin lineal en la muestra analizada hace que en el contraste de hiptesis (que parte de una H0 de que r vale cero) se termine aceptando la hiptesis nula y concluyendo que dichas variables no estn correlacionadas en la poblacin de la que proviene la muestra. Llegados a este punto, parece obvio que no es afortunado explorar la asociacin lineal de estas dos variables mediante una REGRESIN LINEAL SIMPLE, por lo que el anlisis debera terminar aqu. 2. PASOS A DAR EN SPSS PARA LLEVAR A CABO UNA REGRESIN LINEAL SIMPLE. Vamos a realizar un segundo ejercicio, tomando ahora dos variables cuantitativas que muy probablemente estn correlacionadas, para completar el procedimiento a seguir y mostrar los resultados de un anlisis de Regresin Lineal Simple. Para ello exploraremos la relacin entre las variables presin arterial sistlica y presin arterial diastlica, respondiendo a la pregunta Estn relacionadas estas dos variables? Y en segundo lugar depende la presin arterial sistlica de la presin arterial diastlica?2 2.1. Empezamos por la evaluacin grfica, pero en este caso analizaremos la posible relacin lineal a travs de un procedimiento ms verstil y completo que nos ofrece SPSS en la opcin Grficos Interactivos: Grficos > Interactivos > Diagrama de dispersin 2 Debe aclararse aqu que esta evaluacin de correlacin es conceptualmente incorrecta, ya que las dos variables estn autocorrelacionadas en cada individuo, pudiendo considerarse dos mediciones de la presin arterial en cada sujeto. Realizaremos el ejercicio con carcter puramente acadmico. DocuWeb fabis.org 7 de 15

8 Aguayo Canela, Mariano DocuWeb fabis.org Esta opcin permite la creacin de un grfico de puntos (Asignar variables, seleccionando las dos variables cuantitativas y colocndolas en las ventanas correspondientes del eje cartesiano) y ajustar una lnea de regresin (Ajuste, a travs del mtodo de Regresin). Vemos como en la pestaa Ajuste es posible seleccionar un mtodo (Regresin), obtener la ecuacin de la lnea de regresin y visualizar las lneas de pronstico para un intervalo de confianza determinado (por defecto del 95%). El resultado tras aceptar es el siguiente: Grfico interactivo DocuWeb fabis.org 8 de 15

9 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple 200 Regresin lineal con PRESIN ARTERIAL SISTLICA Intervalo de prediccin de la media al 95,00% 1PRESIN ARTERIAL SISTLICA = 9,40 + 1,49 * pad 175 R-cuadrado = 0,64 150 125 100 60 80 100 120 PRESIN ARTERIAL DIASTLICA Vemos que a simple vista la correlacin entre estas dos variables es elevada y de direccin positiva (cuando crece una crece la otra). En el mismo grfico ya se muestra la ecuacin de la lnea recta que se ajusta con los datos: PAS = 9,40 + (1,49 * PAD) 2 Tambin nos ofrece otro parmetro de la Regresin Lineal: el Coeficiente de Determinacin (R ), que en nuestro ejemplo vale 0,64. Este valor expresa cunto del valor de la PAS est predicho o determinado por la PAD (un 64%). 2.2. Una vez que comprobemos que las distribuciones de ambas variables sigue una ley Normal, se llevara a cabo la evaluacin de la correlacin entre estas dos variables, con el procedimiento en SPSS que ya se ha mostrado antes. Estos seran los resultados: Correlaciones Correlaciones PRESIN PRESIN ARTERIAL ARTERIAL DIASTLICA SISTLICA PRESIN ARTERIAL Correlacin de Pearson 1 ,802** DIASTLICA Sig. (bilateral) ,000 N 50 50 PRESIN ARTERIAL Correlacin de Pearson ,802** 1 SISTLICA Sig. (bilateral) ,000 N 50 50 **. La correlacin es significativa al nivel 0,01 (bilateral). Correlaciones no paramtricas DocuWeb fabis.org 9 de 15

10 Aguayo Canela, Mariano DocuWeb fabis.org Correlaciones PRESIN PRESIN ARTERIAL ARTERIAL DIASTLICA SISTLICA Rho de Spearman PRESIN ARTERIAL Coeficiente de 1,000 ,732** DIASTLICA correlacin Sig. (bilateral) . ,000 N 50 50 PRESIN ARTERIAL Coeficiente de ,732** 1,000 SISTLICA correlacin Sig. (bilateral) ,000 . N 50 50 **. La correlacin es significativa al nivel 0,01 (bilateral). Vemos que tanto el Coeficiente de Correlacin paramtrico (Pearson) como el no paramtrico (Rho de Spearman) son valores positivos y ms prximos a la unidad que al cero, en concreto 0,802 y 0,732 respectivamente; y ambos coeficientes son estadsticamente significativos, con p < 0,001, por lo que podemos concluir que ambas variables estn asociadas en la poblacin de la que proviene la muestra analizada, y que dicha asociacin muestra una elevada correlacin directa. 2.3. Cuando existe correlacin lineal (r > 0,3, p asociada al contraste de la correlacin < 0,05), se debe completar el estudio estadstico a travs del ANALISIS DE REGRESIN LINEAL SIMPLE, para evaluar dicha relacin y estimar una recta de regresin, que nos permita hacer predicciones. En el programa SPSS marcamos la secuencia Analizar > Regresin > Lineal Y en el siguiente cuadro de dilogo se seleccionan las variables, que ahora vemos deben colocarse en las ventanas correspondientes distinguiendo cul es la dependiente y cual es la independiente. En la opcin Estadsticos podemos marcar los que deseamos obtener en la salida: DocuWeb fabis.org 10 de 15

11 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple Regresin El primer recuadro es un resumen del procedimiento: Variables introducidas/eliminadas b Variables Variables Modelo introducidas eliminadas Mtodo 1 PRESIN ARTERIAL a . Introducir DIASTLICA a. Todas las variables solicitadas introducidas b. Variable dependiente: PRESIN ARTERIAL SISTLICA El segundo recuadro es un resumen del modelo de Regresin Lineal, con el Coeficiente de Regresin 2 (R) y el Coeficiente de Determinacin (R ). Resumen del modelo R cuadrado Error tp. de la Modelo R R cuadrado corregida estimacin 1 ,802a ,644 ,636 13,971 a. Variables predictoras: (Constante), PRESIN ARTERIAL DIASTLICA A continuacin aparece un contraste de hiptesis ANOVA para la regresin, que separa la variabilidad explicada por la Regresin y la variabilidad no explicada o Residual, y calcula un estadstico F y una significacin estadstica. DocuWeb fabis.org 11 de 15

12 Aguayo Canela, Mariano DocuWeb fabis.org ANOVAb Suma de Media Modelo cuadrados gl cuadrtica F Sig. 1 Regresin 16932,566 1 16932,566 86,745 ,000a Residual 9369,614 48 195,200 Total 26302,180 49 a. Variables predictoras: (Constante), PRESIN ARTERIAL DIASTLICA b. Variable dependiente: PRESIN ARTERIAL SISTLICA Esta es una primera aproximacin inferencial al modelo de Regresin Lineal, que evala globalmente el modelo. En nuestro ejemplo es estadsticamente significativo (p

13 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple PAS = 9,401 + (1,487 * PAD) 2.4. Todo anlisis de regresin lineal debera completarse con una evaluacin de los residuales, esto es, los valores (ypred - y ), sobre todo por comprobar si stos siguen una distribucin normal, ya que este simple paso permite asegurar que se cumplen tres criterios bsicos para aplicar correctamente la regresin lineal: el supuesto de normalidad de la distribucin condicional de la variable Y, el que exista linealidad en la relacin de Y condicionada por cada valor de X, y el requisito de homecedasticidad (que las varianzas de la distribucin de Y condicionada a cada valor de X sean homogneas). Para ello es imprescindible en el programa SPSS marcar en la ventana de Regresin lineal la opcin Guardar y en ella a su vez Residuos y No tipificados. Al aplicar esta opcin se genera en la base de datos una nueva variable con los residuos no estandarizados (SPSS la llama por defecto RES_1 y la etiqueta como Unstandardized), y se obtiene el la ventana de resultados el siguiente cuadro resumen de estadsticos calculados: Estadsticos sobre los residuos(a) Desviacin Mnimo Mximo Media tp. N Valor pronosticado 98,61 187,82 132,42 18,589 50 Residuo bruto -18,478 31,522 ,000 13,828 50 Valor pronosticado tip. -1,819 2,980 ,000 1,000 50 Residuo tip. -1,323 2,256 ,000 ,990 50 a Variable dependiente: PAS Con la nueva variable RES_1 deberamos evaluar, como ya sabemos, si sigue una distribucin normal, seleccionndola en la ventana de dependientes en el procedimiento Analizar > Estadsticos descriptivos > Explorar Y marcando en la pestaa grficos la opcin grficos con pruebas de normalidad. DocuWeb fabis.org 13 de 15

14 Aguayo Canela, Mariano DocuWeb fabis.org Anexo. Tabla de datos del estudio sobre Hipertensin y Obesidad. Se trata de un pequeo estudio transversal (n=50) en el que se pretende explorar la asociacin de la hipertensin arterial y el sobrepeso (obesidad). Como veis se han recogido cinco variables: Edad: en aos cumplidos Sexo (1=hombre; 2=mujer) Tensin diastlica (PAD): en mm de Hg Tensin sistlica (PAS): en mm de Hg Obesidad: como dicotmica (1=obeso; 2= No obeso) En la parte de estadstica descriptiva se trata de explorar la distribucin de las variables cuantitativas y obtener las medidas resumen de todas ellas, as como sus representaciones grficas. Tambin es interesante que analicis sus distribuciones y estadsticos sintticos en los dos grupos que pueden obtenerse por la variable "obesidad". Podrais obtener una variable nueva de tipo dicotmico que tuviera informacin resumen de las variables TAS y TAD. Esto es, una variable que podas llamar HTA (hipertensin arterial), que agrupara en una categora a los "hipertensos" (TAS >= 140 y/o TAD >=90) y en otra categora a los "normotensos". EDAD PAS PAD SEXO OBESIDAD 41 120 70 2 1 41 140 80 1 1 41 110 80 2 1 42 120 85 2 1 42 120 86 1 2 42 140 90 1 1 42 180 110 2 2 43 120 70 1 1 43 120 86 2 1 43 140 90 1 1 44 110 80 1 1 45 120 70 1 1 45 120 80 1 1 45 122 80 1 1 47 130 80 2 1 47 120 80 1 1 47 155 80 2 2 47 110 80 1 2 47 150 85 2 2 48 110 70 2 2 48 150 100 2 2 48 160 102 2 1 48 160 110 2 2 49 110 70 1 1 49 150 90 1 1 DocuWeb fabis.org 14 de 15

15 Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables fabis.org, 2007 cuantitativas. Correlacin y regresin lineal simple 49 139 90 2 2 50 145 70 1 1 50 100 70 2 1 50 120 85 1 2 50 160 100 1 1 51 120 80 1 1 52 100 60 2 1 52 100 70 2 1 52 150 80 2 2 52 160 100 1 1 53 125 75 2 1 53 115 75 1 1 53 110 78 2 1 53 170 100 2 2 54 100 60 1 2 54 120 80 1 1 54 120 80 1 1 54 190 120 2 2 55 135 80 1 1 57 95 70 1 1 57 150 75 1 1 57 130 80 1 2 57 180 95 2 2 59 150 80 1 1 59 150 80 1 2 1= HOMBRE 1= OBESO 2= MUJER 2= NO OBESO DocuWeb fabis.org 15 de 15

Load More