Nothing Special   »   [go: up one dir, main page]

Analisis Estadisticos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 5

Análisis de Datos Estadístico

La estadística es básicamente una ciencia que implica la recopilación de datos, la


interpretación de datos y, finalmente, la validación de datos. El análisis de
datos estadístico es un procedimiento para realizar diversas operaciones estadísticas.
Es un tipo de investigación cuantitativa que busca cuantificar los datos y, por lo
general, aplica alguna forma de análisis estadístico.
Los datos cuantitativos básicamente involucran datos descriptivos, como datos de
encuestas y datos de observación.
El análisis de datos estadísticos generalmente involucra alguna forma de
herramientas estadísticas. Hay varios paquetes de software para realizar análisis de
datos estadísticos.
Estos software incluyen el Sistema de análisis estadístico (SAS), el Paquete
estadístico para las ciencias sociales (SPSS), Stat soft, R, etc.
Los datos en el análisis de datos estadísticos consisten en variables. En ocasiones,
los datos son univariados o multivariantes. Dependiendo del número de variables, el
investigador usa diferentes técnicas estadísticas.
Si los datos en el análisis de datos estadísticos son múltiples en números, entonces
se pueden realizar varios multivariados. Estos son análisis de datos estadísticos
factoriales, análisis de datos estadísticos discriminantes, etc.
De forma similar, si los datos son singulares en número, entonces se realiza el
análisis de datos estadísticos univariado. Esto incluye la prueba t para significancia,
prueba z, prueba f, ANOVA, etc.

Tipos de Datos en el análisis estadístico


- Tipos de Datos estadísticos
Los datos en el análisis de datos estadístico son básicamente de 2 tipos, datos
continuos y datos discretos. La información continua es la que no puede ser contada.
Por ejemplo, la intensidad de una luz puede medirse pero no puede contarse. La
información discreta es la que puede ser contada. Por ejemplo, se puede contar el
número de bombillas.
Los datos continuos en el análisis de datos estadísticos se distribuyen bajo la función
de distribución continua, que también se puede llamar función de densidad de
probabilidad o fdp.
Los datos discretos en el análisis de datos estadísticos se distribuyen bajo la función
de distribución discreta, que también se puede llamar la función de masa de
probabilidado fmp.
Usamos la palabra "densidad" en datos continuos de análisis de datos estadísticos
porque la densidad no se puede contar, pero se puede medir. Usamos la palabra
"masa" en datos discretos de análisis de datos estadísticos porque la masa no se
puede contar.
Hay varias fdp y fmp en el análisis de datos estadísticos. Por ejemplo, la distribución
de Poisson es la fmp comúnmente conocida, y la distribución normal es la fdp
comúnmente conocida.
Estas distribuciones en el análisis de datos estadísticos nos ayudan a comprender
qué datos corresponden a qué distribución. Si los datos son sobre la intensidad de
una bombilla, entonces los datos caerían en la distribución de Poisson.
Hay una tarea importante en el análisis de datos estadísticos, que se compone de
inferencia estadística. La inferencia estadística se compone principalmente de dos
partes: estimación y pruebas de hipótesis.
La estimación en el análisis de datos estadísticos implica principalmente datos
paramétricos: los datos que constan de parámetros.
Por otro lado, las pruebas de hipótesis en el análisis de datos estadísticos implican
principalmente datos no paramétricos, los datos que no constan de parámetros.
Sugerimos comenzar sus esfuerzos de análisis de datos con los siguientes cinco
principios básicos y aprender a evitar sus problemas antes de avanzar hacia técnicas
más sofisticadas.

Medidas Principales
Media
La media aritmética, más comúnmente conocida como "el promedio", es la suma de
una lista de números dividida por el número de elementos en la lista.
La media es útil para determinar la tendencia general de un conjunto de datos o
proporcionar una instantánea rápida de sus datos. Otra ventaja de la media es que es
muy fácil y rápida de calcular.
Problemas
Tomado sola, la media es una herramienta peligrosa. En algunos conjuntos de datos,
la media también está estrechamente relacionada con el modo y la mediana (otras
dos medidas cercanas al promedio).
Sin embargo, en un conjunto de datos con un alto número de valores atípicos o una
distribución sesgada, el promedio simplemente no proporciona la precisión que
necesita para una decisión.

Desviación estándar
La desviación estándar, a menudo representada con la letra griega sigma, es la
medida de una dispersión de datos alrededor de la media.
Una desviación estándar alta significa que los datos se distribuyen más ampliamente
desde la media, donde una baja desviación estándar indica que más datos se alinean
con la media.
Dentro de los métodos de análisis de datos, la desviación estándar es útil para
determinar rápidamente la dispersión de puntos de datos.
Problemas
Al igual que la media, la desviación estándar es engañosa si se toma sola. Por
ejemplo, si los datos tienen un patrón muy extraño, como una curva no normal o una
gran cantidad de valores atípicos, la desviación estándar no le dará toda la
información que necesita.

Regresión
La regresión modela las relaciones entre variables dependientes y explicativas, que
generalmente se grafican en un diagrama de dispersión. La línea de regresión
también designa si esas relaciones son fuertes o débiles.
La regresión se enseña comúnmente en cursos de estadística de la escuela
secundaria o la universidad con aplicaciones para la ciencia o los negocios para
determinar tendencias a lo largo del tiempo.
Problemas
La regresión no es muy matizada. A veces, los valores atípicos en un diagrama de
dispersión (y las razones para ellos) son importantes.
Por ejemplo, un punto de datos periférico puede representar la entrada de su
proveedor más crítico o su producto más vendido.
La naturaleza de una línea de regresión, sin embargo, lo tienta a ignorar estos valores
atípicos. 

Tamaño de la muestra
Al medir un gran conjunto de datos o población, como una fuerza de trabajo, no
siempre es necesario recopilar información de cada miembro de esa población: una
muestra puede ser suficiente. El truco es determinar el tamaño correcto para que una
muestra sea precisa.
Usando métodos de proporción y desviación estándar, puede determinar con
precisión el tamaño de muestra correcto que necesita para hacer que su recopilación
de datos sea estadísticamente significativa.
Problemas
Al estudiar una nueva variable no probada en una población, sus ecuaciones de
proporción podrían necesitar ciertas suposiciones. Sin embargo, estas suposiciones
pueden ser completamente inexactas. Este error luego se transfiere a la
determinación del tamaño de la muestra y luego al resto de su análisis de datos
estadísticos.

Pruebas de hipótesis
También comúnmente denominado prueba t, la prueba de hipótesis evalúa si una
determinada premisa es realmente cierta para su conjunto de datos o población. En el
análisis de datos y las estadísticas, considera que el resultado de una prueba de
hipótesis es estadísticamente significativa si los resultados no pudieron haber ocurrido
por casualidad.
Las pruebas de hipótesis se utilizan en todo, desde la ciencia y la investigación hasta
los negocios y la economía.
Problemas
Para ser riguroso, las pruebas de hipótesis deben tener en cuenta los errores
comunes. Por ejemplo, el efecto placebo ocurre cuando los participantes esperan
falsamente un determinado resultado y luego perciben (o realmente alcanzan) ese
resultado.
Otro error común es el efecto Hawthorne (o efecto observador), que ocurre cuando los
participantes sesgan los resultados porque saben que están siendo estudiados.

También podría gustarte