21 relaciones: A priori y a posteriori, Coeficiente de correlación de Spearman, Coeficiente kappa de Cohen, Contraste de hipótesis, Distribución χ², Distribución normal, Estadística, Estadística paramétrica, Hipótesis nula, Paquete estadístico, Prueba binomial, Prueba de Anderson-Darling, Prueba de Friedman, Prueba de Kolmogórov-Smirnov, Prueba de Kruskal-Wallis, Prueba de la mediana, Prueba de los rangos con signo de Wilcoxon, Prueba χ² de Pearson, Prueba U de Mann-Whitney, Tabla de contingencia, Tamaño de la muestra.
A priori y a posteriori
Las locuciones latinas a priori (‘previo a’) y a posteriori (‘posterior a’) se utilizan para distinguir entre dos tipos de conocimiento: el conocimiento a priori es aquel que, en algún sentido importante, es independiente de la experiencia; mientras que el conocimiento a posteriori es aquel que, en algún sentido importante, depende de la experiencia.
¡Nuevo!!: Estadística no paramétrica y A priori y a posteriori · Ver más »
Coeficiente de correlación de Spearman
En estadística, el coeficiente de correlación de Spearman, ρ (ro) es una medida de la correlación (la asociación o interdependencia) entre dos variables aleatorias (tanto continuas como discretas).
¡Nuevo!!: Estadística no paramétrica y Coeficiente de correlación de Spearman · Ver más »
Coeficiente kappa de Cohen
El Coeficiente kappa de Cohen es una medida estadística que ajusta el efecto del azar en la proporción de la concordancia observada.
¡Nuevo!!: Estadística no paramétrica y Coeficiente kappa de Cohen · Ver más »
Contraste de hipótesis
Dentro de la inferencia estadística, un contraste de hipótesis (también denominado test de hipótesis o prueba de significación) es un procedimiento para juzgar si una propiedad que se supone en una población estadística es compatible con lo observado en una muestra de dicha población.
¡Nuevo!!: Estadística no paramétrica y Contraste de hipótesis · Ver más »
Distribución χ²
En teoría de la probabilidad y en estadística, la distribución ji al cuadrado (también llamada distribución de Pearson o distribución \chi^2) con k\in\mathbb grados de libertad es la distribución de la suma del cuadrado de k variables aleatorias independientes con distribución normal estándar.
¡Nuevo!!: Estadística no paramétrica y Distribución χ² · Ver más »
Distribución normal
En estadística y probabilidad se llama distribución normal, distribución de Gauss, distribución gaussiana, distribución de Laplace-Gauss o normalidad estadística a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece en estadística y en la teoría de probabilidades.
¡Nuevo!!: Estadística no paramétrica y Distribución normal · Ver más »
Estadística
La estadística (la forma femenina del término alemán statistik, derivado a su vez del italiano statista, «hombre de Estado») es la disciplina que estudia la variabilidad, así como el proceso aleatorio que la genera siguiendo las leyes de la probabilidad.
¡Nuevo!!: Estadística no paramétrica y Estadística · Ver más »
Estadística paramétrica
La estadística paramétrica comprende a los métodos de estadística inferencial que plantean como requisito que las variables estudiadas se ajusten a distribuciones teóricas conocidas.
¡Nuevo!!: Estadística no paramétrica y Estadística paramétrica · Ver más »
Hipótesis nula
En estadística, una hipótesis es una afirmación sobre un parámetro que sucede de la población (como la media o desviación típica), y se representa con H0.
¡Nuevo!!: Estadística no paramétrica e Hipótesis nula · Ver más »
Paquete estadístico
Un paquete estadístico es un programa informático que está especialmente diseñado para resolver problemas en el área de la estadística, o bien está programado para resolver problemas de esta área.
¡Nuevo!!: Estadística no paramétrica y Paquete estadístico · Ver más »
Prueba binomial
En estadística, la prueba binomial o test binomial es una prueba de hipótesis exacta de la significación estadística de las desviaciones observadas en ensayos que solo pueden resultar en dos categorías, respecto de una distribución binomial esperada.
¡Nuevo!!: Estadística no paramétrica y Prueba binomial · Ver más »
Prueba de Anderson-Darling
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica.
¡Nuevo!!: Estadística no paramétrica y Prueba de Anderson-Darling · Ver más »
Prueba de Friedman
En estadística la prueba de Friedman es una prueba no paramétrica desarrollado por el economista Milton Friedman.
¡Nuevo!!: Estadística no paramétrica y Prueba de Friedman · Ver más »
Prueba de Kolmogórov-Smirnov
En estadística, la prueba de Kolmogórov-Smirnov (también prueba K-S) es una prueba no paramétrica que determina la bondad de ajuste de dos distribuciones de probabilidad entre sí.
¡Nuevo!!: Estadística no paramétrica y Prueba de Kolmogórov-Smirnov · Ver más »
Prueba de Kruskal-Wallis
En estadística, la prueba de Kruskal-Wallis (de William Kruskal y W. Allen Wallis) es un método no paramétrico para probar si un grupo de datos proviene de la misma población.
¡Nuevo!!: Estadística no paramétrica y Prueba de Kruskal-Wallis · Ver más »
Prueba de la mediana
La prueba de la mediana es una prueba no paramétrica que podemos considerar un caso especial de la prueba de chi-cuadrado, pues se basa en esta última.
¡Nuevo!!: Estadística no paramétrica y Prueba de la mediana · Ver más »
Prueba de los rangos con signo de Wilcoxon
La prueba de los rangos con signo de Wilcoxon es una prueba no paramétrica para comparar el rango medio de dos muestras relacionadas y determinar si existen diferencias entre ellas.
¡Nuevo!!: Estadística no paramétrica y Prueba de los rangos con signo de Wilcoxon · Ver más »
Prueba χ² de Pearson
La prueba χ² de Pearson se considera una prueba no paramétrica que mide la discrepancia entre una distribución observada y otra teórica (bondad de ajuste), indicando en qué medida las diferencias existentes entre ambas, de haberlas, se deben al azar en el contraste de hipótesis.
¡Nuevo!!: Estadística no paramétrica y Prueba χ² de Pearson · Ver más »
Prueba U de Mann-Whitney
En estadística la prueba de la U de Mann-Whitney (también llamada de Mann-Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es una prueba no paramétrica aplicada a dos muestras independientes.
¡Nuevo!!: Estadística no paramétrica y Prueba U de Mann-Whitney · Ver más »
Tabla de contingencia
En estadística las tablas de contingencia se emplean para registrar y analizar la asociación entre dos o más variables, habitualmente de naturaleza cualitativa (nominales u ordinales).
¡Nuevo!!: Estadística no paramétrica y Tabla de contingencia · Ver más »
Tamaño de la muestra
En estadística el tamaño de la muestra se le conoce como aquel número determinado de sujetos o cosas que componen la muestra extraída de una población, necesarios para que los datos obtenidos sean representativos de la población.
¡Nuevo!!: Estadística no paramétrica y Tamaño de la muestra · Ver más »
Redirecciona aquí:
Estadistica no parametrica, Estadistica no paramétrica, Estadística no parametrica.