domingo, 6 de diciembre de 2020

CONCEPTOS FUNDAMENTALES "INFERENCIA ESTADÍSTICA"

La inferencia estadística se desarrolla en tres niveles complementarios:

  • Estimación puntual. Su objetivo es dar a una característica poblacional desconocida un valor "razonable'', normalmente el valor que toma para una muestra concreta un estadístico, reflejo muestral de la característica poblacional: la media muestral para estimar la media poblacional, el coeficiente de correlación muestral para estimar el coeficiente de correlación poblacional, etc.
  • Intervalo de confianza. Su objetivo es obtener un intervalo de posibles valores de la característica poblacional en el que confiamos, en cierta medida, que se encuentre su verdadero valor, esto es, un intervalo que cubra al verdadero valor con una determinada probabilidad/confianza.
  • Contraste de hipótesis. Enunciada una hipótesis sobre una característica poblacional (y su contraria), su objetivo es, en principio, aceptar (no rechazar) la hipótesis más acorde con los datos.

La inferencia estadística presenta dos enfoques

  • Inferencia paramétrica. Suponemos que los datos siguen una cierta distribución tipo con uno o más parámetros (características poblacionales) desconocidos. El objetivo de la inferencia paramétrica es "decir algo'' sobre el valor de dichos parámetros en base a la información parcial sobre la población que proporciona una muestra.
  • Inferencia no paramétrica. Sin suposiciones previas sobre la distribución de los datos (acaso ciertas suposiciones de simetría o continuidad), se establece una hipótesis sobre el comportamiento aleatorio de los mismos (sobre su mediana, aleatoriedad, distribución, independencia, igualdad de distribución, etc.)

¿Qué es la estadística inferencial?

Se llama estadística inferencial o inferencia estadística a la rama de la Estadística encargada de hacer deducciones, es decir, inferir propiedades, conclusiones y tendencias, a partir de una muestra del conjunto. Su papel es interpretar, hacer proyecciones y comparaciones.


Ejemplos de estadística inferencial

Algunos ejemplos de la aplicación de la estadística inferencial son:

  • Sondeos de tendencia de voto.
  • Análisis de mercado.
  • Epidemiología médica.


COMO ACTIVIDAD PARA REFORZAR ESTOS TEMAS REALIZAMOS LOS SIGUIENTES EJERCICIOS:

Realizamos un cuadro comparativo entre Estadística Descriptiva y la Estadística Inferencia y tambien argumentamos lo aprendido de la diferencia o no entre Inferencia Estadística Vs Estadística Inferencial.

Permutaciones y combinaciones


 La diferencia entre permutaciones y combinaciones, es que en las permutaciones importa el orden de los elementos, mientras que en las combinaciones no importa el orden en que se disponen los elementos (solo importa su presencia).

Permutaciones

Una permutación de un conjunto de elementos, es una disposición de dichos elementos teniendo en cuenta el orden. El número de permutaciones de “n” elementos tomados de “k” en “k” se calcula con la fórmula:


Combinaciones

Una combinación de un conjunto de elementos, es una selección de dichos elementos sin tener en cuenta el orden.

El número de combinaciones de “n” elementos tomados de “k” en “k” se calcula con la fórmula:



Definición de variable aleatoria


una variable es aleatoria puede concebirse como un valor numérico que está afectado por el azar. Dada una variable aleatoria no es posible conocer con certeza el valor que tomará esta al ser medida o determinada, aunque si se conoce que existe una distribución de probabilidad asociada al conjunto de valores posibles. Por ejemplo, en una epidemia de cólera, se sabe que una persona cualquiera puede enfermar o no (suceso), pero no se sabe cual de los dos sucesos va a ocurrir. Solamente se puede decir que existe una probabilidad de que la persona enferme.

Variable aleatoria discreta

Una variable aleatoria discreta es aquella que puede asumir un número contable de valores. 

Por ejemplo, si realizamos el experimento de salir a calle y seleccionar 10 personas al azar para un examen sorpresa de matemáticas, podemos definir la variable aleatoria A:

  • A = número de personas que aprobaron el examen. 

Los valores que asume A (en su rango), van del 0 al 10 (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10). El rango lo expresaríamos de la siguiente manera:

  • RA = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10}

La variable aleatoria A asume un número contable de valores, por ello, es una variable aleatoria discreta. 


Variable aleatoria continua

Una variable aleatoria continua, es aquella que puede asumir un número incontable de valores.

Por ejemplo, si realizamos el experimento de ir a mi granja y estudiamos las características de las vaquitas, podemos definir la variable aleatoria C:

  • B = peso de una vaca en la granja de Jorge (en kilogramos).

Alguna vaquita puede pesar 425,1872 kg; otra puede pesar 612,5874541 kg; otra puede pesar 545,897512121 kg. Si tomamos más vacas, podríamos tener más valores y nunca terminaríamos. 

Se conoce que el becerro más pequeño tiene un peso de 30 kg, y la vaca más grande tiene un peso de 1000 kg.

Escribimos 3 palabras para concluir el tema de distribución variable.


COMO ACTIVIDAD PARA REFORZAR ESTOS TEMAS REALIZAMOS LOS SIGUIENTES EJERCICIOS QUE SE ENCUENTRAN EN LOS SIGUIENTES LINKS:

https://es.khanacademy.org/math/statistics-probability/counting-permutations-and-combinations

https://es.khanacademy.org/math/statistics-probability/random-variables-stats-library


Tipos de eventos

 ¡La vida está llena de eventos al azar!


Necesitas tener una intuición y comprensión de estos eventos para que seas una persona inteligente y exitosa.

El lanzamiento de una moneda, el lanzamiento de dados y los sorteos de lotería son ejemplos de eventos aleatorios.

Eventos

Cuando decimos "Evento" nos referimos a uno (o más) resultados.

Eventos de ejemplo:

  • Obtener una Cara al lanzar una moneda es un evento
  • Lanzar un "5" es un evento.
Un evento puede incluir varios resultados:
  • Elegir un "Rey" de una baraja de cartas (cualquiera de los 4 Reyes) también es un evento
  • Lanzar un "número par" (2, 4 o 6) es un evento
Los eventos pueden ser:
  • Independientes (cada evento no se ve afectado por otros eventos),
  • Dependientes (también llamado "Condicional", donde un evento se ve afectado por otros eventos)
  • Mutuamente Excluyentes (los eventos no pueden suceder al mismo tiempo)

Veamos cada uno de esos tipos.

Eventos Independientes

Los eventos pueden ser "independientes", lo que significa que cada evento no se ve afectado por ningún otro evento.

¡Esta es una idea importante! Una moneda no "sabe" que cayó Cara antes ... cada lanzamiento de una moneda es una cosa perfectamente aislada.
Ejemplo: Lanzas una moneda y aparece "Cara" tres veces. ¿Cuál es la probabilidad de que el próximo lanzamiento también sea una "Cara"?

La probabilidad es simplemente 1/2 o 50% como en CUALQUIER lanzamiento de la moneda.

¡Lo que ocurrió en el pasado no afectará el lanzamiento actual!

Algunas personas piensan que "está en deuda para que caiga Escudo", pero realmente el próximo lanzamiento de la moneda es totalmente independiente de cualquier lanzamiento anterior.

Decir "ya debe caer un Escudo" o "solo una vez más, a mi suerte le toca cambiar" se llama La Falacia del Apostador

Eventos dependientes

Pero los eventos también pueden ser "dependientes", lo que significa que pueden verse afectados por eventos anteriores.

Ejemplo: tomar 2 cartas de un mazo

Después de tomar una carta del mazo, hay menos cartas disponibles, ¡por lo que las probabilidades cambian!

 
Veamos las posibilidades de obtener un Rey.

Para la primera carta, la posibilidad de sacar un Rey es 4 de 52

Pero para la segunda carta:
  • Si la primera carta era un Rey, entonces es menos probable que la segunda carta sea un Rey, ya que solo 3 de las 51 cartas restantes son Reyes.
  • Si la primera carta no era un Rey, entonces es más probable que la segunda carta sea un Rey, ya que 4 de las 51 cartas restantes son Rey.

Esto se debe a que estamos quitando cartas del mazo.

Reemplazo: cuando volvemos a colocar cada tarjeta después de sacarla, las posibilidades no cambian, ya que los eventos son independientes.

Sin reemplazo: las posibilidades cambiarán y los eventos son dependientes.

Diagrama de Árbol

Cuando tenemos eventos dependientes, ayuda hacer un "Diagrama de arbol"

Ejemplo: partido de fútbol

Estás camino a jugar fútbol y quieres ser el portero, pero eso depende de quién sea el entrenador hoy:
  • con el entrenador Sam tu probabilidad de ser portero es 0,5
  • con el entrenador Alex, tu probabilidad de ser portero es 0,3
Sam es entrenador más a menudo ... alrededor de 6 de cada 10 juegos (una probabilidad de 0,6).

Mutuamente Excluyentes

Mutuamente Excluyentes quiere decir que no pueden suceder al mismo tiempo.

Es uno u otro, pero no ambos

Ejemplos:
  • Girar a la izquierda y a la derecha son mutuamente excluyentes (no puedes hacer ambas cosas al mismo tiempo)
  • Cara y Escudo son mutuamente excluyentes
  • Reyes y Ases son mutuamente excluyentes


Lo que no es mutuamente excluyentes

  • ¡Los reyes y los corazones no son mutuamente excluyentes, porque podemos tener un rey de corazones!

Como aquí:




domingo, 25 de octubre de 2020

 

TEORÍA DE LA PROBABILIDAD

 

Teoría de probabilidad

La teoría de la probabilidad es una herramienta matemática que establece un conjunto de reglas o principios útiles para calcular la ocurrencia o no ocurrencia de fenómenos aleatorios y procesos estocásticos.

En otras palabras, la teoría de la probabilidad está compuesta por todos los conocimientos relativos al concepto de probabilidad. Se trata de un concepto, en esencia, matemático. Así mismo, la probabilidad como rama de las matemáticas constituye un instrumento para la estadística.

Así, en el caso de una moneda, sabemos que al tirarla sobre un tablero el resultado puede ser cara o cruz. Suponiendo que la moneda y el tablero son perfectos y que las condiciones de lanzamiento no cambian, la probabilidad debe ser de 50% cara y 50% cruz.

En este punto nace el concepto de probabilidad. La probabilidad es un número entre 0 y 1, habitualmente expresado en % entre 0 y 100 que nos dice en cuántas ocasiones, de media, ocurrirá un suceso cada 100 veces.

Con esto en mente, llegamos a la conclusión, de que la teoría de la probabilidad se encarga de estudiar qué número entre 0 y 1 debemos asignar a un determinado suceso. Es decir, se encarga, de estudiar las probabilidades de suceder de un evento.



Conceptos fundamental

En cualquier caso, sin desviarnos del concepto de teoría de la probabilidad, diremos que está formada por un conjunto de técnicas que nos permiten asignar un número a la posibilidad de que un evento ocurra.

La teoría de la probabilidad es una herramienta matemática que establece un conjunto de reglas o principios útiles para calcular la ocurrencia o no ocurrencia de fenómenos aleatorios y procesos estocásticos.

En otras palabras, la teoría de la probabilidad está compuesta por todos los conocimientos relativos al concepto de probabilidad. Se trata de un concepto, en esencia, matemático. Así mismo, la probabilidad como rama de las matemáticas constituye un instrumento para la estadística.

Así, en el caso de una moneda, sabemos que al tirarla sobre un tablero el resultado puede ser cara o cruz. Suponiendo que la moneda y el tablero son perfectos y que las condiciones de lanzamiento no cambian, la probabilidad debe ser de 50% cara y 50% cruz.

En este punto nace el concepto de probabilidad. La probabilidad es un número entre 0 y 1, habitualmente expresado en % entre 0 y 100 que nos dice en cuántas ocasiones, de media, ocurrirá un suceso cada 100 veces.

Con esto en mente, llegamos a la conclusión, de que la teoría de la probabilidad se encarga de estudiar qué número entre 0 y 1 debemos asignar a un determinado suceso. Es decir, se encarga, de estudiar las probabilidades de suceder de un evento.

Historia de la teoría de la probabilidad

La probabilidad como concepto existe desde hace miles de años. Hay evidencias históricas, que nos indican que la primera civilización (Sumeria) era capaz de construir dados de 4 caras trabajando con huesos. Más tarde, primero en Egipto y luego en Grecia y Roma, los juegos de azar se hicieron populares.

Sin embargo, y a pesar de todo, las primeras publicaciones que acuñaban o intuían el concepto de probabilidad se escribieron a mediados del siglo XVI. Concretamente, fue Gerolamo Cardano quien escribió en 1553 un tratado sobre el juego de dados. Aunque su obra no sería publicada hasta 110 años más tarde, en 1663.

Posteriormente, han surgido avances gracias a diversos intelectuales que han permitido con sus publicaciones aumentar y mejorar el conocimiento de la probabilidad. Ejemplo de ello son intelectuales como Laplace, Gauss o Kolmogorov.

Diferencia entre estadística y probabilidad

Como decíamos al inicio estadística y probabilidad son habitualmente confundidos. Son conceptos relacionados pero bajo ningún concepto son sinónimos. La diferencia puede parecer, en un principio, algo sin importancia. Nada más lejos de la realidad. Conocer la diferencia entre uno y otro concepto nos ayudará a entenderlos mejor y obtener un conocimiento más preciso de la materia.

 Así pues, la teoría de la probabilidad constituye un aparato matemático. Una herramienta que proviene de la ciencia matemática. La estadística, por decirlo de alguna manera, se sirve de dicha herramienta para poder llegar a conclusiones más precisas. Por tanto, probabilidad no es lo mismo que estadística. Y de hecho, es más, ni siquiera es una rama de la estadística.

Conviene destacar que probabilidad y estadística no son la misma cosa. Son dos conceptos relacionados pero diferentes. Al final de este artículo, explicaremos la diferencia entre estos dos términos.

El concepto de probabilidad

En cualquier caso, sin desviarnos del concepto de teoría de la probabilidad, diremos que está formada por un conjunto de técnicas que nos permiten asignar un número a la posibilidad de que un evento ocurra.

https://www.youtube.com/watch?v=Nda59uLvaQc&feature=emb_title

PARA REFORZAR ESTOS TEMAS REALIZAMOS UNA LÍNEA DEL TIEMPO DE LA HISTORIA DE LA PROBABILIDAD.

HABLANDO DE TODOS LOS TEMAS ANTES VISTOS COMO PROYECTO FINAL REALIZAMOS UN VIDEO EN REALIDAD AUMENTADA EXPLICANDO LAS MEDIDAS DE TENDENCIA CENTRAL Y HACIENDO UNA ENCUESTA CUALITATIVA A UNA MUESTRA DE UNA POBLACIÓN DE 32 PERSONAS, EN LA CUAL PUSIMOS LOS RESULTADOS EN SUS RESPECTIVAS GRÁFICAS.

PUEDEN VISUALIZARLO EN EL SIGUIENTE LINK:


INTEGRANTES:

CRUZ ROLON MARÍA GUADALUPE.

ILIZALITURRI LARIOS LUIS FERNANDO.

PATIÑO VARGAS GISELL.

SÁNCHEZ ANTONIO MARYOLI ADDNAEL.

VALENZUELA GALICIA ISIS GETZABEL.

viernes, 23 de octubre de 2020

 

MEDIDAS DE DISPERSIÓN

 

Varianza y desviación estándar

Veamos la varianza y la desviación estándar de la muestra y de la población, con ejercicios, ejemplos y veamos también las fórmulas.

 La varianza y la desviación estándar son medidas de dispersión o variabilidad, es decir, indican la dispersión o separación de un conjunto de datos. Hay que tener en cuenta que las fórmulas de la varianza y la desviación estándar son diferentes para una muestra que para una población.

 A continuación, presentamos el resumen de fórmulas, las cuales analizaremos líneas abajo: 


 

Varianza de la población (σ2)

La varianza se define como la media aritmética de los cuadrados de las diferencias de los datos con su media aritmética. 

fórmula de la varianza poblacional

Desviación estándar de la población (σ)

La desviación estándar es la raíz cuadrada positiva de la varianza.

desviación estándar de la población

Te recomendamos calcular primero la varianza de la población y luego sacar su raíz cuadrada para obtener la desviación estándar.

Ten en cuenta que, si tienes una serie de valores de una población y necesitas calcular su varianza y su desviación estándar, deberás calcular primero la media poblacional µ con la siguiente fórmula:

fórmula de la media poblacional

Varianza de la muestra (s2)

La fórmula de la varianza de la muestra es diferente a la de varianza de la población.

fórmula de la varianza de la muestra

Desviación estándar de la muestra (s)

Recuerda que la desviación estándar es la raíz cuadrada positiva de la varianza.

fórmula de la desviación estándar de la muestra

Te recomendamos calcular primero la varianza de la muestra y luego sacar su raíz cuadrada para obtener la desviación estándar.

Ten en cuenta que, si tienes una serie de valores de una muestra y necesitas calcular su varianza y su desviación estándar, deberás calcular primero la media poblacional x̄ con la siguiente fórmula:

fórmula de la media de la muestra

Medidas de asimetría, curtosis y sesgo

Son aquellos números resúmenes, que indican la morfología de la distribución de los datos, es decir de la simetría y apuntamiento que tiene el histograma de la variable en estudio. Sólo se pueden calcular en variables medidas en escala intervalo y de razón. Son el:

  •  sesgo (coeficiente de asimetría) 
  • Cucurtosis 

COEFICIENTE DE ASIMETRÍA 
Mide el grado de asimetría de la distribución con respecto a la media. Un valor positivo de este indicador significa que la distribución se encuentra sesgada hacia la izquierda (orientación positiva). Un resultado negativo significa que la distribución se sesga a la derecha.

CURTOSIS 

Indica que tan apuntada o achatada se encuentra una distribución respecto a un comportamiento normal (distribución normal). 

Si los datos están muy concentrado hacia la media, la distribución es leptocúrtica (curtosis mayor a 0). Si los datos están muy dispersos, la distribución es platicúrtica (curtosis menor a 0). El comportamiento normal exige que la curtosis sea igual a 0 (distribución mesocúrtica).




COMO ACTIVIDAD PARA REFORZAR ESTOS TEMAS REALIZAMOS LOS SIGUIENTES EJERCICIOS QUE SE ENCUENTRAN EN LOS SIGUIENTES LINKS:
















































CONCEPTOS FUNDAMENTALES "INFERENCIA ESTADÍSTICA"

La inferencia estadística se desarrolla en tres niveles complementarios: Estimación puntual . Su objetivo es dar a una característica poblac...