jueves, 2 de junio de 2016

Conjuntos


Conjuntos 

En matemáticas, un conjunto es una colección de elementos considerada en sí misma como un objeto. Los elementos de un conjunto, pueden ser las siguientes:personasnúmeroscoloresletrasfiguras, etc. Se dice que un elemento (o miembro) pertenece al conjunto si está definido como incluido de algún modo dentro de él.
Ejemplo: el conjunto de los colores del arcoíris es:
AI = {Rojo, Naranja, Amarillo, Verde, Azul, Añil, Violeta}
Un conjunto suele definirse mediante una propiedad que todos sus elementos poseen. Por ejemplo, para los números naturales, si se considera la propiedad de ser un número primo, el conjunto de los números primos es:
P = {2, 3, 5, 7, 11, 13, ...}
Un conjunto queda definido únicamente por sus miembros y por nada más. En particular, un conjunto puede escribirse como una lista de elementos, pero cambiar el orden de dicha lista o añadir elementos repetidos no define un conjunto nuevo
Los diversos polígonos en la imagen constituyen un conjunto. Algunos de los elementos del conjunto, además de ser polígonos son regulares. La colección de estos últimos —los polígonos regulares en la imagen— es otro conjunto, en particular, un subconjunto del primero.

 Unión 

la unión de dos (o más) conjuntos es una operación que resulta en otro conjunto, cuyos elementos son los elementos de los conjuntos iniciales. Por ejemplo, el conjunto de los números naturales es la unión del conjunto de los números pares positivos P y el conjunto de los números impares positivos


La unión de los conjuntos A y B es otro conjunto A  B que contiene todos los elementos de A y de B.

Intersección

 la intersección de dos (o más) conjuntos es una operación que resulta en otro conjunto que contiene los elementos comunes a los conjuntos de partida. Por ejemplo, dado el conjunto de los números pares P y el conjunto de los cuadrados C de números naturales, su intersección es el conjunto de los cuadrados pares D :


La intersección de A y B es otro conjunto A  que contiene sólo los elementos que pertenecen tanto a A como a B. 

Diferencia

la diferencia entre dos conjuntos es una operación que resulta en otro conjunto, cuyos elementos son todos aquellos en el primero de los conjuntos iniciales que no estén en el segundo. Por ejemplo, la diferencia entre el conjunto de los números naturales N y el conjunto de los números pares P es el conjunto de los números que no son pares, es decir, los impares I:
La diferencia entre los conjuntosA y B (y viceversa) es otro conjunto con todos los elementos del «minuendo», salvo los contenidos en el «sustraendo».

suceso complementario 


Dado un suceso cualquiera A, se llama suceso complementario al formado por todos aquellos sucesos elementales que no están en A y se nota por Ac.
Si en el experimento "lanzar un dado" se define el suceso A = "salir un múltiplo de tres" A={3,6}, entonces Ac = {1,2,4,5}.

De la definición de suceso complementario se deduce inmediatamente que:
- A U A 
- A  A= Ø


P(A) = 1/6 = 0,166
P(B) = 3 / 6 = 0,50

Por lo tanto, podemos ver que la probabilidad del suceso contenido, suceso a), es menor que la probabilidad del suceso que lo contiene, suceso b).

b) Dos sucesos pueden ser iguales: en este caso, las probabilidades de ambos sucesos son las mismas.


domingo, 29 de mayo de 2016

Medidas de Forma

EL SESGO


Mide las desviaciones de las MTC., Ya que el seesgo es el grado de asimetría o falta de asimetría, de una distribucion, si el poligono de frecuencias visualizado de una distribucion tiene una cola más larga a la derecha del máximo central que a la izquierda, se dice que la distribucion esta sesgada a la derecha o que tiene sesgo positivo(asimetría positiva) y si al contrario se dice que tiene sesgo (asimetría negativa) .


Formula 


a )asimetricamente + = cuado el sg es mayor a 0

b )normal= cuado el sg = 0

c )simetricamente - cuando el sg es menor a 0

formula:

_
Sg= __X -Md__ = S
esgo es igual a: media menos la moda partido o dividido desviacion.

Slos datos más utilizados son los sig:
moda , media, desviación.

pero si existen dos o más modas se utilizara otra formula:
Sg=_x-Md__= sesgo es igual a: media menos la mediana partido o dividido desviación

si la asimetria es NORMAL se aplicara la curtosis : si y solo si la asimertría es normal.



CURTOSIS

Una medida de la forma. Así, las medidas de curtosis tratan de estudiar la proporción de la varianza que se explica por la combinación de datos extremos respecto a la media en contraposición con datos poco alejados de la misma. Una mayor curtosis implica una mayor concentración de datos muy cerca de la media de la distribución coexistiendo al mismo tiempo con una relativamente elevada frecuencia de datos muy alejados de la misma. Esto explica una forma de la distribución de frecuencias con colas muy elevadas y con un centro muy apuntado.






Es la agudeza de la curva normal , esta agudeza puede ser alta , baja, o intermedia dando lugar a diferentes tipos de curvas como: plato, meso, leptocúrtica,








coeficiente de correlación

En estadística, el coeficiente de correlación de Pearson es una medida de la relación lineal entre dos variables aleatorias uantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.


Propiedades del coeficiente de correlación
1. El coeficiente de correlación no varía al hacerlo la escala de medición.
Es decir, si expresamos la altura en metros o en centímetros el coeficiente de correlación no varía.
2. El signo del coeficiente de correlación es el mismo que el de la covarianza.
Si la covarianza es positiva, la correlación es directa.
Si la covarianza es negativa, la correlación es inversa.
Si la covarianza es nula, no existe correlación.
3. El coeficiente de correlación lineal es un número real comprendido entre −1 y 1.
−1 ≤ r ≤ 1
4. Si el coeficiente de correlación lineal toma valores cercanos a −1 la correlación es fuerte e inversa, y será tanto más fuerte cuanto más se aproxime r a −1.
5. Si el coeficiente de correlación lineal toma valores cercanos a 1 la correlación es fuerte y directa, y será tanto más fuerte cuanto más se aproxime r a 1.
6. Si el coeficiente de correlación lineal toma valores cercanos a 0, la correlación es débil.
7. Si r = 1 ó −1, los puntos de la nube están sobre la recta creciente o decreciente. Entre ambas variables hay dependencia funcional.

Recta de regresión

La recta de regresión es la que mejor se ajusta a la nube de puntos.
La recta de regresión pasa por el punto centro de gravedad llamado centro de gravedad.

Recta de regresión de Y sobre X

La recta de regresión de Y sobre X se utiliza para estimar los valores de la Y a partir de los de la X.
La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable X.
Recta de regresión

Recta de regresión de X sobre Y

La recta de regresión de X sobre Y se utiliza para estimar los valores de la X a partir de los de la Y.
La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable Y.
Recta de regresión
Si la correlación es nula, r = 0, las rectas de regresión son perpendiculares entre sí, y sus ecuaciones son:
y = media de y
x = media de x
Error Estandar 
El error estándar es la desviación estándar de ladistribución muestral de un estadístico.1 El término se refiere también a una estimación de la desviación estándar, derivada de una muestra particular usada para computar la estimación.
Para un valor dado en una muestra aleatoria con un error distribuido normal, la imagen de arriba representa la proporción de muestras que pueden caer entre 0,1,2, y 3 desviaciones estándar por encima y por debajo del valor real.
Es el estimador usual de una media poblacional. Sin embargo, diferentes muestras escogidas de la misma población tienden en general a dar distintos valores de medias muestrales. El error estándar de la media (es decir, el error debido a la estimación de la media poblacional a partir de las medias muestrales) es la desviación estándar de todas las posibles muestras (de un tamaño dado) escogidos de esa población. Además, el error estándar de la media puede referirse a una estimación de la desviación estándar, calculada desde una muestra de datos que está siendo analizada al mismo tiempo.


jueves, 19 de mayo de 2016

Desvio







La desviación típica o desviación estándar (denotada con el símbolo σ o s, dependiendo de la procedencia del conjunto de datos) es una medida de dispersión para variables de razón (variables cuantitativas o cantidades racionales) y de intervalo. Se define como la raíz cuadrada de la varianza de la variable.













Formulas


Algunas formulas que empleamos a lo largo del semestre son las siguientes:

Esperanza matemática o media



Varianza


Desviación típica



Lo mas basico



Es la medida más usada para encontrar el promedio. De hecho, la gente siempre utiliza la palabra "promedio" para referirse a la "media." Encontrarla es simple: solo suma todos los números en los datos y divídelos por la cantidad de números.


Es el número del medio en un grupo de datos. Sin embargo, los datos deben estar ordenados numéricamente (de mayor a menor o de menor a mayor) antes de encontrar este promedio. Si el número del medio está entre dos números, entonces encuentra la media entre esos dos (súmalos y divídelos entre 2).




Es probablemente la forma menos común de encontrar el promedio, y en la mayoría de los casos es la menos útil. Para encontrar la moda, solo encuentra el número que más se repite. Puede haber más de una moda, o ninguna.
Moda = número que más se repite.




Historia


Probabilidad  comienza en el siglo XVII cuando Pierre Fermat y Blaise Pascal tratan de resolver algunos problemas relacionados con los juegos de azar. Aunque algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre 1520 El Libro de los Juegos de Azar (aunque no fue publicado hasta más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a elaborarse una teoría aceptable sobre los juegos. Christian Huygens conoció la correspondencia entre Blaise Pascal y PierreFermat suscitada por el caballero De Méré, se planteó el debate de determinar la probabilidad de ganar una partida, y publicó (en 1657) el primer libro sobre probabilidad: De Ratiociniis in Ludo Aleae, (Calculating in Games of Chance), un tratado sobre juegos de azar, donde se aceptaba como intuitivo el concepto de probabilidad.







Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar, el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado por De Moivre del teorema central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810 La place, que había considerado anteriormente el tema, completó el desarrollo de esta teoría. En 1812 Pierre La place publicó Théorie analytique des probabilités en el que expone un análisis matemático sobre los juegos de azar. A mediados del siglo XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales






La palabra “estadística” a menudo nos trae a la mente imágenes de números apilados en grandes arreglos y tablas, de volúmenes de cifras relativas a nacimientos, muertes, impuestos, poblaciones, ingresos, deudas, créditos y demás. Al instante de escuchar esa palabra, son estas las imágenes que llegan a nuestra imaginación. La estadística es mucho más que sólo números apilados y gráficas bonitas. Es una ciencia con tanta antigüedad como la escritura, y es por sí misma auxiliar de todas las ciencias –medicina, ingeniería, sociología, psicología, economía, etcétera–, así como de los gobiernos, mercados y otras actividades humanas. En la actualidad, la estadística ocupa un lugar de gran importancia en la investigación y en la práctica médica. En los estudios de medicina de cualquier país se incluyen varias asignaturas dedicadas a la estadística; es difícil, por no decir imposible, que un trabajo de investigación sea aceptado por una revista médica sin que sus autores hayan utilizado técnicas y conceptos estadísticos en su planteamiento y en el análisis de los datos. La estadística que conocemos hoy día debe gran parte de sus logros a los trabajos matemáticos de aquellos hombres que desarrollaron la teoría de las probabilidades, con la cual se adhirió la estadística a las ciencias formales.


Portada (INTRODUCCION)


Hola bienvenidos al blog y proyecto final de la materia de probabilidad y estadística asesorados por la profesora María de los Ángeles alumnos del sexto F de la escuela Cetis 54 el cual los integrantes somos 

  1. Reyes Vargas Bryan 
  2. Pérez López Gustavo 
  3. Alonso Balaguer Guillermo 
  4. Rojas Jimenez Jason 
En este blog les mostraremos todo lo que avanzamos en el semestre y logramos aprender con la ya mencionada profesora donde le daremos una introducción de la probabilidad estadística principalmente Cómo sacar la media moda y mediana y unas gráficas básicas disfrútalo