sábado, 23 de abril de 2011

CONVERTIR TANTO POR CIENTO A DECIMALES Y VICEVERSA


Se debe recordar siempre que un por ciento significa un centésimo. Lo dice la palabra misma: por ciento es por cien, se está comparando con cien: si 15% de la populación son ancianos, significa que 15 personas de cada cien son ancianos.

1% es un centésimo ó 0.01
4% es cuatro centésimos ó 0.04
12% es doce centésimos ó 0.12
89% es 89 centésimos ó 0.89
100% es cien centésimos ó 1
145% es 145 centésimos ó 1.45



Convertir un número decimal en tanto por ciento
 Si tiene un número decimal, sólo se observa cuántos centésimos tiene.
Por eso se debe entender que la primera cifra decimal después del punto significa los décimos, y la
segunda cifra después del punto significa las centésimos.
0.08 tiene 8 centésimos o 8%


0.2 no tiene dos cifras decimales; entonces pongamos un cero en la segunda cifra decimal:
0.2 es igual a 0.20.
entonces tiene 20 centésimos o 20%.
1.1 también pongamos un cero en la segunda cifra decimal y es 1.10
Es más de uno; tiene más de 100 centésimos;
1.10 tiene 110 centésimos; y es 110%.

0.495 tiene tres cifras decimales. Cuando se convierte a tanto por ciento, el
porcentaje tendrá un punto decimal.
0.495 tiene 49 centésimos;
y un medio centésimo además.
Por eso 0.495 es 49 1/2 % o normalmente escribimos 49.5%

0.3829 es 38.29%
1.078 es 107.8%

NOTACIÓN CIENTÍFICA

La notación científica (o notación índice estándar) es un modo conciso de representar un número utilizando potencias de base diez. Los números se escriben como un producto: a · 10k, (siendo a un número mayor o igual que 1 y menor que 10, y k un número entero). Esta notación se utiliza para poder expresar fácilmente números muy grandes. 0 = 1 1 = 10 2 = 100 3 = 1 000 4 = 10 000 5 = 100 000 6 = 1 000 000 9 = 1 000 000 000 10 = 10 000 000 000 20 = 100 000 000 000 000 000 000 30 = 1 000 000 000 000 000 000 000 000 000 000
La notación científica utiliza un sistema llamado coma flotante, o de punto flotante en países de habla inglesa y en algunos hispanohablantes.
Escritura
10
10
10
10
10
10
10
10
10
10
10
 –n es igual a 1/10n o equivalentemente a 0, (n–1 ceros) 1: –1 = 1/10 = 0,1 –3 = 1/1000 = 0,001 –9 = 1/1 000 000 000 = 0,000 000 001
10 elevado a una potencia entera negativa
10
10
10
 29, y un número pequeño como 0,000 000 000 023 4 puede ser escrito como 2,34·10–11.
Por tanto, un número como: 156 234 000 000 000 000 000 000 000 000 puede ser escrito como 1,56234·10

 Usos Por ejemplo, la distancia a los confines observables del universo es ~4,6·10
 Operaciones matemáticas con notación científica

Suma y resta
Siempre que las potencias de 10 sean las mismas, se debe sumar las mantisas, dejando la potencia de 10 con el mismo grado (en caso de que no tengan el mismo exponente, debe convertirse la mantisa multiplicándola o dividiéndola por 10 tantas veces como sea necesario para obtener el mismo exponente).
Ejemplo:
2·10
4 + 3·104 = 5·104 Para sumar y restar dos números (o más) debemos tener el mismo exponente en las potencias de base diez. Tomamos como factor común el mayor y movemos la coma flotante, en los menores, tantos espacios como sea necesario, elevando los correspondientes exponentes hasta que todos sean iguales.
Ejemplo:
2·10
0.2·10
4 + 3·105 - 6·103 (tomamos el exponente 5 como referencia) 5 + 3·105 - 0.06·105 3.14·10

 Multiplicación Se multiplican los coeficientes y se suman a la vez los exponentes.
Ejemplo:
(4·10

 División Se dividen las mantisas y se restan los exponentes (numerador-denominador).
Ejemplo:
(4·10
12)/ (2·105) =2·107 Además se pueden pasar los dos números al mismo exponente y luego nada más multiplicar.
Potenciación Se potencia la mantisa y se multiplican los exponentes.
Ejemplo:
(3·10
6)2 = 9·1012 Radicación
Se debe extraer la raíz de la mantisa y dividir el exponente por el índice de la raíz:
Ejemplos:

5)· (2·107) = 8·1012
5

La notación científica es altamente útil para anotar cantidades físicas, pues pueden ser medidas solamente dentro de ciertos límites de error y al anotar sólo los dígitos significativos se da toda la información requerida sin malgastar espacio.


Para expresar un número en notación científica debe expresarse en forma tal que contenga un dígito (el más significativo) en el lugar de las unidades, todos los demás dígitos irán entonces después del separador decimal multiplicado por el exponente de 10 respectivo.
Ejemplo:
238294360000 = 2,3829436E11 y 0,000312459 = 3,12459E-4.

26m y la masa de un protón es ~1,67·10-27 kilogramos. La mayoría de las calculadoras y muchos programas de computadora presentan resultados muy grandes y muy pequeños en notación científica; los números 10 generalmente se omiten y se utiliza la letra E para el exponente; por ejemplo: 1,56234 E29. Nótese que esto no está relacionado con la base del logaritmo natural también denotado comúnmente con la letra e.

DEFINICIÓN Y OBJETO DE LA ESTADÍSTICA

Historia de la Estadística Los comienzos de la estadística pueden ser hallados en el antiguo Egipto, cuyos faraones lograron recopilar, hacia el año 3050 antes de Cristo, prolijos datos relativos a la población y la riqueza del país. De acuerdo al historiador griego Heródoto, dicho registro de riqueza y población se hizo con el objetivo de preparar la construcción de las pirámides.
En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de verificar un nuevo reparto.


En el antiguo Israel la Biblia da referencias, en el libro de los Números, de los datos estadísticos obtenidos en dos recuentos de la población hebrea.
El rey David por otra parte, ordenó a Joab, general del ejército hacer un censo de Israel con la finalidad de conocer el número de la población.

También los chinos efectuaron censos hace más de cuarenta siglos. Los griegos efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera.

Pero fueron los romanos, maestros de la organización política, quienes mejor supieron emplear los recursos de la estadística. Cada cinco años realizaban un censo de la población y sus funcionarios públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. Para el nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del imperio.

Durante los mil años siguientes, a la caída del imperio Romano, se realizaron muy pocas operaciones Estadísticas, con la notable excepción de las relaciones de tierras pertenecientes a la Iglesia, compiladas por Pipino el Breve en el 758 y por Carlomagno en el 762 DC. Durante el siglo IX se realizaron en Francia algunos censos parciales de siervos. En Inglaterra, Guillermo el Conquistador recopiló el Domesday Book o libro del Gran Catastro para el año 1086, un documento de la propiedad, extensión y valor de las tierras de Inglaterra.
Esa obra fue el primer compendio estadístico de Inglaterra.

Aunque Carlomagno, en Francia, y Guillermo el Conquistador, en Inglaterra, trataron de revivir la técnica romana, los métodos estadísticos permanecieron casi olvidados durante la Edad Media.

Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci, Nicolás Copérnico, Galileo, Neper, William Harvey, Sir Francis Bacon y René Descartes, hicieron grandes operaciones al método científico, de tal forma que cuando se crearon los Estados Nacionales y surgió como fuerza el comercio internacional existía ya un método capaz de aplicarse a los datos económicos.


Para el año 1532 empezaron a registrarse en Inglaterra las defunciones debido al temor que Enrique VII tenía por la peste. Más o menos por la misma época, en Francia la ley exigió a los clérigos registrar los bautismos, fallecimientos y matrimonios.
Durante un brote de peste que apareció a fines de la década de 1500, el gobierno inglés comenzó a publicar estadísticas semanales de los decesos. Esa costumbre continuó muchos años, y en 1632 estos Bills of Mortality (Cuentas de Mortalidad) contenían los nacimientos y fallecimientos por sexo.
En 1662, el capitán John Graunt usó documentos que abarcaban treinta años y efectuó predicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y mujeres que cabría esperar. El trabajo de Graunt, condensado en su obra Natural and Political Observations... made upon the Bills of Mortality (Observaciones Políticas y Naturales... hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo innovador en el análisis estadístico.

Por el año 1540 el alemán Sebastián Muster realizó una compilación estadística de los recursos nacionales, comprensiva de datos sobre organización política, instrucciones sociales, comercio y poderío militar. Durante el siglo XVII aportó indicaciones más concretas de métodos de observación y análisis cuantitativo y amplió los campos de la inferencia y la teoría Estadística.

Los eruditos del siglo XVII demostraron especial interés por la Estadística Demográfica como resultado de la especulación sobre si la población aumentaba, decrecía o permanecía estática.

En los tiempos modernos tales métodos fueron resucitados por algunos reyes que necesitaban conocer las riquezas monetarias y el potencial humano de sus respectivos países.

El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1691 y estuvo a cargo de Gaspar Neumann, un profesor alemán que vivía en Breslau.
Este investigador se propuso destruir la antigua creencia popular de que en los años terminados en siete moría más gente que en los restantes, y para lograrlo hurgó pacientemente en los archivos parroquiales de la ciudad.
Después de revisar miles de partidas de defunción pudo demostrar que en tales años no fallecían más personas que en los demás. Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Halley, descubridor del cometa que lleva su nombre, quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compañías de seguros.

Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli, Francis Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades.

No obstante durante cierto tiempo, la teoría de las probabilidades limitó su aplicación a los juegos de azar y hasta el siglo XVIII no comenzó a aplicarse a los grandes problemas científicos. Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760 la palabra estadística, que extrajo del término italiano statista (estadista); Creía, y con sobrada razón, que los datos de la nueva ciencia serían el aliado más eficaz del gobernante consciente. La raíz remota de la palabra se halla, por otra parte, en el término latino status, que significa estado o situación; esta etimología aumenta el valor intrínseco de la palabra, por cuanto la estadística revela el sentido cuantitativo de las más variadas situaciones.
Jacques Quételect es quien aplica las Estadísticas a las ciencias sociales; éste interpretó la teoría de la probabilidad para su uso en las ciencias sociales y resolver la aplicación del principio de promedios y de la variabilidad a los fenómenos sociales. Quételect fue el primero en realizar la aplicación práctica de todo el método Estadístico, entonces conocido, a las diversas ramas de la ciencia.


Entretanto, en el período del 1800 al 1820 se desarrollaron dos conceptos matemáticos fundamentales para la teoría Estadística; la teoría de los errores de observación, aportada por Laplace y Gauss; y la teoría de los mínimos cuadrados desarrollada por Laplace, Gauss y Legendre. A finales del siglo XIX, Sir Francis Gaston ideó el método conocido por Correlación, que tenía por objeto medir la influencia relativa de los factores sobre las variables. De aquí partió el desarrollo del coeficiente de correlación creado por Karl Pearson y otros cultivadores de la ciencia biométrica como J. Pease Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la medida de las relaciones.


Los progresos más recientes en el campo de la Estadística se refieren al ulterior desarrollo del cálculo de probabilidades, particularmente en la rama denominada indeterminismo o relatividad, se ha demostrado que el determinismo fue reconocido en la Física como resultado de las investigaciones atómicas y que este principio se juzga aplicable tanto a las ciencias sociales como a las físicas.

Etapas de Desarrollo de la Estadística
La historia de la estadística está resumida en tres grandes etapas o fases.

Primera Fase: Los Censos. Desde el momento en que se constituye una autoridad política, la idea de inventariar de una forma más o menos regular la población y las riquezas existentes en el territorio está ligada a la conciencia de soberanía y a los primeros esfuerzos administrativos.

Segunda Fase: De la Descripción de los Conjuntos a la Aritmética Política. Las ideas mercantilistas extrañan una intensificación de este tipo de investigación. Colbert multiplica las encuestas sobre artículos manufacturados, el comercio y la población: los intendentes del Reino envían a París sus memorias. Vauban, más conocido por sus fortificaciones o su Dime Royale, que es la primera propuesta de un impuesto sobre los ingresos, se señala como el verdadero precursor de los sondeos.
Más tarde, Bufón se preocupa de esos problemas antes de dedicarse a la historia natural.
La escuela inglesa proporciona un nuevo progreso al superar la fase puramente descriptiva. Sus tres principales representantes son Graunt, Petty y Halley. El penúltimo es autor de la famosa Aritmética Política. Chaptal, ministro del interior francés, publica en 1801 el primer censo general de población, desarrolla los estudios industriales, de las producciones y los cambios, haciéndose sistemáticos durante las dos terceras partes del siglo XIX.

Tercera Fase: Estadística y Cálculo de Probabilidades. El cálculo de probabilidades se incorpora rápidamente como un instrumento de análisis extremadamente poderoso para el estudio de los fenómenos económicos y sociales y en general para el estudio de fenómenos "cuyas causas son demasiado complejas para conocerlos totalmente y hacer posible su análisis".

Definición de Estadística La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa concerniente a individuos, grupos, series de hechos, etc. y deducir de ello, gracias al análisis de estos datos, significados precisos o unas previsiones para el futuro.
La estadística, en general, es la ciencia que trata de la recopilación, organización presentación, análisis e interpretación de datos numéricos con el fin de realizar una toma de decisión más efectiva.
Otros autores tienen definiciones de la Estadística semejantes a las anteriores, y algunos otros no tan afines. Para Chacón esta se define como "la ciencia que tiene por objeto el estudio cuantitativo de los colectivos".
La más aceptada, sin embargo, es la de Minguez, que define la Estadística como "La ciencia que tiene por objeto aplicar las leyes de la cantidad a los hechos sociales para medir su intensidad, deducir las leyes que los rigen y hacer su predicción próxima".
Los estudiantes confunden comúnmente los demás términos asociados con las Estadísticas, una confusión que es conveniente aclarar debido a que esta palabra tiene tres significados: la palabra estadística, en primer término se usa para referirse a la información estadística; también se utiliza para referirse al conjunto de técnicas y métodos que se utilizan para analizar la información estadística; y el término estadístico, en singular y en masculino, se refiere a una medida derivada de una muestra.

Utilidad e Importancia Los métodos estadísticos tradicionalmente se utilizan para propósitos descriptivos, para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el cálculo de medidas descriptivas.

ESTADÍSTICA DESCRIPTIVA Y ESTADÍSTICA INFERENCIAL

La Estadística para su mejor estudio se ha dividido en dos grandes ramas: la Estadística Descriptiva y la Inferencial.
Estadística Descriptiva: consiste sobre todo en la presentación de datos en forma de tablas y gráficas. Esta comprende cualquier actividad relacionada con los datos y está diseñada para resumir o describir los mismos sin factores pertinentes adicionales; esto es, sin intentar inferir nada que vaya más allá de los datos, como tales, es decir, únicamente los adquiere, los recopila y los organiza.
Estadística Inferencial: se deriva de muestras, de observaciones hechas sólo acerca de una parte de un conjunto numeroso de elementos y esto implica que su análisis requiere de generalizaciones que van más allá de los datos. La estadística inferencial simplemente es el procedimiento por medio del cual se llega a las inferencias acerca de una población base en los resultados obtenidos de una muestra extraída de la población, es decir, la Estadística Inferencial investiga o analiza una población partiendo de una toma de muestra.

FUENTE DE DATOS

En los apartados anteriores se ha señalado que el objetivo de la Estadística es el estudio de los fenómenos de masas. Pero ello requiere el manejo de una información numérica amplia. La cuestión inmediata que surge es saber a dónde se puede recurrir para encontrar esa información necesaria y sin la cual el análisis estadístico no se puede realizar. En definitiva, se trata de conocer las fuentes que suministran información de carácter estadístico. Estas fuentes son susceptibles de clasificarse según distintos criterios. Atendiendo al agente que elabore esa información, la misma puede agruparse en endógena y exógena. La primera sería la que elabora el propio investigador. En este caso, la operación estadística conducente a recabar los datos necesarios para la realización del análisis estadístico se supone que la lleva a cabo el propio investigador. Será quien se encargue de observar los distintos caracteres, cuantitativos o cualitativos, relevantes de los elementos de una población. El resultado será una base de datos, obtenida mediante una muestra, o cualquiera de los otros procedimientos indicados con anterioridad, que permitirá el correspondiente análisis estadístico.

POBLACIÓN Y MUESTRA

Población: El concepto de población en estadística va más allá de lo que comúnmente se conoce como tal. Una población se precisa como un conjunto finito o infinito de personas u objetos que presentan características comunes.

 Muestra

: La muestra es un conjunto o subconjunto representativo, seleccionado de una población, pero para que quede más claro el concepto, a continuación se enuncia el concepto de muestra de diferentes autores:

"Una población es un conjunto de todos los elementos que estamos estudiando, acerca de los cuales intentamos sacar conclusiones". Levin & Rubin (1996).
"Una población es un conjunto de elementos que presentan una característica común". Cadenas (1974).

Una población en estadística es el conjunto de todas las observaciones en las que estamos interesados, o bien, es el conjunto de todos los procesos suceptibles de aparecer en un problema y que interesan a la persona que hace el estudio.

Se llama tamaño de la población al número de individuos que la componen, siendo cada posible observación un individuo; así pues, las poblaciones pueden ser finitas e infinitas, en el caso de la segunda cabe mencionar que sólo existe en la teoría, ya que en la práctica no se encuentra la aplicación de elementos infinitos.

Cada observación en una población es un valor de una variable aleatoria X con una función de probabilidad o densidad determinada f(x). Normalmente, se denomina a las poblaciones con el nombre de la distribución de la variable; es decir, hablaremos de poblaciones normales, binomiales, etc.

Para estudiar una población existen dos posibilidades. Una de ellas consiste en estudiar todos sus elementos y sacar conclusiones; la otra consiste en estudiar sólo una parte de ellos, elegidos de tal forma que nos digan algo sobre la totalidad de las observaciones de la población.


El mejor método resulta ser el primero, cuando es posible, lo cual sólo ocurre en las poblaciones finitas y razonablemente pequeñas; en el caso de poblaciones muy grandes o infinitas será muy difícil o imposible realizar un estudio total. En este caso necesitaremos tomar una muestra y nos surgirá el problema de cómo hacer para que la muestra nos diga algo sobre el conjunto de la población.


Es a menudo imposible o poco práctico observar la totalidad de los individuos, sobre todos si estos son muchos. En lugar de examinar el grupo entero llamado población o universo, se examina una pequeña parte del grupo llamada muestra.

MUESTREO PROBABILÍSTICO Y NO PROBABILÍSTICO

Muestreo
 En ocasiones en que no es posible o conveniente realizar un censo (analizar a todos los elementos de una población), se selecciona una muestra, entendiendo por tal una parte representativa de la población.
El muestreo es por lo tanto una herramienta de la investigación científica, cuya función básica es determinar que parte de una población debe examinarse, con la finalidad de hacer inferencias sobre dicha población.

La muestra debe lograr una representación adecuada de la población, en la que se reproduzca de la mejor manera los rasgos esenciales de dicha población que son importantes para la investigación. Para que una muestra sea representativa, y por lo tanto útil, debe reflejar las similitudes y diferencias encontradas en la población, es decir, ejemplificar las características de ésta.

Los errores más comunes que se pueden cometer son:
1)
 2) Hacer conclusiones hacia una Población mucho más grandes de la que originalmente se tomó la muestra. Error de Inferencia

En la estadística se usa la palabra población para referirse no sólo a personas si no a todos los elementos que han sido escogidos para su estudio y el término muestra se usa para describir una porción escogida de la población.


Tipos de Muestreo Existen diferentes criterios de clasificación de los diferentes tipos de muestreo, aunque en general pueden dividirse en dos grandes grupos: métodos de muestreo probabilísticos y métodos de muestreo no probabilísticos.
I. Muestreo probabilístico
Los métodos de muestreo probabilísticos son aquellos que se basan en el principio de equiprobabilidad. Es decir, aquellos en los que todos los individuos tienen la misma probabilidad de ser elegidos para formar parte de una muestra y, consiguientemente, todas las posibles muestras de tamaño n tienen la misma probabilidad de ser seleccionadas. Sólo estos métodos de muestreo probabilísticos nos aseguran la representatividad de la muestra extraída y son, por tanto, los más recomendables.
. II. Métodos de muestreo no probabilísticos A veces, para estudios exploratorios, el muestreo probabilístico resulta excesivamente costoso y se acude a métodos no probabilísticos, aun siendo conscientes de que no sirven para realizar generalizaciones (estimaciones inferenciales sobre la población), pues no se tiene certeza de que la muestra extraída sea representativa, ya que no todos los sujetos de la población tienen la misma probabilidad de ser elegidos por lo que puede traer como consecuencia proporcionar información errónea

En general se seleccionan a los sujetos siguiendo determinados criterios procurando, en la medida de lo posible, que la muestra sea representativa, pero en este tipo de muestreo la selección de la muestra no es aleatoria, sino que se basa en el juicio del entrevistador o del responsables de la investigación, además no se basa en ninguna teoría de probabilidad, por lo tanto no es posible calcular la precisión o bien ocultar los posibles errores cometidos.

En algunas circunstancias los métodos estadísticos y epidemiológicos permiten resolver los problemas de representatividad aun en situaciones de muestreo no
probabilístico, por ejemplo los estudios de caso-control, donde los casos no son seleccionados aleatoriamente de la población.


Entre los métodos de muestreo no probabilísticos más utilizados en investigación encontramos:
1) Muestreo por cuotas
 2) Muestreo intencional o de conveniencia
 3) Bola de nieve

 4) Muestreo Discrecional: A criterio del investigador los elementos son elegidos sobre lo que él cree que pueden aportar al estudio
: Se localiza algunos individuos, los cuales conducen a otros, y estos a otros, y así hasta conseguir una muestra suficiente. Este se emplea muy frecuentemente cuando se hacen estudios con poblaciones "marginales", delincuentes, sectas, determinados tipos de enfermos, etc.

También puede ser que el investigador seleccione directa e intencionadamente los individuos de la población. El caso más frecuente de este procedimiento es utilizar como muestra los individuos a los que
se tiene fácil acceso (los profesores de universidad emplean con mucha frecuencia a sus propios alumnos).

: Este tipo de muestreo se caracteriza por un esfuerzo deliberado de obtener muestras "representativas" mediante la inclusión en la muestra de grupos supuestamente típicos, las muestras se seleccionan según el criterio de accesibilidad o comodidad Es muy frecuente su utilización en sondeos preelectorales de zonas que en anteriores votaciones han marcado tendencias de voto, también se emplea en lugares como centros comerciales, plazas, estaciones de autobuses, tren, metro, sobre todo que tienen gran afluencia pública, ya que se obtiene así un gran número de cuestionarios de forma rápida y económica.

En este tipo de muestreo se fijan unas "cuotas" que consisten en un número de individuos que reúnen unas determinadas condiciones, por ejemplo: 20 individuos de 25 a 40 años, de sexo femenino y residentes en Gijón. Una vez determinada la cuota se eligen los primeros que se encuentren que cumplan esas características. Este método se utiliza mucho en las encuestas de opinión.

: También denominado en ocasiones "accidental". Se asienta generalmente sobre la base de un buen conocimiento de los estratos de la población y/o de los individuos más "representativos" o "adecuados" para los fines de la investigación. Mantiene, por tanto, semejanzas con el muestreo aleatorio estratificado, pero no tiene el carácter de aleatoriedad l.
Hacer conclusiones muy generales a partir de la observación de sólo una parte de la Población, se denomina error de muestreo.

MUESTREO ESTRATIFICADO

Muestreo aleatorio estratificado
 Trata de obviar las dificultades que presentan los anteriores ya que simplifican los procesos y suelen reducir el error muestral para un tamaño dado de la muestra.

Consiste en considerar categorías típicas diferentes entre sí (estratos) que poseen gran homogeneidad internamente pero externamente con gran heterogeneidad respecto a alguna característica (se puede estratificar, por ejemplo, según la profesión, el municipio de residencia, el sexo, el estado civil, nivel económico, nivel cultural etc.).

Lo que se pretende con este tipo de muestreo es asegurarse de que todos los estratos de interés estarán representados adecuadamente en la muestra; y permite obtener la información, sobre las características del estudio más precisas de las estimaciones de la población, arrojando así mejores resultados.


La dificultad de este muestreo es la dificultad de decidir a que estrato se asigna cada uno de los elementos de la población.
Cada estrato funciona independientemente, pudiendo aplicarse dentro de ellos el muestreo aleatorio simple o el estratificado para elegir los elementos concretos que formarán parte de la muestra.

En ocasiones las dificultades que plantean son demasiado grandes, pues exige un conocimiento detallado de la población. (Tamaño geográfico, sexos, edades,...).
La distribución de la muestra en función de los diferentes estratos se denomina afijación, y puede ser de diferentes tipos:
Afijación Simple
 Afijación Proporcional

Afijación Óptima: Se tiene en cuenta la previsible dispersión de los resultados, de modo que se considera la proporción y la desviación típica. Tiene poca aplicación ya que no se suele conocer la desviación.
: La distribución se hace de acuerdo con el peso (tamaño) de la población en cada estrato.
: A cada estrato le corresponde igual número de elementos muéstrales.

MUESTREO POR CONGLOMERADOS

Muestreo aleatorio por conglomerados
 Los métodos presentados hasta ahora están pensados para seleccionar directamente los elementos de la población, es decir, que las unidades muéstrales son los elementos de la población.

En el muestreo por conglomerados la unidad muestral es un grupo de elementos de la población que forman una unidad, a la que llamamos conglomerado.
Las unidades hospitalarias, los departamentos universitarios, una caja de determinado producto, etc., son conglomerados naturales.


En otras ocasiones se pueden utilizar conglomerados no naturales como, por ejemplo, las urnas electorales. Cuando los conglomerados son áreas geográficas suele hablarse de "muestreo por áreas".

El muestreo por conglomerados consiste en seleccionar aleatoriamente un cierto número de conglomerados (el necesario para alcanzar el tamaño muestral establecido) y en investigar después todos los elementos pertenecientes a los conglomerados elegidos.

A continuación se presenta un cuadro que representa las ventajas y desventajas de los tipos de muestreo vistos en los puntos 3.5 y 3.6:

OTROS DISEÑOS Y PROCEDIMIENTOS DE MUESTREO: JUICIO Y CONVENIENCIA

Muestreo de juicio
 Una muestra es llamada muestra de juicio cuando sus elementos son seleccionados mediante juicio personal.
La persona que selecciona los elementos de la muestra, usualmente es un experto en la medida dada, ya que descuerdo a su criterio busca las unidades más representativas.

Una muestra de juicio es llamada una muestra probabilística, puesto que este método está basado en los puntos de vista subjetivos de una persona y la teoría de la probabilidad no puede ser empleada para medir el error de muestreo.

Las principales ventajas de una muestra de juicio son la facilidad de obtenerla y que el costo usualmente es bajo.
Este tipo de muestreo se ocupa cuando el tamaño de la muestra es pequeña.

Muestreo por conveniencia
Una muestra aleatoria simple es seleccionada de tal manera que cada muestra posible del mismo tamaño tiene igual probabilidad de ser seleccionada de la población, incluso la muestra se selecciona según el criterio de accesibilidad y comodidad Para obtener una muestra aleatoria simple, cada elemento en la población tiene la misma probabilidad de ser seleccionado, el plan de muestreo puede no conducir a una muestra aleatoria simple.

Por conveniencia, este método pude ser reemplazado por una tabla de números aleatorios.
Cuando una población es infinita, es obvio que la tarea de numerar cada elemento de la población es infinita, por lo tanto, numerar cada elemento de la población es imposible.

Por lo tanto, ciertas modificaciones del muestreo aleatorio simple son necesarias. Los tipos más comunes de muestreo aleatorio modificado son sistemáticos, estratificados y de conglomerados.

ERROR DE MUESTREO Y DE LA MUESTRA

El error de la muestra es la diferencia entre el resultado obtenido de una muestra estadística y el resultado que deberíamos haber obtenido de la población, el error de la muestra es medido por el error estadístico y el error de muestreo es el que aparece cuando usualmente no se lleva a cabo la encuesta completa de la población, sino que se toma una muestra para estimar las características de la población.

 Sesgo

En estos casos se dice que hay un sesgo, cuando el individuo da mayor peso a los datos que apoyan su opinión en comparación de aquellos que la contradicen. Un caso extremo de sesgo sería la situación donde primero se toma una decisión y después se utiliza el análisis estadístico para justificar la decisión ya tomada.

 Datos no comparables

 Proyección descuidada de tendencias
: la proyección simplista de tendencias pasadas hacia el futuro es uno de los errores que más ha desacreditado el uso del análisis estadístico. Muestreo Incorrecto: en la mayoría de los estudios sucede que el volumen de información disponible es tan inmenso que se hace necesario estudiar muestras, para derivar conclusiones acerca de la población a que pertenece la muestra. Si la muestra se selecciona correctamente, tendrá básicamente las mismas propiedades que la población de la cual fue extraída; pero si el muestreo se realiza incorrectamente, entonces puede suceder que los resultados no signifiquen nada.
: el establecer comparaciones es una de las partes más importantes del análisis estadístico, pero es extremadamente importante que tales comparaciones se hagan entre datos que sean comparables.
: Es imposible ser completamente objetivo o no tener ideas preconcebidas antes de comenzar a estudiar un problema, y existen muchas maneras en que una perspectiva o estado mental pueda influir en la recopilación y en el análisis de la información.

Nos encontramos que al momento de recopilar los datos que serán procesados es susceptible cometer errores, así como durante los cómputos de los mismos. No obstante, hay otros errores que no tienen nada que ver con la digitación y que no son tan fácilmente identificables,

Algunos de estos errores son:

TABLAS DE FRECUENCIA PARA VARIABLES DISCRETAS Y CONTINUAS






DISTRIBUCIÓN DE FRECUENCIA RELATIVA Y ACUMULADA PARA VARIABLES DISCRETAS Y CONTINUAS





GRÁFICA PARA DATOS CUALITATIVOS: GRÁFICA DE BARRAS Y DE PASTEL




MEDIA ARITMÉTICA O PROMEDIO PARA DATOS AGRUPADOS Y NO AGRUPADOS


MEDIANA PARA DATOS AGRUPADOS Y NO AGRUPADOS

La mediana para datos no agrupados Cuando una serie de datos contiene uno o dos valores muy grandes o muy pequeños, la media aritmética no es representativa. El valor central en tales problemas puede ser mejor descrito usando una medida de tendencia central llamada mediana.
La mediana (Me) es el punto medio de los valores de una serie de datos después de haber sido ordenados de acuerdo a su magnitud. Hay tantos valores antes que la mediana como posteriores en el arreglo de datos.
Ejemplo:
El contenido de cinco botellas de perfume seleccionadas de forma aleatoria de la línea de producción son (en ml.): 85.4, 85.3, 84.9, 85.4, y 84.0. ¿Cuál es la mediana de las observaciones muestreadas? 85.4
85.4
85.3 Me
84.9
84.0


Ejemplo:
Una muestra de los honorarios de paramédicos cargados por la clínica Baltimore reveló estas cantidades: $35, $29, $30, $25, $32, $35. ¿Cuál es la mediana?
25
29
30    ME
32
35
35



Cuando los datos se encuentran ya acoplados en una tabla de frecuencia, se podrá realizar el procedimiento anterior, o bien el siguiente:


TABLA DE FRECUENCIA.
Me = Mediana



Donde:

ni = Son las frecuencias de los datos.


La mediana para datos agrupados
Cuando los datos se encuentran agrupados en una distribución de frecuencia no conocemos los datos originales, por lo tanto es necesario estimar la mediana mediante los siguientes pasos:
1. Calcular el valor n / 2
2. Localizar el intervalo de clase donde se encuentra la mediana (intervalo mediano). Esto se hace encontrando el primer intervalo de clase donde la frecuencia acumulada es igual o mayor que n / 2.
3. Aplicando la siguiente fórmula con los valores del intervalo mediano:

Donde: Me = Mediana L i - 1 = Límite inferior de la clase de la mediana ni = Frecuencia de la clase de la mediana N = Total de datos o frecuencias N i - 1 = Frecuencia acumulada anterior a la mediana
a
Propiedades de la mediana

= Intervalo de clase de la mediana

jueves, 21 de abril de 2011

LA MODA

La moda para datos no agrupados

La moda (Mo) es la medida de tendencia central especialmente útil para describir mediciones de tipo ordinal y nominal.

La moda es el valor de la observación que aparece más frecuentemente.

Ejemplo:

El contenido de cinco botellas de perfume seleccionadas de forma aleatoria de la línea de producción son (en ml): 85.4, 85.3, 84.9, 85.4, y 84.0. ¿Cuál es la moda de las observaciones muestreadas? Mo) es la medida de tendencia central especialmente útil para describir mediciones de tipo ordinal y nominal.

La moda es el valor de la observación que aparece más frecuentemente.

Ejemplo:

El contenido de cinco botellas de perfume seleccionadas de forma aleatoria de la línea de producción son (en ml): 85.4, 85.3, 84.9, 85.4, y 84.0. ¿Cuál es la moda de las observaciones muestreadas?

Mo = 85.4 = 85.4

La moda para datos agrupados

Para datos agrupados en una distribución de frecuencia, la moda puede ser estimada por la marca de clase del intervalo que contenga la frecuencia de clase más grande. Si hay dos intervalos continuos con frecuencia máxima la moda será la media aritmética de las dos marcas de clase. Si hay dos o más intervalos no contiguos con frecuencia de clase máxima habrá dos o más modas que serás las marcas de clase de dichos intervalos.

LA MEDIA GEOMÉTRICA

Sea una distribución de frecuencias (x i , n i ). La media geométrica, que denotaremos por G. se define como la raíz N-ésima del producto de los N valores de la distribución.

Si los datos están agrupados en intervalos, la expresión de la media geométrica, es la misma, pero utilizando la marca de clase (Xi). xi = 0 entonces G se anula, y si la variable toma valores negativos se pueden presentar una gama de casos particulares en los que tampoco queda determinada debido al problema de las raíces de índice par de números negativos.

El empleo más frecuente de la media geométrica es el de promediar variables tales como porcentajes, tasas, números índices. etc., es decir, en los casos en los que se supone que la variable presenta variaciones acumulativas.
Ventajas e inconvenientes:
En su cálculo intervienen todos los valores de la distribución.
Los valores extremos tienen menor influencia que en la media aritmética.
Es única.
Su cálculo es más complicado que el de la media aritmética.
Además, cuando la variable toma al menos un

PROMEDIO MÓVIL

Consiste en obtener un valor futuro de la variable de estudio a partir de una serie histórica de los valores de la variable. El procedimiento consiste en obtener una media aritmética eligiendo de antemano el tamaño de la muestra e incorporando al promedio obtenido el valor de la variable siguiente hasta completar toda la serie histórica.

MEDIA ARMÓNICA

La media armónica, que representaremos por H, se define como sigue:
Obsérvese que la inversa de la media armónica es la media aritmética de los inversos de los valores de la variable. No es aconsejable en distribuciones de variables con valores pequeños. Se suele utilizar para promediar variables tales como productividades, velocidades, tiempos, rendimientos, cambios, etc.
Ventajas e inconvenientes:
En su cálculo intervienen todos los valores de la distribución.
Su cálculo no tiene sentido cuando algún valor de la variable toma valor cero.
Es única.

RANGO

Se denomina rango o rango estadístico al intervalo de menor tamaño que contiene a los datos; es calculable mediante la resta del valor mínimo al valor máximo; por ello, comparte unidades con los datos. Permite obtener una idea grosera de la dispersión estadística de los datos.
 x

 x

 x(i) indica que se trata del elemento i-ésimo de la serie de datos.
La notación
De este modo, el rango sería la diferencia entre el valor máximo (k) y el mínimo; o, lo que es lo mismo:
 W = x(k) x(1) En nuestro ejemplo, con cinco valores, nos da que W = 185-155 = 30.
(1) = 155,x(2) = 165,x(3) = 170,x(4) = 182,x(5) = 185

Es posible ordenar los datos como sigue:
1 = 185,x2 = 165,x3 = 170,x4 = 182,x5 = 155

Por ejemplo, para una serie de datos de carácter cuantitativo como es la estatura tal y como:

VARIANZA PARA DATOS AGRUPADOS Y NO AGRUPADOS

Varianza. Es la media aritmética de las desviaciones cuadradas de los datos respecto a la media de una distribución estadística Varianza para datos agrupados
La varianza se representa por S2


Propiedades de la varianza
1. La varianza será siempre un valor positivo o cero, en el caso de que las puntuaciones sean iguales.
2. Si a todos los valores de la variable se les suma un número la varianza no varía.
3. Si todos los valores de la variable se multiplican por un número la varianza queda multiplicada por el cuadrado de dicho número.

4. Si tenemos varias distribuciones con la misma media y conocemos sus respectivas varianzas se puede calcular la varianza total.

Observaciones sobre la varianza 1. La varianza, al igual que la media, es un índice muy sensible a las puntuaciones extremas.
2. En los casos que no se pueda hallar la media tampoco será posible hallar la varianza.
3. La varianza no viene expresada en las mismas unidades que los datos, ya que las desviaciones están elevadas al cuadrado.

PROBABILIDAD CLÁSICA, FRECUENCIAL Y SUBJETIVA

El concepto de probabilidad nace con el deseo del hombre de conocer con certeza los eventos futuros. Es por ello que el estudio de probabilidades surge como una herramienta utilizada por los nobles para ganar en los juegos y pasatiempos de la época. El desarrollo de estas herramientas fue asignado a los matemáticos de la corte. Con el tiempo estas técnicas matemáticas se perfeccionaron y encontraron otros usos muy diferentes para la que fueron creadas. Actualmente se continúo con el estudio de nuevas metodológicas que permitan maximizar el uso de la computación en el estudio de las probabilidades disminuyendo, de este modo, los márgenes de error en los cálculos

El enfoque de frecuencia relativa: También llamado Enfoque Empírico, determina la probabilidad sobre la base de la proporción de veces que ocurre un evento favorable en un número de observaciones. En este enfoque no ese utiliza la suposición previa de aleatoriedad. Porque la determinación de los valores de probabilidad se basa en la observación y recopilación de datos.

El enfoque subjetivo Dice que la probabilidad de ocurrencia de un evento es el grado de creencia por parte de un individuo de que un evento ocurra, basado en toda la evidencia a su disposición. Bajo esta premisa se puede decir que este enfoque es adecuado cuando solo hay una oportunidad de ocurrencia del evento. Es decir, que el evento ocurrirá o no ocurrirá esa sola vez. El valor de probabilidad bajo este enfoque es un juicio personal.

EVENTOS Y ESPACIOS MUESTRALES

Cada vez que realizamos un cálculo matemático para resolver un problema físico, estamos aplicando un modelo matemático a un fenómeno de la realidad.

El uso de conjuntos representados por diagramas de Venn, facilita la compresión de espacio muestral y evento, ya que el espacio muestral S, se puede equiparar con el conjunto universo, debido a que S contiene la totalidad de los resultados posibles de un experimento, mientras que los eventos E contienen solo un conjunto de resultados posibles del experimento, mientras que los puntos muestrales se equiparan con los elementos.
Vamos a suponer que el experimento que se realiza es el lanzamiento de un dado y queremos conocer ¿cuál es la probabilidad de que caiga un 3 o un 5? Si S contiene la totalidad de los resultados posibles, entonces S = {1, 2, 3, 4, 5, 6} puesto que el dado tiene 6 caras y si buscamos la probabilidad P de que caiga 3 o 5, esto constituye un evento entonces, E = {3, 5}.
El espacio muestral S, está representado por un rectángulo, este contiene eventos E representados a través de círculos y puntos muestrales. Dado que en E existen dos elementos y en S seis, la probabilidad P de que ocurra E es 2 de 6 y se obtiene al dividir el número de elementos en E sobre el número de elementos en S.
Espacio Muestral.- Se llama espacio muestral (E) asociado a un experimento aleatorio, el conjunto de todos los resultados posibles de dicho experimento. Al lanzar una moneda, el espacio muestral es E = {sale cara, sale sello} ó E = {c, s}.
Al lanzar un dado de seis caras, el espacio muestral es E = {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} ó E = {1, 2, 3, 4, 5, 6}
Al lanzar dos monedas, el espacio muestral es E = (c,c), (c,s), (s,c), (s,s).
Al lanzar tres monedas, el espacio muestral es E = (c,c,c), (c,c,s), (c,s,c), (c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s) Evento o Suceso: Se llama evento o suceso a todo subconjunto de un espacio muestral. Por ejemplo en el espacio muestral E = {1, 2, 3, 4, 5, 6} del lanzamiento de un dado, los siguientes son eventos:
1. Obtener un número primo A = {2, 3, 5} 2. Obtener un número primo y par B = {2} 3. Obtener un número mayor o igual a 5 C = {5, 6}

Como sabemos un fenómeno es algo observable y que en la mayoría de los casos es, además, cuantificable. Podemos decir que la estadística tiene por objeto el estudio y comportamiento de fenómenos. Estos fenómenos son a su vez el resultado de una experimentación, por lo que podemos hablar indistintamente de fenómenos y experimentos aleatorios. De forma específica se dice que un experimento aleatorio es aquel que puede concretarse en al menos dos resultados posibles, con incertidumbre en cuanto a cuál de ellos tendrá lugar.

REGLAS DE CONTEO: COMBINACIONES Y PERMUTACIONES

Análisis Combinatorio

El análisis combinatorio es la rama de las matemáticas que estudia los diversos arreglos o selecciones que podemos formar con los elementos de un conjunto dado, los cuales nos permite resolver muchos problemas prácticos, y nos va servir para resolver y comprender problemas sobre probabilidades.

Técnicas fundamentales del Análisis Combinatorio

En la mayoría de los problemas de análisis combinatorio se observa que una operación o actividad aparece en forma repetitiva y es necesario conocer las formas o maneras que se puede realizar dicha operación. Para dichos casos es útil conocer determinadas técnicas o estrategias de conteo que facilitarán el cálculo señalado. Estas técnicas son: la técnica de la multiplicación, la técnica de la permutación y la técnica de la combinación.

La Técnica de la Multiplicación

Según La técnica de la multiplicación, si hay m formas de hacer una cosa y hay n formas de hacer otra cosa, hay m x n formas da hacer ambas cosas:

En términos de fórmula:

Número total de arreglos = m x n

Esto puede ser extendido a más de dos eventos. Para tres eventos, m, n, y o:

Número total de arreglos = m x n x o

Ejemplo:

Un vendedor de autos quiere presentar a sus clientes todas las diferentes opciones con que cuenta: auto convertible, auto de 2 puertas y auto de 4 puertas, cualquiera de ellos con rines deportivos o estándar. ¿Cuántos diferentes arreglos de autos y rines puede ofrecer el vendedor?

Para solucionar el problema podemos emplear la técnica de la multiplicación, (donde m es número de modelos y n es el número de tipos de rin).

Número total de arreglos = 3 x 2

No fue difícil de listar y contar todos los posibles arreglos de modelos de autos y rines en este ejemplo. Suponga, sin embargo, que el vendedor tiene para ofrecer ocho modelos de auto y seis tipos de rines. Sería tedioso hacer un dibujo con todas las posibilidades. Aplicando la técnica de la multiplicación fácilmente realizamos el cálculo:

Número total de arreglos = m x n = 8 x 6 = 48

La Técnica de la Permutación

Es un conjunto de números o elementos (n) tomados de r en r a la vez y cuyos arreglos responden a un orden determinado. Nos interesa el orden en que estos se hacen.

Como vimos anteriormente la técnica de la multiplicación es aplicada para encontrar el número posible de arreglos para dos o más grupos. La técnica de la permutación es aplicada para encontrar el número posible de arreglos donde hay solo u grupo de objetos.
Donde: nPr es el número de permutaciones posible n es el número total de objetos r es el número de objetos utilizados en un mismo momento (1 en 1, 2 en 2, 3 en 3, etc.)


La Técnica de la Combinación

En una permutación, el orden de los objetos de cada posible resultado es diferente. Si el orden de los objetos no es importante, cada uno de estos resultados se denomina combinación. Por ejemplo, si se quiere formar un equipo de trabajo formado por 2 personas seleccionadas de un grupo de tres (A, B y C). Si en el equipo hay dos funciones diferentes, entonces si importa el orden, los resultados serán permutaciones. Por el contrario si en el equipo no hay funciones definidas, entonces no importa el orden y los resultados serán combinaciones. Los resultados en ambos casos son los siguientes:

Permutaciones: AB, AC, BA, CA, BC, CB

Combinaciones: AB, AC, BC

REGLAS DE LA PROBABILIDAD

Probabilidad axiomática.
Para dar esta definición es preciso, previamente, definir el concepto de s-álgebra de Boole.
Un s-álgebra de Boole, que representaremos por A=P(E), es una familia de sucesos no vacía, la cual contiene necesariamente los sucesos y E y que, además, es cerrada para las operaciones de complementación y de unión de infinitos subconjuntos numerables de E, sien E el espacio muestral del experimento.
En base a este concepto, la probabilidad axiomática se define como una función de conjunto, que llamaremos P, cuyo dominio es el s-álgebra de Boole y cuyo recorrido es el intervalo cerrado [0,1] si además satisface los tres axiomas siguientes (axiomas de Kolmogorov):

EVENTOS DEPENDIENTES, INDEPENDIENTES Y CONDICIONALES

Eventos Independientes

Dos o más eventos son independientes cuando la ocurrencia o no-ocurrencia de un evento no tiene efecto sobre la probabilidad de ocurrencia del otro evento (o eventos). Un caso típico de eventos independiente es el muestreo con reposición, es decir, una vez tomada la muestra se regresa de nuevo a la población donde se obtuvo.

Dos eventos, A y B, son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.

Por definición, A es independiente de B si y sólo si:A y B, son independientes si la ocurrencia de uno no tiene que ver con la ocurrencia de otro.

Por definición, A es independiente de B si y sólo si:A es independiente de B si y sólo si:

(PnA)=P(A)P(B)


Eventos dependientes

Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P (A|B) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.

Se debe tener claro que A|B no es una fracción.

P (A|B) = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)

Probabilidad Condicional = P(A y B) / P (B) o P (B|A) = P(A y B) / P(A)

Probabilidad Condicional

Si A y B son dos eventos en S, la probabilidad de que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B, y se denota:A y B son dos eventos en S, la probabilidad de que ocurra A dado que ocurrió el evento B es la probabilidad condicional de A dado B, y se denota:
P(AlB)

TEOREMA DE BAYES

El Teorema de BAYES se apoya en el proceso inverso del Teorema de la Probabilidad Total.

Teorema de la probabilidad total: a partir de las probabilidades del suceso A (probabilidad de que llueva o de que haga buen tiempo) deducimos la probabilidad del suceso B (que ocurra un accidente).
Vamos a aplicar la fórmula:

DIAGRAMA DE ÁRBOL

Un diagrama de árbol es una representación gráfica que ilustra las formas en las que se llevan a cabo las agrupaciones de elementos.
 C1, C2, C3 y C4 a las diferentes camisetas y P1, P2, P3, P4 y P5 a los distintos pantalones, obtendríamos el diagrama de árbol que se muestra en la figura 1.
Ejemplo:
Una persona tiene 4 camisas de color azul, negro, verde y beige; así mismo tiene 5 pantalones azul marino, negro, gris, beige y café. ¿De cuántas formas diferentes puede vestirse esta persona?

Si llamamos
Si contamos los resultados, comprobamos que obtenemos los 20 que indicaba el principio de la multiplicación.


En los diagramas de árbol se emplea una nomenclatura propia, que describimos a continuación:
 C1, C2, C3 y C4.
Árbol: es el diagrama completo.

Raíz: es el punto en el cual se origina el árbol. En la figura, la raíz sería el punto desde donde parten las cuatro flechas que llegan hasta las cuatro opciones de camiseta.

Ramas: son las distintas bifurcaciones. En la figura se corresponden con las flechas del gráfico.

Nodos o nudos: son los puntos desde los que surgen nuevas bifurcaciones. En la figura, los nodos serían los puntos en los que tenemos las 4 opciones de camiseta:
 P1, P2, P3, P4 y P5, 20 puntos en total).
Hojas: son los puntos finales, desde los cuales no surgen nuevas bifurcaciones. En la figura, las hojas son los puntos correspondientes a las 5 opciones de pantalón (todos los nombrados como

ESPERANZA MATEMÁTICA

En estadística la esperanza matemática (o simplemente esperanza) o valor esperado de una variable aleatoria es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso, durante el número de repeticiones de un fenómeno.
Por ejemplo, en un juego de azar el valor esperado es el beneficio medio.

Si todos los sucesos son de igual probabilidad la esperanza es la media aritmética.





PROBABILIDAD CLÁSICA, FRECUENCIAL Y SUBJETIVA

El concepto de probabilidad es muy antiguo y a lo largo de la historia se ha definido de distintas formas, aunque todas ellas mantienen en común las características básicas del concepto. En general cuando hablemos de probabilidad lo haremos siempre en referencia a la probabilidad de un suceso y la entenderemos como una medida cuantificada de la verosimilitud de ocurrencia de un suceso frente a los demás sucesos del experimento. Pero qué duda cabe que esta definición no es del todo buena, pues se utiliza el término verosimilitud para definir la probabilidad, cuando el mismo es un sinónimo de lo que se quiere definir. También podría hablarse del grado de incertidumbre en la ocurrencia de los resultados de un experimento. En cualquier caso la probabilidad de un suceso es una medida cuantificable que toma valores entre cero y uno a diferencia del concepto de posibilidad que es una medida cualitativa.

Probabilidad clásica o a priori (Regla de Laplace)

Si el experimento que estamos realizando da lugar a un espacio muestral E que es finito y cuyos resultados son mutuamente excluyentes y equiprobables o simétricos, entonces, la probabilidad del suceso A perteneciente a E se define como el cociente de los resultados favorables a A respecto del total de resultados posibles, este tipo de probabilidad es la que se emplea antes del evento, de ahí el nombre de a priori.

Probabilidad subjetiva.
Hay determinados experimentos aleatorios que no son susceptibles de realizarse y sus resultados no son equiprobables. Imaginemos que se quiere determinar la probabilidad: de que la economía de España crezca en el próximo año un 3%; que las acciones de una empresa se revaloricen en un 10% en un mes; que una empresa presente suspensión de pagos; que un nuevo producto sea bien acogido en el mercado; que ocurra un accidente nuclear; etc.
En estas circunstancias, donde los experimentos solo se pueden realizar una vez o ninguna o que se puedan repetir pero en condiciones distintas, no son aplicables ninguna de las dos definiciones dadas anteriormente, por lo que no es posible asignar probabilidades mediante un procedimiento objetivo, debiendo recurrir a procedimientos de tipo subjetivo, a opiniones de expertos. En estos casos la probabilidad expresa un grado de creencia o confianza
individual en relación con la ocurrencia o no de un determinado suceso. Se trata de un juicio personal sobre el resultado de un experimento aleatorio. Además debemos admitir la posibilidad de que distintos sujetos asignen probabilidades diferentes al mismo suceso. No obstante esta definición de probabilidad también satisface las tres propiedades vistas antes.

DISTRIBUCIÓN DE PROBABILIDAD DE UNA VARIABLE ALEATORIA DISCRETA

Recordemos inicialmente que existen las variables aleatorias, siendo aquellas que se asocian a la ocurrencia de un fenómeno aleatorio. Cuando una de estas variables aleatorias toma diversos valores, la probabilidad asociada a cada uno de tales valores puede ser organizada como una distribución de probabilidad, la cual es la distribución de las probabilidades asociadas a cada uno de los valores de la variable aleatoria.
 X como la cantidad de águilas observadas cuando se lanzan dos volados.
Las distribuciones de probabilidad pueden representarse a través de una tabla, una gráfica o una fórmula, en cuyo caso tal regla de correspondencia se le denomina función de probabilidad.
Consideraremos primero las distribuciones de probabilidad para variables discretas.


Por ejemplo:
Consideremos a la variable aleatoria
El espacio muestral es el conjunto {AA, AS, SA, SS} y se puede ver que la variable X puede tomar como valores 0, 1 y 2.
 
Calculando las probabilidades tenemos: P(de no observar águilas) = P(SS) = P(X=0) = ¼
P(de observar una águila) = P(SA È AS) = P(X=1) = 2/4
P(de observar dos águilas) = P(AA) = P(X=2) = ¼


Las propiedades de las distribuciones de variables discretas son dos, y que posteriormente, al hablar de las distribuciones de variables continuas, se repetirán de manera muy similar:
1. 0 £ P(X=x) £ 1. 2.

 conocemos el valor de la probabilidad, pero en la realidad esto no ocurre, es decir que no sabemos la probabilidad y lo que se hace es trabajar con estimaciones.
Hay que hacer notar que estas propiedades se enuncian suponiendo que

Precisamente esto nos lleva a modelos teóricos que estiman los resultados, los principales son los que a continuación se presentan. P(X=x)=1/6 para valores de x=1,2,3,4,5,6.
Modelos de distribuciones de probabilidad de variables discretas
Uniforme.
 Es la distribución donde todos los eventos elementales tienen la misma probabilidad. Por ejemplo: tirar un dado, donde la función
 Excel que proporciona sus valores es DISTR.HIPERGEOM.
Binomial.
Es la que maneja la distribución de la probabilidad de obtener cierta cantidad de éxitos al realizar una cantidad de experimentos con probabilidad de éxito constante y con ensayos independientes.

Geométrica.
Es la distribución de la probabilidad de realizar cierto número de experimentos antes de obtener un éxito.

Hipergeométrica.
Es similar a la binomial, pero con un tamaño de muestra grande en relación al tamaño de la población. La función en el programa
 Excel que da los valores de la distribución es POISSON.
De Poisson. Es la distribución de la probabilidad de que ocurra un evento raro en un periodo de tiempo, un espacio o un lugar. La función en el programa
SP(X=x) = 1, o que es lo mismo: la suma de todas las probabilidades de los eventos posibles de una variable aleatoria es igual a la unidad.