Introducción a la Estadística Matemática
Introducción a la Estadística matemática
Humberto Llinás Solano
Llinás Solano, Humberto.
Introducción a la estadística matemática / Humberto Llinás Solano. — Barranquilla, Col. : Editorial Universidad del Norte, reimp., 2018.
xxxi, 205 p. : il., tablas ; 24 cm.
Incluye referencias bibliográficas (p.197-202) e índice.
ISBN 978-958-741-443-1 (impreso)
ISBN 978-958-741-922-1 (epub)
I. Estadística matemática. II. Probabilidades. 1. Tít.
(519.2 L791em 23 ed.) (CO-BRUNB)
Vigilada Mineducación
www.uninorte.edu.co
Km 5, vía a Puerto Colombia, A.A. 1569
Área metropolitana de Barranquilla (Colombia)
www.ecoeediciones.com
Carrera 19n.° 63C-32
Bogotá (Colombia)
© Universidad del Norte, 2018 Humberto Llinás Solano
Primera edición, abril de 2014
Primera reimpresión, julio de 2016
Segunda reimpresión, enero de 2018
Coordinación editorial
Zoila Sotomayor O.
Maquetación
Humberto Llinás Solano
Procesos técnicos
Munir Kharfan de los Reyes
Diseño de portada
Andrés Racedo
Corrección de textos
Henry Stein
Desarrollo ePub
Lápiz Blanco S.A.S.
Hecho en Colombia
Made in Colombia
© Reservados todos los derechos. Queda prohibida la reproducción total o parcial de esta obra por cualquier medio reprográfico, fónico o informático, así como su transmisión por cualquier medio mecánico o electrónico, fotocopias, microfilm, offset, mimeográfico u otros sin autorización previa y escrita de los titulares del copyright. La violación de dichos derechos puede constituir un delito contra la propiedad intelectual.
El autor
HUMBERTO LLINÁS SOLANO
Licenciado en Ciencias de la Educación, con énfasis en Matemáticas, Física y Estadística de la Universidad del Atlántico (Colombia). Magister en Matemáticas, convenio Universidad del Valle-Universidad del Norte (Colombia). Doctor en Estadística (Dr. rer. nat.) de la Universidad Johannes Gutenberg de Mainz (Alemania). Desde 1998 se desempeña como profesor de tiempo completo de la Universidad del Norte y forma parte de los grupos de investigación de dicha institución Matemáticas y Enfermedades tropicales. Autor de los siguientes textos1:
• Estadística descriptiva y distribuciones de probabilidad (2005, [61])
• Estadística inferencial (2006, [62])
• Una visión histórica del concepto moderno de integral (como editor, 2006, [52])
• Medida e integración (2007, [63])
• Applets de estadística (2007, [65])
• Introducción a la estadística con aplicaciones en Ciencias Sociales (2012, [66])
• Procesos estocásticos con aplicaciones (como coautor, 2013, [1])
• Introducción a la teoría de la probabilidad (2014, [67])
1Se cita el título del texto o applet, el año de publicación y la referencia bibliográfica respectiva. Cuando es necesario, un comentario adicional.
Contenido
Prefacio
Introducción
Convenciones y preliminares
1 Preliminares
1.1 Algunas distribuciones de probabilidad
1.1.1 Distribuciones especiales
1.1.2 Relaciones entre algunas distribuciones
1.2 Vectores aleatorios discretos y continuos
1.3 Variables aleatorias independientes
1.4 Convoluciones
1.5 Teoremas de transformación
1.6 Teoremas de convergencias
1.6.1 Propiedades que se cumplen casi seguro
1.6.2 Tipos de convergencia
1.6.3 Ley de los grandes números
1.7 Teorema central del límite
Breve biografía de J. Bernoulli y A. N. Kolmogorov
Ejercicios
2 Distribuciones muestrales
2.1 Modelos estadísticos
2.2 Estadísticos y distribuciones muestrales
2.2.1 Estadístico
2.2.2 Distribución muestral
2.3 Distribución muestral de la media
2.4 Distribución muestral de la proporción
2.5 Distribución muestral de la diferencia de medias
2.5.1 El caso de muestras independientes
2.5.2 El caso de muestras dependientes o pareadas
2.6 Distribución muestral de la diferencia de proporciones
2.7 Distribución muestral de la varianza
2.8 Distribución muestral de la razón de varianzas
Breve biografía de H. Cramér y W. Gosset
Ejercicios
3 Estimación
3.1 Términos básicos
3.2 Criterios para examinar estimadores
3.2.1 Insesgo
3.2.2 Eficiencia
3.2.3 Varianza mínima
3.2.4 Consistencia
3.2.5 Suficiencia
3.3 Métodos clásicos de estimación
3.3.1 Método de momentos
3.3.2 Método de máxima verosimilitud (ML-estimación)
Breve biografía de R. Fisher
Ejercicios
4 Intervalos de confianza
4.1 Introducción
4.1.1 Intervalo de confianza
4.1.2 Intervalo de confianza como estimación
4.2 Intervalos de confianza para la media
4.3 Intervalo de confianza para la proporción
4.4 Intervalos de confianza para la diferencia de dos medias (muestras independientes)
4.4.1 Primer caso: varianzas poblacionales conocidas o desconocidas y muestras grandes
4.4.2 Segundo caso: varianzas poblacionales iguales, desconocidas y muestras pequeñas
4.4.3 Tercer caso: varianzas poblacionales diferentes, desconocidas y muestras pequeñas
4.5 Intervalos de confianza para la diferencia de dos medias (muestras dependientes o pareadas)
4.6 Intervalo de confianza para la diferencia de dos proporciones poblacionales
4.7 Intervalos de confianza para la varianza
4.8 Intervalos de confianza para la razón de varianzas
Breve biografía de K. Pearson
Ejercicios
5 Pruebas de hipótesis
5.1 Preliminares
5.1.1 Hipótesis estadística, nula y alternativa
5.1.2 Pasos para realizar una prueba de hipótesis
5.1.3 Criterio del error de tipo I
5.1.4 Criterio del P-valor
5.1.5 Criterio de los errores de tipo I y II
5.1.6 Medición de la potencia de un contraste
5.2 Pruebas de la razón de verosimilitud
5.2.1 Pasos para la prueba de la razón de verosimilitud
5.2.2 Pasos para la LR-prueba en problemas concretos
5.2.3 Ejemplos
Breve biografía de J. Neyman
Ejercicios
A Apéndice de resultados
B Apéndice de tablas
1. Distribución binomial
2. Distribución de Poisson
3. Distribución normal estándar
4. Valores críticos para la distribución t
5. Distribución chi-cuadrada
6. Valores críticos para la distribución F
7. Algunas distribuciones discretas
8. Algunas distribuciones continuas
9. Resumen de distribuciones muestrales e intervalos
Bibliografía y referencias
Prefacio
No habrá desarrollo sin educación ni progreso sin cultura.
(ALBERTO ASSA)2
Acerca de este libro
Este libro fue desarrollado a partir de un conjunto de notas de clases sobre la asignatura Estadística Matemática en los programas de postgrados Estadística eIngeniería de la Universidad del Norte, pero está dirigido a un público amplio.
Estructura
Este texto consta de:
• Cinco capítulos. En el capítulo 1 se hace un repaso general de los conceptos básicos de la teoría de probabilidad; el 2 lo iniciamos con algunos conceptos básicos y terminologías referentes a las distribuciones de algunos estadísticos; en el 3 planteamos la teoría concerniente a las estimaciones y algunos métodos de estimación; en el 4 explicamos la estimación por intervalos; finalmente, en el 5 exponemos los diferentes procedimientos de pruebas de hipótesis.
Cada sección (y algunos capítulos) comienza con el acontecimiento histórico más importante relacionado con cada capítulo.
Al final de cada capítulo se presenta una serie de ejercicios correspondientes a los temas desarrollados en el mismo. Antes del primer capítulo se introduce una lista de las notaciones más usuales y especiales presentadas en el texto. Obviamente, algunas de las secciones y temas pueden ser omitidos sin que esto haga perder continuidad; ello está sujeto al criterio de la persona que dirija el curso.
Además de desarrollar matemáticamente los aspectos más importantes relacionados con la teoría de la probabilidad, también se presentan muchas citas originales y sugerencias acerca del desarrollo histórico de la misma, así como sus fuentes correspondientes. Por motivos claros, no fue posible presentar una representación detallada de toda la historia. De todas formas, espero que los datos suministrados le permitan al lector tener un enfoque general del desarrollo histórico de la misma, para que se interese por los datos originales.
Para no olvidar la importancia del aspecto humano, se presentan biografías breves de algunos matemáticos (en algunos casos con sus respectivas fotografías) que han contribuido significativamente al desarrollo de los temas tratados en este texto.
• Dos apéndices. En el primero se resumen los resultados más importantes del análisis matemático que se aplicaron en los teoremas introducidos en el texto; en el segundo se presentan las tablas estadísticas de uso frecuente, como la binomial, la de Poisson, la normal, t de Student, chicuadrada y F de Fisher.
• Una bibliografía en la que se relacionan los documentos y libros consultados, citados o no, usados para la elaboración de este texto.
• Un índice de los términos más importantes utilizados en el texto.
Signos convencionales utilizados en este texto
• En este texto se citan afirmaciones de la siguiente manera:
▷ Números de dos niveles y encerrados en paréntesis; por ejemplo (2.1), significa números de las ecuaciones. El primer número corresponde al capítulo donde está la ecuación, y el segundo, al número de la ecuación dentro del capítulo.
▷ Todos los números de dos niveles y sin paréntesis (por ejemplo, 2.2) hacen referencia a secciones, tablas y figuras. El primer número alude al capítulo donde está la sección, tabla o figura, y el segundo, al número de la sección, tabla o figura dentro del capítulo.
▷ Todos los números de tres niveles (por ejemplo, 2.3.4) se refieren a definiciones, axiomas, teoremas y ejemplos del texto (como antes, el primer número corresponde al capítulo, el segundo, a la sección de ese capítulo, y el tercero al número de la definición, axioma, teorema y ejemplo dentro de la sección).
▷ Todos los números de tres niveles y acompañados de una letra (por ejemplo, 2.3.1a) hacen referencia a una parte específica de una definición, axioma, teorema y ejemplo dentro del texto, como por ejemplo, a la parte (a).
▷ Números sin paréntesis aluden a pies de páginas y números de ejercicios.
• Literaturas y referencias se citan con un número dentro de un corchete, e inclusive, a veces, colocadas después del nombre del autor referenciado; por ejemplo, LLINÁS [61]. En algunas ocasiones, las citas bibliográficas aparecen con más detalles; por ejemplo, LLINÁS [61, pág. 132] significa que lo referenciado se encuentra en la página 132 de [61].
• En muchas ocasiones, el nombre y apellido de los matemáticos citados se acompaña de las fechas en que nacieron y murieron (si ese es el caso) y la edad a la que fallecieron. Por ejemplo, JACOB BERNOULLI (1654-1703;49) significa que este matemático nació en 1654 y murió en 1703, a la edad de 49 años.
• Teoremas con una frase y/o literatura(s) en paréntesis significa que dicho teorema se conoce con ese nombre y su correspondiente demostración se puede encontrar en la(s) literatura(s) citada(s).
• Teoremas, lemas, definiciones, etc., con un nombre de un matemático y/o fecha y/o literatura en paréntesis significa que el correspondiente resultado fue introducido por ese matemático en la fecha indicada y publicado en la literatura citada.
• Los símbolos ◀ y ■ indican los finales de un ejemplo y de una demostración, respectivamente.
• Algunos apuntes históricos, bibliografías y fotos fueron tomados de ELSTRODT [20] y de la página web citada en [106], respectivamente.
Al lector
Estimado lector:
Trabajé con mucha dedicación para que este libro resultara eficaz a nivel pedagógico y no tuviera errores.
No obstante, si tiene preguntas, observaciones o sugerencias, por favor, póngase en contacto conmigo a través de esta dirección: hllinas@uninorte.edu.co.
Agradecimientos
Mi gratitud a los profesores que, de alguna forma u otra, ayudaron en la revisión de este texto mediante sugerencias y recomendaciones pertinentes.
De igual manera, expreso sinceros agradecimientos a la Editorial Universidad del Norte por darme la oportunidad de publicarlo.
Agradecimiento especial a Greyci y a Brian por escribir gran parte del material en el computador con ayuda del programa MiKTeX.
Finalmente, agradezco a mi madre, esposa e hijos por su apoyo, paciencia, comprensión, amor y ayuda para hacer de este libro una realidad. Lo dedico a ellos.
También lo dedico a los profesores Alberto Assa y Peter Paul Konder y a mi padre, que descansen en paz.
2El profesor Assa nació en Constantinopla (Turquía) en 1909 y falleció en Barranquilla (Colombia) el 14 de marzo de 1996, a los 87 años. Fundó el Instituto de Lenguas Modernas (1952), la organización El Concierto del Mes (1957), la Escuela Superior de Idiomas, la Universidad Pedagógica del Caribe, el Instituto Pestalozzi, la Facultad de Educación de la Universidad del Atlántico y el Instituto Experimental del Atlántico José Celestino Mutis (1970). También fundó el sello editorial Instituto de Lenguas Modernas.
Introducción
Statistics is the grammar of science. (K. PEARSON [76])
Breve sinopsis histórica
El famoso trabajo de T. BAYES (1702-1761;59) publicado en 1763 es conocido como el primero que utiliza la teoría de la probabilidad como un instrumento de razonamiento inductivo, es decir, para argumentar a partir de lo particular a lo general, o de la muestra a la población. Fue publicado postumamente, y no se sabe cuáles hubiesen sido las opiniones de Bayes al respecto si hubiese vivido más tiempo. Se sabe que la razón de su duda para no publicarlo fue que no estaba satisfecho con el postulado requerido para el famoso teorema de Bayes. Aunque muchos rechazan este postulado, también muchos reconocen su grandeza en el análisis de los problemas que debía resolver, debido a que siempre proponía soluciones ingeniosas.
Mientras que BAYES se destacó en la penetración lógica, P. LAPLACE (1749-1827;78) fue inigualable por su dominio de la técnica analítica. Admitió el principio de la probabilidad inversa, fuertemente criticado, en los fundamentos de sus investigaciones. Por otro lado, a él se debe el principio de que la distribución de una cantidad compuesta de partes independientes muestra toda una serie de características (la media, varianza y otras medidas) que son simplemente las sumas de cada característica de las distribuciones de las partes. Esto parece haber sido descubierto posteriormente e independientemente por T. THIELE (1838-1910;72) en 1889, pero los métodos de LAPLACE eran matemáticamente más poderosos que los de THIELE y mucho más influyentes en el desarrollo del tema en Francia e Inglaterra. Un resultado directo del estudio de LAPLACE de la distribución de la resultante de numerosas causas independientes era el reconocimiento de la ley normal de error, ley que generalmente es más atribuida, y con justa razón, a su gran contemporáneo C. GAUSS (1777-1855;78)
GAUSS, por otra parte, se acercó al problema de la estimación estadística en forma empírica, planteando el problema de la estimación no solo en términos de probabilidades sino en términos de otros parámetros cuantitativos. Para este propósito trató de aplicar el método de máxima verosimilitud, aunque intentó derivar y justificar este método con el principio de la probabilidad inversa. Este método fue cuestionado desde un principio porque no tenía conexión real con la probabilidad inversa. Además, GAUSS perfeccionó el ajuste sistemático de las fórmulas de regresión, simple y múltiple, por el método de los mínimos cuadrados (véase [33]), el cual, en los casos en los que sea apropiado, es un ejemplo particular del método de máxima verosimilitud.
En 1872 el geodosista alemán F. HELMERT (1843-1917;74) dio a conocer un buen libro sobre mínimos cuadrados (cuya segunda edición se publicó en 1907), el cual llegó a ser un texto estándar en su época. La primera distribución importante en las pruebas modernas de significancia fue la chi-cuadrada. Fue descubierta por HELMERT como una distribución de la varianza muestral para una distribución normal. Este descubrimiento y otros de sus trabajos fueron descritos en alemán, incluyendo los de él mismo, pero fue desconocido en inglés. La distribución chi-cuadrada fue redescubierta más tarde por K. PEARSON (1857-1936;79) en 1900. Se considera que esta es su gran contribución a los métodos estadísticos.
El estudio de las distribuciones de muestreo exactos de estadística comienza con los trabajos de W. GOSSET (1876-1937;61). En 1905 contactóa K. PEARSON para ir a estudiar en el laboratorio de este, el Galton Eugenics Laboratory, en la University College, en el periodo 1906-07. Durante este tiempo trabajó sobre la convergencia asintótica de Poisson a la binomial y la distribución muestral de la media, desviación estándar y coeficiente de correlación. Más tarde publicó tres importantes trabajos sobre las investigaciones que había realizado durante este año en el laboratorio de PEARSON. Es importante señalar que GOSSET siempre firmó bajo el seudónimo de Student, lo que explica por qué su nombre es menos conocido a pesar de sus importantes resultados en estadística. En 1908 publica su trabajo The Probable Error of a Mean (véase [99]). Allí deriva la distribución t de Student y, por ende, la prueba t al analizar muestras pequeñas para el control de calidad en la fabricación de cervezas. GOSSET descubrió la forma de la distribución t mediante una combinación de trabajos empíricos y matemáticos con números aleatorios, una aplicación inicial del método de Monte Carlo.
También es relevante mencionar los trabajos realizados por R. FISHER (1890-1962;72). En 1919 se convirtió en el estadístico de la Estación Experimental de Rothamsted, cerca de Harpenden (Hertfordshire), e hizo trabajos estadísticos asociados a los experimentos de cultivos de plantas realizadas en ella. Su libro Statistical Methods for Research Workers, publicado en 1925 (véase [27]), fue impreso durante más de 50 años. Sus experimentos de reproducción dieron lugar a teorías sobre la genética dominante que se publicaron en The Genetical Theory of Natural Selection en 1930 (véase [28]). Investigó la relación de los genes de diferentes características y desarrolló métodos de análisis multivariante para responder esas inquietudes. Otro de sus logros más importantes fue el desarrollo del concepto de análisis de la varianza (ANOVA) y el descubrimiento de la llamada distribución F de FISHER3.
Hoy en día se han desarrollado muchas técnicas estadísticas que se aplican en diferentes campos del conocimiento, lo que hace de la Estadística una ciencia muy importante en el desarrollo de la vida.
Listado de algunos estadísticos y probabiĺsticos
Para ver biografías de los personajes listados abajo (organizados en orden alfabético de acuerdo con su primer apellido) puede consultarse [106](b). Al final de los capítulo de este texto se presentan las de J. BERNOULLI, A. KOL-MOGOROV, C. CRAMÉR, R. FISHER, K. PEARSON y J. NEYMAN.
Oskar Johann Viktor Anderson (1887-1960; 73).
Thomas Bayes (1702-1761;59).
Jacob (Jacques) Bernoulli (1654-1705;51).
Irenée-Jules Bienaymé (1796-1878;82)
Ladislaus Josephowitsch Bortkiewicz (1868-1931;63).
Pafnuti Lvóvich Chebyshev (1821-1894;73)
William Gemmell Cochran (1909-1980;71).
Carl Harald Cramér (1893-1985;92).
George Dantzig (1914-2005;91).
Florence Nightingale David (1909-1993;84).
Francis Ysidro Edgeworth (1845-1926;81).
William Feller (1906-1970;64).
Sir Ronald Aylmer Fisher (1890-1962;72).
Francis Galton (1822-1911;89).
Boris Vladimirovich Gnedenko (1912-1995;83).
William Sealy Gosset (1876-1937;61).
Herman Hollerith (1860-1929;69).
William Stanley Jevons (1835-1882;47).
David George Kendall (1918-2007;89).
Maurice George Kendall (1907-1983;76).
Aleksandr Yakovlevich Khinchin (1894-1959;65).
Andrey Nikolaevich Kolmogorov (1903-1987;84).
Pierre-Simon Laplace (1749-1827;78)
Paul Pierre Lévy (1886-1971;85).
Wilhelm Lexis (1837-1914;77).
Yuri Vladimirovich Linnik (1915-1972;57).
Eugene Lukacs (1906-1987;81).
Jerzy Neyman (1894-1981;87).
Florence Nightingale (1820-1910;90).
Karl Pearson (1857-1936;79).
Egon Sharpe Pearson (1895-1980;85).
K. C. Sreedharan Pillai (1920-1985;65).
Siméon Denis Poisson (1781-1840;59).
Lambert Adolphe Jacques Quetelet (1796-1874;78).
Henry Scheffé (1907-1977;70).
Walter Andrew Shewhart (1891-1967;76).
Evgeny Evgenievich Slutsky (1880-1948;68).
Jan Tinbergen (1903-1994;91).
John Wilder Tukey (1915-2000;85).
Abraham Wald (1902-1950;48).
Walter Frank Raphael Weldon (1860-1906;46).
Samuel Stanley Wilks (1906-1964;58).
Wilhelm Winkler (1884-1984;100).
John Wishart (1898-1956;58).
Jacob Wolfowitz (1910-1981;71).
Frank Yates (1902-1994;92).
William John Youden (1900-1971;71).
George Udny Yule (1871-1951;80).
Sociedades estadísticas
Para una descripción detallada de cada sociedad puede consultarse [106](b).
American Statistical Association:
http://www.amstat.org/
Australian Statistical Society:
http://www.statsoc.org.au/
Bulgarian Statistical Society:
http://www.math.bas.bg/~statlab/bsd/
Canadian Statistical Society:
http://www.ssc.ca/
Estonian Statistical Society:
http://www.stat.ee/
Finnish Statistical Society:
http://www.tilastoseura.fi/index_en.html
German Statistical Society:
http://www.dstatg.de/de/startseite/
Korean Statistical Society:
http://www-history.mcs.stand.ac.uk/Societies/Korean_Statistical.html
Royal Statistical Society:
http://www-history.mcs.stand.ac.uk/Societies/Royal_Statistical.html
Statistical Society of Australia:
http://www-history.mcs.stand.ac.uk/Societies/Australian_Statistical.html
Statistical Society of Canada:
http://www-history.mcs.stand.ac.uk/Societies/Canadian_Statistical.html
Swiss Statistical Society:
http://www-history.mcs.stand.ac.uk/Societies/Swiss_Statistical.html
Applets de estadística
En [65] se pueden encontrar diferentes applets relacionados con algunas distribuciones discretas y continuas, y de temas relacionados con el teorema central del límite, la ley de los grandes números, la regresión lineal y tipos de muestreo.
3Se afirma que la distribución F se debe al matemático y estadístico estadounidense GEORGE W. SNEDECOR (1881-1974;93) y que la bautizó F en honor a R. A. FISCHER.
Convenciones y preliminares
Abreviaciones lógicas, abreviaturas y notaciones
Símbolo: |
Significado: |
A B |
De la afirmación A sigue la afirmación B |
A B |
La afirmación A es equivalente a la afirmación B |
A := B |
Por definición, A es igual a B |
A : B |
Por definición, A es válida si y solo si B es válida |
∀ B |
Para todo B |
■ |
Fin de una demostración |
◀ |
Fin de un ejemplo |
T., L., C., D., P., |
Teorema, lema, corolario, definición, proposición |
def., sec. |
Definición, sección |
resp. |
Respectivamente |
hip. ind. |
Hipótesis de inducción |
teo., prop., ec. |
Teorema, proposición, ecuación |
rac. |
Racional |
etc. |
Etcéetera, así sucesivamente |
n → ∞ |
n tiende hacia el infinito |
A B |
B se obtiene de A aplicando E |
Aquí E representa un teorema, un corolario, una definición, una igualdad, una desigualdad, una expresión, etc., que ya hemos dado (demostrado). Por ejemplo:
Notación: |
Significado: |
A B |
Teorema 1.2.3 |
A B |
Desigualdad, igualdad o expresión (1) |
A B |
Parte (a) de un teorema, lema, definición, etc |
A B |
Hipótesis de inducción. |
Significados análogos tienen notaciones como, por ejemplo, , etc.
Conjuntos y operaciones de conjuntos
Sean Ω y Ω′ cualesquiera conjuntos. Entonces
x ∈ Ω |
x es elemento de Ω |
|
x Ω |
x no es elemento de Ω |
|
#Ω |
cardinalidad de Ω, número de elementos de Ω |
|
A ⊆ Ω |
(A es subconjunto de Ω) |
|
A ⊂ Ω |
(A es subconjunto propio de Ω) |
|
{x/c(x)} |
el conjunto de todos los x tales que cumplen la condición c(x) |
|
Ω = Ω′ |
(Ω y Ω′ tienen exactamente los mismos elementos) |
|
Ω Ω′ |
(Ω y Ω′ no tienen exactamente los mismos elementos) |
|
:= |
{A/A ⊆ Ω} (conjunto potencia o partes de Ω) |
|
∅ |
:= |
(conjunto vacío) |
Sea C un sistema o una familia de subconjuntos de Ω, es decir, . Entonces
En el caso C = ∅, sean , donde I es cualquier conjunto de índices, entonces escribiremos también
Si I = {1,...,n}, hablaremos de una intersección respectivamente unión FINITA, y también escribiremos
pero si I = ℕ, entonces hablaremos de una intersección respectivamente unión ENUMERABLE, y en este caso también escribiremos
Dos subconjuntos, A y B, de Ω se llaman DISYUNTOS si A ∩ B = ∅. Para cualquier conjunto de índices I, una familia (Ai)i∈I de conjuntos de C se llama DISYUNTA DOS A DOS si Ai ∩ Aj = ∅ para todo i, j ∈ I con i j. La familia (Ai)i∈I ∈ C es una DESCOMPOSICIÓN de Ω si Ai = Ω y esa familia es disyunta dos a dos.
Diremos que Ai es una UNIÓN DISYUNTA si la familia (Ai)i∈I es disyunta dos a dos.
La notación (x, y) representa a una pareja ordenada. Definimos el producto cartesiano A1 × ··· × An de los conjuntos A1,...,An ⊆ Ω como
siendo (x1,...,xn) una n tupla ordenada. En particular, si Ai = A para todo i = 1,...,n, entonces, en vez d Ai escribiremos simplemente An, es decir, An := A × ··· × (n veces)
Para cualquier conjunto Ω y cualesquiera , con i ∈ I, se cumplen las llamadas LEYES DE DE MORGAN:
Conjuntos numéricos e intervalos
Designaremos con
ℕ := {1, 2, 3, ...} | El conjunto de los números naturales |
ℕ0 := ℕ ∪ {0} | El conjunto de los números naturales con el cero |
ℤ | El conjunto de los números enteros |
ℚ | El conjunto de los números racionales |
ℝ | El conjunto de los números reales |
ℂ | El conjunto de los números complejos |
ℝ+ := {x ∈ ℝ/x > 0} |
El conjunto de los números reales positivos (análogamente para ℤ+ y ℚ+) |
El conjunto de los números reales no negativos (análogamente para ) |
Sean a, b ∈ ℝ con a ≤ b. Entonces
(a, b) := {x ∈ ℝ/a < x < b} | El intervalo abierto de a hasta b |
(a, b] := {x ∈ ℝ/a < x ≤ a} | El intervalo a, b semiabierto en a |
[a, b) := {x ∈ ℝ/a ≤ x < b} | El intervalo a, b semiabierto en b |
[a, b] := {x ∈ ℝ/a ≤ x ≤ b} | El intervalo cerrado de a hasta b |
Sean M y N := {a1,...,an} conjuntos numéricos. Entonces
Supremo, ínfimo de M |
|
Supremo, ínfimo de N |
|
Máximo, mínimo de N |
simbolizaremos la llamada PARTE ENTERA de . Con |x| simbolizaremos el VALOR ABSOLUTO de .
Diremos que un número real x es POSITIVO si x > 0, NEGATIVO, si x < 0, NO POSITIVO, si x ≤ 0, y NO NEGATIVO, si x ≥ 0.
Co simbolizaremos la unidad imaginaria compleja y con Ref z y Im z las PARTES REAL e IMAGINARIA de un número complejo z, respectivamente.
Sucesiones numéricas y de conjuntos
Designaremos con
Sucesión numérica de aa,a2,a3,... |
|
Supremo, ínfimo de la sucesión (an)n∈ℕ |
|
Subsucesión de (an)n∈ℕ |
|
La sucesión (an)n∈ℕ converge hacia a |
|
Límite superior, límite inferior de (an)n∈ℕ |
|
La sucesión (an)n∈ℕ diverge hacia ∞ |
|
La sucesión (an)n∈ℕ diverge hacia −∞ |
|
La sucesión (an)n∈ℕ es creciente, decreciente y converge hacia a cuando n → ∞ |
Los símbolos4 ∞ y −∞ no son números. Por esta razón, no podemos hacer cálculos con ellos, pero podemos convenir las siguientes reglas aritméticas:
Para dos sucesiones de números reales, con , sean
Análogamente, para cualquier sucesión de subconjuntos de un conjunto Ω y cualquier , las notaciones tienen, respectivamente, un significado análogo a las notaciones introducidas para una sucesión numérica .
Funciones
Designaremos con f : A → B una función5 o aplicación de A en B. Además6,
y = f(x), x → f(x) | A cada x ∈ A le corresponde un único y ∈ B |
f(A) | Conjunto imagen de A bajo f |
f−1(B) | Conjunto preimagen de B bajo f |
f ≡ c | f es la función constante c |
Supremo de f | |
Infimo de f | |
Máximo de f | |
Mínimo de f | |
Límite de f(x) cuando x tiende a c, donde | |
Límite lateral izquierdo de f(x) cuando x < x0 | |
Límite lateral derecho de f(x) cuando x > x0 | |
lim f(x) = ∞, lim g(x) = −∞ | f diverge hacia ∞, g diverge hacia −∞ |
Derivada de f en el punto ζ0 | |
Derivada lateral derecha (izquierda) de f en ζ0 | |
n-ésima derivada de f en el punto ζ0 | |
Sucesión de funciones f1,f2,... |
Probabilidad
Símbolo: |
Significado: |
X D | X tiene la distribución D |
X Y | X y Y tienen la misma distribución |
Distribución uniforme discreta |
|
B(1, P) | Distribución de Bernoulli |
B(n, p) | Distribución binomial |
H(n, M, N) | Distribución hipergeométrica |
P(α) | Distribución de Poisson |
Bn(n, p) | Distribución binomial negativa |
Distribución geométrica |
|
Distribución uniforme continua |
|
N(μ, σ2) | Distribución normal unidimensional |
Función gamma, distribución gamma |
|
εxp(β) | Distribución exponencial |
X2(n) | Distribución chi-cuadrada |
Distribución t de Student |
|
F(n, m) | Distribución F de Fisher |
Distribución normal bidimensional |
|
E(X|Y), E(X|Y = y) | Esperanza condicional |
V(X|Y), V(X|Y = y) | Varianza condicional |
Media aritmética o empírica (def. 1.4.3) |
|
Varianza empírica (def. 1.4.3) |
|
Convergencia en media de orden r (def. 1.6.5) |
|
“E” P-c.s. |
La propiedad E se cumple casi seguro (def. 1.6.3) |
Convergencia casi segura (def. 1.6.6) |
|
Convergencia estocástica o en probabilidad (def. 1.6.7) |
|
Xn es asintóticamente equivalente a Yn |
|
Convergencia en distribución (def. 1.6.11) |
4 El símbolo ∞ fue introducido por JOHN WALLIS (1616-1703;87), profesor de la Universidad de Oxford. Fue de uno de los primeros matemáticos que sospechó el concepto de límite.
5 La palabra “functio” fue propuesta por primera vez por GOTTFRIED WILHELM LEIBNIZ (1646-1716;70) y JOHANN BERNOULLI (1667-1748;81).
6 El símbolo y = f(x) fue introducido por LEONHARD EULER (1707-1783;76).
CAPÍTULO 1
Preliminares
1.1 Algunas distribuciones de probabilidad
Je reviens actuellement au cas où les chances p et q de deux événements E et F sont constantes, et je vais considérer la probabilité que dans un nombre μ on m + n d’épreuves, E arrivera au moins m fois et F au plus n fois. Cette probabilité ... la désignant par P ... Je suppose que qF1μFμ...qμω ...... nμOISSON80