Introducción a la
Teoría de la probabilidad
Introducción a la
Teoría de la probabilidad
Humberto Llinás Solano
Llinás Solano, Humberto.
Introducción a la teoría de probabilidad / Humberto Llinás Solano. -- Barranquilla, Col. : Editorial Universidad del Norte, reimp., 2016.
xxxiv, 248 p. : il., tablas ; 24 cm.
Incluye referencias bibliográficas (p. 239-243) e índice.
ISBN 978-958-741-421-9 (impreso)
ISBN 978-958-741-925-2 (epub)
I. Probabilidad. 1. Tít.
(519.2 L791 23 ed.) (CO-BRUNB)
Vigilada Mineducación
www.uninorte.edu.co
Km 5, vía a Puerto Colombia, A.A. 1569
Área metropolitana de Barranquilla (Colombia)
www.ecoeediciones.com
Carrera 19 N.° 63C-32
Bogotá (Colombia)
© Universidad del Norte, 2016
Humberto Llinás Solano
Primera edición, marzo de 2014
Primera reimpresión, noviembre de 2016
Coordinación editorial
Zoila Sotomayor O.
Editor
Humberto Llinás Solano
Procesos técnicos
Munir Kharfan de los Reyes
Diseño de portada
Silvana Pacheco
Corrección de textos
Henry Stein
Desarrollo ePub
Lápiz Blanco S.A.S.
Hecho en Colombia
Made in Colombia
© Reservados todos los derechos. Queda prohibida la reproducción total o parcial de esta obra por cualquier medio reprográfico, fónico o informático, así como su transmisión por cualquier medio mecánico o electrónico, fotocopias, microfilm, offset, mimeográfico u otros sin autorización previa y escrita de los titulares del copyright. La violación de dichos derechos puede constituir un delito contra la propiedad intelectual.
El autor
HUMBERTO LLINÁS SOLANO
Licenciado en Ciencias de la Educación, con énfasis en Matemáticas, Física y Estadística de la Universidad del Atlántico (Colombia). Magister en Matemáticas, convenio Universidad del Valle-Universidad del Norte (Colombia). Doctor en Estadística (Dr. rer. nat.) de la Universidad Johannes Gutenberg de Mainz (Alemania). Desde 1998 se desempeña como profesor de tiempo completo de la Universidad del Norte y forma parte de los grupos de investigación Matemáticas y Enfermedades tropicales de dicha institución. Autor de los productos1:
• Estadística descriptiva y distribuciones de probabilidad (2005, [51])
• Estadística inferencial (2006, [52])
• Una visión histórica del concepto moderno de integral (como editor, 2006, [43])
• Medida e integración (2007, [53])
• Applets de estadística (2007, [55])
• Introducción a la estadística con aplicaciones en Ciencias Sociales (2012, [56])
• Procesos estocásticos con aplicaciones (como coautor, 2013, [1])
• Introducción a la estadística matemática (2014, [57])
1 Se cita el título del texto o applet, el año de publicación y la referencia bibliográfica respectiva. Cuando sea necesario, un comentario adicional.
Contenido
Prefacio
Introducción
Notaciones y preliminares
1 Probabilidad
1.1 Experimentos y espacios muestrales
1.2 σ-álgebras
1.2.1 σ-álgebra generada
1.2.2 σ-álgebra de Borel
1.3 Espacios de probabilidad
1.4 Tipos de espacios de probabilidad
1.4.1 Espacios de probabilidad discretos
1.4.2 Espacios de probabilidad laplacianos
1.5 Permutaciones y combinaciones
1.5.1 Reseña histórica
1.5.2 Permutación
1.5.3 Combinación
1.6 Modelos de urnas
1.7 Probabilidades condicionales
1.8 Independencia
Breve biografía de T. Bayes y E. Borel
Ejercicios
2 Distribuciones de probabilidad
2.1 Variables aleatorias
2.2 Funciones de distribución y densidad
2.3 Distribuciones de probabilidad de funciones de variables aleatorias reales
Breve biografía de A. N. Kolmogorov
Ejercicios
3 Distribuciones especiales
3.1 Discretas
3.1.1 Distribución uniforme discreta
3.1.2 Distribuciones de un punto y de Bernoulli
3.1.3 Distribución binomial
3.1.4 Distribución de Polya
3.1.5 Distribución hipergeométrica
3.1.6 Distribución de Poisson
3.1.7 Distribución binomial negativa
3.1.8 Distribuciones de Pascal y geométrica
3.2 Continuas
3.2.1 Distribución uniforme continua
3.2.2 Distribución normal (unidimensional)
3.2.3 Distribución gamma
3.2.4 Distribución exponencial
3.2.5 Distribución beta
3.2.6 Distribución de Cauchy
3.2.7 Distribución de Laplace
3.2.8 Distribución χ2
3.2.9 Distribución t de Student
3.2.10 Distribución F de Fisher
3.2.11 Distribución log-normal
3.2.12 Distribución de Weibull
3.2.13 Distribución de Rayleigh
3.2.14 Distribución de Erlang
3.2.15 Distribución de Maxwell
3.2.16 Distribuciones de valor extremo
3.2.17 Distribuciones de Pareto
Breve biografía de J. Bernoulli
Ejercicios
4 Momentos
4.1 Esperanza y varianza
4.2 Momentos
4.3 Función generadora de momentos
Breve biografía de S. D. Poisson
Ejercicios
5 Distribuciones conjuntas
5.1 Vectores aleatorios
5.2 Vectores aleatorios discretos y continuos
5.2.1 Vectores aleatorios discretos
5.2.2 Vectores aleatorios continuos
5.2.3 Variables aleatorias independientes
5.3 Varianza de sumas, covarianza y correlación
5.4 Esperanza y varianzas condicionales
5.4.1 Distribuciones condicionales
5.4.2 Teorema de la probabilidad total y regla de Bayes
5.4.3 Esperanza condicional
5.5 Convoluciones de medidas de probabilidad
5.6 Distribución de la media empírica, varianza empírica y razón de varianzas empíricas
5.7 Teoremas de transformación
5.8 Distribuciones compuestas
5.8.1 Distribución binomial compuesta
5.8.2 Distribución de Poisson compuesta
5.8.3 Distribución binomial generalizada
Breve biografía de I. J. Bieynamé
Ejercicios
6 Teoremas de convergencias
6.1 Propiedades que se cumplen casi seguro
6.2 Tipos de convergencia
6.3 Ley débil de los grandes números
6.4 Ley fuerte de los grandes números
6.5 Convergencia en distribución
6.6 Teorema central del límite
Breve biografía de A. Y. Khinchin, P. L. Chevischev y P. Lévy
Ejercicios
A Apéndice de resultados
B Apéndice de tablas
1. La función de distribución binomial
2. La función de distribución de Poisson
3. La función de distribución normal estándar
4. Valores críticos para la distribución t
5. Distribución chi-cuadrada
6. Valores críticos para la distribución F
7. Algunas distribuciones continuas
8. Algunas distribuciones discretas
Bibliografía y referencias
Prefacio
No habrá desarrollo sin educación ni progreso sin cultura.2
(ALBERTO ASSA)
Acerca de este libro
Este libro fue escrito con base en las notas de clases de la asignatura Teoría de Probabilidad, impartida por el autor en los programas de postgrados de Estadística y de Ingeniería de la Universidad del Norte, pero está dirigido a un público amplio.
Estructura
Este texto consta de:
• Seis capítulos. El capítulo 1 se inicia con algunos conceptos básicos y terminologías de la teoría de probabilidad; en el 2 se plantea la teoría general concerniente a las distribuciones de probabilidad; en el 3 se describen algunas distribuciones especiales discretas y continuas; en el 4 se explica todo lo relacionado con los conceptos de esperanza, varianza, momentos y funciones generadoras de momentos; en el 5 se desarrolla todo lo que tiene que ver con las distribuciones conjuntas; finalmente, en el 6 se presentan y demuestran algunos teoremas de convergencias.
Cada sección (y algunos capítulos) comienza con el resultado histórico más importante que identifica a la correspondiente sección (capítulo).
Al final de cada capítulo se propone una serie de ejercicios relacionados con a los temas desarrollados en el mismo. Antes del primer capítulo se presenta una lista de las convenciones más usuales y especiales usadas en el texto. Obviamente, algunas de las secciones y temas pueden ser omitidos sin que esto haga perder continuidad; ello está sujeto al criterio de la persona que dirija el curso.
Además de desarrollar matemáticamente los aspectos más importantes de la teoría de la probabilidad, también se presentan muchas citas originales y sugerencias acerca del desarrollo histórico de esta, así como las fuentes correspondientes. Por motivos claros, no fue posible presentar la historia detallada de la teoría de la probabilidad. De todas formas, espero que los datos suministrados le permitan al lector tener un enfoque general del desarrollo histórico de la misma, para que se interese por los datos originales.
Para no olvidar la importancia del aspecto humano, se presenta una breve biografía de algunos matemáticos (en algunos casos con sus respectivas fotografías) que han contribuido significativamente al desarrollo de los temas tratados en este texto.
• Dos apéndices. En el primero se resumen los resultados más importantes del análisis matemático que se aplicaron en los teoremas introducidos en el texto; en el segundo se presentan las tablas estadísticas de uso frecuente, como la binomial, la de Poisson, la normal, t de Student, chicuadrada y F de Fisher.
• Una bibliografía en la que se presenta una relación de los documentos y libros consultados, citados o no, que me sirvieron como fuentes de información para la escritura de este texto.
• Un índice de los términos más importantes utilizados en este texto.
Signos convencionales utilizados en este texto
• En este texto se citan afirmaciones de la siguiente manera:
▷ Números de dos niveles y encerrados en paréntesis, por ejemplo (2.1), significa números de las ecuaciones. El primer número corresponde al capítulo donde está la ecuación, y el segundo, al número de la ecuación dentro del capítulo.
▷ Todos los números de dos niveles y sin paréntesis (por ejemplo, 2.2) hacen referencia a secciones, tablas y figuras. El primer número alude al capítulo donde está la sección, tabla o figura, y el segundo, al número de la sección, tabla o figura dentro del capítulo.
▷ Todos los números de tres niveles (por ejemplo, 2.3.4) se refieren a definiciones, axiomas, teoremas y ejemplos del texto (como antes, el primer número corresponde al capítulo, el segundo, a la sección de ese capítulo, y el tercero al número de la definición, axioma, teorema y ejemplo dentro de la sección).
▷ Todos los números de tres niveles y acompañados de una letra (por ejemplo, 2.3.1a) hacen referencia a una parte específica de una definición, axioma, teorema y ejemplo dentro del texto, como por ejemplo a la parte (a).
▷Números sin paréntesis aluden a pies de páginas y números de ejercicios.
• Literaturas y referencias se citan con un número dentro de un corchete, e inclusive, a veces, colocadas después del nombre del autor citado; por ejemplo, LLINÁS [51]. En algunas ocasiones, las citas bibliográficas se presentan con más detalles. Por ejemplo, LLINÁS [51, pág. 132] significa que lo referenciado se encuentra en la página 132 de [51].
• En muchas ocasiones, el nombre de los matemáticos se acompaña de las fechas en que nacieron y murieron (si es el caso) y la edad a la que fallecieron. Por ejemplo, JACOB BERNOULLI (1654-1703;49) significa que este matemático nació en 1654 y murió en 1703, a la edad de 49 años.
• Teoremas con una frase y/o literatura(s) en paréntesis significa que dicho teorema se conoce con ese nombre y su correspondiente demostración se puede encontrar en la(s) literatura(s) citada(s).
• Teoremas, lemas, definiciones, etc., con un nombre de un matemático y/o fecha y/o literatura en paréntesis significa que el correspondiente resultado fue introducido por ese matemático en la fecha indicada y publicado en la literatura citada.
• Los símbolos ◀ y ■ indican los finales de un ejemplo y de una demostración, respectivamente.
• Algunos apuntes históricos, bibliografías y fotos fueron tomados de ELSTRODT [19] y de la página web citada en [88], respectivamente.
Al lector
Estimado lector:
Trabajé con mucha dedicación para que este libro resultara eficaz a nivel pedagógico y no tuviera errores. No obstante, si tiene preguntas, observaciones o sugerencias, por favor, póngase en contacto conmigo a través de esta dirección: hllinas@uninorte.edu.co.
Agradecimientos
Mi gratitud a los profesores que, de alguna forma u otra, contribuyeron a mejorar este texto mediante sugerencias y recomendaciones pertinentes.
De igual manera, hago extensivo mi agradecimiento a la Editorial Universidad del Norte por darme la oportunidad de publicarlo.
Agradecimiento especial a Greyci y a Brian por escribir gran parte del material en el computador con ayuda del programa MiKTeX.
Finalmente, agradezco a mi madre, esposa e hijos por su apoyo, paciencia, comprensión, amor y ayuda para que este libro fuera una realidad. Por eso se los dedico.
También lo dedico a los profesores Alberto Assa y Peter Paul Konder y a mi padre, que descansen en paz.
2 Alberto Assa nació en Constantinopla (Turquía) en 1909 y falleció en Barranquilla (Colombia) el 14 de marzo de 1996, a los 87 años. Fundó el Instituto de Lenguas Modernas (1952), la Organización El Concierto del Mes (1957), la Escuela Superior de Idiomas, la Universidad Pedagógica del Caribe, el Instituto Pestalozzi, la Facultad de Educación de la Universidad del Atlántico y el Instituto Experimental Atlántico José Celestino Mutis (1970). También creó el sello editorial Instituto de Lenguas Modernas.
Introducción
L’origine du calcul des probabilités, comme celle des autres branches des Mathématiques, se trouve dans des observations concrètes; ce sont en effet3 les jeux de hasard qui lui ont donné naissance, et, d’ailleurs, ce seront des schémas concrets, tirés de ces jeux, qui nous permettront de rendre le calcul des probabilités plus intuitif. (É. BOREL [9, pág.1])
El cálculo de probabilidades es relativamente una de las ramas de la matemática más joven. Por ejemplo, fenómenos que hoy se representan con el cálculo de las probabilidades, como el juego de dados, ya eran conocidos en la Antigüedad. En su Ars rhetorica ARISTÓTELES (384 - 322 a. C.;62) da un punto de partida notable para la construcción del concepto de probabilidad con las palabras Lo probable es algo que, en general, sucede. El franciscano LUCA DE PACIOLI (1445-1514;69), uno de los impulsores del álgebra en Occidente, ha expuesto en [63], por ejemplo, una tarea sobre probabilidades pero llegó a un resultado falso. Sin embargo, GIROLAMO CARDANO4 (1501-1576;75) y GALILEO GALILEI (1564-1642;78) resolvieron correctamente tareas teoréticasprobabilísticas especiales. El concepto de probabilidad es todavía mucho más viejo y jugó un papel significativo en la filosofía griega antigua (compárese, por ejemplo, la correspondencia entre PALTON y ZITAT). La idea de que las leyes de la naturaleza se manifiestan a través de un número grande de eventos aleatorios había surgido ya de los materialistas griegos antiguos y es tratado detalladamente en De rerum natura (sobre la naturaleza de la cosa) de LUKREZ5.
No es de extrañar que las primeras consideraciones teoréticas-probabilísticas fueran desarrolladas en los juegos de azar (en especial en los siglos XVII y XVIII), respecto a los cuales, los juegos de dados llegaron a ser los preferidos. Como comienzo del cálculo de probabilidades como ciencia independiente se considera una correspondencia entre BLAISE PASCAL (1623-1662;39) y PIERRE DE FERMAT (1601-1665;64) en 1654, la cual trataba sobre la solución de una pregunta formulada por un tal CHEVALIER DE MÉRÉ a PASCAL sobre el chance de ganar en determinadas situaciones de, en aquel entonces, juegos de azar (ver, por ejemplo, RÉNYI [70] o ROUSE BALL [78]). PASCAL desarrolló un método para responder las preguntas y le participó a FERMAT las respuestas y el método. FERMAT respondió las preguntas por partes con otro método y PASCAL constató con gran alegría la coincidencia entre sus propios resultados y los de FERMAT. Je vois bien que la vérit´ e est la même à Toulouse et Paris6 escribe PASCAL. Todas las cartas están impresas en [24, págs. 288-314]. Para más detalles, véase, por ejemplo, las muy claras exposiciones de I. TODHUNTER [82] y F.N. DAVID [16]. En verano de 1655, a través de una conversación, el gran matemático holandés CHRISTIAN HUYGENS tuvo conocimiento en París de las investigaciones de FERMAT y PASCAL sobre cálculos de probabilidades; sin embargo, estos últimos habían mantenido en secreto su método. Animado por eso, HUYGENS escribió, en 1656 y en holandés, el primer tratado sistemático sobre el cálculo de probabilidades: Van rekeningh in spelen van geluck7.
FRANS DE SCHOOTEN, quien había sido instructor de matemáticas de HUYGENS, tradujo el tratado de este al latín y lo incluyó en su Exercitationes mathematicæ (1657) como un apéndice, bajo el título De ratiociniis in ludo aleæ. Tres años más tarde, las Exercitationes fueron publicadas también en holandés. El tratado de HUYGENS se basa en un análisis lógico del concepto de “valor de una esperanza” (Valor expectationis, es decir, valor esperado o esperanza) y enseña cómo se puede calcular la esperanza del jugador en juegos de azar. HUYGENS no definió este concepto sino que solo lo restringió a un axioma.
Mientras que HUYGENS, en su tratado ya mencionado, solo se ocupó de juegos del azar, JACOB BERNOULLI (1654-1703;49) [3] en su Ars Conjectandis (en español: Arte de las Conjeturas) sobrepasa ese límite. El reconoció el significado básico del concepto de probabilidad en la vida humana y en la vida judicial y demostró la “ley de los grandes números”, que hasta el día de hoy representa la base de la estadística matemática.
BERNOULLI llamó su enseñanza de la probabilidad Ars Conjectandi, es decir, arte de las conjeturas. Comparando este título con las obras anteriores de CARDANO (De ludo aleæ) y HUYGENS (De ratiociniis in ludo aleæ), se observa cómo se ha transformado el punto de la historia.
El juego de dados es un juego, pero, a la vez, conjeturas, esto es, una actividad superflua. Cada sentencia, cada teoría científica, cada estrategia militar y cada empresa científica se basa en suposiciones. Para cada hecho se rinde cuentas de los resultados probables o, por lo menos, se debería rendir cuentas de eso, y el cálculo de probabilidades puede ayudar a estimar las probabilidades de los cómodos e incómodos resultados. Las sociedades de seguro evalúan probabilidades con base en estadísticas y después establecen sus tarifas. Hay una estadística matemática que nos enseña a estimar probabilidades equivocadas de conclusiones experimentales; hay una teoría de decisión y una investigación de empresas que se valen continuamente de las probabilidades. Pero antes de BERNOULLI no había nada de eso. El fue de los que primero llamó la atención de la humanidad sobre la importancia teórica y práctica de la “conjetura”.
El Ars Conjectandi fue publicado solo hasta en 1713, es decir, 8 años después de la muerte de su autor. Consta de cuatro partes. En la primera y tercera parte BERNOULLI resuelve tareas sobre juegos de azar de la misma manera como las tareas que PASCAL y HUYGENS se habían propuesto. La primera parte es una reproducción del tratado de HUYGENS con comentarios y presenta en forma completa completa, sin solución, todos los problemas mencionados por este. En la segunda parte BERNOULLI trata primero la teoría de las permutaciones, combinaciones y combinaciones con repetición. Presenta una tabla de los “números figurados” o coeficientes binomiales y demuestra sus “propiedades maravillosas” (BERNOULLI no conocía el triángulo aritmético de PASCAL). En esta parte se incluye lo que se conoce con el nombre de “números de Bernoulli”. En la tercera parte se aplica la enseñanza de las combinaciones a diferentes juegos de azar y de dados. En general, la meta es, como en HUYGENS [37], el cálculo del valor esperado de la ganancia del jugador. La cuarta parte es la más importante y la más original. Esta parte incluye el título Tradens usum et applicationem præcedentis doctrinæin civilibus, moralibus et Œconomicis8. Por este título se nota que ya BERNUOLLI estaba bien consciente del alcance extraordinario de su investigación. Se propuso aplicar la teoría de la probabilidad a preguntas de interés en ciencias morales y económicas. Entre otras cosas, en esta parte demuestra la ley (débil) de los grandes números.
La obra de PIERRE REMOND DE MONTMORT (1678-1719;41): Essai d’Analyse sur les Jeux de Hazard (Ensayo de análisis sobre los juegos de azar), escrita algo más tarde pero publicada mucho antes (1708) que el Ars conjectandi de BERNOULLI, también parte de HUYGENS y, con esto, indirectamente de la correspondencia entre PASCAL y FERMAT. Lo mismo se puede decir del importante trabajo De Mensura sortis seu, de Probabilitate Eventuum in Ludis a Casu Fortuito Pendentibus9, de ABRAHAM DE MOIVRE (1667-1754;87), publicado en 1711 en la Philosophical Transactions.
Además de las tareas sobre juegos de azar, en el comienzo del desarrollo del cálculo de probabilidades se realizaron también tareas sobre tablas de mortalidad y sobre seguros. Ya desde 1592 en Londres se habían hecho anotaciones exactas sobre la mortalidad. JOHN GRAUNT (1620-1674;54) fue el primero que, en 1662 y por motivo de estas anotaciones, calculó la probabilidad de mortalidad como función de la edad de vida. Unos años más tarde, los holandeses JAN HUDDE (1628-1704;76) y JAN DE WITT (1625-1672;47) hicieron consideraciones análogas y las aplicaron al cálculo de rentas en la vida; este problema fue investigado más tarde (1693) por EDMOND HALLEY (1656-1742;86). Una nueva idea (la regla de división) fue introducida en el cálculo de probabilidad por THOMAS BAYES (1702-1761;59). Después de su muerte, su trabajo fue publicado por el Reverendo RICHARD PRICE [67] y [67]. Entonces, partiendo de los fundamentos ya construidos y con ayuda de la poderosa herramienta del análisis matemático desarrollado en ese entonces, PIERRE SIMÓN, MARQUÉS DE LAPLACE (1749-1827;78) [44] logró construir el armazón que hasta en el día de hoy sirve como modelo de cada representación del cálculo de las probabilidades. Los temas esenciales de su obra fueron: la derivación de los “teoremas límites” más importantes de la probabilidad, la introducción de las “funciones generatrices” como herramientas matemáticas de ayuda y la aplicabilidad de la probabilidad sobre diversas ramas de la actividad humana.
Después de LAPLACE, SIMÉON DENIS POISSON (1781-1840;51) [66] desarrolló un trabajo en el que explicó una parte importante del teorema de BERNOULLI. Desafortunadamente, con el tiempo, el conocimiento del fundamento empírico del cálculo de probabilidades se fue perdiendo más y más. La causa de esto se debe en gran parte al ingenioso trabajo de LAPLACE [45], en el que presentó una interpretación a priori, que, con fuerte autoridad, repercutió durante casi más de un siglo. LAPLACE colocó al frente de todas las consideraciones la llamada definición de probabilidad. En esta se presenta un petitio principii, ya que “posible” solo puede ser una palabra válida para probabilidades iguales. Además, el error más insignificante de esta definición consiste en que no solo se puede aplicar al ejemplo de un dado “falso” sino también a la probabilidad de vivir y morir. En estos ejemplos no se puede introducir la probabilidad igual. Por tanto, en el siglo XIX el lado matemático y básico de la enseñanza de la probabilidad llegó a ser más y más una imitación de LAPLACE. Naturalmente, esto no excluye que se publicaran algunos libros, como, por ejemplo, los de J. BERTRAND [5] o H. POINCARÉ [65]. Contracorrientes lideradas por el inglés L. ELLIS [22] y el francés A.A. COURNOT [14] no tuvieron éxito. Finalmente, sucedió lo que se puede observar en situaciones parecidas de muchas ramas del saber. De la necesidad de la práctica, de las tareas de la estadística, surgió una nueva enseñanza que aparentemente se colocó al lado de la teoría de la probabilidad como su pareja empírica, y para la cual THEODOR FECHNER (1801-1887;86) introdujo la notación “enseñanza de la medida colectiva”. El astrónomo HEINRICH BRUNS (1848-1919;71) buscó reunir ambas ramas de la enseñanza, por lo menos desde afuera. Por otro lado, la situación también cambió radicalmente una vez que los físicos “pensantes” puramente determinísticos de la mitad del siglo XIX se enteraban, cada vez con más frecuencia, que fenómenos, en especial en el campo molecular, parecían presentar un indeterminismo forzoso. Por esta razón se explica que el gran matemático DAVID HILBERT (1862-1943;81) expresara en su famoso discurso en la Exposición Universal de París de 1990, sobre los 23 problemas matemáticos no resueltos en aquel entonces, que influyó considerablemente en el desarrollo de la matemática, lo siguiente:
SEXTO TRATAMIENTO MATEMÁTICO DEL AXIOMA DE LA FÍSICA . A través de las investigaciones sobre los fundamentos de la Geometría debera se nos sugiere manipular axiomáticamente, según este modelo, disciplinas físicas, en el cual ya la matemática juega hoy un papel excelente; estos son en primera medida el cálculo de probabilidades y la mecánica. En cuanto al cálculo de probabilidades, me parece deseable que con la investigación lógica de la misma vaya cogido de la mano, al mismo tiempo, un desarrollo estricto y satisfactorio del método del valor medio in la física matemática, especialmente, en la teoría cinética de los gases.
Por tanto, para HILBERT, el cálculo de probabilidades era una rama de la física. Después de esto, avances esenciales en la dirección matemática fueron obtenidos por los matemáticos rusos CHEVISHEV, MARKOV y LYAPUNOV. Entonces, el campo de aplicación de la probabilidad se extiende a las ciencias más diferentes (entre otras, mecánica estadística, genética, etc.). En 1919, R. MISES [59] intentó aportar un fundamento de la teoría de las probabilidades basada en la relación entre la probabilidad y el comportamiento de la frecuencia relativa. En genral, la introducción axiomática de la teoría de la probabilidad, como medida normada sobre un espacio medible y que es aceptada en el día de hoy, fue introducida por el matemático ruso A.N. KOLMOGOROV (1903-1987;84) [41] en 1933. Con esto, la teoría de la probabilidad llegó a ser una disciplina importante de la matemática, en especial de la teoría de la probabilidad y de la matemática aplicada.
Una de las caracterizaciones importantes de la teoría matemática aplicada parece estar contenida en lo siguiente: partiendo de realidades problemas se construye un modelo matemático. Entonces, dentro de este modelo se construyen (independiente de las situaciones resultantes) afirmaciones matemáticas y, finalmente, estos resultados se trasladan a la realidad. Para ello, la teoría de la probabilidad se ha propuesto la tarea de registrar resultados reales “aleatorios” en modelos matemáticos y mostrar leyes partiendo de estos modelos (en general, se podría formular como meta de la teoría de la probabilidad trabajar, sobre todo, en situaciones en las que no son posibles pronósticos seguros pero cuyas predicciones tengan sentido). Si se quiere llegar a afirmaciones matemáticas, entonces, en general, no se pude exigir que cada detalle de la realidad encuentre una correspondencia en el modelo matemático. Sin embargo, de un modelo con sentido se puede exigir que contenga todas las estructuras relevantes para que los resultados obtenidos en el modelo puedan servir, en su traslado hacia la descripción exacta de la realidad, como base para tomar decisiones. Para ello se necesita un modelo abstracto de eventos aleatorios que, por un lado, sea suficiente para poder abarcar en general todas las situaciones que aparecen en las aplicaciones y, por otro lado, que sea suficiente para poseer una rica estructura y para posibilitar una investigación matemática.
Este derecho de la teoría de la probabilidad, modelo para crear y analizar resultados reales, significa también que, para su desarrollo matemático, ella siempre deba aguantar la prueba de que hasta qué punto sus resultados tengan sentido al trasladarse a la realidad (desde su origen en nuevas ramas como, por ejemplo, control de calidad, investigación de operaciones, teoría de información, estadística, etc., la teoría de la probabilidad ha demostrado la prueba de su utilidad y de su éxito).
Para la construcción de la teoría queremos dar la formulación teorética de la medida que ha resultado conveniente y exitosa para la descripción de lo “aleatorio”. A través de ello, la teoría llega a ser inmediatamente abstracta, pero se intentará siempre hacer lo más claro posible los significados de los conceptos y afirmaciones introducidos.
3 El origen del cálculo de las probabilidades, como aquellas otras ramas de las matemáticas se encuentra dentro de las observaciones concretas; en efecto, éstas son los juegos de azar que le han hecho nacer y, además, todavía será de los esquemas concretos, sacados de estos juegos, los que nos permitirán deducir el cálculo de probabilidad más intuitivo.
4 G. CARDANO fue matemático, médico famoso y autor de tratados filosóficos populares. Al parecer fue un apasionado jugador de juegos de azar. Su libro Liber de ludo aleœ, que trata de los chances en el juego de azar, fue publicado en Lyon en 1663. Es el libro más antiguo sobre cálculo de probabilidades. Una traducción inglesa se encuentra en [62].
5 En este contexto, los lugares más importantes están citados en la cuarta carta que aparece en A. RÉNYI [73], en especial en la conversación entre Pascal y Miton (y en las observaciones).
6 “Yo veo bien que la verdad es la misma en Toulouse y en París”.
7 Œuvres complètes de Chr. Huygens, publiées para la Société hollandaise des Sciences, vol. 14, p. 61 (La Haye, Martinus Nijhoff, 1920).
8 Aplicación de la doctrina anterior sobre comportamientos cívicos, morales y económicos .
9 Sobre la medida del azar o sobre la probabilidad de los resultados en juegos de azar.
Notaciones y preliminares
Abreviaciones lógicas, abreviaturas y notaciones
Símbolo: | Significado: |
A ⟹ B | De la afirmación A sigue la afirmación B |
A ⟺ B | La afirmación A es equivalente a la afirmación B |
A := B | Por definición, A es igual a B |
A:⟺ B | Por definición, A es válida si y solo si B es válida |
∀ B | Para todo B |
■ | Fin de una demostración |
◀ | Fin de un ejemplo |
T., L., C., D., P., | Teorema, lema, corolario, definición, proposición |
def., sec. | Definición, sección |
resp. | Respectivamente |
hip. ind. | Hipótesis de inducción |
teo., prop., ec. | Teorema, proposición, ecuación |
rac. | Racional |
etc. | Etcétera, así sucesivamente |
n → ∞ | n tiende hacia el infinito |
B se obtiene de A aplicando E |
Aquí E representa un teorema, un corolario, una definición, una igualdad, una desigualdad, una expresión, etc., que ya hemos dado (demostrado). Por ejemplo:
Notación: | Significado: |
Teorema 1.2.3 | |
Desigualdad, igualdad o expresión (1) | |
Parte (a) de un teorema, lema, definición, etc. | |
Hipótesis de inducción. |
Significados análogos tienen notaciones como, por ejemplo, A B, A B, etc.
Conjuntos y operaciones de conjuntos
Sean Ω y Ω′ cualesquiera conjuntos. Entonces
x ∈ Ω | :⟺ | x es elemento de Ω |
x ∉ Ω | :⟺ | x no es elemento de Ω |
#Ω | :⟺ | cardinalidad de Ω, número de elementos de Ω |
A ⊆ Ω | :⟺ | (x ∈ A ⟹ x ∈ Ω) (A es subconjunto de Ω) |
A ⊂ Ω | :⟺ | (A ⊆ Ω y A ≠ Ω) (A es subconjunto propio de Ω) |
{x / c(x)} | :⟺ | el conjunto de todos los x tales que cumplen la condición c(x) |
Ω = Ω′ | :⟺ | Ω ⊆ Ω′ y Ω′ ⊆ Ω (Ω y Ω′ tienen exactamente los mismos elementos) |
Ω ≠ Ω′ | :⟺ | (Ω y Ω′ no tienen exactamente los mismos elementos) |
(Ω) | := | {A / A ⊆ Ω} (conjunto potencia o partes de Ω) |
∅ | := | {x ∈ Ω1 / x ∉Ω} (conjunto vacío) |
Sea un sistema o una familia de subconjuntos de Ω, es decir, ⊆ (Ω), entonces
:= | {x/x ∈ A para un A ∈ } (Unión) | |
:= | {x/x ∈ A para todo A ∈ } (Intersección) |
En el caso = ∅, sean := ∅ y := Ω. Si = {Ai / i ∈ I}, donde I es cualquier conjunto de índices, entonces escribiremos también
Si I = {1,…,n}, hablaremos de una intersección, respectivamente, unión FINITA, y también escribiremos
pero si I = ℕ, entonces hablaremos de una intersección, respectivamente, unión ENUMERABLE, y en este caso también escribiremos
Dos subconjuntos, A y B, de Ω se llaman DISYUNTOS si A ∩ B = ∅. Para cualquier conjunto de índices I, una familia (Ai)i∈I de conjuntos de se llama DISYUNTA DOS A DOS si Ai ∩ Aj = ∅ para todo i, j ∈ I con i ≠ j. La familia (Ai)i∈I ∈ es una DESCOMPOSICIÓN de Ω si = Ω y esa familia es disyunta dos a dos.
Diremos que es una UNIÓN DISYUNTA si la familia (Ai)i∈I es disyunta dos a dos.
La notación (x, y) representa a una pareja ordenada. Definimos el producto cartesiano A1 × ··· × An de los conjuntos A1,…, An ⊆ Ω como
:= A1 × ··· × An := {(x1,…,xn) / xi ∈ Ai, ∀ i = 1,…, n}
siendo (x1, . . ., xn) una n tupla ordenada. En particular, si Ai = A para todo i = 1, . . ., n, entonces, en vez de escribiremos simplemente An, es decir, An := A × · · · × A (n veces).
Para cualquier conjunto Ω y cualesquiera Ai ⊆ Ω con i ∈ I se cumplen las llamadas LEYES DE DE MORGAN:
Conjuntos numéricos e intervalos
Designaremos con
ℕ := {1, 2, 3,…} | El conjunto de los números naturales |
ℕ0 := ℕ ∪{0} | El conjunto de los números naturales con el cero |
ℤ | El conjunto de los números enteros |
ℚ | El conjunto de los números racionales |
ℝ | El conjunto de los números reales |
ℂ | El conjunto de los números complejos |
ℝ+ := {x ∈ ℝ /x > 0} | El conjunto de los números reales positivos (análogamente para ℤ+ y ℚ+) |
ℝ+ 0 := ℝ+ ∪{0} | El conjunto de los números reales no negativos (análogamente para ℤ+0 y ℚ+0) |
Sean a, b ∈ ℝ con a ≤ b. Entonces
(a, b) := {x ∈ ℝ / a < x < b} | El intervalo abierto de a hasta b |
(a, b] := {x ∈ ℝ /a < x ≤ b} | El intervalo a, b semiabierto en a |
[a, b) := {x ∈ ℝ /a ≤ x < b} | El intervalo a, b semiabierto en b |
[a, b] := {x ∈ ℝ /a ≤ x ≤ b} | El intervalo cerrado de a hasta b |
Sean M y N := {a1,…,an} conjuntos numéricos. Entonces
Supremo, ínfimo de M | |
Supremo, ínfimo de N | |
Máximo, mínimo de N |
Con [x] := max{z ∈ ℤ /z ≤ x} simbolizaremos la llamada PARTE ENTERA de x ∈ ℝ. Con |x| simbolizaremos el VALOR ABSOLUTO de x ∈ ℝ.
Diremos que un número real x es POSITIVO si x > 0, NEGATIVO, si x < 0, NO POSITIVO, si x ≤ 0, y NO NEGATIVO, si x ≥ 0.
Con simbolizaremos la unidad imaginaria compleja; con Ref z y Im z las PARTES REAL e IMAGINARIA de un número complejo z, respectivamente.
Sucesiones numéricas y de conjuntos
Designaremos con
(an)n∈ℕ | Sucesión numérica de a1, a2, a3, … |
Supremo, ínfimo de la sucesión (an)n∈ℕ | |
(an)k∈ℕ | Subsucesión de (an)n∈ℕ |
La sucesión (an)n∈ℕ converge hacia a | |
Límite superior, límite inferior de (an)n∈ℕ | |
La sucesión (an)n∈ℕ diverge hacia ∞ | |
La sucesión (an)n∈ℕ diverge hacia −∞ | |
La sucesión (an)n∈ℕ es creciente, decreciente y converge hacia a cuando n → ∞ |
Los símbolos10 ∞ y −∞ no son números. Por esta razón, no podemos hacer cálculos con ellos, pero podemos convenir las siguientes reglas aritméticas:
Para dos sucesiones: (an)n∈ℕ y (bn)n∈ℕ, de números reales, con bn ≠ 0, sean
Análogamente, para cualquier sucesión de subconjuntos (An)n∈ℕ de un conjunto Ω y cualquier A ⊆ Ω, las notaciones tienen, respectivamente, un significado análogo a las notaciones introducidas para una sucesión numérica (an)n∈ℕ.
Funciones
Designaremos con f : A → B una función 11 o aplicación de A en B. Además 12,