Ingenieros Industriales
Universidad Libre, Barranquilla, Colombia
Somos estudiantes de ingenieria indstrial, mostrando un espacio dedicado a modelos matematicos de producción.

INGENIEROS:

DIANA MARCELA APONTE APONTE

ANA KARINA MONTERO AVENDAÑO

ALEXANDER JHOSEPT ALFORD JINETE

MONICA LUCIA ALBOR ESTRADA

JOSUE DANIEL SERRANO REYES

VANNESSA GUARNIZO MARTINEZ

CARLOS ANDRES PEREZ VARGAS

 

Published in: on 16 noviembre, 2010 at 11:39 PM  Dejar un comentario  

HISTORIA

BIOGRAFÍA ANDREI ANDREEVICH MARKOV (1856 – 1922)

 Andrei Markov vivió la mayor parte de su vida en san Petersburgo durante su vida, san Petersburgo fue la capital de la Rusia zarista, un puerto principal y centro comercial, así como un centro internacional de la literatura, la música y la danza. La familia de Markov pertenecía a la clase alta, su padre trabajaba para el departamento forestal y administraba una hacienda privada. 

 En la preparatoria, markov dio muestras de un talento para las matemáticas, aunque por lo general no fue un buen alumno. Estudio matemáticas en la universidad de san Petersburgo, donde sus títulos de licenciatura, maestría y doctorado. Posteriormente comenzó a enseñar en la misma universidad. El jefe del departamento de matemáticas. PL Chebyshev fue un famoso matemático y estadístico. Markov se convirtió en un firme seguidor de las ideas de Chebyshev. Nominado por este, markov fue elegido para ingresar a la prestigiada academia de ciencias de san Petersburgo.

 Los principales campos de investigación de Markov fueron la estadística, la teoría de la probabilidad, el cálculo y la teoría de números, su obra más famosa, las cadenas de Markov, fue un producto de un interés exclusivamente teórico. De hecho, jamás escribió nada con respecto a sus aplicaciones excepto un análisis lingüístico de Eugenio Oneguin, de pushkin.

 Durante la primera mitad del siglo XX, Markov participo en el movimiento liberal que culminó en la revolución rusa. Cuando el zar anulo la elección del escritor revolucionario Máximo Gorky para la Academia de ciencia de san Petersburgo, markov dirigió cartas de protesta a la academia y a los oficiales de estado.

 Cuando el zar disolvió la duma (una asamblea electa), Markov denuncio al gobierno zarista. Cuando el gobierno celebro el 300 aniversario de la casa de romanov (la dinastía de los zares), Markov organizo una celebración del aniversario numero 200 de la publicación del libro sobre probabilidad, de Jacob Bernoulli, Ars Conjectandi.

 Después de la abdicación del azar, Markov solicito a la academia que lo enviara a enseñar matemáticas a una escuela secundaria de una pequeña población del centro de Rusia.

 Regreso a san Petersburgo después de un invierno de hambre. Poco después de su regreso, su salud declino rápidamente y murió.

 BIBLIOGRAFÍA

JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones prácticas. Año 2000. Editorial Thomson. pág. 340

Published in: on 16 noviembre, 2010 at 11:31 PM  Dejar un comentario  

EJERCICIO POR EXCEL

Se mostrara mediante un video elaborado por nosotros el procedimiento para resolver problemas de Markov por medio de Excel:

A continuacion la segunda parte:

Published in: on 16 noviembre, 2010 at 11:30 PM  Dejar un comentario  

HISTORIA DE LA ALEATORIEDAD

Aproximadamente alrededor del año 3500 a.C., los juegos de azar eran practicados con objetos de hueso, los cuales podrían ser considerados como los precursores de los dados, estos fueron ampliamente desarrollados en Egipto y otros lugares. En el siglo XVII, un noble francés, Antoine Gombauld (1607-1684), puso en tela de juicio el fundamento matemático del éxito y del fracaso en las mesas de juego y por esto le formuló la siguiente pregunta al matemático francés Blaise Pascal (1623-1662): ¿cuales son las probabilidades de que salgan dos de seises por lo menos una vez en veinticuatro lanzamientos de una par de dados?, pascal resolvió el problema, pues la teoría de probabilidad empezaba a interesarle tanto como a gombauld. Ambos compartieron sus ideas con el famoso matemático Pierre de Fermat (1601-1665), y las cartas escritas por los tres constituyen la primera revista académica dedicada a la probabilidad. Algunos de los problemas que ellos resolvieron habían permanecido sin solución durante unos 300 años. Sin embargo, ciertas probabilidades numéricas para ciertas combinaciones de dados ya habían sido calculadas por Giordamo Cardano (1501-1576) y por Galileo Galilei (1564-1642).

mas tarde, Jacob Bernoulli (1654-1705), Abraham de Moivre (1667-1754), el reverendo Thomas Bayes (1702-1761) y Joseph LaGrange (1736-1813) inventaron formulas y técnicas de probabilidad. En el siglo XIX,  Pierre Simón, Marques Delaplace (1749-1827), unifico esas primeras ideas y formulo la primera teoría general de la probabilidad, la cual fue aplicada inicialmente con buenos resultados a los juegos de azar; con el tiempo también se aplico en la búsqueda de soluciones analíticas a problemas de naturaleza no deterministica. La teoría de la probabilidad ha sido constantemente desarrollada desde el siglo XVII y ampliamente aplicada en diversos campos de estudio. Hoy es una herramienta importante en la mayoría de las áreas de ingeniería, ciencias y administración, y se constituye en la base para el estudio de fenómenos o procesos aleatorios mediante el método de Montecarlo, que es el estudio de las leyes de azar.

En cuanto a los números aleatorios, se puede afirmar que la historia formal comenzó en la década de los cuarenta con el nacimiento del método llamado simulación de Montecarlo, y Von Neumann, Metrópolis, Ulam y Lehmer son considerados y nombrados como los pioneros en este campo. John Von Neumann aparentemente conjeturo el potencial de los computadores para tratar problemas estocásticos en 1945 cuando escribió: “este (el computador) ciertamente abrirá un nuevo enfoque para la estadística matemática, el enfoque para el calculo de experimentos….”. Durante los cuarenta, la simulación de procesos estocásticos permaneció restringida al proyecto secreto del departamento de defensa de estados unidos. La publicación de The Monte Carlo Method por N. metrópolis y Stanislaw M. Ulam en 1949 denota el inicio de la historia oficial del método. Dos años más tarde, D.H.Lehmer propuso el generador lineal de congruencia, el cual, con pequeñas modificaciones propuestas por Thomson y Rotenberg, ha llegado a convertirse en el método para la generación de números aleatorios mas ampliamente usado en la actualidad. Aunque originalmente el método de Montecarlo fue implementado por John Neumann y Stanislaw Ulam, utilizando ruletas y dados en los problemas de difusión de los neutrones, en realidad su auge y crecimiento uso se debe a que hoy se emplean números aleatorios generados por computador.

Antes de la aparición de las computadoras, los números aleatorios eran generados por dispositivos físicos. En 1939, Kendall y Babington-Smith publicaron 100.000 dígitos aleatorios obtenidos con un disco giratorio iluminado con una lámpara relámpago. En 1955, la rand Corporation  publico un millón de dígitos producidos controlando una fuente de pulsos de frecuencia aleatoria (mecanismo electrónico); estos se encuentran disponibles en cintas magnéticas  de la rand.

BIBLIOGRAFÍA

PDF: Números aleatorios “historia, teoría y aplicaciones”. Alfonso Manuel Mancilla Herrera. Ingeniería & desarrollo. Universidad del norte. 10 de octubre del 2000.

http://manglar.uninorte.edu.co/bitstream/10584/1559/1/numeros_aleatorios.pdf

Published in: on 16 noviembre, 2010 at 11:16 PM  Dejar un comentario  

CUENTO

Este es un espacio donde la imaginación es la protagonista, salimos de la rutina de ver toda la teoría e invitamos a  todos volver a ser niños y ver de una manera diferente la simulación, trasladémonos a un mundo de fantasía donde existen unicornios, hadas, brujas y príncipes, donde la teoría de jugos es una historia más  que contar.

 Abre la puerta a tu imaginación, y empieza a ver todo de una manera diferente.

NUMEROS ALEATORIOS

¿Quieres sabes que son los números aleatorios?

Entonces te invito a leer siguiente la historia

Érase una vez una hermosa hada con muchos problemas de personalidad, hoy estaba triste pero mañana podía estar feliz, o podía amanecer rabiosa, hoy le gustaba el rosa pero mañana le podía gustar el azul o el amarillo, nadie podía entenderla, siempre estaba en constante cambio, por eso decidieron llamarla variable aleatoria, a pesar de su naturaleza impredecible ella deseaba hacer muchos amigos, pero a las demás hadas no les agradaba mucho estar con ella.

Unos científicos muy brillantes quisieron ayudar a variable aleatoria y para esto ellos necesitaban entender como pensaba esta bella hada, entonces decidieron hacer una fiesta de disfraces donde todas las hadas debían ir disfrazadas de números pero solo del 1 al 100, todos estaban muy felices porque llegará el día de la gran fiesta, cuando por fin llegó el gran día todas las hadas se presentaron a la fiesta vestidas muy elegantes con sus disfraces de números, y la ultima en llegar fue variable aleatoria, todos la esperaban con mucha expectativa pues había comprado disfraces de todos los numero pues no se decidía cual colocarse, nadie sabia de que vendría disfrazada, lo único que se sabia era que debía llegar como un número, de lo contrario no entraría ala fiesta.

Las demás hadas comentaban en entre ellas:

- Hada preguntona: ¿Cómo irá a venir variable aleatoria?

- Hada segura contesta: no sabemos, lo único que sabemos es que vendrá con un número del 1 al 100  existe espacio equiprobable para cualquiera de los números

- Entonces el Hada preguntona interrumpe: ¿Cómo así?

- sin dudarlo el Hada segura contesta: Existe la misma probabilidad que venga de cualquier número.

El Hada metiche como siempre mete su cucharada agregando: si, porque variable aleatoria no esta condicionada por ninguno de nosotros o por ningún comportamiento que haya tenido anteriormente.

Mientras tanto el Hada variable aleatoria aún no se decidía que usar, entonces se decía a sí misma: ¿Qué número usaré? ¿Por qué no me puedo decidir?

Al final decide llevar todos los disfraces y al final decidir cual usar.

Al final se da cuenta que era imposible decidir que quería usar verdaderamente, y da por hecho que su decisión será una generación de numero aleatorio.

El Hada variable aleatoria se presenta a la fiesta como un 10, los científicos y la comunidad Hada al ver la decisión tomada por el Hada, pero los científicos no lograron descifrar nada, y quedaron tristes por no haber podido entender a variable aleatoria, deciden entonces hacer mas fiestas para observar un poco mas las decisiones de esta indecisa hada.

Al finalizar el año, los científicos habían hecho gran cantidad de fiestas, y de cada una tomaron nota de las decisiones del hada, la sometieron a una prueba de ajuste, y con ella comprobaron que el Hada variable aleatoria tiene un comportamiento de campana, con media 45.

Al darse cuenta  el hada de esto, se puso muy feliz pues entendió que ella no es tan impredecible como todos creían.

Fin

HISTORIA DE LOS NUMEROS ALEATORIOS

todo tiene su comienzo con los pitufos cavernícolas de Egipto y otro lugares en el año 3500 A de C. que practicaban con los huesos juegos de azar, estos fueron desarrollándose a través de su descendencias hasta llegar al siglo XVII que nació el novel pitufo francés, el más malvado pitufo de toda historia, llamado Gargamel Atoine, que empezó a dudar de la honestidad de la sociedad pitufa a la hora de desarrollar sus tradicionales juegos de azar que ya se practicaban en mesas de hongos; preguntándole siempre a el gran Papá pitufo que cual era la probabilidad de que salgan 2 seis por lo menos una vez en 24 lanzamientos de un par de dados.

Papá pitufo se dejó hechizar por los maleficios del malvado Gargamel y empezó a investigar y tratar de resolver los problemas de la probabilidad, a esta alianza maléfica también se unió pitufo Pierre De Fermat, como resultado de este hechizo hicieron las primeras revistas académicas dedicadas a la probabilidad y la solución de problemas. Por más de 300 años la población pitufa no pudo resolverlos.

Años después que desapareció el hechizo, aparecen los pitufines Int Bernoulli, Moivre, Bayes y Lagrange inventando formulas y técnicas de probabilidad ayudando así a que el pitufo hijo de papi y mami llamado  Pierre Simón, Marques De la Place, que no lo dejaban salir de su casa, para que tuviera algo que haces, este se aprovechó de las primera ideas de los pitufos Int para formular la primera teoría de probabilidad que fue utilizada por mucho tiempo y éxito en los juegos de azar.

Provocando que la teoría fuera muy desarrollada desde el siglo XVII por un montón de pitufos aburridos y con ganas de saber  como ganar y como  se pierde en estos juegos, aplicándose en la ciencia, ingenierías, administración y convirtiéndose en la base par estudiar los fenómenos aleatorios que se daban en los hogos de Montecarlo. 

Los hongos de Montecarlo se hicieron muy famosos, así que Papa pitufo III decidió  hace un gran casino junto con los nuevos amigos llamados pitufo Neumann, pitufo Metrópolis, pitufo Ulam y pitufo Lhemer; siendo estos pitufos en la era de los 40 los pioneros en el campo del método llamado simulación de Montecarlo.

 

Dos años después los pitufos Lhemer, Thomson y Rotember desarrollaron el generador de números aleatorios utilizado en la actualidad pitufa, aunque originalmente el Método de Montecarlo fue originado por pitufo Neumann y Ulam por medio de ruletas.

Hoy en día los pitufos generan sus propios números aleatorios por medio de las computadoras y no por dispositivos físicos como lo impuso los ancestros de tío pitufo Kendal y Babington-Smith que publicaron 100.000 dígitos aleatorios obtenidos por un disco aleatorio iluminado con un lámpara pitufa relampagona.

Published in: on 16 noviembre, 2010 at 11:15 PM  Dejar un comentario  

DISTRIBUCIONES DE VARIABLE DISCRETA MÁS IMPORTANTES

Las distribuciones de variable discreta más importantes son las siguientes:

 DISTRIBUCIÓN BINOMIAL;

En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos independientes de Bernoulli con una probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:

 

DISTRIBUCIÓN BINOMIAL NEGATIVA

 En estadística la distribución binomial negativa es una distribución de probabilidad discreta que incluye a ladistribución de Pascal.

El número de experimentos de Bernoulli de parámetro θ independientes realizados hasta la consecución del k-ésimo éxito es una variable aleatoria que tiene una distribución binomial negativa con parámetros k y θ.

La distribución geométrica es el caso concreto de la binomial negativa cuando k = 1.

 

DISTRIBUCIÓN DE POISSON

 En teoría de probabilidad y estadística, la distribución de Poisson es una distribución de probabilidad discreta. asi tiempo fijo si estos eventos ocurren con una frecuencia media conocida y son independientes del tiempo discurrido desde el último evento.

Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo Recherches sur la probabilité des jugements en matières criminelles et matière civile (Investigación sobre la probabilidad de los juicios en materias criminales y civiles).

 

DISTRIBUCIÓN GEOMÉTRICA

En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes:

  • la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,…} o
  • la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito, contenido en el conjunto { 0, 1, 2, 3,… }.

Cual de éstas es la que uno llama “la” distribución geométrica, es una cuestión de convención y conveniencia.

 

 

DISTRIBUCIÓN HIPERGEOMÉTRICA

 En teoría de la probabilidad la distribución hipergeométrica es una distribución discreta relacionada con muestreos aleatorios y sin reemplazo. Supóngase que se tiene una población de N elementos de los cuales, d pertenecen a la categoríaA y N-d a la B. La distribución hipergeométrica mide la probabilidad de obtener x ( ) elementos de la categoríaA en una muestra de n elementos de la población original

Distribución de Bernoulli

En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático ycientífico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p) y valor 0 para la probabilidad de fracaso (q = 1 − p).

Si X es una variable aleatoria que mide “número de éxitos”, y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X se distribuye como una Bernoulli de parámetro p.

X˜Be(p)

La fórmula será:

f(x) = px(1 − p)1 − x con x = {0,1}

Su función de probabilidad viene definida por:

Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos.

 DISTRIBUCIÓN UNIFORME DISCRETA

 En teoría de la probabilidad, la distribución uniforme discreta es una distribución de probabilidad que asume un número finito de valores con la misma probabilidad.

 

DISTRIBUCIÓN UNIFORME DISCRETA

 

En teoría de la probabilidad, la distribución uniforme discreta es una distribución de probabilidad que asume un número finito de valores con la misma probabilidad.

 

DISTRIBUCIONES DE VARIABLE CONTINUA

DISTRIBUCIÓN Χ²

 

En estadística, la distribución χ² (de Pearson) es una distribución de probabilidad continua con un parámetro k que representa los grados de libertad de la variable aleatoria:

Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos.

 

donde Zi son variables de distribución normal, de media cero y varianza uno. El que la variable aleatoria X tenga esta distribución se representa habitualmente así:  .

Es conveniente tener en cuenta que la letra griega χ se transcribe al latín como chi1 y se pronuncia en castellano comoji.2 3

La distribución χ² tiene muchas aplicaciones en inferencia estadística, por ejemplo en la denominada prueba χ² utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimación de varianzas. También está involucrada en el problema de estimar la media de una población normalmente distribuida y en el problema de estimar la pendiente de una recta de regresión lineal, a través de su papel en la distribución t de Student, y participa en todos los problemas de análisis de varianza, por su papel en la distribución F de Snedecor, que es la distribución del cociente de dos variables aleatorias independientes con distribución χ².

Distribución t de Student

En probabilidad y estadística, la distribución t (de t-Student) es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño.

Aparece de manera natural al realizar la prueba t de Student para la determinación de las diferencias entre dos medias muestrales y para la construcción del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviación típica de una población y ésta debe ser estimada a partir de los datos de una muestra.

 

 

 

 

Distribución normal

En estadística y probabilidad se llama distribución normaldistribución de Gauss o distribución gaussiana, a una de lasdistribuciones de probabilidad de variable continua que con más frecuencia aparece en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

 

Distribución gamma

En estadística la distribución gamma es una distribución de probabilidad continua con dos parámetros k y λ cuya función de densidad para valores x > 0 es

Aquí e es el número e y Γ es la función gamma. Para valores:

  la aquella es Γ(k) = (k − 1)! (el factorial de k − 1). En este caso – por ejemplo para describir un proceso de Poisson - se llaman la distribición distribución Erlang con un parámetro θ = 1 / λ.

El valor esperado y la varianza de una variable aleatoria X de distribución gamma son

E[X] = k / λ = kθ

V[X] = k / λ2 = kθ2

Distribución beta

En estadística la distribución beta es una distribución de probabilidad continua con dos parámetros a y b cuya función de densidad para valores 0 < x < 1 es

  Aquí Γ es la función gamma.

 El valor esperado y la varianza de una variable aleatoria X con distribución beta son

 

Un caso especial de la distribución beta con a = 1 y b = 1 es la distribución uniforme en el intervalo [0, 1].

Para relacionar con la muestra se iguala E[X] a la media y V[X] a la varianza y de despejan a y b

 

Distribución F

Usada en teoría de probabilidad y estadística, la distribución F es una distribución de probabilidad continua. También se la conoce como distribución F de Snedecor (por George Snedecor) o como distribución F de Fisher-Snedecor.

Una variable aleatoria de distribución F se construye como el siguiente cociente:

donde

  • U1 y U2 siguen una distribución chi-cuadrado con d1 y d2 grados de libertad respectivamente, y
  • U1 y U2 son estadísticamente independientes.

La distribución F aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza. Véase el test F.

La función de densidad de una F(d1d2) viene dada por

 

para todo número real x ≥ 0, donde d1 y d2 son enteros positivos, y B es la función beta.

La función de distribución es  

para todo número real x ≥ 0, donde d1 y d2 son enteros positivos, y B es la función beta.

La función de distribución es   

Distribución uniforme continua

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, a y b, que son sus valores mínimo y máximo. La distribución es a menudo escrita en forma abreviada como U(a,b).

  

 

 

 

 

Published in: on 16 noviembre, 2010 at 11:12 PM  Dejar un comentario  

TERMINOLOGIA

SIMULACIÓN: Técnica que imita la operación de un sistema del mundo real a medida que evoluciona con el tiempo; sin ser el sistema.

 SISTEMA: Es una colocación de entidades que actúan e interactúan hacia la realización de algún fin lógico.

 EVENTO: Es un cambio en el sistema

 ESTADO DE UN SISTEMA: Es el conjunto de variables necesarios para describir el estatus del sistema en algún momento determinado.

 VARIABLES DE ESTADO: Son variables cuyos valores definen el estado de un sistema en un instante determinado.

 VARIABLES CUALITATIVAS: aquellas que no aparecen en forma numérica, sino como categorías o atributos (sexo, profesión, color de ojos) y sólo pueden ser nominales u ordinales.

VARIABLES NOMINALES: lo único que puede hacerse es establecer frecuencias en cada atributo y la igualdad o desigualdad entre los diferentes casos, ver cuál es el grupo que tiene mayor frecuencia alcanzando el concepto de “moda” (y también obtener algunas medidas de asociación cuando se relacionan variables entre sí).

VARIABLES ORDINALES: recogen la idea de orden pero no tiene sentido realizar operaciones aritméticas con ellas (acuerdo o desacuerdo con un proyecto de ley) ya que no puede medirse distancia entre una categoría y otra. Se puede establecer aquí igualdad y desigualdad, y relaciones como mayor que, y menor que. Puede establecerse orden, pero no medirse distancia dentro de ese orden. La medida estadística de tendencia central más apropiada para estas escalas es la “mediana”.

VARIABLES CUANTITATIVAS: Son las variables que se expresan mediante cantidades numéricas. Las variables cuantitativas además pueden ser discretas y continuas.

 VARIABLE DISCRETA: Es la variable que presenta separaciones o interrupciones en la escala de valores que puede tomar. Estas separaciones o interrupciones indican la ausencia de valores entre los distintos valores específicos que la variable pueda asumir. Ejemplo: El número de hijos (1, 2, 3, 4, 5).

 VARIABLE CONTINUA: Es la variable que puede adquirir cualquier valor dentro de un intervalo especificado de valores. Por ejemplo la masa (2,3 kg, 2,4 kg, 2,5 kg, …) o la altura (1,64 m, 1,65 m, 1,66 m, …), que solamente está limitado por la precisión del aparato medidor, en teoría permiten que siempre exista un valor entre dos cualesquiera.

 SISTEMA DISCRETO: Es en el cual las variables de estado cambian solo en puntos discretos o contables del tiempo.

 SISTEMA CONTINÚO: Es aquel en el que las variables d estado cambian de forma continua con el tiempo.

 MODELO: Resultado del proceso de generar una representación abstracta, conceptual, gráfica o visual.

 MODELO DE SIMULACIÓN ESTÁTICO: Es una representación de un sistema en un punto particular en el tiempo.

 SIMULACIÓN DINÁMICA: Es una representación del sistema  a medida  que evoluciona con el tiempo.

 MODELOS DE SIMULACION DETERMINISTA: Es uno que no contiene variables aleatorias.

 MODELO DE SIMULACION ESTATOCASTICO: son los que contienen una o más variables aleatorias.

 NÚMERO ALEATORIO: Es un resultado de una variable al azar especificada por una función de distribución. Cuando no se especifica ninguna distribución, se presupone que se utiliza la distribución uniforme continua en el intervalo [0,1).En los ordenadores personales es fácil simular la generación de números aleatorios, mediante mecanismos de generación de números seudoaleatorios

 NÚMERO PSEUDO-ALEATORIO: Es un número generado en un proceso que parece producir números al azar, pero no lo hace realmente. Las secuencias de números pseudo-aleatorios no muestran ningún patrón o regularidad aparente desde un punto de vista estadístico, a pesar de haber sido generadas por un algoritmo completamente determinista, en el que las mismas condiciones iníciales producen siempre el mismo resultado.

 GENERADOR DE NÚMEROS ALEATORIOS: Es un componente o funcionalidad que crea números o símbolos para un programa software en una forma que carezca de un patrón evidente, y que así parezcan ser números aleatorios.

Published in: on 16 noviembre, 2010 at 10:50 PM  Dejar un comentario  

VIDEOS

A continuacion un video explicando como probar la aleatoriedad de una semilla:

A continuacion un video explicando como probar la aleatoriedad de la simulacion del lanzamiento de dos dados:

Published in: on 16 noviembre, 2010 at 10:49 PM  Dejar un comentario  

CONCEPTOS

GLOSARIO

  • Pruebas del proceso: eventos que disparan transiciones de un estado a otro.  En muchas aplicaciones, periodos de tiempo sucesivos.
  • Probabilidad de transición: dado que el sistema esta en estado idurante un periodo, la probabilidad de transición pij es la probabilidad de que el sistema este en el estado j durante el siguiente periodo.
  • Probabilidad de estado: es la probabilidad de que el sistema este en cualquier estado particular.
  • Probabilidad de estado estable: La probabilidad de que el sistema este en cualquier estado particular después de un numero elevado de transiciones.  Una vez  alcanzado este estado la probabilidad de estado no cambia de un periodo a otro.
  • Estado de absorción: se da cuando la probabilidad de que ocurra una transición de este estado es cero.  Por lo que una vez que el sistema a hecho una transición a un estado de absorción, quedará ahí.
  • Matriz fundamental: Matriz necesaria para el cómputo de probabilidades asociadas con el estado de absorción de un proceso de Markov.

CONCEPTO DE CADENA DE MARKOV:

Las cadenas de Markov son una herramientas para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no deterministicas a lo largo del tiempo en torno a un conjunto de estados.

Una cadena de Markov, por lo tanto, representa un  sistema de varia su estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios no están predeterminado, aunque si lo esta la probabilidad del próximo estado en función de los estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogéneo en el tiempo). Eventualmente, en una transición, el nuevo estado puede ser el mismo que el anterior y es posible que exista la posibilidad de influir en las probabilidades de transición actuando adecuadamente sobre el sistema (decisión).

Fuente: http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf

MATRIZ DE TRANSICION:

Una matriz de transición para una cadena de Markov de n estado es una matriz de n X n con todos los registros no negativos y con la propiedad adicional de que la suma de los registros de cada columna (o fila) es 1.

Por ejemplo: las siguientes son matrices de transición.

El comportamiento de cambo de marca de los consumidores h sido modelado como una cadena de Markov, para ayudar a desarrollar las estrategias de mercadotecnia. A manera de ejemplo, obsérvese el siguiente comportamiento de cambio de marca descrito en la siguiente tabla para una muestra de 250consumidores de un producto.

Número de consumidores que cambian la marca i en la semana 6 j en la semana 7.

El primer renglón indica que, de 80 personas que compraron la marca 1 en la semana 6, 72 volvieron a adquirirla en la semana 7, 4 prefirieron la marca 2 y 4 la marca 3. Sin embargo, nótese que 12 personas cambiaron la marca 2 por la marca 1 y 2 personas cambiaron la marca 3 por la marca 1. A si pues, para la marca 1, la perdida de 8 clientes se compensó con creces por la conquista de 14 clientes. Entre la sexta y la séptima semanas, la marca 1 aumentó su participación en el mercado de 32%(80/250) a  34,4% (86/250).

La matriz de probabilidades de transición para la tabla de contingencia es P:

La matriz P es una estimación de la matriz verdadera, pues solamente representa el comportamiento de una muestra de 250 consumidores, durante a un periodo de dos semanas. Los elementos P11,  P22   y  P33  de la matriz P son medidas del “poder de retención” de las tres marcas; los restantes elementos Pij reflejan el “poder de atracción” de la marca j, suponiendo que la compra anterior haya sido a favor de la marca i. Los elementos de cada fila reflejan la probabilidad de que una marca retenga a sus clientes o los pierda frente a otras marcas. Los elementos de cada columna resumen la probabilidad de que una marca retenga a sus clientes o conquiste a otros a costa de cada marca de la competencia.

Suponiendo que la participación en los mercados que tienen la tres marcas del ejemplo son 30%, 38% y 32&, respectivamente, durante la séptima semana. Si la matriz de transición P (maestral), se considera una buena estimación de la verdadera matriz de transición (poblacional), es posible predecir las participaciones de mercado esperada en la octava semana por medio de la multiplicación de matrices. Así entonces:

Las participaciones en el mercado predichas durante la octava semana son  32,08%, 37,64% y 30,28%, respectivamente para la tres marcas.

Generalizando, podemos decir que si un proceso de Markov donde el sistema puede encontrarse en cualquiera de m estados posibles, las probabilidades pueden escribirse por medio del vector X=(x1   x2……..xm) donde xj representa probabilidad de que el sistema se halle en el estado j. En los estados actuales de un proceso de Markov Xk, los estados después del siguiente experimento (transición) pueden calcularse mediante la multiplicación con de matrices.

XK+1   = X K  P

Con base en la ecuación anterior se puede afirmar que:

Generalizando:

Ya que en este caso X0 corresponde al vector X7.

Fuente:

ESTADOS ABSORBENTES

Se trata de estados que constituyen por si mismos una sola clase final, puesto que la única transición posible es ir otra vez al mismo (ya que las probabilidades de pasar a cualquier de los otros son cero). Matemáticamente significa que la fila correspondiente de la matriz estará toda a ceros excepto un 1 en la diagonal principal por lo tanto se le denomina como matriz no regular; el significado de este tipo de situaciones suele ser el de un sistema que ha llegado a una situación de degradación, que ya no puede evolucionar mas, etc.

En otras palabras generalizando:

Una cadena de markov absorbente contiene p estados transitorios y q estados absorbentes. Con base a esto la matriz se representa así:

Donde R es una submatriz

Q corresponde al complemento de R

Fuente:

  • ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson. año 2004


Published in: on 15 noviembre, 2010 at 11:27 PM  Dejar un comentario  

GRAFICOS DE EJEMPLOS

REPRESENTACIÓN GRAFICA DE UNA MATRIZ  DE TRANSICIÓN:

Es el arreglo numérico donde se condensa las probabilidades de un estado a otro. A través de una grafica de matriz de transición se puede observar el comportamiento estacionario representado por una cadena de Markov tal que los estados representan la categoría en que se encuentre clasificado. Como se aprecia a continuación:

La matriz de transición es para una política estacionaria dada:

Fuente:

https://www.u-cursos.cl/ingenieria/2010/2/IN3702/1/material_docente/bajar?id_material=306606

Published in: on 15 noviembre, 2010 at 11:19 PM  Dejar un comentario  
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.