HISTORIA

BIOGRAFÍA ANDREI ANDREEVICH MARKOV (1856 – 1922)

 Andrei Markov vivió la mayor parte de su vida en san Petersburgo durante su vida, san Petersburgo fue la capital de la Rusia zarista, un puerto principal y centro comercial, así como un centro internacional de la literatura, la música y la danza. La familia de Markov pertenecía a la clase alta, su padre trabajaba para el departamento forestal y administraba una hacienda privada. 

 En la preparatoria, markov dio muestras de un talento para las matemáticas, aunque por lo general no fue un buen alumno. Estudio matemáticas en la universidad de san Petersburgo, donde sus títulos de licenciatura, maestría y doctorado. Posteriormente comenzó a enseñar en la misma universidad. El jefe del departamento de matemáticas. PL Chebyshev fue un famoso matemático y estadístico. Markov se convirtió en un firme seguidor de las ideas de Chebyshev. Nominado por este, markov fue elegido para ingresar a la prestigiada academia de ciencias de san Petersburgo.

 Los principales campos de investigación de Markov fueron la estadística, la teoría de la probabilidad, el cálculo y la teoría de números, su obra más famosa, las cadenas de Markov, fue un producto de un interés exclusivamente teórico. De hecho, jamás escribió nada con respecto a sus aplicaciones excepto un análisis lingüístico de Eugenio Oneguin, de pushkin.

 Durante la primera mitad del siglo XX, Markov participo en el movimiento liberal que culminó en la revolución rusa. Cuando el zar anulo la elección del escritor revolucionario Máximo Gorky para la Academia de ciencia de san Petersburgo, markov dirigió cartas de protesta a la academia y a los oficiales de estado.

 Cuando el zar disolvió la duma (una asamblea electa), Markov denuncio al gobierno zarista. Cuando el gobierno celebro el 300 aniversario de la casa de romanov (la dinastía de los zares), Markov organizo una celebración del aniversario numero 200 de la publicación del libro sobre probabilidad, de Jacob Bernoulli, Ars Conjectandi.

 Después de la abdicación del azar, Markov solicito a la academia que lo enviara a enseñar matemáticas a una escuela secundaria de una pequeña población del centro de Rusia.

 Regreso a san Petersburgo después de un invierno de hambre. Poco después de su regreso, su salud declino rápidamente y murió.

 BIBLIOGRAFÍA

JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones prácticas. Año 2000. Editorial Thomson. pág. 340

Published in: on 16 noviembre, 2010 at 11:31 PM  Dejar un comentario  

EJERCICIO POR EXCEL

Se mostrara mediante un video elaborado por nosotros el procedimiento para resolver problemas de Markov por medio de Excel:

A continuacion la segunda parte:

Published in: on 16 noviembre, 2010 at 11:30 PM  Dejar un comentario  

CONCEPTOS

GLOSARIO

  • Pruebas del proceso: eventos que disparan transiciones de un estado a otro.  En muchas aplicaciones, periodos de tiempo sucesivos.
  • Probabilidad de transición: dado que el sistema esta en estado idurante un periodo, la probabilidad de transición pij es la probabilidad de que el sistema este en el estado j durante el siguiente periodo.
  • Probabilidad de estado: es la probabilidad de que el sistema este en cualquier estado particular.
  • Probabilidad de estado estable: La probabilidad de que el sistema este en cualquier estado particular después de un numero elevado de transiciones.  Una vez  alcanzado este estado la probabilidad de estado no cambia de un periodo a otro.
  • Estado de absorción: se da cuando la probabilidad de que ocurra una transición de este estado es cero.  Por lo que una vez que el sistema a hecho una transición a un estado de absorción, quedará ahí.
  • Matriz fundamental: Matriz necesaria para el cómputo de probabilidades asociadas con el estado de absorción de un proceso de Markov.

CONCEPTO DE CADENA DE MARKOV:

Las cadenas de Markov son una herramientas para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no deterministicas a lo largo del tiempo en torno a un conjunto de estados.

Una cadena de Markov, por lo tanto, representa un  sistema de varia su estado a lo largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios no están predeterminado, aunque si lo esta la probabilidad del próximo estado en función de los estados anteriores, probabilidad que es constante a lo largo del tiempo (sistema homogéneo en el tiempo). Eventualmente, en una transición, el nuevo estado puede ser el mismo que el anterior y es posible que exista la posibilidad de influir en las probabilidades de transición actuando adecuadamente sobre el sistema (decisión).

Fuente: http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf

MATRIZ DE TRANSICION:

Una matriz de transición para una cadena de Markov de n estado es una matriz de n X n con todos los registros no negativos y con la propiedad adicional de que la suma de los registros de cada columna (o fila) es 1.

Por ejemplo: las siguientes son matrices de transición.

El comportamiento de cambo de marca de los consumidores h sido modelado como una cadena de Markov, para ayudar a desarrollar las estrategias de mercadotecnia. A manera de ejemplo, obsérvese el siguiente comportamiento de cambio de marca descrito en la siguiente tabla para una muestra de 250consumidores de un producto.

Número de consumidores que cambian la marca i en la semana 6 j en la semana 7.

El primer renglón indica que, de 80 personas que compraron la marca 1 en la semana 6, 72 volvieron a adquirirla en la semana 7, 4 prefirieron la marca 2 y 4 la marca 3. Sin embargo, nótese que 12 personas cambiaron la marca 2 por la marca 1 y 2 personas cambiaron la marca 3 por la marca 1. A si pues, para la marca 1, la perdida de 8 clientes se compensó con creces por la conquista de 14 clientes. Entre la sexta y la séptima semanas, la marca 1 aumentó su participación en el mercado de 32%(80/250) a  34,4% (86/250).

La matriz de probabilidades de transición para la tabla de contingencia es P:

La matriz P es una estimación de la matriz verdadera, pues solamente representa el comportamiento de una muestra de 250 consumidores, durante a un periodo de dos semanas. Los elementos P11,  P22   y  P33  de la matriz P son medidas del “poder de retención” de las tres marcas; los restantes elementos Pij reflejan el “poder de atracción” de la marca j, suponiendo que la compra anterior haya sido a favor de la marca i. Los elementos de cada fila reflejan la probabilidad de que una marca retenga a sus clientes o los pierda frente a otras marcas. Los elementos de cada columna resumen la probabilidad de que una marca retenga a sus clientes o conquiste a otros a costa de cada marca de la competencia.

Suponiendo que la participación en los mercados que tienen la tres marcas del ejemplo son 30%, 38% y 32&, respectivamente, durante la séptima semana. Si la matriz de transición P (maestral), se considera una buena estimación de la verdadera matriz de transición (poblacional), es posible predecir las participaciones de mercado esperada en la octava semana por medio de la multiplicación de matrices. Así entonces:

Las participaciones en el mercado predichas durante la octava semana son  32,08%, 37,64% y 30,28%, respectivamente para la tres marcas.

Generalizando, podemos decir que si un proceso de Markov donde el sistema puede encontrarse en cualquiera de m estados posibles, las probabilidades pueden escribirse por medio del vector X=(x1   x2……..xm) donde xj representa probabilidad de que el sistema se halle en el estado j. En los estados actuales de un proceso de Markov Xk, los estados después del siguiente experimento (transición) pueden calcularse mediante la multiplicación con de matrices.

XK+1   = X K  P

Con base en la ecuación anterior se puede afirmar que:

Generalizando:

Ya que en este caso X0 corresponde al vector X7.

Fuente:

ESTADOS ABSORBENTES

Se trata de estados que constituyen por si mismos una sola clase final, puesto que la única transición posible es ir otra vez al mismo (ya que las probabilidades de pasar a cualquier de los otros son cero). Matemáticamente significa que la fila correspondiente de la matriz estará toda a ceros excepto un 1 en la diagonal principal por lo tanto se le denomina como matriz no regular; el significado de este tipo de situaciones suele ser el de un sistema que ha llegado a una situación de degradación, que ya no puede evolucionar mas, etc.

En otras palabras generalizando:

Una cadena de markov absorbente contiene p estados transitorios y q estados absorbentes. Con base a esto la matriz se representa así:

Donde R es una submatriz

Q corresponde al complemento de R

Fuente:

  • ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson. año 2004


Published in: on 15 noviembre, 2010 at 11:27 PM  Dejar un comentario  

GRAFICOS DE EJEMPLOS

REPRESENTACIÓN GRAFICA DE UNA MATRIZ  DE TRANSICIÓN:

Es el arreglo numérico donde se condensa las probabilidades de un estado a otro. A través de una grafica de matriz de transición se puede observar el comportamiento estacionario representado por una cadena de Markov tal que los estados representan la categoría en que se encuentre clasificado. Como se aprecia a continuación:

La matriz de transición es para una política estacionaria dada:

Fuente:

https://www.u-cursos.cl/ingenieria/2010/2/IN3702/1/material_docente/bajar?id_material=306606

Published in: on 15 noviembre, 2010 at 11:19 PM  Dejar un comentario  

EJERCICIOS

EJERCICIOS PROPUESTOS

1. El centro de cómputo en Rockbottom University sufre paros de las computadoras.  Supongamos que los ensayos de un proceso de Markov asociados se definen como periodo de una hora y la probabilidad de que el sistema este en un estado de operación o en un estado de paro se base en el estado del sistema durante el periodo anterior.  Los datos históricos muestran las siguientes probabilidades de transición.

a)    Si es sistema inicialmente opera, ¿Cuál es la probabilidad de que el sistema este detenido en la siguiente hora de operación?

b)    ¿Cuáles son las probabilidades de un estado estable del sistema en el estado de operación y en el detenido?

2. Cada familia estadounidense se clasifica según donde vive como urbana, rural o suburbana. Durante un año especifico, 15% de las familias urbanas se mudaron a una ubicación suburbana, y 5 % se mudaron a un área rural; también, 6 % de las familias suburbanas se trasladaron a un área urbana y 4% se pasaron a una ubicación rural; por ultimo, 4% de las familias rurales se fueron a un área urbana y 6% se cambiaron a un lugar suburbano.

a)    Si una familia ahora vive en un lugar urbano, ¿Cuál es la probabilidad de que viva en un área urbana dos años a partir de ahora? ¿Un área suburbana? ¿Un área rural?

b)    Suponga que en el presente, 40% de las familias viven en un área urbana, 35% viven en un área suburbana y 25% viven en un área rural. Dos anos a partir de ahora, ¿Qué porcentajes de familias estadounidenses vivirán en un área urbana?

3. Dado la siguiente matriz de transición con los estados 1 y 2 como estado absorbentes, ¿Cuál es la probabilidad de que las unidades en los estados 3 y 4 terminen en cada uno de los estados absorbentes?

4. Woody´s Christmas Tree Farm cuenta con dos tipos de arboles: arboles pequeños (de 5 pies o menos) y grandes (mas de 5 pies).  Cada año, 16% de los arboles pequeños muere, 19% se venden a 30 dólares cada uno y 10% crece hasta superar los 5 pies.  Cada año 5% de los arboles grandes muere y 45% se vende a 45 dólares cada uno.

a)    ¿Que porcentaje del total de los arboles se venderá finalmente a 30 dólares?

b)    ¿Qué porcentaje de arboles se venderán a 45?

c)    ¿Qué porcentaje de arboles de arboles grandes se venderán?

d)    Sugerencia: utilice 2 categorías “vendido a 30 dólares y vendido a 45 dólares”

Fuentes:

  • JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones prácticas. Año 2000. Editorial Thomson. Ejercicio propuesto 4 pagina 361.
  • ANDERSON David R. Métodos cuantitativos para los negocios. Editorial Thomson. año 2004. ejercicio propuesto 1 pagina 720 y 3 pagina 722.
Published in: on 15 noviembre, 2010 at 11:11 PM  Dejar un comentario  

APLICACIONES

El método de las cadenas de Markov consiste en emplear la información probabilística en el análisis de tendencias con el fin de predecir sus resultados.

Tienen diversas aplicaciones en los negocios, la sociología, las ciencias físicas y la biología. Por ejemplo  en los negocios, las cadenas de Markov son útiles para el análisis de los datos referentes a la satisfacción de un cliente con un producto y para el efecto de la publicidad del producto, así como predecir que sector del mercado el producto dominara finalmente.  En sociología, las cadenas de markov se aplican por una parte al análisis de tendencias sociológicas, como la reducción de la clase media de Estados Unidos y el crecimiento de los suburbios a expensas de las ciudades del centro y las áreas rurales, así como para la predicción del resultado final de dichas tendencias. Además también sirven para pronosticar el clima, para analizar la herencia genética, y para predecir la fluctuación diaria de los precios de las acciones negociables.

BIBLIOGRAFÍA

JOHNSON David B, MOWRY Thomas A. Matemáticas finitas: aplicaciones prácticas. Año 2000. Editorial Thomson. pág. 331

Published in: on 15 noviembre, 2010 at 11:09 PM  Dejar un comentario  

EJERCICIOS

Se iniciará este espacio con un problema resuelto en excel, llamado Gran Colombia, a continuación ofrecemos el enlace donde lo pueden apreciar en otra pagina por excel.

GRAN COLOMBIA

Published in: on 15 noviembre, 2010 at 10:51 PM  Dejar un comentario  
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.