viernes, 3 de junio de 2011

TEORÍA DE DECISIONES

La toma de decisiones


La toma de decisiones es el proceso mediante el cual se realiza una elección entre las alternativas o formas para resolver diferentes situaciones de la vida, estas se pueden presentar en diferentes contextos: a nivel laboral, familiar, sentimental, empresarial, etc., es decir, en todo momento se toman decisiones, la diferencia entre cada una de estas es el proceso o la forma en la cual se llega a ellas. La toma de decisiones consiste, básicamente, en elegir una alternativa entre las disponibles, a los efectos de resolver un problema actual o potencial, (aún cuando no se evidencie un conflicto latente).

LA TEORÍA DE LA DECISIÓN

Es un estudio formal sobre la toma de decisiones. Los estudios de casos reales, que se sirven de la inspección y los experimentos, se denominan teoría descriptiva de decisión; los estudios de la toma de decisiones racionales, que utilizan la lógica y la estadística, se llaman teoría preceptiva de decisión. Estos estudios se hacen más complicados cuando hay más de un individuo, cuando los resultados de diversas opciones no se conocen con exactitud y cuando las probabilidades de los distintos resultados son desconocidas. 


La toma de decisiones en una organización se circunscribe a una serie de personas que están apoyando el mismo proyecto. Debemos empezar por hacer una selección de decisiones, y esta selección es una de las tareas de gran trascendencia.

Con frecuencia se dice que las decisiones son algo así como el motor de los negocios y en efecto, de la adecuada selección de alternativas depende en gran parte el éxito de cualquier organización. Una decisión puede variar en trascendencia y connotación.

Los administradores consideran a veces la toma de decisiones como su trabajo principal, porque constantemente tienen que decidir lo que debe hacerse, quién ha de hacerlo, cuándo y dónde, y en ocasiones hasta cómo se hará. Sin embargo, la toma de decisiones sólo es un paso de la planeación, incluso cuando se hace con rapidez y dedicándole poca atención o cuando influye sobre la acción sólo durante unos minutos.


Modelos de criterios de decisión


Certeza: Sabemos con seguridad cuáles son los efectos de las acciones. 


Riesgo: No sabemos qué ocurrirá tomando determinadas decisiones, pero sí sabemos qué puede ocurrir y cuál es la probabilidad de ello. 

Incertidumbre: En este caso no sabemos qué puede ocurrir ni tampoco qué probabilidades hay para cada posibilidad. Es cuando no tenemos ni idea qué puede pasar.

La toma de decisiones en la teoría de decisión

Los estudios de casos reales, que se sirven de la inspección y los experimentos, se denominan teorema descriptivo de decisión; Los estudios de la toma de decisiones racionales, que utilizan la lógica y la estadística, se llaman teorema preceptivo de decisión. Estos estudios se hacen más complicados cuando hay más de un individuo, cuando los resultados de diversas opciones no se conocen con exactitud y cuando las probabilidades de los distintos resultados son desconocidas. El teorema de decisión comparte características con el teorema de juegos, aunque en el teorema de decisión él  adversario es la realidad en vez de otro jugador o jugadores.








TEORÍA DE JUEGOS

HISTORIA

Biografía de Jhon Von Neumann
(1903 -1957)

Nació en Hungría en 1903, vivo en Alemania hasta los 27 años.  Sus profesores desde la escuela primaria reconocieron su talento para las matemáticas.  Su padre, un rico banquero, contrato profesores universitarios para que le dieran clases particulares de matemáticas.  Cuando contaba con 19 años de edad ya había publicado su primer artículo y fue reconocido como matemático profesional.  Recibió un doctorado en filosofía en el área de las matemáticas en la Universidad de Berlín.
Von Neumann emigro a Estados Unidos en 1930, y llego a ser catedrático en la Universidad de Princeton. 3 años después, se le extendió una invitación para ingresar al nuevo instituto de estudios avanzados de Princeton, donde permaneció el resto de su vida.
Cuando estallo la segunda guerra mundial Von Neumann, un judío alemán, participó en diferentes proyectos científicos relacionados con la causa de la guerra, y principalmente con la creación de la bomba de hidrogeno en los Álamos.
Su teoría de juegos sorprendió a la comunidad científica porque proporcionaba un análisis estratégico de un tema que parecía escapar al análisis: los juegos de habilidad.  Además, la teoría de juegos influyo significativamente en la economía, donde fue aplicada a situaciones competitivas semejantes a los juegos.  De hecho, Von Neumann y Oskar Morgenstern, economista de Princeton, escribieron un libro sobre teoría de juegos y sus aplicaciones a la economía, titulado “teoría de juegos y comportamiento económica”.
Von Neumann escribió cerca de 150 artículos sobre matemáticas, física, y ciencias de la computación.  Murió en 1957.


Biografía de Oskar  Morgenstern
(1902-1976)

Nació en Gorlitz, Silesia, estudio en las universidades de Viena, Harvard y New York.  Fue Miembro de la Escuela Austriaca y avezado matemático, participo en los famosos “Coloquios de Viena” organizados por Karl Menger (hijo de Carl Menger) que colocaron en contacto científicos de diversas disciplinas, de cuya sinergia se sabe que surgieron multitud de nuevas ideas e incluso nuevos campos científicos.
Emigro a Estados Unidos durante la Segunda Guerra Mundial ejerciendo la docencia en Princeton. Para 1944 publico conjuntamente con John von Neumann titulado “teoría de juegos y comportamiento económica”  en el cual explican dos planteamientos distintos de la Teoría de Juegos como el planteamiento estratégico o no cooperativo. Este planteamiento requiere especificar detalladamente lo que los jugadores pueden y no pueden hacer durante el juego, y después buscar para cada jugador una estrategia óptima. Lo que es mejor para un jugador depende de lo que los otros jugadores piensan hacer, y esto a su vez depende de lo que ellos piensan del primer jugador hará.
En la segunda parte del libro se desarrolla el planteamiento coalicional o cooperativo, en el que buscaron describir la conducta óptima en juegos con muchos jugadores. Puesto que éste es un problema mucho más difícil, no es de sorprender que sus resultados fueran mucho menos precisos que los alcanzados para el caso de suma cero y dos jugadores. En particular, Von Neumann y Morgenstern abandonaron todo intento de especificar estrategias óptimas para jugadores individuales. En lugar de ello se propusieron a clasificar los modelos de formación de coaliciones que son consistentes con conductas racionales.

CONCEPTOS

Juegos de suma cero:
Suma cero describe una situación en la que la ganancia o pérdida de un participante se equilibra con exactitud con las pérdidas o ganancias de los otros participantes.
Se llama así; porque si se suma el total de las ganancias de los participantes y se resta las pérdidas totales el resultado es cero.

Matriz de pago:

La matriz de pagos de un juego bipersonal de suma cero tiene reglones etiquetados por las acciones del "jugador renglón" y columnas etiquetadas por las acciones del su contrincante, el "jugador columna."

Jugador columna
Jugador renglón

E1
E2
E1
3
2
E2
4
-9

 Los valores positivos indican que el ganador el es jugador renglón, los valores negativos indican que el ganador en el jugador columna.

Punto de silla, juego estrictamente determinado:
Un punto de silla es un pago que está simultáneamente un mínimo de su renglón y un máximo de su columna.

Un juego es estrictamente determinado si tiene por lo menos un punto de silla. Las siguientes condiciones se aplican a los juegos estrictamente determinados:
1. Todos los puntos de silla en un juego tienen los mismos valores de pago.
2. Elegir el renglón y la columna que pasan por cualquier punto de silla de estrategias minimax para ambos jugadores. Es decir, el juego es solucionado por el uso de estas estrategias puras.
El valor de un juego estrictamente determinado es el valor del punto de silla. Un juego justo tiene un valor igual a cero, si no, es injusto o parcial.


Jugador columna
Jugador renglón

E1
E2
Minimax
E1
3
2
2
E2
4
-9
-9
Maximin
4
2

En este caso podemos observar que el jugador renglón al aplicar la estrategia 1 siempre ganará mientras que al aplicar la estrategia 2 corre el riesgo de que el jugador columna utilice la 2 y así sea este último quien gane, por tal motivo,  el razonamiento más lógico por parte del jugador renglón es jugar siempre la estrategia 1 por  lo cual el jugador columna al observar este comportamiento tendería a aplicar la estrategia 2 ya que es la que le ofrece menos pérdidas (jugador columna pierde 2 y el jugador renglón gana 2). Este es un juego estrictamente determinado puesto que ya se sabe cual será el resultado. 

En este tipo de estrategia para determinar el valor del juego basta con aplicar dos criterios,le minimax y maximini. 
Un jugador quien usa el criterio minimax escoge una estrategia que, entre todas las estrategias posibles, minimiza el daño de la mejor contra-estrategia del otro jugador. Es decir, una estrategia óptima según el criterio minimax es una que minimiza el daño máximo que puede hacer el contrincante.El maximini implica todo lo contrario. Entonces para identificar el valor esperado del juego estrictamente determinado aplicamos el criterio minimax para el jugador columna y el maximini para el jugador renglón.  Aplicando estos criterios observamos que el valor para cada uno es el mismo 2 y es este el valor esperado del juego.

Una estrategia pura:
Es aquella que se da cuando el jugador utiliza la misma estrategia o acción en cada turno.


Juegos no estrictamente determinados:
Esta clase de juegos tiene más de una alternativa de juego por la que los jugadores podrian ganar, por lo que no están obligados a siempre jugar con la misma estrategia, no presentan un punto silla por que el número menor de todos los máximos de las columnas no es igual al número mayor de los menores de los renglones, dando como resultado un juego no estrictamente determinado.

Eliminación de las estrategias dominadas:
Existen juegos con estrategias las cuales los jugadores nunca escogerán por tener una mejor opción (estrategia con mayor ganancia), estas estrategias se denominan dominadas, y aquellas las cuales siempre están encima por ofrecer mayor ganancia son las dominantes.

Ejemplo.


Jugador columna
Jugador Renglón

E1
E2
E3
E4
E5
E6
E1
1
2
3
4
5
6
E2
-1
2
4
5
5
5
E3
0
1
1
1
1
1
E4
3
0
0
1
1
0
Teniendo esta seria de estrategias para cada jugador podemos determinar cual de ellas son dominantes. Como sabemos para que una estrategia sea dominante debe superar en todos los aspecto a la otra.
Desde el punto de vista del jugador renglón podemos comparar la estrategia 3 con la 1. Al ver valor por valor vemos que los de la fila 1 son mayores que los de la fila 3, por tal razón la estrategia 1 del jugador renglón es dominante con respecto a la estrategia 3 y la podemos eliminar (E1j renglón D---> E3j renglón. Así podemos hacer con cada estrategia del jugador renglón. 



Jugador columna
Jugador Renglón

E1
E2
E3
E4
E5
E6
E1
1
2
3
4
5
6
E2
-1
2
4
5
5
5
E4
3
0
0
1
1
0

De igual manera se hace con el jugador columna pero recordando que los valores positivos de la matriz indican cuanto pierde el jugador, es decir esta vez se  harán las comparaciones por columna y será dominante  aquella que valor a valor sea menor. Ejemplo en la tabla anterior mostrada la columna 2 domina a la 4.E2j columna D-àE4j columna, por lo cual podríamos eliminar la columna 4.


Estrategias mixtas:

En la teoría de juego el objetivo para los jugadores es siempre escoger la estratégica optima, si el juego es estrictamente determinado, siempre habrá una estrategia pura, por lo que no habrá cambios de esta, sin embargo se podría tener situaciones en donde el juego no es estrictamente determinado y por consiguiente el oponente no está sujeto a una sola estrategia, al conocer ya la adoptada por el jugador, este oponente podría cambiar a otra estrategia que le traería mayores beneficios a él y menores al jugador, debido a esto, es necesario que este adopte un cambio de estrategias continuamente, obteniendo así un juego de estrategias mixtas.

Estrategia aleatoria:
Es aquella en donde el jugador renglón elige un renglón al azar, de acuerdo con cierta distribución de probabilidad.

Estrategias aleatorias y puras:
Si un jugador renglón adopta una estrategia aleatoria, el jugador columna puede responder con una estrategia pura o con una aleatorizada.

Una estrategia pura es un término empleado para designar un tipo de estrategias en teoría de juegos. Cada jugador tiene a su disposición un conjunto de estrategias. Si un jugador elige una acción con probabilidad 1 entonces está jugando una estrategia pura. Esto la diferencia de la estrategia mezclada, donde jugadores individuales eligen una distribución de probabilidad sobre muchas acciones.







Fuentes consultadas:



Bibliografía:
Investigación de operaciones Hillier Lieberman. Séptima edición. 
Investigación de operaciones Hamdy A. Taha. Séptima Edición. 

CADENA DE MARKOV

ANDREI MARKOV




Andrei Markov Andreevich nació 02 de junio 1856 en Riazán, Rusia. En sus primeros años, asistió a la escuela en San Petersburgo y fue un estudiante pobre en todo menos en matemáticas. Fue algo así como un rebelde, y esta cualidad se quedó con él hasta la edad adulta, causando muchos problemas con su gobierno y los compañeros.

Él era un estudiante menor de PL Chebyshev en la Universidad Petersburgo en 1874, y completó sus estudios allí en 1878. Recibió una medalla de oro de la universidad y se le pidió permanecer y convertirse en un académico de profesión. Cuando dejó la universidad de Chebyshev, Markov enseñó a sus cursos de probabilidad.

Markov fue elegido para ser miembro de la matemática "escuela" fundada por Chebyshev, de San Petersburgo de la Academia de Ciencias, en 1886. Se convirtió en miembro de pleno derecho en 1896 y se retiró de la Universidad (aunque continuó enseñando) en 1905. También fue uno de los primeros matemáticos que estaban siempre en busca de los usos prácticos de estadística y probabilidad, y tomó parte en los debates sobre el funcionamiento de algunos departamentos del gobierno y también la enseñanza de las matemáticas en las escuelas secundarias.

Markov fue uno de los más famosos discípulos de Chebyshev y sus ideas eran siempre tratando de representar la probabilidad como una ciencia matemática exacta y práctica, incluso antes de RA Fisher. Él y uno de los otros grandes estudiantes de Chebyshev, Liapunov, fueron muy centrado en las ideas de sus mentores. Markov, especialmente centrado en el método de movimientos. Su introducción de la cadena de Markov como un modelo para el estudio de variables aleatorias hecho enormes cantidades de investigación posible en los procesos estocásticos [un proceso estocástico es una familia o una colección de variables aleatorias indexadas por un proceso de parámetros también se le llama suerte o azar. Los índices comunes utilizados son el tiempo y el espacio para representar fenómenos aleatorios.] Se limita principalmente su trabajo a la investigación de la ley débil de números grandes (WLLN) y el teorema del límite central. Su motivación para la redacción de sus artículos la participación de las cadenas de Markov en primer lugar, para mostrar que el enfoque de Chebyshev a la ampliación de la ley débil de un gran número de sumas de variables aleatorias dependientes podría llevarse aún más lejos. En segundo lugar, y probablemente más aplicable, es una animosidad entre Markov y Nekrasov PA. En 1902, Nekrasov, dijo que no sólo "por parejas independencia" ceder el WLLN de acuerdo a las deducciones Chebychev, pero también afirmó, sin muchas pruebas y sin razón, que no sólo era suficiente pero necesaria para la WLLN de sostener. Markov, por supuesto, refutó este argumento (y correctamente) en sus papeles, y por lo tanto hizo una adversario de toda la vida Nekrasov. Al hacer todo esto, utiliza su propio nombre en las cadenas de Markov en el marco de los procesos.

Un uso práctico de sus matemáticas se encuentran en el uso de cadenas para su modelo de la alteración de las vocales y consonantes en ruso las obras literarias. También escribió un libro de texto de estadística y probabilidad, uno de los mejores de su tiempo. Su obra influyó en muchos otros famosos matemáticos y estadísticos, incluyendo SN Bernstein, Romanovsky VI, y Jerzy Neyman (quien tomó las estadísticas a un nivel nuevo y más práctico). Después de contribuir en gran medida a la teoría de números, análisis, cálculo de diferencias finitas, teoría de la probabilidad (con las cadenas de Markov), y las estadísticas, que murió en Petrogrado (San Petersburgo antes, ahora Leningrado), la URSS, el 20 de julio de 1922.

LAS CADENAS DE MARKOV

Las cadenas de markok son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma deterministica a lo largo del tiempo en torno a un conjunto  de estados. Para desarrollar correctamente esta herramienta es necesario tener claros  los siguientes conceptos:

Estados
Los estados son la caracterización de la situación en que se halla el sistema en un instante dado, de dicha caracterización puede ser tanto cuantitativa como cualitativa.
El estado de un sistema en un instante t es una variable cuyos valores solo pueden pertenecer al conjunto de estaos en el sistema. El sistema modelizado por la cadena, por lo tanto, es una variable que cambia con el valor del tiempo, cambio al que llamamos transición.

Matriz de transición
Una matriz de transición es el arreglo numérico donde se encuentran las probabilidades de un estado a otro. Dicha matriz es cuadrada con tantas filas y columnas como estados que tiene el sistema, y los elementos de matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado actual es el correspondiente a la fila. La matriz debe cumplir con ciertos requisitos: La suma de las probabilidades de los estados debe ser igual a 1,  la matriz de transición debe ser cuadrada  y las probabilidades de transición deben estar entre 0 y 1.



Los valores dentro de la matriz representan la probabilidad de pasar de un estado a otro. 

Distribución actual (Vector Po)Es la manera en la que se distribuyen las probabilidades de los estados en un periodo inicial, (periodo 0). Esta información te permitirá averiguar cual será la distribución en periodos posteriores.

Estado estable: Se puede decir que el estado estable es la distribución de probabilidades que en cierto punto quedará fija para el vector P y no presentará  cambios en periodos posteriores.










ESTADO ABSORBENTE

Previamente hablamos de estado estable, ahora procederemos a explicar otra clase de estado, el absorbente.
Definición:
Estado cuya única transición posible es volver al mismo estado. Un estado absorbente constituye una clase final de un único estado.

En otras palabras un estado absorbente es aquel del que no se puede salir una vez se haya caído en él, es decir la probabilidad de permanecer en el mismo es de 100% .Por ejemplo si expresáramos  la vida como una cadena de markov, con la serie de estados: nacer, crecer, reproducirse y morir; la muerte sería obviamente el estado absorbente ya que no existe la posibilidad alguna de volver a un estado anterior. 


CÓMO PROCEDEMOS EN ESTOS CASOS?

Resolvamos un ejemplo




Fuentes consultadas:
http://investigaciondeoperaciones2markov.blogspot.com/p/teoria-y-ejercicios.html

Bibliografía:
Investigación de operaciones Hillier y Lieberman. Séptima Edición.
Investigación de operaciones Hamdy A. Taha. Séptima Edición.