miércoles, 5 de mayo de 2010

Caso 14: Ser ó no Ser, Realidad Simulada



Automatización Industrial

Al darse una mayor eficiencia en el sector de maquinaria, lograra que la empresa industrial disminuya la producción de piezas defectuosas, y por lo tanto aumente una mayor calidad en los productos que se logran mediante la exactitud de las maquinas automatizadas; todo esto ayudara a que la empresa industrial mediante la utilización de inversiones tecnológicas aumente toda su competitividad en un porcentaje considerable con respecto a toda su competencia, y si no se hace, la empresa puede sufrir el riesgo de quedarse rezagado. La simulación previa del funcionamiento de todas estas máquinas logran llevar a cabo el objetivo principal, maquinas realizando su trabajo sin fallo.

El área de automatización desarrolla actividades educativas de investigación y de extensión, en el área de sistemas dinámicos y sus aplicaciones al automático, identificación, modelamiento e Instrumentación.

La apertura ha mostrado que, a pesar de existir en el país, un elevado número de industrias en todos los campos de la producción, la gran mayoría no está en capacidad de competir en los Mercados Internacionales, tanto en cantidad como en calidad. La explicación salta a la vista cuando se observa y analiza el parque de máquina y empleados. Este está formado por una amplia gama de tecnologías, la mayoría de ellas con una alta participación manual en sus procesos. Como resultado, su rendimiento es mínimo y no hay homogeneidad en los producidos. El pretender reponer el parque industrial por aquel do alta tecnología de punta, una tarea que raya en lo imposible para la casi totalidad de las empresas debido a los altos costos que ello representa. Se puede contar con los dedos de las manos las actuales empresas nacionales que podrían hacerlo. Sin embargo, lo anterior no debe ser una razón para permanecer en el actual estado do atraso. Existen soluciones viables para que cada uno de los grupos o niveles tecnológicos y aprovechando sus propias máquinas y equipos, Implanten una automatización acorde a sus condiciones. Para formar el recurso humano capaz de diseñar y dirigir esta labor, se ha estructurado el programa académico a nivel de Pregrado de Ingeniería en Automatización Industrial. Dentro de las actividades educativas, el área de Automatización desarrolla cursos de pregrado involucrados dentro de los académicos de la Ingeniería, y un curso de postgrado Itinerante. En el área de Investigación y desarrollo, del Programe ofrece asesoría y soporte en el desarrollo e implementación de nuevas técnicas en el área de instrumentación, identificación, tratamiento de señales, ajuste y de controladores. Según la importancia de la automatización, se distinguen los siguientes grados:
Aplicaciones en pequeña escala como mejorar el funcionamiento de una maquina en orden a:
Mayor utilización de una máquina, mejorando del sistema de alimentación.
Posibilidad de que un hombre trabaje con más de una máquina.
Coordinar o controlar una serie de operaciones y una serie de magnitudes simultáneamente.
Realizar procesos totalmente continuos por medio de secuencias programadas.
Procesos automáticos en cadena errada con posibilidad de autocontrol y autocorrección de desviaciones.
Perfil Ocupacional es Diseñar, desarrollar, implementar procesos de Automatización en Industrias y Agroindustrias, tanto elementales como complejas. Analizar, adaptar y crear tecnología en el campo de la Automatización Industrial y Agroindustrial. Prestar asesoría a le Industria en estudios de factibilidad tendientes a su modernización. Prestar asesoría al Estado en la definición de los planes de fomento y modernización de la Industria y la Agroindustrial.

La introducción de las computadoras y de la microelectrónica extiende el campo de la automatización industrial ya que permite a través del manejo de la información (alimentación, procesamiento, salida) transformar los instrumentos de producción y aún la totalidad de los procesos productivos de algunas industrias. Se continúa y extiende así el proceso de automatización electromecánica que se Inicia a principios del siglo. La nueva era de la automatización se basa en la fusión de la electrónica con los antiguos mecanismos automáticos que funcionaban utilizando diferentes medios mecánicos neumáticos, etc. dando origen a los robot., a las máquinas herramientas computarizadas, a los sistemas flexibles de producción, etc. La automatización en los procesos Industriales, se basa en ¡a capacidad para controlar la información necesaria en el proceso productivo, mediante la ex ancle de mecanismos de medición y evaluación de las normas de producción. A través de diversos instrumentos controlados por la información suministrada por la computadora, se regula el funcionamiento de las máquinas u otros elementos que operan el proceso productivo. En concreto, este sistema funciona básicamente de la siguiente manera: mediante la utilización de captadores o sensores (que son esencialmente instrumentos de medición, como termómetros o barómetros), se recibe la información sobra el funcionamiento de las variables que deben ser controladas (temperatura, presión, velocidad, espesor o cualquier otra que pueda cuantificarse), esta información se convierte en una señal, que es comparada por medio de la computadora con la norma, consigna, o valor deseado para determinada variable. Si esta señal no concuerda con la norma de Inmediato se genere una señal de control (que es esencialmente una nueva Instrucción), por la que so acciona un actuador o ejecutante (que generalmente son válvulas y motores), el que convierte la señal de control en una acción sobre el proceso de producción capaz de alterar la señal original imprimiéndole el valor o la dirección deseada. En la práctica, la automatización de la industria alcanza diferentes niveles y grados ya que la posibilidad concrete de su implementación en los procesos de fabricación industrial varía considerablemente según se trate de procesos de producción continua o en serie. En efecto, en el primer caso, el primer caso, el conducto es el resultado de una serie de operaciones secuenciales, predeterminadas en su orden, poco numerosas, y que requieren su Integración en un flujo continuo de producción. Los principales aportes de la microelectrónica a este tipo de automatización son los mecanismos de control de las diversas fases o etapas productivas y la creciente capacidad de control integrado de todo el proceso productivo. Por su parte, la producción en serle está formada por diversas operaciones productivas, generalmente paralelas entre si o realizadas en diferentes períodos de tiempos o sitios de trabajo, lo que ha dificultado la integración de líneas de producción automatización. Desde mediados de los años setenta las posibilidades de automatización integrada han aumentado rápidamente gracias a los adelantos en la robótica, en las máquinas herramienta de control numérico, en los sistemas flexibles de producción, y en el diseño y manufactura asistidos por computadora (CAD/CAM).

Áreas de aplicación particulares.

La automatización industrial se aplica a todo tipo de empresas dedicada a la producción de bienes o de transformación de materias primas, empleando procesos industriales o agroindustriales, como son textiles, metalmecánica, productos derivados del cuero, productos químicos, alimentos, debidas, etc.

Herramientas de aplicación

Existen muchos software que ayudan a la simulación para llevar a cabo una buena automatización industrial, entre algunos por mencionar:

www.IEF-Werner.de

www.citect.com

www.wonderware.com

www.gefanuc.com

Líderes actuales

Entre los líderes actuales se componen de:

-Armadoras (Aviones, Carros, Motos etc… principalmente)

-En el área de alimentos (Refresqueras, Tequileras, etc..)

miércoles, 28 de abril de 2010

Caso 13 Plane-ación



La planeación de la producción es una de las actividades fundamentales
que se deben realizar, con el fin de obtener mejores resultados en esta
área. Básicamente se refiere a determinar el número de unidades que se
van a producir en un período de tiempo, con el objetivo de prever, en
forma global, cuáles son las necesidades de mano de obra, materia
prima, maquinaria y equipo, que se requieren para el cumplimiento del
plan.
Aunque planear la producción se relaciona con actividades de las
distintas áreas funcionales de la empresa, el punto de partida lo
constituye el área de mercado o sea la estimación de ventas que la
empresa proyecta realizar en un período de tiempo determinado.


Pasos para la planeación
PASO UNO: Definir el período para el cual va a planear la
producción.
PASO DOS: Calcule la producción requerida.
PASO TRES: Calcular las necesidades de materia prima.
PASO CUATRO: Cálculo de la necesidad de mano de obra, maquinaria y equipo.
PASO CINCO: Verificación del trabajo realizado.


HERRAMIENTAS:
En la actualidad existen diferentes alternativas de Sistemas de Gestión de la Producción (SPCP), acorde a las características propias del proceso productivo (variedad, volumen de producción, complejidad del producto, nivel técnico y tecnológico, etc.), cuyo objetivo es controlar el proceso de producción dentro del sistema empresarial.
Cuando se habla de planificación y control de la producción, se suele hacer referencia a métodos y técnicas que se pueden subdividir en aquellas dirigidas a planificar y controlar "operaciones de procesos "y "operaciones de proyecto." Dentro del primer grupo se pueden citar las Sistemáticas siguientes:

· MRP/ MRP-II (Planeación de Requerimientos Materiales y de Recursos Productivos), surgido en los Estados Unidos en la empresa IBM.
· JIT (Just in Time), origen japonés y desarrollado inicialmente por Toyota Motor Co.
· OPT (Tecnología de Producción Optimizada), desarrollada inicialmente por Eliyahu M. Goldratt, que más tarde dio lugar al surgimiento de la Teoría de las Limitaciones(TOC) y a su aplicación en producción (sistema DBR: drum-buffer-rope)
· LOP (Load Oriented Production), control de Producción Orientado a la Carga, sistema desarrollado en Europa Occidental .
Cuando la producción es intermitente y/o unitaria (operaciones de proyecto), donde el artículo final esta formado por varios subconjuntos y componentes (complejos en muchos casos) , la tendencia es utilizar un sistema basado en la teoría de redes; es estos casos se emplean los Sistemas de Planificación y Control de Proyectos que hacen uso de los caminos críticos: el PERT y el CPM, fundamentalmente y los sistemas que utilizan la denominada Línea de Balance (LOB; Line of Balance).
Otra técnica útil en la Planeación y Control de la Producción, es la Simulación del proceso productivo a partir de varios software (SIMAN; SIN FACTORY, etc.), permitiendo conocer los diferentes estados del proceso con sólo variar las variables fundamentales del sistema.
La Gestión Integrada de Materiales (GIM), es otra técnica organizativa que últimamente está recibiendo mucha atención, donde la misma esta dirigida a lograr una visión integrada del flujo de materiales con enfoque logístico.
La utilización de un sistema u otro depende de la estrategia de producción que siga la organización y de la estructura espacial del proceso productivo. Los criterios de los Sistemas de Gestión citados, son diferentes y se parte de unos datos de entrada (inputs) distintos.

La idea básica del JIT, es producir los artículos necesarios en las cantidades adecuadas y en los instantes de tiempo precisos; esto conduce a lotes de fabricación muy reducidos. Para reducir los tamaños de las series es necesario que los tiempos de puesta a punto de las máquinas sean lo más pequeño posible y la posibilidad de rechazo mínima.

La finalidad del OPT/TOC/DBR, es maximizar el flujo de salida del proceso productivo, el cual es considerado como una red por la que circulan los productos. Un principio fundamental de dicho enfoque, es que solamente son "críticas" las operaciones que representan limitaciones en el sistema y serán aquellas denominadas "cuellos de botella", y que son los recursos u operaciones que van a determinar el nivel de outputs y facturación del sistema productivo.

LOP, es un sistema desarrollado a partir de 1987 que se emplea en algunas empresas europeas (fundamentalmente alemanas) y que es útil en el control de la actividad de la producción en talleres caracterizados por grupos de celdas productivas o puestos de trabajos los cuales juntos pueden producir una variedad de productos diferentes (producción por orden) y se basa fundamentalmente en el control de producción orientado a la carga.


El PERT y el CPM, constituyen sistemas para la planeación, programación y control de proyectos, actividad que ha tenido y seguirá teniendo una importancia crítica, yendo en aumento el tamaño y la complejidad de los mismos y estando presentes en un amplio abanico de grandes organizaciones. El PERT/CPM como muchos autores lo tratan en sus estudios, no es una metodología pasajera, sino que su difusión ha sido enorme en todo el mundo y ha estado vinculada a grandes proyectos científicos. Parte de descomponer el proyecto en una serie de actividades, entendiéndose por actividad la ejecución de tareas que necesitan para su realización el consumo de varios recursos (mano de obra, tiempo, máquinas y materiales), considerando como característica fundamental su duración. Persigue conocer la duración mínima posible del proyecto considerando conjuntamente los costes y recursos asignados.

LOS SISTEMAS MPR: MRP-I Y MRP-II
Este sistema surge en la década de 1960, debido a la necesidad de integrar la cantidad de artículos a fabricar con un correcto almacenaje de inventario, ya sea de producto terminado, producto en proceso, materia prima o componentes. Puede decirse que el MRP es un Sistema de Control de Inventario y Programación que responde como antes se mencionó, a las interrogantes ¿Qué orden fabricar o comprar?¿Cuánta cantidad de la orden?¿Cuándo hacer la orden?
Su objetivo es disminuir el volumen de existencia a partir de lanzar la orden de compra o fabricación en el momento adecuado según los resultados del Programa Maestro de Producción.

Su aplicación es útil donde existan algunas de las condiciones siguientes:
- El producto final es complejo y requiere de varios niveles de subensamble y ensamble;
- El producto final es costoso;
- El tiempo de procesamiento de la materia prima y componentes, sea grande;
- El ciclo de producción (lead time) del producto final sea largo;
- Se desee consolidar los requerimientos para diversos productos; y
- El proceso se caracteriza por ítems con demandas dependientes fundamentalmente y la fabricación sea intermitente (por lotes).


La función de un sistema integrado de planificación de inventarios de fabricación con MRP, consiste justamente en traducir el Plan Maestro de Producción o Plan Director como también se le llama, en necesidades y órdenes de fabricación y/o compras detalladas de todos los productos que intervienen en el proceso productivo. También proporciona resultados, tales como, las fechas límites para los componentes, las que posteriormente se utilizan para la Gestión de Taller. Una vez que estos productos del MRP están disponibles, permiten calcular los requerimientos de capacidad detallada para los centros de trabajo en el área de producción.



APLICACION
Simula el futuro. La planeación estratégica puede simular el futuro en papel. Las alternativas de simulación son reversibles, a diferencia de las decisiones tomadas en la vida real sin haber considerado cuidadosamente circunstancias futuras.
Pero la simulación tiene otras ventajas: alienta al ejecutivo y le permite ver, evaluar y aceptar o descartar numerosas alternativas, lo cual sería imposible sin ella.
simulación, optimización y planeación de sistemas de producción

-Programas
-EasyProd
-ERP manager
-SAP
-Simuladores para investigación de operaciones
Gráfica de Barras. Muestra las líneas de tendencia. Gráfica de Gantt. Se utiliza en la resolución de problemas relativamente pequeños y de poca complejidad. Camino Crítico. Se conoce también como teoría de redes, es un método matemático que permite una secuencia y utilización óptima de los recursos.
Project.Pert- Cost. Es una variación del camino crítico, en la cual además de tener como objetivo minimizar el tiempo, se desea lograr el máximo de calidad del trabajo y la reducción mínima de costos.

miércoles, 21 de abril de 2010

Caso 12 "¿Quién Ganará?"


¿Qué es la teoría de juegos?
La teoría de los juegos es una rama de la matemática con aplicaciones a la economía, sociología, biología y psicología, que analiza las interacciones entre individuos que toman decisiones en una marco de incentivos formalizados (juegos). En un juego, varios agentes buscan maximizar su utilidad eligiendo determinados cursos de acción. La utilidad final obtenida por cada individuo depende de los cursos de acción escogidos por el resto de los individuos.

La teoría de juegos es una herramienta que ayuda a analizar problemas de optimización interactiva. La teoría de juegos tiene muchas aplicaciones en las ciencias sociales. La mayoría de las situaciones estudiadas por la teoría de juegos implican conflictos de intereses, estrategias y trampas. De particular interés son las situaciones en las que se puede obtener un resultado mejor cuando los agentes cooperan entre sí, que cuando los agentes intentan maximizar sólo su utilidad.

La teoría de juegos fue ideada en primer lugar por John von Neumann. Luego, John Nash, A.W. Tucker y otros hicieron grandes contribuciones a la teoría de juegos.



Juegos

Se denomina juego a la situación interactiva especificada por el conjunto de participantes, los posibles cursos de acción que puede seguir cada participante, y el conjunto de utilidades.


Estrategia

Cuando un jugador tiene en cuenta las reacciones de otros jugadores para realizar su elección, se dice que el jugador tiene una estrategia. Una estrategia es un plan de acciones completo que se lleva a cabo cuando se juega el juego. Se explicita antes de que comience el juego, y prescribe cada decisión que los agentes deben tomar durante el transcurso del juego, dada la información disponible para el agente. La estrategia puede incluir movimientos aleatorios.


Resultados de los juegos
El resultado de un juego es una cierta asignación de utilidades finales. Se denomina resultado de equilibrio si ningún jugador puede mejorar su utilidad unilateralmente dado que los otros jugadores se mantienen en sus estrategias. Un equilibrio estratégico es aquel que se obtiene cuando, dado que cada jugador se mantiene en su estrategia, ningún jugador puede mejorar su utilidad cambiando de estrategia. Alternativamente, un perfil de estrategias conforma un equilibrio si las estrategias conforman la mejor respuesta a las otras.


Forma normal versus forma extensiva de los juegos
En juegos de forma normal, los jugadores mueven simultáneamente. Si el conjunto de estrategias es discreto y finito, el juego puede ser representado por una matriz NxM. Un juego en forma extensiva especifica el orden completo de movimientos a través de la dirección del juego, generalmente en un árbol de juego.


Juegos NxM
Una forma de juegos de dos jugadores, en la cual un jugador tiene N acciones posibles y el otro tiene M acciones posibles. En un juego así, los pares de utilidades o pagos pueden ser representados en una matriz y el juego es fácilmente analizable. Los juegos NxM dan una idea de cómo puede verse la estructura de un juego mas complejo.


Matriz de resultados de un juego
La matriz de resultados de un juego representa el resultado del juego en una matriz. Supongamos que dos personas, A y B, están jugando un sencillo juego. El juego consiste en lo siguiente: la persona A tiene la posibilidad de elegir “arriba” o “abajo”, mientras que B puede elegir “izquierda” o “derecha”. Los resultados del juego se representan en la matriz de resultados.


Estrategia dominante
Una estrategia dominante es aquella elección que realiza el jugador independientemente de lo que haga el otro. En el juego representado en la matriz de arriba, la estrategia dominante para A es elegir “abajo”, mientras que la estrategia dominante para B es elegir “izquierda”. Estas estrategias dominantes dan como resultado el equilibrio de estrategias dominantes del juego. Si cada jugador tiene una estrategia dominante se puede predecir el resultado del juego.


Equilibrio de Nash
El equilibrio de Nash fue formulado por John Nash, que es un matemático norteamericano, en 1951. Un par de estrategias es un equilibrio de Nash si la elección de A es óptima dada la de B y la de B es óptima, dada la de A. El equilibrio de Nash se diferencia del equilibrio de las estrategias dominantes en que, en el equilibrio de las estrategias dominantes, se exige que la estrategia de A sea óptima en el caso de todas las elecciones óptimas de B, y viceversa. El equilibrio de Nash es menos restrictivo que el equilibrio de estrategias óptimas.

Un juego puede tener más de un equilibrio de Nash. Existen juegos en los no existe un equilibrio de Nash.


Juegos de suma constante
Juegos en los que para cada combinación de estrategias, la suma de los pagos (o utilidades) a cada jugador es la misma. Todas las situaciones de intercambio que no permiten la creación o destrucción de recursos son juegos de suma constante.


Juego repetido
En un juego repetido un grupo fijo de jugadores juega un juego dado repetidamente, observando el resultado de todas las jugadas pasadas antes que comience la siguiente jugada. La posibilidad de observar las acciones y los resultados pasados antes de que comience la siguiente jugada permite que los jugadores penen o premien las acciones pasadas, de modo que surgen estrategias que no surgirían en los juegos simples no repetidos. Por ejemplo, repitiendo el juego del dilema del prisionero un número suficiente de veces da como resultado un equilibrio en el cual ambos prisioneros nunca confiesan.


Componentes de todo juego
Agentes: individuos, empresas, grupos de personas, países, etc.
Estrategias: son los planes de acción: decisiones previstas con respecto al futuro.
*Estrategia dominante: da el mejor resultado independientemente de lo que haga el adversario.
*Estrategia dominada: da el peor resultado independientemente de lo que haga el adversario.
Combinación de las diferentes estrategias en un juego: “matriz de pagos” o de resultados o de beneficios o pérdidas.
Equilibrio: es una posición en la cual no hay incentivo alguno para moverse o cambiar de estrategia, dada la del adversario.


Tipos de juegos
Juegos Suma – Cero:
Lo que un jugador gana es lo que el otro pierde. Los actores sociales, económicos o políticos deben entender la naturaleza de este tipo de juego.
Ejemplo: fútbol, básquet, etc.
A - U
+1 -1 =0
+3 -3 =0
-4 +4 =0
Juegos de Cooperación - Conflicto :
Tienen un rango más amplio de acción y de posibilidades. Y es muy importante su aplicación en el campo de la política y de la gerencia política.
Ejemplos: negocios entre socios, negociaciones empresa-sindicato, negociaciones entre países, acuerdos entre partidos políticos, etc.
A - U
Gana Pierde
Pierde Gana
Pierde Pierde
Gana Gana


Reglas del comportamiento estratégico
“Mire adelante, razone hacia atrás”:
Adelantarse a las posibles reacciones o respuestas de los adversarios.
Ejemplo: Ajedrez.
“Si tiene una estrategia dominante, úsela”:
Es lo racional. Su adversario sabrá que usted va a usarla y actuará en consecuencia.
“Después de desechar las estrategias dominadas, y de buscar estrategias dominantes y no encontrarías, entonces busque un equilibrio de juego”.


Aplicaciones

La teoría de juegos tiene la característica de ser un área en que la sustancia subyacente es principalmente una categoría de
matemáticas aplicadas, pero la mayoría de la investigación fundamental es desempeñada por especialistas en otras áreas. En algunas universidades se enseña y se investiga casi exclusivamente fuera del departamento de matemática.
Esta teoría tiene aplicaciones en numerosas áreas, entre las cuales caben destacar las
ciencias económicas, la biología evolutiva, la psicología, las ciencias políticas, la investigación operativa, la informática y la estrategia militar.
La teoría de juegos es una poderosa herramienta usada para la modelación y predicción de patrones.

En el campo militar: definición de pensamiento estratégico como arte de vencer al adversario sabiendo que éste está tratando de hacer lo mismo con uno (supone un nivel de conflicto).
Negociación: dos personas o agentes negocian los puntos de intereses que muchas veces son contrapuestos.
Esta teoría ayuda entender como negocian las empresas y los sindicatos. Por ejemplo: cada uno parte de sus intereses máximos contrapuestos para llegar al punto medio negociado. Si hay ruptura, los dos pueden perder. Si llegan a un acuerdo los dos pueden ganar (aumento de: producción, beneficios, salarios).
Pueden llegar a un acuerdo negociado; o a un desacuerdo destructivo.


Economía
:
La razón por la que el monopolio es simple desde el punto de vista de la Teoría de Juegos es que puede ser tratado como un juego con un único jugador. La razón por que la competencia perfecta es simple es que el número de jugadores es de hecho infinito, de manera que cada agente individual no puede tener un efecto sobre agregados de mercado si el o ella actúa individualmente.
En la ciencia política:


La Teoría de Juegos no ha tenido el mismo impacto en la ciencia
política que en economía. Tal vez esto se deba a que la gente conduce menos racionalmente cuando lo que está en juego son ideas que cuando lo que está en juego es su dinero. Sin embargo, se ha convertido en un instrumento importante para clarificar la lógica subyacente de un cierto número de problemas más paradigmáticos.


En la biología:

Es imposible igualar el entusiasmo con que los biólogos evolucionistas que usan la teoría de juegos explican de conducta animal. No sé si escogen historias poco delicadas deliberadamente, para dar un poco de sabor a sus relatos con implicaciones sexuales, o si éstos son realmente los mejores ejemplos para ilustrar de qué manera la teoría de juegos es relevante. En cualquier caso, lo que los biólogos dicen sobre el pez sol es esto.

La teoría de juegos sirve para explicar por que las dos clases de machos pueden coexistir en proporciones fijas.Para que una historia de teoría de juegos se aguante en este contexto, necesitamos una explicación de cómo los genes se distribuyeron exactamente en la forma necesaria para asegurar a cada pez optimizaría, dada la mezcla actual en la población de hogareños golfos. No basta con decir que la Naturaleza, "con las garras y las fauces llenas de sangre", actuará de forma que sólo quienes se adaptan sobreviven. Esta respuesta rehúsa el problema de cómo y por qué resulta que a veces adaptarse implica actuar racionalmente. Esta parece ser una de esas grandes cuestiones que no tienen respuestas fáciles.
En la filosofía:
Los especialistas en Teoría de Juegos creen que pueden demostrar formalmente por qué incluso el individuo más egoísta puede descubrir que con frecuencia, cooperar con sus vecinos en una relación a largo plazo redundará en su propio interés ilustrado. Con este fin estudian los equilibrios de juegos con repetición –juegos que los mismos jugadores juegan una y otra vez-. Pocas cosas han descubierto en esta área hasta el presente que hubieran sorprendido a David Hume, quien hace ya unos doscientos años articuló los mecanismos esenciales. Estas ideas, sin embargo, están ahora firmemente basadas en modelos formales. Para avanzar más, habrá que esperar progresos en el problema de la selección de equilibrios en juegos con múltiples equilibrios. Cuando estos progresos se den, sospecho que la filosofía social sin teoría de juegos será algo inconcebible – y que David Hume será universalmente considerado como su verdadero fundador.
Tipos de estrategias:
-Estrategia dominante
Se dice que un jugador posee una estrategia dominante si una estrategia particular es preferida a cualquier otra estrategia a disposición de el. Es posible que cada uno de los dos jugadores tenga estrategia dominante.
-Estrategia mixta

Es una combinación de dos estrategias escogidas a azar, una cada vez, según determinadas probabilidades, en contraste con una estrategia pura que no contiene tales elementos de azar.

-Estrategia maximin y mínimas
Las estrategias maximin y minimax conducen a los dos jugadores del juego a situaciones en las que ningún jugador tiene razón o incentivo alguno para cambiar su posición.

miércoles, 14 de abril de 2010

Caso 11: "Simulación usada en agentes"



Agente es todo aquello que puede considerarse que percibe su ambiente mediante sensores y que responde o actúa en tal ambiente por medio de efectores.

El agente inteligente es capaz de autoevaluarse, autoaprender y cambiar su acción de acuerdo al ambiente.

: Un
mapeo de secuencias de percepciones a acciones es una tabla cuyas entradas describen las acciones que un agente emprende como respuesta a cada una de las secuencia de percepciones posibles. Si disponemos de tal tabla, podemos construir un agente cuyo comportamiento se base en el contenido de ésta.


Ventajas: los agentes representan una abstracción más para diseñar y desarrollar software, y que entra a ser parte de las abstracciones ya existentes, que han ayudado a administrar la complejidad inherente al software. Y así como muchos sistemas pueden ser modelados en forma natural y fácilmente entendibles como un conjunto de objetos pasivos que interactúan entre sí, muchos otros sistemas pueden modelarse como una colección de agentes autónomos interactuando entre si.

Aprendizaje automático o Máquinas de Aprendizaje es una rama de la Inteligencia Artificial cuyo objetivo es desarrollar técnicas que permitan a las computadoras aprender. De forma más concreta, se trata de crear programas capaces de generalizar comportamientos a partir de una información no estructurada suministrada en forma de ejemplos. Es, por lo tanto, un proceso de inducción del conocimiento.


Inteligencia Artificial:

  • Disciplina científico-técnica que trata de crear sistemas artificiales capaces de comportamientos que, de ser realizados por seres humanos, se diría que requieren inteligencia.

  • Estudio de los mecanismos de la inteligencia y las tecnologías que lo sustentan.

  • Intento de reproducir (modelar) la manera en que las personas identifican, estructuran y resuelven problemas difíciles (Pople, 84)

  • Son ciertas herramientas de programación, entendiendo por herramientas:

    • Lenguajes: LISP, PROLOG

    • Entornos de desarrollo: shells

    • Arquitecturas de alto nivel: nodo y arco, sistemas de producciones


La Inteligencia Artificial ha tenido que hacer frente a una serie de problemas:

  • Los computadores no pueden manejar (no contienen) verdaderos significados.

  • Los computadores no tienen autoconciencia (emociones, sociabilidad, etc.).

  • Un computador sólo puede hacer aquello para lo que está programado.

  • Las máquinas no pueden pensar realmente.


En la Teoria de los lenguajes formales, la disciplina perteneciente a la informática, se describen tres tipos de autómatas que reconocen tipos diferentes de lenguajes: los autómatas finitos, los autómatas a pila y las máquinas de Turing.

Autómatas finitos: Un Automata finito es similar a una maquina de estado finito sin embargo lo que caracteriza a una de la otra es que los automatas finitos solo tienen dos estados, un estado interno y uno de rechazo.

Un autómata finito o máquina de estado finito es un modelo matemático de un sistema que recibe una cadena constituida por símbolos de un alfabeto y determina si esa cadena pertenece al lenguaje que el autómata reconoce.


Autómatas a pila: una máquina abstracta que consta de tres componentes: una cadena de entrada, un control finito y una pila.

Los autómatas a pila son máquinas abstractas que reconocen exactamente la clase de los lenguajes independientes del contexto.

Máquinas de Turing: Una máquina de Turing es un autómata que se mueve sobre una secuencia lineal de datos. En cada instante la máquina puede leer un solo dato de la secuencia (generalmente un carácter) y realiza ciertas acciones en base a una tabla que tiene en cuenta su "estado" actual (interno) y el último dato leído. Entre las acciones está la posibilidad de escribir nuevos datos en la secuencia; recorrer la secuencia en ambos sentidos y cambiar de "estado" dentro de un conjunto finito de estados posibles.


Entropía: (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir trabajo. Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece en el transcurso de un proceso que se dé de forma natural.

La segunda ley de la termodinámica dice que la entropía (desorden) de un sistema aislado, que no está en equilibrio, tenderá a incrementarse en el tiempo, aproximándose a un valor máximo en equilibrio. En términos simples el calor fluirá espontáneamente (o naturalmente) desde el sector de más alta temperatura hacia el de más baja temperatura, hasta que ambos sectores alcancen la misma temperatura, pero no en sentido contrario.

Minimo Energetico: En las reacciones químicas, como en toda la naturaleza, opera el principio de mínima energía según el cual los sistemas materiales tienden a evolucionar en el sentido en el que disminuye su energía potencial.

miércoles, 17 de marzo de 2010

Caso 9: "Control y simulación del caos"



Teoria del caos

Poema folclórico británico:

"Por un clavo se perdió la herradura
Por una herradura se perdió el caballo
Por un caballo se perdió el jinete
Por un jinete se perdió la batalla
Por una batalla se perdió el reino"
Conclusión:Por un clavo se perdió el reino. (Eso es Teoría del Caos.)


¿Por qué un sistema caótico es tan cambiante?

Porque todo esta influido por todo. Todo está interconectado con todo.


Lorentz acuñó el término efecto mariposa (“el aleteo de una mariposa en California, puede provocar una tormenta tropical en Australia”) para indicar aquellas situaciones en las que una pequeña causa puede multiplicarse de tal modo que acabe produciendo un resultado catastrófico.
Estas situaciones se caracterizan por:


*Estar descritas matemáticamente por sistemas de ecuaciones diferenciales no lineales
*Presentar gran sensibilidad a las condiciones iniciales, con sinergias y retroalimentaciones, en los que aparecen en consecuencia "efectos mariposa"
*Ser disipativas, es decir que para evolucionar necesitan un aporte constante de energía
*En su devenir se va perdiendo información de modo que al cabo de un tiempo, más o menos largo, pierden toda relación con las condiciones iniciales


Se dice que presentan un comportamiento de caos determinista.
La expresión caos determinista puede parecer una contradicción en los términos, enfrentados caos y desorden frente a determinismo y orden. Con ella precisamente quiere darse a entender que la perdida de la información que caracteriza al caos no es debida a circunstancias más o menos aleatorias, como las que se contemplan en la última revolución de la Física, la mecánica cuántica, sino a las precisas leyes deterministas de la física clásica.

En la teoría del caos hay tres temas subyacentes:

*El control: La teoría del caos demuestra que el sueño de poder dominar toda la naturaleza es una ilusión. Hemos de aceptar la impredecibilidad del caos en vez de resistirnos inútilmente a las incertidumbres de la vida.

*La creatividad: Es algo inherente al caos. Pactar con el caos significaría no dominarlo sino ser participantes creativos.

*La sutileza: Más allá de nuestros intentos por controlar y definir la realidad se extiende el infinito reino de la sutileza y la ambigüedad, mediante el cual nos podemos abrir a dimensiones creativas que vuelven más profundas y armoniosas nuestras vidas.



Los atractores

Los atractores extraños representan lo "extraño" en el impredecible comportamiento de sistemas caóticos complejos. (En sistemas simples los atractores suelen ser puntos).
Como Escohotado en "Caos y Orden" señala, "La dinámica clásica enseña que cualquier trayectoria supone alguna fuerza, responsable del desplazamiento de tal o cual masa desde un lugar a otro. En contraste con ello, ciertos atractores dependen como cualquier sistema físico de limitaciones externas, pero reelaboran espontáneamente esos límites con cascadas de bifurcaciones, que acaban resolviéndose en alguna fluctuación interna triunfante.
A diferencia de los sistemas inerciales, ese tipo de existencia elige hasta cierto punto su evolución, incluyendo algo configurador más parecido a los genes, que está animado y no se despliega en una sino en todas direcciones.
El modelo lineal empieza y termina por la predicción, idealizando constantemente su contenido, mientras los atractores son extraños o caprichosos, aunque llevan en sí cierta forma que se autoproduce; cada uno de sus momentos va inventándose, y desde esa libertad/necesidad que es su caos "atrae" constantemente algo afín (nunca igual, nunca distinto) a una particular existencia."


Caos en la naturaleza


Como ejemplo la caída de los árboles de la selva. Cuando un árbol cae deja un claro por donde entra la luz, las condiciones cambian, la vegetación se ve muy afectada. Otras veces, al caer un árbol, arrastra a otros, formándose claros de cientos de metros cuadrados. El dibujo que forman los claros de la selva formados por la caída de árboles representan una estructura fractal de un sistema en punto crítico.

La autoorganización de las colonias de hormigas.

Su comportamiento global sorprende: si contamos el número de individuos activos, a lo largo del tiempo, comprobaremos que el número fluctúa con una periodicidad de unos 25 minutos. Cada cierto tiempo ningún elemento está activo. Ese ciclo de actividad podría ser sólo un reflejo de sincronización, sin embargo la actividad individual es totalmente aperiódica, caótica, sin ningún tipo de regularidad intrínseca. Al aumentar el número de individuos aparece un comportamiento colectivo hasta que, para cierta densidad de hormigas, comienzan a aparecer oscilaciones regulares. Si artificialmente cambiamos la densidad de las hormigas la colonia redefine sus fronteras, para volver a la densidad óptima para mantenerlas autoorganizadas. En esa densidad crítica el sistema se comporta como un todo, a medio camino entre el orden y el desorden.

La macroevolución:

El proceso evolutivo se puede representar en forma de árbol, cuya estructura dendriforme es fractal. Las regularidades que aparecen entre gurpos taxonómicos revelan la existencia de leyes invariantes a cualquier escala taxonómica, propiedad típica de los fractales.de caos ordenado, según HocEl 99,99% de las formas vivientes que han aparecido sobre la Tierra se han extinguido. Veamos si hay alguna ley sobre la probabilidad de extinción de una especie. Si la adaptación confiere ventaja a la especie, cabe presumir que los grupos más persistentes serán los menos propensos a desaparecer. Pero el estudio de los patrones de extinción nos dice que la probabilidad de extinción de un grupo cualquiera se muestra constante a lo largo del tiempo y no depende de cuánto llevara existiendo en el planeta.En su teoría, Van Valen considera que cada especie intenta mejorar su posición dentro del ecosistema: además de interaccionar con el medio físico también interacciona con el ambiente biótico. Un cambio en la situación de una especie induce a cambios en las demás, cuya alteración influirá, a su vez, en la primera, y así en idas y venidas sin fin. Así el sistema evoluciona hacia un punto crítico donde se aprecia que ciertas partes del sistema permanecen inalteradas durante largo tiempo, mientras que otras se modifican con rapidez. La especie cambia sólo para persistir: la selección natural no mejora la adaptación de la especie: sólo la mantiene. Las especies incapaces de cambiar se extinguen.

Simulación de Caos

Las siguientes dos gráficas muestran la simulación de caos, que permite observar claramente que aunque se tenga una ecuacion y dando valores iniciales con un rango de (una milesima) el resultado será siempre muy diferente...



martes, 9 de marzo de 2010

Caso 8: "¡Terrormoto!"



Introducción:

Tenemos la impresion de que pisamos tierra firme, pero no es asi. La Litosfera esta sujeta a movimientos mas o menos intensos, que se producen con mucha frecuencia. Los movimientos de la litosfera son denominados sismos

Los sismos que se producen cada año se calculan en centenares de millares de ellos; los observadores registran anualmente mas de treinta mil. Por fortuna, muy pocos alcanzan la categoria de terremotos, y la mayoria ocurren en fondos oceanicos.

Se denominan terremotos, movimientos sismicos o sismos a los movimientos bruscos y repentinos del suelo, de intensidad sumamente variable, que oscilan entre las sacudidas leves que solo registran los aparatos mas sensibles, y las fuertes que devastan las ciudades y llevan la desolacion y muerte.

Los terremotos pueden definirse como movimientos violentos de la corteza terrestre. Ocurre en forma de sacudidas. La principal dura varios segundos, a lo sumo, un minuto o dos; pero previamente pueden registrarse sacudidas de menor intensidad.


Naturaleza del Movimiento Sismico


El movimiento sismico obedece a las mismas leyes del movimiento fisico de los cuerpos y es el resultado de las vibraciones y ondulaciones de los estratos terrestres; tanto las unas como las otras producen sacudidas que se designan con el nombre de ondas sismicas.

Cuando en un punto del interior de la corteza terrestre se produce un choque resulta un movimiento vibratorio que se propaga en todos los sentidos por las ondas sismicas. Las vibraciones son longitudinales y transversales; las primeras se propagan en el interior de la tierra y llegan debiles a grandes distancias y fuertes a pequeñas distancias.

Hipocentro (ó Foco)

Es el punto en la profundidad de la Tierra desde donde se libera la energía en un terremoto. Cuando ocurre en la corteza de ella (hasta 70 km de profundidad) se denomina superficial. Si ocurre entre los 70 y los 300 km se denomina intermedio y si es de mayor profundidad: profundo (recordemos que el centro dela Tierra se ubica a unos 6.370 km de profundidad).

El punto donde se origina el terremoto en el interior de nuestro planeta es denominado hipocentro. El hipocentro se localiza frecuentemente entre 15 y 45 Km de la superficie, pero algunas veces su profundidad se ha calculado en mas de 600 Km.

Epicentro

Es el punto de la superficie de la Tierra directamente sobre el hipocentro. Es, desde luego, la localización de la superficie terrestre donde la intensidad del terremoto es mayor.

El punto situado en el interior de la corteza donde se produce el choque y de donde se propagan las ondas sismicas se llama hipocentro o centro sismico; el punto situado sobre la superficie terrestre en direccion vertical al centro se llama epicentro.

La zona que lo rodea y donde los efectos de la sacudida han sido percibidos se llama zona epicentral. Las vibraciones longitudinales y transversales que llegan a esta zona originan ondas superficiales que irradiando del epicentro se propagan paralelamente a la superficie de la tierra, de la misma manera que las ondas del mar.
Tipos de sacudidas


* Sacudidas Verticales: Los movimientos se transmiten de abajo arriba, es decir el lugar de la tierra sacudido se encuentra sobre la vertical sismica, el epicentro. Los efectos de estas sacudidas son extraordinarios.

* Sacudidas Horizontales: Son my comunes y el movimiento sismico tiene una direccion determinada. Los edicicios derrumbados indican esa direccion.

* Sacudidas Ondulatorias: La superficie del suelo se mueve de la misma manera que que un mar agitado.

Es muy dificil que un terremoto se manifieste por un solo tipo de sacudida sismica; por lo general se combinan los diversos tipos. Un terremoto no es un hecho aislado, sino que es el resultado de una serie de sacudidas variables que decrecen en intensidad y frecuencia.

En un terremoto se producen tres categorias de sacudidas que forman el periodo sismico el cual consta de una fase inicial (sacudidas preliminares), una fase maxima (sacudidas principales) y una fase final en la que las sacudidas poco intensas se repiten un tiempo mas o menos largo.

Intensidad y duración

En terremoto comienza casi siempre por vibraciones de pequeña amplitud, pero a veceslas sacudidas son aisladas y el terremoto o sismo esta representado por un movimiento unico del suelo.

En la mayoria de los casos el fenomeno se prolonga y se necesitan varios meses para que la region agitada recupere su completa tranquilidad. La duracion de un movimiento sismico es el tiempo durante el cual la superficie de la tierra, en el lugar donde se advierte la sacudida, es puesta en movimiento por las ondas sismicas.

Desde luego, hay que distinguir una duracion total del movimiento sismico y una duracion sensible. La total comprende el paso de todas las ondas sismicas, pero de estas solo se advierten las mas intensas, pues las otras son sensibles unicamente para los aparatos.

La duracion sensible de un terremoto, raras veces pasa de algunos segundos, cuando dura de 30 a 40 segundos es de efectos catastroficos. El terremoto de Andalucia del año 1844, duro 20 segundos; el de Calabria, en 1905, duro 40 segundos con breves intervalos.

La intensidad de una sacudida sismica es la energia con que se mueve el suelo. La intensidad de un terremoto se determina por las escalas sismicas que constan de 10 a 12 grados; estas clasificaciones responden a los efectos que producen los terremotos.

El primer grado corresponde a las sacudidas instrumentales que solo perciben los aparatos sismicos y el 12 grados a las sacudidas desastrosas y catastroficas. Los efectos de los terremotos no estan relacionados con la duracion de la sacudida sino con la intensidad.


Efectos de los terremotos

Los efectos que producen los terremotos son las consecuencias del paso de las ondas sismicas a traves de las capas terrestres y de su llegada a la superficie. Los efectos pueden ser momentaneos como los rumores y maremotos, y permanentes como derrumbamientos de edificios, grietas, fallas dislocaciones, cambios hidrograficos, etc.

Los efectos mas desastrozos de los terremotos se producen en las areas densamente pobladas. En 1923, un terremoto sacudio la isla de Honshu, en Japon. Este sismo, cuya intensidad se prolongo solo 16 segundos, afecto una zona donde vivian mas de siete millones de personas y destruyo mas de 450,000 edificios en las ciudades Tokio y, Yokohama, matando mas de ciento cincuenta mil personas.

Los rumores sordos, prolongados, son ruidos subterraneos indefinibles que preceden, acompañan y siguen a los terremotos y que aunmentan lo tragico del fenomeno. Los terremotos pueden producir olas sismicas que ocasionan terribles inundaciones.

Cuando un terremoto es de intensidad media, se forman grietas en los muros de las casas, se caen las cornisas, pero cuando alcanza su grado maximo, todos los edificios se derrumban como si fueran de naipes y aplastan bajo sus escombros a miles de victimas.

Los temblores producen en el suelo grietas, hendiduras y desniveles; no es raro que durante las sacudidas esas grietas se abran y cierre alternativamente. Los estratos de la superficie terrestre por efecto de las sacudidas se desplazan.

Los manantiales tambien sufren los efectos sismicos: algunos desaparecen por breve tiempo o definitivamente, otros cambian la composicion mineral de sus aguas, varian de temperatura o se desecan. No es raro tampoco que a los sismos acompañe la formacion de volcanillos de lodo que desaparecen pronto.

Si bien no es posible pronosticar cuando se va a producir un terremoto, en las regiones expuestas se producen ciertos fenomenos precursores. Entre eso fenomenos citaremos los ruidos subterraneos, las variaciones del nivel de agua de los pozos, el recalentamiento del suelo, las perturbaciones atmosfericas y la agitacion que manifiestan muchos animales domesticos.

Origen de los terremotos

La causas que originan las sacudidas son muy distintas, lo que ha permitido clasificar los terremotos en tectonicos y volcanicos. Los tectonicos son los mas numerosos y la causa que los produce es el desequilibrio de las capas de la corteza terrestre producido por el fenomeno de la contraccion que produce las arrugas o pliegues.


Placas: La corteza de la Tierra estáconformada por una docena de placas de aproximadamente 70 km de grosor, cada una con diferentes características físicas y químicas. Estas placas (tectónicas) se están acomodando en un proceso que lleva millones de años y han ido dando la forma que hoy conocemos a la superficie de nuestro planeta.

Han originado los continentes y los relieves geográficos en un proceso que está lejos de completarse. Habitualmente estos movimientos son lentos e imperceptibles, pero en algunos casos estas placas chocan entre sí como gigantescos témpanos de tierra sobre un océano de magma presente en las profundidades de la Tierra, impidiendo su desplazamiento.

Entonces una placa comienza desplazarse sobre o bajo la otra originando lentos cambios en la topografía. Pero si el desplazamiento es dificultado, comienza a acumularse una energía de tensión que en algún momento se liberará y una de las placas se moverá bruscamente contra la otra rompiéndola y liberándose entonces una cantidad variable de energía que origina el Terremoto.

Fallas: Las zonas en que las placas ejercen esta fuerza entre ellas se denominan fallas y son, desde luego, los puntos en que con más probabilidad se originen fenómenos sísmicos. Sólo el 10% de losterremotos ocurren alejados de los límites de estas placas.

Ahora bien estos pliegues no se producen siempre lentamente como en los casos de elevacion y descenso de las costas. A veces bajo las presiones de las gigantescas fuerzas centrales, del globo, los estratos al doblarse ya sea bajando o subiendo se quiebran.

Zonas enteras de estratos pueden quedar aplastadas y desechas, las capas pueden desligarse las unas sobre las otras, dislocarse, agrietarse. Debido precisamente a estos fenomenos de dislocaciones interna, el estrato conmovido por el choque produce vibraciones, las cuales se propagan instantaneamente a todas las capas rocosas superiores y circundantes.

Desde el punto de vista interior donde se ha producido la fractura parte una sacudida que llega a la superficie de la tierra y origina un estremecimiento del suelo: un terremoto o sismo. Han recibido el nombre de terremotos tectonicos porque estan relacionados con la arquitectura del globo, porque originan el relieve terrestre.

Los terremotos volcanicos son los que provienen de la accion volcanica, preceden a las erupciones, las acompañan, o son una consecuencia debido al agrietamiento del cono volcanico.

Su causa es la fuerza expansiva de los gases y vapores que producen explociones durante la ascension del magma. No bien cesa la presion ejercida sobre los gases, se escapan con formidable impulso, conmoviendo el volcan y parte de los terrenos circundantes.

El Sismografo


El sismografo es el aparato de precision empleado para registrar la ocurrencia de los terremotos. Como las ondas sismicas recorren grandes distancias, los terremotos pueden ser registrados por sismografos situados muy lejos del epicentro.

Mediante el sismografo se puede conocer la duracion, intensidad y lugar en que se produjo un terremoto. El principio del sismografo es relativamente simple. En estos momentos existen sismografos electronicos de increible presicion.

Teorias de la conspiración del terremoto en chile

Han surgido en Internet teorías de la conspiración que apuntan a que el terremoto fue generado por HAARP (High Frequency Active Auroral Research Program), el misterioso programa de investigación conjunta de la Fuerza Naval y la Fuerza Áerea de Estados Unidos y la comunidad científica de ese país con instalaciones en Alaska.

HAARP parece ser la prolongación de la tecnología ideada por el genio Nikola Tesla, que construyerá desde el año 1907 un arma para generar tsunamis (que nunca fue probada) y que diseñara el prototipo de HAARP, en la famosa Torre de Tesla, la cual se basaba en una serie de antenas que emiten ondas elecromagnéticas a la ionósfera la cual las rebota de nuevo a la Tierra, y que pueden así ser dirigidas al sitio que se quiera.

Básicamente esto es lo mismo que hace HAARP, por lo cual existe la posibilidad científica de que HAARP sea capaz de manipular el clima y generar cataclismos naturales (e incluso, según la teoría de Tesla, hasta alterar las ondas cerebrales de los seres humanos).

Un documental de History Channel demuestra como el gobierno de Estados Unidos ya ha usado en el pasado tecnología para alterar el clima en la Guerra de Vietnam, así como la posibilidad, con la tecnología actual, de generar terremotos.

Se culpa a HAARP de varios sucesos extraños en los últimos meses: la luz espiral en el cielo de noruega, el terremoto de Haiti, o los extraños fenómenos metereológicos observados en Australia hace unas semanas.


Estas son estadisticas que muestran los terremotos más fuertes que han sucedido en el mundo.





Sismos registrados el 09-03-2010 tomando los datos a las 5:00 pm

1. Off the coast of Libertador O'Higgins, Chile

Magnitude 5 earthquake @ 09/03/2010 03:59:23 p.m.

34.7011 S, 73.8631 W

2. Northern Alaska

Magnitude 2.8 earthquake @ 09/03/2010 02:39:01 p.m.

66.2375 N, 142.2655 W

3. Channel Islands region, California

Magnitude 3 earthquake @ 09/03/2010 02:12:10 p.m.

33.4182 N, 119.16 W

4. Central California

Magnitude 3.7 earthquake @ 09/03/2010 02:05:12 p.m.

36.0597 N, 117.8727 W

5. Southern California

Magnitude 2.5 earthquake @ 09/03/2010 01:38:00 p.m.

32.7033 N, 116.0716 W

6. Southern Alaska

Magnitude 3.3 earthquake @ 09/03/2010 11:05:21 a.m.

61.6157 N, 151.469 W

7. Kenai Peninsula, Alaska

Magnitude 2.7 earthquake @ 09/03/2010 09:55:16 a.m.

59.7151 N, 151.4434 W

8. Andreanof Islands, Aleutian Islands, Alaska

Magnitude 4.6 earthquake @ 09/03/2010 08:52:29 a.m.

51.3064 N, 173.5619 W

9. Andreanof Islands, Aleutian Islands, Alaska

Magnitude 5.7 earthquake @ 09/03/2010 08:06:52 a.m.

51.5794 N, 173.5198 W

10. Kenai Peninsula, Alaska

Magnitude 2.7 earthquake @ 09/03/2010 07:18:46 a.m.

60.3703 N, 150.9405 W

11. South of the Fiji Islands

Magnitude 5.1 earthquake @ 09/03/2010 06:42:44 a.m.

23.6489 S, 179.8349 W

12. Bio-Bio, Chile

Magnitude 4.6 earthquake @ 09/03/2010 05:43:47 a.m.

37.4563 S, 73.4668 W

13. Bio-Bio, Chile

Magnitude 4.9 earthquake @ 09/03/2010 04:48:19 a.m.

37.4552 S, 73.3125 W

14. Offshore Northern California

Magnitude 2.8 earthquake @ 09/03/2010 04:36:20 a.m.

40.2887 N, 124.403 W

15. Central California

Magnitude 3 earthquake @ 09/03/2010 03:06:35 a.m.

36.0595 N, 117.8912 W

16. Central California

Magnitude 3.3 earthquake @ 09/03/2010 01:54:27 a.m.

36.0643 N, 117.882 W

17. Central Alaska

Magnitude 2.6 earthquake @ 09/03/2010 12:59:34 a.m.

63.0739 N, 150.8834 W

18. Southern California

Magnitude 2.5 earthquake @ 09/03/2010 12:08:38 a.m.

32.9876 N, 116.361 W

19. Samar, Philippines

Magnitude 5.2 earthquake @ 09/03/2010 12:00:41 a.m.

11.2528 N, 125.457 E