748 resultados para COMPUTACIÓN
Resumo:
La memoria transaccional (TM) constituye un paradigma de concurrencia optimista en arquitecturas multinúcleo que puede ser de utilidad en la explotación de paralelismo en aplicaciones irregulares, en las que la información sobre las dependencias de datos no está disponible hasta la ejecución. Este trabajo presenta y discute cómo aprovechar las características de un sistema STM (software transactio- nal memory) en patrones de computación que involucren operaciones de reducción, ligadas frecuentemente a aplicaciones irregulares. Con el fin de comparar el uso de enfoques STM en esta clase de patrones con otras soluciones más clásicas, se ha implementa do como prueba de concepto un sistema STM, que denominaremos ReduxSTM, que combina dos ideas: una consolidación (commit) ordenada de las transacciones, que asegura una equivalencia con la ejecución secuencial del código; y una extensión del mecanismo de privatización subyacente al sistema STM que contempla las operaciones de reducción.
Resumo:
En el ámbito de las estructuras ordenadas, Ø. Ore introdujo en 1944 el concepto de conexión de Galois como un par de funciones antítonas entre dos conjuntos parcialmente ordenados, generalizando así la teoría de polaridades entre retículos completos. Este concepto supone una generalización de la correspondencia subgrupo-subcuerpo que se describe en el clásico Teorema Fundamental de la Teoría de Galois, de ahí el origen del término. Años más tarde, J. Schmidt mantuvo la terminología de conexión de Galois, pero cambió las funciones antítonas por funciones isótonas, lo cual favoreció la aplicabilidad de este concepto a Computación. El término adjunción fue introducido en 1958 por D. M. Kan. Originalmente fueron definidas en un contexto categórico y tal vez debido a esto, pueden encontrarse gran cantidad de ejemplos de adjunciones en varias áreas de investigación, que van desde las más teóricas a las más aplicadas. En 1965, Lotfi Zadeh introduce la Teoría de Conjuntos Difusos. En su trabajo se aborda definitivamente el problema del modelado matemático de la ambigüedad, con la definición de conjunto difuso X en un universo U como una aplicación X: U→ [0,1] que asocia a cada elemento u del conjunto U un valor del intervalo real [0,1] y donde X(u) representa el grado de pertenencia de u al conjunto difuso X. El término conexión de Galois difusa fue introducido por R. Belohlávek como un par de aplicaciones definidas entre los conjuntos de conjuntos difusos definidos sobre dos universos. Desde entonces, en el ámbito de la lógica difusa, se pueden encontrar numerosos artículos en los cuales se estudian las conexiones de Galois difusas desde un punto de vista algebraico y abstracto. El objetivo principal de este trabajo es estudiar y caracterizar, a partir de una aplicación f: A→ B desde un conjunto A dotado con una determinada estructura hasta un conjunto B no necesariamente dotado de estructura, las situaciones en las cuales se pueda definir una estructura en B similar a la de A, de forma que además se pueda construir una aplicación g: B→ A tal que el par (f,g) sea una adjunción (conexión de Galois isótona). Se considera el conjunto A dotado con un orden parcial y se realiza la descomposición canónica de la función f a través del conjunto cociente de A con respecto a la relación núcleo. Partiendo del problema inicial de deducir las condiciones necesarias y suficientes para la existencia de un orden parcial en B y para la definición de un adjunto por la derecha de f, con esta descomposición canónica se pretende dividir la cuestión en tres problemas más simples, a saber, la construcción de un orden en el codominio y un adjunto por la derecha para cada una de las aplicaciones que forman parte de la citada descomposición. Esto resuelve la cuestión planteada para el caso de funciones que son sobreyectivas. Para el caso general, es necesario analizar previamente cómo extender una relación de preorden definida sobre un subconjunto de un conjunto dado a dicho conjunto, así como la definición de un adjunto por la derecha para la inclusión natural del subconjunto dentro del conjunto. Se continua la investigación considerando el conjunto A dotado con un preorden, en este caso la ausencia de la propiedad antisimétrica hace necesario utilizar la denominada relación p-núcleo, que es el cierre transitivo de la unión de la relación núcleo y la relación de equivalencia núcleo simétrico. Asimismo, el hecho de que no se tenga unicidad para el máximo o el mínimo de un subconjunto, conduce a trabajar con relaciones definidas en el conjunto de partes de un conjunto (concretamente, con el preorden de Hoare). Todo ello hace aumentar la dificultad en la búsqueda de las condiciones necesarias y suficientes para la existencia de una relación de preorden en el codominio y la existencia de un adjunto por la derecha. Se finaliza esta sección con el análisis de la unicidad del adjunto por la derecha y del orden parcial (preorden) definido sobre el codominio. Después del estudio anterior, se introducen los denominados operadores y sistemas de ≈-cierre en conjuntos preordenados y se analiza la relación existente entre ambos (que deja de ser biunívoca, como sucede en el caso de órdenes parciales). Se trabaja con la noción de compatibilidad respecto a una relación de equivalencia y se caracteriza la construcción de adjunciones entre conjuntos preordenados en términos de la existencia de un sistema de ≈-cierre compatible con la relación núcleo. En una segunda parte de la tesis, se aportan las definiciones de las nociones de adjunción difusa, co-adjunción difusa y conexiones de Galois difusas por la derecha y por la izquierda entre conjuntos con preórdenes difusos. Además se presentan las distintas caracterizaciones de los conceptos anteriormente señalados, así como las relaciones entre ellos. Se aborda la construcción de adjunciones entre conjuntos con órdenes difusos, utilizando de nuevo la relación núcleo, en su versión difusa, y la descomposición canónica de la función de partida respecto a ella. El teorema principal de esta sección recoge una caracterización para la definición de una relación difusa de orden sobre el codominio B y un adjunto por la derecha para f:(A, ρA) → B donde (A, ρA) es un conjunto con un orden difuso. El estudio del problema anterior entre conjuntos con preórdenes difusos, hace necesario trabajar con la relación difusa denominada p-núcleo. También es preciso definir un preorden difuso en el conjunto de partes de un conjunto para describir las condiciones bajo las que es posible la construcción de una adjunción. Se finaliza proponiendo la definición de sistema de cierre en un conjunto con un preorden difuso y algunas caracterizaciones más manejables. También se trabaja con los operadores de cierre definidos en un conjunto con un preorden difuso y se analiza la relación con los sistemas de cierre. Todo ello encaminado a caracterizar la construcción de un adjunto por la derecha y un preorden difuso sobre el codominio B de una de una aplicación f:(A, ρA) → B, donde ρA es un preorden difuso sobre A.
Resumo:
The diversity in the way cloud providers o↵er their services, give their SLAs, present their QoS, or support di↵erent technologies, makes very difficult the portability and interoperability of cloud applications, and favours the well-known vendor lock-in problem. We propose a model to describe cloud applications and the required resources in an agnostic, and providers- and resources-independent way, in which individual application modules, and entire applications, may be re-deployed using different services without modification. To support this model, and after the proposal of a variety of cross-cloud application management tools by different authors, we propose going one step further in the unification of cloud services with a management approach in which IaaS and PaaS services are integrated into a unified interface. We provide support for deploying applications whose components are distributed on different cloud providers, indistinctly using IaaS and PaaS services.
Resumo:
117 p.
Resumo:
La constitución atómica de la materia está en la base de la química. Saber cómo se unen y cómo se separan los átomos es tener la clave de las transformaciones de la materia, que son el objeto de esta ciencia. Tendemos a imaginarnos a los átomos como pequeñas partículas, como bolitas, pero desde los años 1930 sabemos que no se puede entender su comportamiento microscópico mediante la física clásica. La mejor teoría que tenemos para este dominio es la mecánica cuántica, pero en ella la descripción más fundamental y completa de los sistemas no es a través de las variables clásicas, propias de las partículas, como la posición y el momento, sino de la función de onda. La función de onda es un objeto matemático que contiene toda la información del sistema. Sin embargo, ni extraer esa información ni interpretarla es sencillo, lo que supone una serie de problemas. Por ejemplo, casi noventa años después de su nacimiento la teoría cuántica apenas está presente en la enseñanza secundaria. Y el problema no afecta sólo al ámbito educativo. Por ejemplo, la química había desarrollado desde mediados del siglo XIX la teoría estructural, de enorme poder explicativo, que los químicos siguen empleando hoy en día. Además, si la función de onda de una partícula es un objeto extraño, la de un sistema de varias, como una molécula es, además, difícil de tratar matemáticamente. Pero la química necesitaba acceder a la estructura microscópica y a la reactividad de las moléculas... Mucho antes de que el avance de la computación pusiera a disposición de los químicos herramientas para resolver por la fuerza sus problemas, ya habían desarrollado modelos para incorporar la mecánica cuántica de forma relativamente sencilla a su arsenal y en esos modelos los protagonistas eran un tipo especial de funciones de onda, los orbitales. Los orbitales son funciones de onda de una sola partícula y por tanto mucho más sencillas de calcular e interpretar que las de los sistemas complejos. A cambio, no dan cuenta de todas las complejidades de una molécula, por ejemplo de las interacciones entre sus electrones. La química es una ciencia capaz de utilizar simultáneamente varios modelos diferentes e incluso contradictorios para cubrir su territorio y eso es lo que hizo, de más de una manera, con los orbitales, de origen cuántico, la teoría estructural clásica y los modelos semiclásicos del enlace a través de pares de electrones localizados. El resultado es un modelo híbrido y difícil de definir, pero eficaz, versátil, intuitivo, visualizable... y limitado, que se puede introducir incluso en niveles preuniversitarios. A pesar de eso, la enseñanza de los modelos cuánticos sigue siendo problemática. A los alumnos les resultan complicados y muchos expertos creen además que los confunden y mezclan con los clásicos. Se trata, pues de un problema abierto. Esta tesis tiene el propósito de dilucidar el papel de los orbitales en la educación química analizando casos de uso de sus representaciones gráficas, que son muy importantes en toda la química y aún más en estos modelos, que tienen un fuerte componente visual, analógico y metafórico. Los resultados de los análisis muestran una notable coherencia de uso de las imágenes de orbitales en enseñanza e investigación: En química los orbitales no son únicamente funciones matemáticas que se extienden por toda la molécula, sino también contenedores de electrones localizados que interaccionan por proximidad con transferencia de electrones Muchas veces estos modelos intuitivos se utilizan después de los cálculos cuánticos para interpretar los resultados en términos próximos a la química estructural. Aquí está la principal diferencia con los usos educativos: en la enseñanza, especialmente la introductoria, el modelo intuitivo tiende a ser el único que se usa.
Resumo:
En el escenario actual macro económico la toma de decisiones en materia económica de cualquier entidad pública debe de estar sustentada por una adecuada inteligencia económica. Es prioritario disponer de modelos, procesos, técnicas y herramientas que permitan garantizar un control adecuado de todas sus inversiones. En la presente tesis exponemos un modelo de gestión del conocimiento basado en el marco Input-Output (IO), que nos permite conocer el impacto económico de los programas públicos. Este modelo está soportado por un sistema de información que coadyuvará a los analistas económicos para la toma de decisiones en el campo de las inversiones públicas. El principal objetivo de la tesis es la creación y desarrollo de este modelo denominado MOCIE (Modelo del Conocimiento para el Impacto Económico). No obstante, en la tesis además de profundizar sobre este modelo y la gestión del conocimiento en materia económica de los grandes programas públicos, se ha realizado un estudio que ha abarcado diferentes líneas de investigación complementarias como el análisis IO, la ingeniería y la arquitectura de sistemas de la información, la economía de la Defensa o la computación genética. El modelo propuesto en esta tesis se ha puesto en práctica en un sector económico muy específico dentro de la economía nacional: el sector de la defensa. Por tanto, ha sido también necesario realizar un estudio en profundidad del propio sector y de la gestión de los programas públicos en el ámbito de la Defensa. MOCIE se estructura a través de tres capas de gestión del conocimiento que nos permiten, por un lado, la percepción de los componentes existentes en el entorno de las inversiones públicas y la comprensión de su significado en términos de impacto económico y su relación con el resto de variables macroeconómicas nacionales y, por otro, la proyección y monitorización de su estado a lo largo de todo el ciclo de vida de los programas públicos...
Resumo:
Las organizaciones y sus entornos son sistemas complejos. Tales sistemas son difíciles de comprender y predecir. Pese a ello, la predicción es una tarea fundamental para la gestión empresarial y para la toma de decisiones que implica siempre un riesgo. Los métodos clásicos de predicción (entre los cuales están: la regresión lineal, la Autoregresive Moving Average y el exponential smoothing) establecen supuestos como la linealidad, la estabilidad para ser matemática y computacionalmente tratables. Por diferentes medios, sin embargo, se han demostrado las limitaciones de tales métodos. Pues bien, en las últimas décadas nuevos métodos de predicción han surgido con el fin de abarcar la complejidad de los sistemas organizacionales y sus entornos, antes que evitarla. Entre ellos, los más promisorios son los métodos de predicción bio-inspirados (ej. redes neuronales, algoritmos genéticos /evolutivos y sistemas inmunes artificiales). Este artículo pretende establecer un estado situacional de las aplicaciones actuales y potenciales de los métodos bio-inspirados de predicción en la administración.
Resumo:
La economía mundial cambia a un ritmo vertiginoso y exponencial gracias a la rápida transformación de la tecnología. Diferentes dinámicas como el crecimiento en cobertura del internet; la creciente facilidad de obtención de una tarjeta de crédito; la popularización del uso de smartphones; y el crecimiento en uso del comercio electrónico; han dado cabida a la aparición de nuevos tipos de negocio, como el de servicios electrónicos y aplicaciones, que hace algunas décadas atrás eran inviables. Teniendo en cuenta estos cambios, el presente documento plantea tres diferentes modelos de aplicación para smartphones, se hace un análisis detallado de la viabilidad para cada uno para identificar así el que cuenta con mayores probabilidades de éxito. Finalmente se profundiza en este con un análisis financiero y de mercadotecnia para así hacer las respectivas correcciones al modelo inicial y obtener como resultado la versión más viable del modelo seleccionado.
Resumo:
Recibido 16 de julio de 2010 • Aceptado 31 de agosto de 2010 • Corregido 04 de octubre de 2010 Debido al marco jurídico actual, en los últimos años, el sistema educativo costarricense ha experimentado cambios significativos, tanto en los niveles internacional como nacional. Estos van desde la promulgación de la Ley 7600 Igualdad de Oportunidades para las Personas con Discapacidad en Costa Rica (Costa Rica, Asamblea Legislativa,1996) hasta el planteamiento de la Ley 8661 Convención sobre los Derechos Humanos de las Personas con Discapacidad (Costa Rica, Asamblea Legislativa, 2008). Por lo anterior, el espacio temporal en el que emergió el Proyecto UNA Educación de Calidad, en 1998 y el contexto en el cual estaba inmerso el Sistema Educativo Nacional, particularmente, en el ámbito universitario, la propuesta pedagógica que se presenta da muestra de una transición entre el modelo rehabilitador y el modelo social, específicamente, dentro de cada uno de estos, el respectivo abordaje educativo, que abarca desde los procedimientos de la integración a los de la educación inclusiva. Desde esta perspectiva, se presenta las vivencias y estrategias desplegadas desde el Proyecto UNA Educación de Calidad. El fin es proporcionar apoyo y seguimiento, en su formación profesional, a un grupo de la diversidad, constituido por los estudiantes con necesidades educativas matriculados en la Universidad Nacional. De esta forma, se pretenden hacer efectivos sus derechos de acceder a una educación superior de calidad, de acuerdo con sus características personales y sociales, y promover su permanencia e inserción socio-laboral. Los retos que impone la atención a la diversidad en el contexto universitario son un desafío plasmado en el quehacer cotidiano del Proyecto UNA Educación de Calidad. Estas transformaciones se vislumbran en la constante reconstrucción de las estrategias utilizadas, al tener, como aspectos esenciales, el empleo de equipo tecnológico y programas de computación especializados. Estos les permitirán a los estudiantes acceder a la información y a la comunicación; la asesoría y la capacitación de los académicos y del personal administrativo; el establecimiento de estrategias de apoyo colaborativo entre los miembros de la comunidad universitaria, así como, la búsqueda de cooperación en el ámbito nacional e internacional para el desarrollo de nueva iniciativas.
Resumo:
Los Sistemas de Información Geográfica (SIGs) se han convertido en uno de los segmentos de mayor crecimiento en la industria de la computación. La abundancia de la software y de usuarios hace necesario que se establezcan estándares para asegurar la calidad de los datos y el intercambio de información entre usuarios. La tendencia en el uso de los SIGs es que se conviertan en una herramienta para usuarios generalistas (ej. Banqueros, biólogos, forestales, ingenieros, etc.); los cuales no están interesados en intrincados procedimientos para intercambiar datos. Aun cuando el tema de los estándares es muy amplio, en el presente artículo se discuten aquellos aspectos relacionados con la exactitud de los atributos y de la geometría de los elementos manejados en el SIG.
Resumo:
The genetic algorithm is a very efficient tool to solve optimization problems. On the other hand, the classroom assignation in any education center, particularly those that does not have enough quantity of classrooms for the courseʼs demand converts it in an optimization problem. In the Department of Computer Science (Universidad de Costa Rica) this work is carried out manually every six months. Besides, at least two persons of the department are dedicated full time to this labor for one week or more. The present article describes an automatic solution that not only reduces the response time to seconds but it also finds an optimal solution in the majority of the cases. In addition gives flexibility in using the program when the information involved with classroom assignation has to be updated. The interface is simple an easy to use.