770 resultados para parallel programs
Resumo:
A Work Project, presented as part of the requirements for the Award of a Masters Degree in Management from the NOVA – School of Business and Economics
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Resumo:
This prospective study evaluated the incidence of Mycobacterium tuberculosis infection among nursing students at the Federal University of Espírito Santo, using the purified protein derivative test. In parallel, we evaluated whether knowledge on tuberculosis transmission mechanisms had any impact on nursing students' attitudes in relation to the risk of tuberculosis infection. The incidence of tuberculin conversion was 10.5% per year (p=0.035, 95% CI = 3.63-17.43), whereas the expected conversion rate in the overall population in Brazil is 0.5% per year. These results indicate nursing students as a group at risk for TB infection. Among the risk factors studied only the use of NIOSH95 masks was associated with protection against infection (RR=0.2). Furthermore there was no statistical difference among students that PPD converted and those who remained negative regarding disease knowledge and the existence of adequate facilities for patient hospitalization. Our data reinforces the need for implementing special biosafety programs targeting this professional group.
Resumo:
Breast cancer is the most common cancer among women, being a major public health problem. Worldwide, X-ray mammography is the current gold-standard for medical imaging of breast cancer. However, it has associated some well-known limitations. The false-negative rates, up to 66% in symptomatic women, and the false-positive rates, up to 60%, are a continued source of concern and debate. These drawbacks prompt the development of other imaging techniques for breast cancer detection, in which Digital Breast Tomosynthesis (DBT) is included. DBT is a 3D radiographic technique that reduces the obscuring effect of tissue overlap and appears to address both issues of false-negative and false-positive rates. The 3D images in DBT are only achieved through image reconstruction methods. These methods play an important role in a clinical setting since there is a need to implement a reconstruction process that is both accurate and fast. This dissertation deals with the optimization of iterative algorithms, with parallel computing through an implementation on Graphics Processing Units (GPUs) to make the 3D reconstruction faster using Compute Unified Device Architecture (CUDA). Iterative algorithms have shown to produce the highest quality DBT images, but since they are computationally intensive, their clinical use is currently rejected. These algorithms have the potential to reduce patient dose in DBT scans. A method of integrating CUDA in Interactive Data Language (IDL) is proposed in order to accelerate the DBT image reconstructions. This method has never been attempted before for DBT. In this work the system matrix calculation, the most computationally expensive part of iterative algorithms, is accelerated. A speedup of 1.6 is achieved proving the fact that GPUs can accelerate the IDL implementation.
Resumo:
The income support programs are created with the purpose of fighting both, the poverty trap and the inactivity trap. The balance between both is fragile and hard to find. Thus, the goal of this work is to contribute to solve this issue by finding how income support programs, particularly the Portuguese RSI, affect transitions to employment. This is made through duration analysis, namely using Cox and Competing Risks models. A particular feature is introduced in this work as it incorporates the possibility of Defective Risks. The estimated hazard elasticity with respect to the amount of RSI received for individuals who move to employment is -0,41. More than a half of RSI receivers stays for more than a year and the probability of never leaving to employment is 44%. The results appear to indicate that RSI has affected negatively transitions to employment.
Resumo:
Combinatorial Optimization Problems occur in a wide variety of contexts and generally are NP-hard problems. At a corporate level solving this problems is of great importance since they contribute to the optimization of operational costs. In this thesis we propose to solve the Public Transport Bus Assignment problem considering an heterogeneous fleet and line exchanges, a variant of the Multi-Depot Vehicle Scheduling Problem in which additional constraints are enforced to model a real life scenario. The number of constraints involved and the large number of variables makes impracticable solving to optimality using complete search techniques. Therefore, we explore metaheuristics, that sacrifice optimality to produce solutions in feasible time. More concretely, we focus on the development of algorithms based on a sophisticated metaheuristic, Ant-Colony Optimization (ACO), which is based on a stochastic learning mechanism. For complex problems with a considerable number of constraints, sophisticated metaheuristics may fail to produce quality solutions in a reasonable amount of time. Thus, we developed parallel shared-memory (SM) synchronous ACO algorithms, however, synchronism originates the straggler problem. Therefore, we proposed three SM asynchronous algorithms that break the original algorithm semantics and differ on the degree of concurrency allowed while manipulating the learned information. Our results show that our sequential ACO algorithms produced better solutions than a Restarts metaheuristic, the ACO algorithms were able to learn and better solutions were achieved by increasing the amount of cooperation (number of search agents). Regarding parallel algorithms, our asynchronous ACO algorithms outperformed synchronous ones in terms of speedup and solution quality, achieving speedups of 17.6x. The cooperation scheme imposed by asynchronism also achieved a better learning rate than the original one.
Resumo:
The Closest Vector Problem (CVP) and the Shortest Vector Problem (SVP) are prime problems in lattice-based cryptanalysis, since they underpin the security of many lattice-based cryptosystems. Despite the importance of these problems, there are only a few CVP-solvers publicly available, and their scalability was never studied. This paper presents a scalable implementation of an enumeration-based CVP-solver for multi-cores, which can be easily adapted to solve the SVP. In particular, it achieves super-linear speedups in some instances on up to 8 cores and almost linear speedups on 16 cores when solving the CVP on a 50-dimensional lattice. Our results show that enumeration-based CVP-solvers can be parallelized as effectively as enumeration-based solvers for the SVP, based on a comparison with a state of the art SVP-solver. In addition, we show that we can optimize the SVP variant of our solver in such a way that it becomes 35%-60% faster than the fastest enumeration-based SVP-solver to date.
Resumo:
Abstract Dataflow programs are widely used. Each program is a directed graph where nodes are computations and edges indicate the flow of data. In prior work, we reverse-engineered legacy dataflow programs by deriving their optimized implementations from a simple specification graph using graph transformations called refinements and optimizations. In MDE-speak, our derivations were PIM-to-PSM mappings. In this paper, we show how extensions complement refinements, optimizations, and PIM-to-PSM derivations to make the process of reverse engineering complex legacy dataflow programs tractable. We explain how optional functionality in transformations can be encoded, thereby enabling us to encode product lines of transformations as well as product lines of dataflow programs. We describe the implementation of extensions in the ReFlO tool and present two non-trivial case studies as evidence of our work’s generality
Resumo:
OBJECTIVE: To evaluate the behavior of blood pressure during exercise in patients with hypertension controlled by frontline antihypertension drugs. METHODS: From 979ergometric tests we retrospectively selected 49 hipertensive patients (19 males). The age was 53±12 years old and normal range rest arterial pressure (<=140/90 mmHg) all on pharmacological monotherapy. There were 12 on beta blockers; 14 on calcium antagonists, 13 on diuretics and 10 on angiotensin converting enzyme inhibitor. Abnormal exercise behhavior of blood pressure was diagnosed if anyone of the following criteria was detected: peak systolic pressure above 220 mmHg, raising of systolic pressure > or = 10 mmHg/MET; or increase of diastolic pressure greater than 15 mmHg. RESULTS: Physiologic response of arterial blood pressure occurred in 50% of patients on beta blockers, the best one (p<0.05), in 36% and 31% on calcium antagonists and on diuretics, respectively, and in 20% on angiotensin converting enzyme inhibitor, the later the leastr one (p<0.05). CONCLUSION: Beta-blockers were more effective than calcium antagonists, diuretics and angiotensin-converting enzyme inhibitors in controlling blood pressure during exercise, and angiotensin converting enzyme inhibitors the least effective drugs.
Resumo:
"A workshop within the 19th International Conference on Applications and Theory of Petri Nets - ICATPN’1998"
Resumo:
La verificación y el análisis de programas con características probabilistas es una tarea necesaria del quehacer científico y tecnológico actual. El éxito y su posterior masificación de las implementaciones de protocolos de comunicación a nivel hardware y soluciones probabilistas a problemas distribuidos hacen más que interesante el uso de agentes estocásticos como elementos de programación. En muchos de estos casos el uso de agentes aleatorios produce soluciones mejores y más eficientes; en otros proveen soluciones donde es imposible encontrarlas por métodos tradicionales. Estos algoritmos se encuentran generalmente embebidos en múltiples mecanismos de hardware, por lo que un error en los mismos puede llegar a producir una multiplicación no deseada de sus efectos nocivos.Actualmente el mayor esfuerzo en el análisis de programas probabilísticos se lleva a cabo en el estudio y desarrollo de herramientas denominadas chequeadores de modelos probabilísticos. Las mismas, dado un modelo finito del sistema estocástico, obtienen de forma automática varias medidas de performance del mismo. Aunque esto puede ser bastante útil a la hora de verificar programas, para sistemas de uso general se hace necesario poder chequear especificaciones más completas que hacen a la corrección del algoritmo. Incluso sería interesante poder obtener automáticamente las propiedades del sistema, en forma de invariantes y contraejemplos.En este proyecto se pretende abordar el problema de análisis estático de programas probabilísticos mediante el uso de herramientas deductivas como probadores de teoremas y SMT solvers. Las mismas han mostrado su madurez y eficacia en atacar problemas de la programación tradicional. Con el fin de no perder automaticidad en los métodos, trabajaremos dentro del marco de "Interpretación Abstracta" el cual nos brinda un delineamiento para nuestro desarrollo teórico. Al mismo tiempo pondremos en práctica estos fundamentos mediante implementaciones concretas que utilicen aquellas herramientas.
Resumo:
Identificación: Programa de capacitación y de ejecución de acciones para favorecer el desarrollo del potencial exportador de las empresas pequeñas y medianas de Río Cuarto y región. Caracterización del problema objeto de estudio: La zona de influencia de la ciudad de Río Cuarto posee, por su ubicación y características naturales, un potencial exportador no explotado, considerando la actual dinámica de los mercados internacionales. La ciudad está en el cruce de rutas nacionales que la conecta a las principales ciudades del MERCOSUR, con salida al Pacífico y al Atlántico y conexión rápida a rutas que van hacia la frontera norte del país. A modo de presentación de situaciones favorables, en el caso de Bolivia es para aprovechar el prestigio de los productos argentinos en ese mercado y las ventajas que las empresas chicas y medianas pueden disponer al no existir barreras idiomáticas, razonables requisitos de calidad y una gran necesidad de productos elaborados que pueden ser ofertados por PYMES regionales.En el caso de Chile importan tres aspectos: primero, la cercanía geográfica a la zona de Río Cuarto, ya que se accede en forma directa por vía terrestre, con una distancia de sólo 900 Km. respecto a la zona metropolitana de ese país; segundo, es el mercado regional con mayores niveles de exigencia para acceder al mismo, constituyendo por lo tanto una buena plataforma de aprendizaje para lograr el acceso luego al mundo desarrollado; tercero, al tener Chile firmado acuerdos de libre comercio con mercados que suman 3500 millones de habitantes, con acceso directo al cinturón del Pacífico, que es la zona más dinámica del comercio mundial actual, ese país necesita complementarse con sus vecinos para poder aprovechar las demandas potenciales de esos mercados.Con el proyecto se pretende contribuir a acentuar la internacionalización económica de la ciudad de Río Cuarto y su región circundante. Hipótesis:Se puede generar un polo exportador pyme a partir de la actividad sistemática de un programa de difusión de conocimientos sobre el comercio exterior, lo que contribuirá a profundizar la sustentabilidad económica de Río Cuarto y su región circundante.Objetivos: -a) Crear, desde el programa, una oferta de capacitación y asesoramiento que satisfaga los interrogantes y necesidades de las empresas pequeñas y medianas que busquen iniciarse en la actividad de exportación. b) Promover la formación de consorcios y formas asociativas, sobre todo de pequeñas y medianas empresas, para expandir el comercio exterior regional. c) Difundir las posibilidades de inserción internacional de las pymes regionales y sus requerimientos en los aspectos productivos y de comercialización. Estos últimos suelen constituir puntos críticos en el desarrollo exportador de las firmas. d) Analizar las posibilidades competitivas en el comercio internacional, en especial en el área del MERCOSUR, de cluster Materiales y Métodos a Utilizar: - Elaboración de un Monitor de Expectativas Empresariales con el objetivo de cuantificar la actual y la potencial Oferta Exportadora Regional. - Desarrollo de Análisis Sectoriales para determinar las posibilidades de incrementar las ventas al exterior de productos regionales. - Creación de Informes Especiales sobre Productos Regionales, los cuales le permitirán a Pequeños y Medianos Productores conocer en detalle, las oportunidades y exigencias para ingresar a los mercados externos, especialmente al área del MERCOSUR. - Organización de Viajes y Rondas de Negocios con el fin de fortalecer los lazos comerciales y culturales del empresariado local y extranjero. Resultados Esperados: - Profundizar conocimientos sobre las posibilidades que poseen los productos regionales de ingresar a los mercados externos. - Lograr una difusión generalizada de conocimientos sobre el Comercio Exterior, brindándole a las Pymes las herramientas básicas y fundamentales para que puedan desarrollar su potencial exportador.
Resumo:
3
Resumo:
La programación concurrente es una tarea difícil aún para los más experimentados programadores. Las investigaciones en concurrencia han dado como resultado una gran cantidad de mecanismos y herramientas para resolver problemas de condiciones de carrera de datos y deadlocks, problemas que surgen por el mal uso de los mecanismos de sincronización. La verificación de propiedades interesantes de programas concurrentes presenta dificultades extras a los programas secuenciales debido al no-determinismo de su ejecución, lo cual resulta en una explosión en el número de posibles estados de programa, haciendo casi imposible un tratamiento manual o aún con la ayuda de computadoras. Algunos enfoques se basan en la creación de lenguajes de programación con construcciones con un alto nivel de abstración para expresar concurrencia y sincronización. Otros enfoques tratan de desarrollar técnicas y métodos de razonamiento para demostrar propiedades, algunos usan demostradores de teoremas generales, model-checking o algortimos específicos sobre un determinado sistema de tipos. Los enfoques basados en análisis estático liviano utilizan técnicas como interpretación abstracta para detectar ciertos tipos de errores, de una manera conservativa. Estas técnicas generalmente escalan lo suficiente para aplicarse en grandes proyectos de software pero los tipos de errores que pueden detectar es limitada. Algunas propiedades interesantes están relacionadas a condiciones de carrera y deadlocks, mientras que otros están interesados en problemas relacionados con la seguridad de los sistemas, como confidencialidad e integridad de datos. Los principales objetivos de esta propuesta es identificar algunas propiedades de interés a verificar en sistemas concurrentes y desarrollar técnicas y herramientas para realizar la verificación en forma automática. Para lograr estos objetivos, se pondrá énfasis en el estudio y desarrollo de sistemas de tipos como tipos dependientes, sistema de tipos y efectos, y tipos de efectos sensibles al flujo de datos y control. Estos sistemas de tipos se aplicarán a algunos modelos de programación concurrente como por ejemplo, en Simple Concurrent Object-Oriented Programming (SCOOP) y Java. Además se abordarán propiedades de seguridad usando sistemas de tipos específicos. Concurrent programming has remained a dificult task even for very experienced programmers. Concurrency research has provided a rich set of tools and mechanisms for dealing with data races and deadlocks that arise of incorrect use of synchronization. Verification of most interesting properties of concurrent programs is a very dificult task due to intrinsic non-deterministic nature of concurrency, resulting in a state explosion which make it almost imposible to be manually treat and it is a serious challenge to do that even with help of computers. Some approaches attempts create programming languages with higher levels of abstraction for expressing concurrency and synchronization. Other approaches try to develop reasoning methods to prove properties, either using general theorem provers, model-checking or specific algorithms on some type systems. The light-weight static analysis approach apply techniques like abstract interpretation to find certain kind of bugs in a conservative way. This techniques scale well to be applied in large software projects but the kind of bugs they may find are limited. Some interesting properties are related to data races and deadlocks, while others are interested in some security problems like confidentiality and integrity of data. The main goals of this proposal is to identify some interesting properties to verify in concurrent systems and develop techniques and tools to do full automatic verification. The main approach will be the application of type systems, as dependent types, type and effect systems, and flow-efect types. Those type systems will be applied to some models for concurrent programming as Simple Concurrent Object-Oriented Programming (SCOOP) and Java. Other goals include the analysis of security properties also using specific type systems.