995 resultados para Interface de programas aplicativos (Software)
Resumo:
OBJETIVO: Analisar as diferenças relacionadas ao sexo nas medidas obtidas pelos programas Segami e Quantitative Gated SPECT (QGS). MÉTODOS: Cento e oitenta e um indivíduos assintomáticos sem evidência de cardiopatia foram submetidos a estudos de perfusão miocárdica. O volume diastólico final (VDF), volume sistólico final (VSF) e a fração de ejeção do ventrículo esquerdo (FEVE) foram quantificados pelos programas QGS and Segami para avaliar a influência do sexo, idade, peso, altura, freqüência cardíaca, pressão arterial sistólica, pressão arterial diastólica, índice de massa corporal e área de superfície corporal. RESULTADOS: As médias obtidas com o método QGS foram VDF (mulheres = 68 ml; homens = 95 ml; p < 0,001) e FEVE (mulheres = 66,24%; homens = 58,7%), e com o Segami, VDF (mulheres = 137 ml; homens = 174 ml) e FEVE (mulheres = 62,67%; homens = 58,52%). Foram observadas diferenças significantes entre homens e mulheres no VDF (p < 0,001) e VSF (p < 0,001), que persistiram após o ajuste em relação à área de superfície corporal. CONCLUSÃO: Os volumes ventriculares foram significantemente menores e a FEVE foi significantemente maior em mulheres, de acordo com os programas QGS e Segami.
Resumo:
Estudios epidemiológicos, reportan que la fobia social es uno de los trastornos de ansiedad de alta prevalencia en la población mundial, que oscila entre el 7 y el 13%. La incidencia de este trastorno se ubica entre el 13 y 14% en personas de 15 a 54 años, manifestándose antes de los 25 años (Furmark,et al 2002). De esta manera, se destaca la importancia de el estudio y abordaje de este trastorno en adolecentes, considerando que es en esta etapa del desarrollo donde se empieza a manifestar, y donde la intervención temprana se torna fundamental. Este trastorno afecta la vida familiar, social y laboral de una persona, dado que la persona evita exponerse a lugares públicos o a situaciones donde anticipa la evaluación negativa. Las consecuencias del trastorno son variadas, ya que los individuos pueden perder su trabajo por miedo a la exposición, fracasar en los estudios o fracazar en la concertación de citas y la vida en pareja. El miedo a hablar en público, por otro lado, es una forma particular de ansiedad social que implica la preocupación de que el público va a pensar que el rendimiento de uno es inadecuado (o que evaluaranm negativamente la persona o el rendimiento de la misma). La relevancia social de esta problemática requiere de tratamientos más eficientes, dada la creciente prevalencia de estos trastornos en los últimos años a nivel internacional. En este sentido la terapia de exposición en diferentes modalidades, acompañada dereestructuración cognitiva se ha transformado en un abordjae de elección para estos trastornos ara el tratamiento de fobia social. Entre las modalidades más novedosas en la actualidad, se destaca la utilización de programas basados en escenarios virtuales y la utilización de la telepsicología para el tratamiento de la fobia social y el miedo a hablar en público. La exposición con realidad virtual o mediante simulaciones no sólo da la oportunidad de capitalizar las habilidades de imaginación del paciente sino también las suplementa con experiencias visuales y auditivas simuladas. Además expone al paciente a un ambiente virtual que contiene la situación temida en vez de llevar al paciente a una situación real o pedirle que imagine los estímulos asociados, aumentando de esta manera la eficiencia del tratamiento En particular en nuestro país, la investigación en este campo es inexistente y sus aplicaciones son incipientes, por lo que la adaptación, desarrollo y evaluación de programas de tratamiento clínico utilizando modalidades terapéuticas innovadoras, a la vez de otorgar atención a la comunidad que padece este tipo de trastornos, es fundamental Por esto, el propósito del presente proyecto es el desarrollo, la instrumentación y evaluación de software de telepsicología y tecnologías de realidad virtual orientados a la valoración y tratamiento de la Fobia Social y el miedo a Hablar en Público. Específicamente, el objetivo es adaptar, instrumentar y evaluar un sistema de tratamiento con base en ambientes virtuales para el tratamiento de la Fobia Social transferidos a nuestro equpio de investigación por el grupo de investigación del Laboratorio de Enseñanza Virtual y Ciberpsicología de la UNAM. También nos proponemos desarrollar dos softwares de telepsicología con videos digitales para la valoración y tratamiento del miedo a hablar en público. Finalmente, otro objetivo es el desarrollo de un instrumento de evaluación diagnóstica de la Fobia Social y el Miedo a Hablar en Público en estudiantes universitarios, el cual será incorporado a un software junto a los videos digitales.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme
Resumo:
Abordar la infancia desde el enfoque de derechos (ED) implica una lectura de los derechos de los cuales los niños, niñas y adolescentes (NNA) son titulares y de las acciones estatales que se implementan para viabilizar el ejercicio concreto de ellos. Esta perspectiva exige comprender los contenidos de las políticas púb,el grado de participación que se les asigna y los sentidos que ellas toman en términos de progresividad de los derechos. Los cambios de concepción de la infancia desde la Convención Internacional de los Derechos del Niño (CIDN) y los cambios legislativos interpelan al Estado y la sociedad a modificar la visión hegemónica. Nuestra hipótesis gira alrededor de las siguientes considerac.: se han producido algunas modificaciones en las políticas y acciones estatales, aún no se dan las transformaciones necesarias de las lógicas institucionales y de los operadores que estimulen la participación de NNA en el ámbito escolar. Esto se visualiza en la ausencia de análisis cuali de los contenidos de las acc. y la falta de ftes estadísticas específicas, que muestren la orientac.de los contenidos en los principios de la protecc.integral. Estos presupuestos plantean interrogantes que delimitan el problema de investigación: ¿cómo se construye y reconstruye el ejercicio de la ciudadanía a través de la participación de los NNA, en su paso por la escuela, y cuáles son las lógicas institucionales que habilitan u obstaculizan ese ejercicio? Y ¿cuáles son los recursos institucionales que permitan que los programas y acciones redunden en el ejercicio efectivo de los derechos?.Obj.gral: Describir, analizar e interpretar la progresividad en el ejercicio de los derechos de participación e informacióin que tienen los adolescentes en escuelas secundarias de la cd de Cba, durante 2005 / 2010, para promover espacios públicos de construcción de ciudadanía. Se analizarán tres escuelas de Córdoba, escuela pública provincial, púb. nacional y privada. Obj. Espec.: Analizar las prácticas participativas formales e informales en las escuelas seleccionadas.- Aplicar indicadores cuanti y cualitativos del “Sistema de Indicadores para los derechos de la Infancia” Describir y analizar los recursos materiales y humanos. Elaborar y proponer procedim. para la confec. de registros de datos estadísticos - Elaborar y proponer lineamientos para la elaborac.e implementac.de acciones. Diseñar herramientas de difusión sobre los ds de participación e información.Esta investigac. es de carácter descriptivo e interpretativo, analizará diferentes ftes de informac.con técnicas cuanti y cualitativas, durante período la promulgación de la Ley 26061/05 y la adhesión prov. 9396/07. Se tomarán del Sistema de Indicadores, el derecho a la educación, el tema transversal “Acceso a la información y participación”, y las categorías de análisis “Recepción del Derecho y Capacidades estatales”. Se trabajaran indicadores cuanti y señales de progreso (cualitativos): estructurales, proceso y resultados. Serán analizados los Programas implementados durante el período de estudio. Estrategias cuali observac. participante, entrevistas, grupos focales, talleres de sensibilización, etc .Otras ftes de info: doc. institucionales, registros, evaluac, contenidos de programas y campañas y de difusión, prensa escrita, legislaciones, etc. La info se analizará a través Programa Atlas Ti, y del análisis estadístico. Algunos resultados esperados: Evaluac.y ajuste del Sistema de indicadores, la sensibilizac. desde el EF de autorid. escol. para la formulac. de planes y programas para el monitoreo adecuado de los mismos y para la rendic. de ctas de su gestión. Estimular la participac. de NNA en la escuela. Realizac.de documental. Brindar herramientas al Edo para superv de la aplicación progresiva del ejercicio de los derechos de participación e información de NNA Promov la continua evaluac. de los programas y acc.desde el ED para estimular el reconoc. de la nec.de ajuste de la política. The issue of children from the rights focus implies a reading of the rights in which children and adolescents are the holders and the state actions that are implemented to enable the exercise of them. This perspective requires understanding the contents of the public policies, the participation level that is assigned, and the senses that they take in terms of rights progressivity of. The conception changes about children since the International Convention on the Rights of the Child and legislative changes challenge to the State and society to modify hegemony vision. Our hypothesis revolves around the following considerations: there have been some public policies and state actions changes, but they not turn out, yet, transformations in logical institutional and actors whose are encourages children participation in school. This could be reflects in the absence of qualitative analysis in the actions contents and the lack of sources specific statistics, that will be showing the control of the principal contents of integral protection. These, raise the questions that delimit our problem research: how is built citizenship exercise through children and adolescent’s participation in the school, and what are the institutional logical that empowers or turns difficult that exercise? And What are the institutional resources that make possible the effective exercise of the rights, through different programs and actions?. General Objective: To describe, analyze and interpret exercise progressivity participation and information rights that have the adolescents in secondary schools in Córdoba City during 2005 / 2010, in order to promote public spaces for the construction of citizenship. It will analyze three schools in Cordoba, provincial public school, national public school and private school. . Obj. Specifics: To analyze the formal and informal participative practices in the schools selected. - To apply quantitative and qualitative indicators of the “Indicators System for Infa
Resumo:
This thesis is a continuation of the Enterprise-Ireland Research Innovation Fund (RIF) Project entitled’ "Design and Manufacturing of Customised Maxillo-Facial Prostheses" The primary objective of this Internal Research Development Program (IRDP) project was to investigate two fundamental design changes 1 To incorporate the over-denture abutments directly into the implant. 2 To remove the restraining wings by the addition of screws, which affix the. implant to the dense material of the jawbone. The prosthetic was redesigned using the ANSYS Finite Element Analysis software program and analysed to* • Reduce the internal von Mises stress distribution The new prosthetic had a -63.63 % lower von Mises stress distribution when compared with the original prosthetic. • Examine the screw preload effects. A maximum relative displacement of 22 6 * lO^mm between the bone and screw was determined, which is well below the critical threshold of micromotion which prevents osseointegration • Investigate the prosthetic-bone contact interface. Three models of the screw, prosthesis, and bone, were studied. (Axisymmetnc, quarter volume, and full volume), a recommended preload torque of 0 32 Nm was applied to the prosthetic and a maximum von Mises stress of 1.988 MPa was predicted • Study the overdenture removal forces. This analysis could not be completed because the correct plastic multilinear properties of the denture material could not be established The redesigned prosthetic was successfully manufactured on a 3-axis milling machine with an indexing system The prosthetic was examined for dimensional quality and strength The research established the feasibility of the new design and associated manufacturing method.
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
The research described in this thesis was developed as part o f the Information Management for Green Design (IMA GREE) Project. The 1MAGREE Project was founded by Enterprise Ireland under a Strategic Research Grant Scheme as a partnership project between Galway Mayo Institute o f Technology and C1MRU University College Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design, particularly for the electronics-manufacturing sector in Ireland.
Resumo:
The purpose of this study was to evaluate the determinism of the AS-lnterface network and the 3 main families of control systems, which may use it, namely PLC, PC and RTOS. During the course of this study the PROFIBUS and Ethernet field level networks were also considered in order to ensure that they would not introduce unacceptable latencies into the overall control system. This research demonstrated that an incorrectly configured Ethernet network introduces unacceptable variable duration latencies into the control system, thus care must be exercised if the determinism of a control system is not to be compromised. This study introduces a new concept of using statistics and process capability metrics in the form of CPk values, to specify how suitable a control system is for a given control task. The PLC systems, which were tested, demonstrated extremely deterministic responses, but when a large number of iterations were introduced in the user program, the mean control system latency was much too great for an AS-I network. Thus the PLC was found to be unsuitable for an AS-I network if a large, complex user program Is required. The PC systems, which were tested were non-deterministic and had latencies of variable duration. These latencies became extremely exaggerated when a graphing ActiveX was included in the control application. These PC systems also exhibited a non-normal frequency distribution of control system latencies, and as such are unsuitable for implementation with an AS-I network. The RTOS system, which was tested, overcame the problems identified with the PLC systems and produced an extremely deterministic response, even when a large number of iterations were introduced in the user program. The RTOS system, which was tested, is capable of providing a suitable deterministic control system response, even when an extremely large, complex user program is required.