978 resultados para software framework


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El desarrollo de dicho proyecto intenta dar solución a la problemática de la detección temprana y eficiente de los Trastornos de Déficit de Atención en las escuelas primarias, mediante la construcción de una plataforma informática framework segura, portable y con una interfaz simple y amigable, en entornos distribuídos para el armado de diferentes escenarios de evaluación, test y encuestas para el alumno, la familia y los educadores, que con un enfoque multidisciplinario recaba información permitiendo al profesional a cargo realizar una detección acertada, un diagnóstico eficaz y un tratamiento acorde a las deficiencias psicológicas y de aprendizaje. Proceso lento e imposible de llevar adelante en la actualidad. Modelo: el psicopedagogo genera los test en la plataforma y los activa para que cada alumno los realice en los laboratorios, sus padres y educadores completan las encuestas activas en internet o via mobile o acceden a los laboratorios del colegio. Psicopedagogos analizan resultados obtenidos y emiten conclusión sobre cada caso, para que padres pueden verlos por cualquier medio antes mencionado, siempre con acceso seguro, y a los sectores activados. Beneficios: sociales en la detección de problemas cognitivos en los niños en escuelas primarias, mejorando problemas de los grupos escolares en donde se encuentran niños con TDA, beneficiando la comunicación con las familias con todo lo referido a sus hijos. Las empresas serían otra posible implementación..

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El proyecto de investigación se dirige a sistematizar un abordaje postfundacionalista de las identidades políticas en vistas a la construcción de un marco teórico-metodológico para el análisis histórico-político. Se parte de la creciente relevancia en las ciencias sociales de la cuestión de la “identidad” para indagar la singularidad del marco teórico adoptado en su estudio. Así, el postfundacionalismo da cuenta de una teoría de las subjetividades políticas que parte de procesos de identificación que suponen una articulación singular entre relativa estructuralidad y agencia. El sujeto emerge en un contexto nunca plenamente suturado ni plenamente abierto, sino a través de un anudamiento de diversas dimensiones reales, simbólicas e imaginarias. Esta visión es altamente productiva para generar conclusiones relevantes en el campo de la ciencia política y del análisis histórico político comparado. This research project seeks to systematise from a postfundationalist view of political identities a theoretico-methodological framework for historico political analysis. The project starts from the increasing relevance of the quistion of 'identity' for contremporary social sciences. Poststructuralism provides an insight of processes of identification that supposes a singular articulation between relative structurality and agency. The subject emerges in a neither fully structured nor fully opened context but through a knotting process of different registers: real, symblic and imaginary. This vision, we believe, is highly productive to generate meaningful conclusions in the field of political science and comparative political analysis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This research looked at the scientific evidence available on climate change and in particular, projections on sea level rise which ranged from 0.5m to 2m by the end of the century. These projections were then considered in an Irish context. A review of current policy in Ireland revealed that there was no dedicated Government policy on climate change or coastal zone management. In terms of spatial planning policy, it became apparent that there was little or no guidance on climate change either at a national, regional or local level. Therefore, to determine the likely impacts of sea level rise in Ireland based on current spatial planning practice and policy, a scenario-building exercise was carried out for two case study areas in Galway Bay. The two case study areas were: Oranmore, a densely populated town located to the east of Inner Galway Bay; and Tawin Island, a rural dispersed community, located to the south east of Inner Galway Bay. A ‘best’ and ‘worse’ case scenario was envisaged for both areas in terms of sea level rise. In the absence of specific climate change policies it was projected that in the ‘best’ case scenario of 0.5m sea level rise, Tawin Island would suffer serious and adverse impacts while Oranmore was likely to experience slight to moderate impacts. However, in the ‘worse’ case scenario of a 2m sea level rise, it was likely that Tawin Island would be abandoned while many houses, businesses and infrastructure built within the floodplain of Oranmore Bay would be inundated and permanently flooded. In this regard, it was the author’s opinion that a strategic and integrated climate change policy and adaptation plan is vital for the island of Ireland that recognises the importance of integrated land use and spatial planning in terms of mitigation and adaptation to climate change.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The research described in this thesis was developed as part o f the Information Management for Green Design (IMA GREE) Project. The 1MAGREE Project was founded by Enterprise Ireland under a Strategic Research Grant Scheme as a partnership project between Galway Mayo Institute o f Technology and C1MRU University College Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design, particularly for the electronics-manufacturing sector in Ireland.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This project was funded under the Applied Research Grants Scheme administered by Enterprise Ireland. The project was a partnership between Galway - Mayo Institute of Technology and an industrial company, Tyco/Mallinckrodt Galway. The project aimed to develop a semi - automatic, self - learning pattern recognition system capable of detecting defects on the printed circuits boards such as component vacancy, component misalignment, component orientation, component error, and component weld. The research was conducted in three directions: image acquisition, image filtering/recognition and software development. Image acquisition studied the process of forming and digitizing images and some fundamental aspects regarding the human visual perception. The importance of choosing the right camera and illumination system for a certain type of problem has been highlighted. Probably the most important step towards image recognition is image filtering, The filters are used to correct and enhance images in order to prepare them for recognition. Convolution, histogram equalisation, filters based on Boolean mathematics, noise reduction, edge detection, geometrical filters, cross-correlation filters and image compression are some examples of the filters that have been studied and successfully implemented in the software application. The software application developed during the research is customized in order to meet the requirements of the industrial partner. The application is able to analyze pictures, perform the filtering, build libraries, process images and generate log files. It incorporates most of the filters studied and together with the illumination system and the camera it provides a fully integrated framework able to analyze defects on printed circuit boards.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A estandardização do padrão de imagens utilizada dentro da medicina foi realizada em 1993 por meio do padrão DICOM (Digital Imaging and Communications in Medicine). Diversos exames utilizam esse padrão e cada vez mais são necessários softwares capazes de manipular esse tipo de imagem, porém esses softwares geralmente não têm o formato livre e de código aberto, e isso dificulta o seu ajuste para os mais diferentes interesses. OBJETIVO: Desenvolver e validar um software livre e de código aberto capaz de manipular imagens DICOM de exames de angiotomografia de coronárias. MÉTODOS: Desenvolvemos e testamos o software intitulado ImageLab na avaliação de 100 exames selecionados de forma randômica por meio de um banco de dados. Foram realizadas 600 análises divididas por dois observadores utilizando o ImageLab e um outro software comercializado junto a aparelhos de tomografia computadorizada Philips Brilliance, na avaliação da presença de lesões e placas coronarianas nos territórios do Tronco da Coronária Esquerda (TCE) e na Artéria Descendente Anterior (ADA). Para avaliar as concordâncias intraobservador, interobservadores e intersoftware, utilizamos concordância simples e estatística Kappa. RESULTADOS: As concordâncias observadas entre os softwares foram em geral classificadas como substancial ou quase perfeitas na maioria das comparações. CONCLUSÃO: O software ImageLab concordou com o software Philips na avaliação de exames de angiotomografia de coronárias especialmente em pacientes sem lesões, com lesões inferiores a 50% no TCE e inferiores a 70% na ADA. A concordância para lesão >70% na ADA foi menor, porém isso também é observado quando se utiliza o padrão de referência anatômico.