1000 resultados para Software orientado : Objetos
Resumo:
En la zona central semiárida del país en general, y en particular en las sierras de Córdoba, resulta de vital importancia conocer el comportamiento de los caudales tanto en épocas de crecidas como en períodos de estiaje. Por otra parte, los incendios en la cobertura vegetal pueden considerarse como un factor de disturbio debido al fuerte impacto que ejercen sobre los componentes del sistema. En los últimos años esta problemática se ha convertido un escenario recurrente en el medio local. En este sentido, la modelación matemática hidrológica constituye una herramienta para la caracterización de los recursos hídricos, en crecidas y estiajes, y permite la evaluación objetiva de los cambios producidos en las respuestas del sistema ante distintos impactos. Se considera como objetivo principal la caracterización de los caudales en la zona serrana de la provincia, y la modelación numérica del impacto producido por los incendios en caudales de estiajes, de crecidas y en los procesos de erosión superficial. Para ello se plantean tres lineas de trabajo: •Desarrollo de un modelo hidrológico conceptual, distribuido, integrado (superficial y subterráneo) y continuo especialmente orientado a representar el comportamiento hidrológico de las cuencas de pequeña y mediana escala. •Implementación de un modelo hidrológico distribuido acoplado a un modelo de calidad de aguas y de producción de sedimentos, antes y después de la ocurrencia de un incendio hipotético. •Implementación de un modelo hidrológico continuo, desarrollado en el ámbito del Laboratorio de hidráulica, simulando el impacto de los incendios en el hidrograma de caudales diarios, en particular sobre los caudales de estiaje. Se espera obtener un software que permita la caracterización de los caudales en estiajes y en crecidas y considere integradamente los flujos superficiales y subterráneos. Se pretende evaluar objetivamente el impacto de los incendios en caudales de crecidas, en la producción de sedimentos y erosión superficial que ellos producen. Comparando la respuesta del hidrograma y el sedimentograma resultante a la distribución de las áreas incendiadas y generando mapas de riesgos en función de estos resultados para la cuenca de aplicación. También se espera adaptar el modelo continuo al caso de estudio seleccionado, y desarrollar una metodología para el ajuste de parámetros hidrológicos en base a la ocurrencia de incendios que pueda ser aplicada a las condiciones locales. Implementar dicho modelo e inferir el cambio en la recurrencia de los caudales extremos de estiaje. Resulta atractivo contar con una herramienta de desarrollo local adaptada a las condiciones hidrológicas de la región, dada la escasez relativa del recurso y su importancia estratégica en el desarrollo futuro. Además se considera que éste constituye un primer intento de modelar numéricamente el impacto producido por los incendios en la provincia de Córdoba. En el ámbito de este proyecto se realizarán tres tesis de maestría.
Resumo:
Identificación y caracterización del problema. Uno de los problemas más importantes asociados con la construcción de software es la corrección del mismo. En busca de proveer garantías del correcto funcionamiento del software, han surgido una variedad de técnicas de desarrollo con sólidas bases matemáticas y lógicas conocidas como métodos formales. Debido a su naturaleza, la aplicación de métodos formales requiere gran experiencia y conocimientos, sobre todo en lo concerniente a matemáticas y lógica, por lo cual su aplicación resulta costosa en la práctica. Esto ha provocado que su principal aplicación se limite a sistemas críticos, es decir, sistemas cuyo mal funcionamiento puede causar daños de magnitud, aunque los beneficios que sus técnicas proveen son relevantes a todo tipo de software. Poder trasladar los beneficios de los métodos formales a contextos de desarrollo de software más amplios que los sistemas críticos tendría un alto impacto en la productividad en tales contextos. Hipótesis. Contar con herramientas de análisis automático es un elemento de gran importancia. Ejemplos de esto son varias herramientas potentes de análisis basadas en métodos formales, cuya aplicación apunta directamente a código fuente. En la amplia mayoría de estas herramientas, la brecha entre las nociones a las cuales están acostumbrados los desarrolladores y aquellas necesarias para la aplicación de estas herramientas de análisis formal sigue siendo demasiado amplia. Muchas herramientas utilizan lenguajes de aserciones que escapan a los conocimientos y las costumbres usuales de los desarrolladores. Además, en muchos casos la salida brindada por la herramienta de análisis requiere cierto manejo del método formal subyacente. Este problema puede aliviarse mediante la producción de herramientas adecuadas. Otro problema intrínseco a las técnicas automáticas de análisis es cómo se comportan las mismas a medida que el tamaño y complejidad de los elementos a analizar crece (escalabilidad). Esta limitación es ampliamente conocida y es considerada crítica en la aplicabilidad de métodos formales de análisis en la práctica. Una forma de atacar este problema es el aprovechamiento de información y características de dominios específicos de aplicación. Planteo de objetivos. Este proyecto apunta a la construcción de herramientas de análisis formal para contribuir a la calidad, en cuanto a su corrección funcional, de especificaciones, modelos o código, en el contexto del desarrollo de software. Más precisamente, se busca, por un lado, identificar ambientes específicos en los cuales ciertas técnicas de análisis automático, como el análisis basado en SMT o SAT solving, o el model checking, puedan llevarse a niveles de escalabilidad superiores a los conocidos para estas técnicas en ámbitos generales. Se intentará implementar las adaptaciones a las técnicas elegidas en herramientas que permitan su uso a desarrolladores familiarizados con el contexto de aplicación, pero no necesariamente conocedores de los métodos o técnicas subyacentes. Materiales y métodos a utilizar. Los materiales a emplear serán bibliografía relevante al área y equipamiento informático. Métodos. Se emplearán los métodos propios de la matemática discreta, la lógica y la ingeniería de software. Resultados esperados. Uno de los resultados esperados del proyecto es la individualización de ámbitos específicos de aplicación de métodos formales de análisis. Se espera que como resultado del desarrollo del proyecto surjan herramientas de análisis cuyo nivel de usabilidad sea adecuado para su aplicación por parte de desarrolladores sin formación específica en los métodos formales utilizados. Importancia del proyecto. El principal impacto de este proyecto será la contribución a la aplicación práctica de técnicas formales de análisis en diferentes etapas del desarrollo de software, con la finalidad de incrementar su calidad y confiabilidad. A crucial factor for software quality is correcteness. Traditionally, formal approaches to software development concentrate on functional correctness, and tackle this problem basically by being based on well defined notations founded on solid mathematical grounds. This makes formal methods better suited for analysis, due to their precise semantics, but they are usually more complex, and require familiarity and experience with the manipulation of mathematical definitions. So, their acceptance by software engineers is rather restricted, and formal methods applications have been confined to critical systems. Nevertheless, it is obvious that the advantages that formal methods provide apply to any kind of software system. It is accepted that appropriate software tool support for formal analysis is essential, if one seeks providing support for software development based on formal methods. Indeed, some of the relatively recent sucesses of formal methods are accompanied by good quality tools that automate powerful analysis mechanisms, and are even integrated in widely used development environments. Still, most of these tools either concentrate on code analysis, and in many cases are still far from being simple enough to be employed by software engineers without experience in formal methods. Another important problem for the adoption of tool support for formal methods is scalability. Automated software analysis is intrinsically complex, and thus techniques do not scale well in the general case. In this project, we will attempt to identify particular modelling, design, specification or coding activities in software development processes where to apply automated formal analysis techniques. By focusing in very specific application domains, we expect to find characteristics that might be exploited to increase the scalability of the corresponding analyses, compared to the general case.
Resumo:
El presente proyecto se propone como parte inicial de una investigación sobre la relación entre naturaleza/cultura/técnica. Tradicionalmente la naturaleza y la cultura se han considerado como ámbitos diferenciados y opuestos. Y es en esta distinción donde la técnica adquiere un lugar central. El pensamiento occidental sobre la técnica ha recibido diversas interpretaciones: desde una subordinación con respecto al conocimiento verdadero (episteme) en la filosofía clásica, un optimismo sobre la técnica como posibilidad de dominación de la naturaleza en el Renacimiento y la Ilustración, y la ambigüedad y desasosiego romántico (Mitcham, 1979). Durante el siglo XX se distinguen dos posiciones antagónicas sobre la técnica. Por un lado, una actitud “crítica” donde pueden identificarse los trabajos de filósofs de diferentes tradiciones como Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) y la Escuela de Frankfurt. Por otro lado, una filosofía de la técnica “ingenieril” que consiste en el análisis de la tecnología como un paradigma de pensamiento y acción humana. Esta dicotomía ha sido interpretada por Eco como “apocalípticos e integrados”. Más allá de las mencionadas diferencias, lo que tienen en común ambas posiciones es que parten de una dicotomía entre cultura y naturaleza. Nuestra perspectiva rechaza esta dicotomía, por el contrario, evidenciamos una creciente imbricación entre ambas donde las fronteras entre una y otra se hacen difusas. La noción de “objeto técnico” propuesta por Simondon (2007) hace referencia a la inserción del objeto técnico en la cultura, donde debe reconocerse la “realidad humana” presente en el mismo. Ahora bien, esto no significa “humanizar el objeto técnico”, sino más bien indagar sobre el lugar que este ocupa en la cultura como también establecer su relación con la naturaleza. En el siglo XVII el hombre mismo es reinterpretado como máquina (La Mettrie, 2000). En la actualidad pueden identificarse dos tendencias en la concepción de la técnica: los «humanos-máquinas» y las «máquinas-humanas», en otras palabras, la disposición del humano hacia la máquina y la tendencia de la máquina hacia lo humano. No obstante, ambas posiciones siguen manteniendo una distinción taxonómica entre el cuerpo –o lo orgánico- y lo maquínico, lo que implica una consideración de esta relación de manera extrínseca. Frente a esta tensión Haraway propone el concepto de cyborg: «un organismo cibernético» (1995). Los desarrollos tecnológicos han producido una modificación tal en la vida de los seres orgánicos en los cuales ya no puede concebirse su cuerpo independientemente de la tecnología. Esto conduce a replantear la distinción entre “animales/hombres/máquinas”, entendiendo a los mismos como expresiones de naturaleza, cultura y tecnología respectivamente. Nuestra investigación parte de la hipótesis que la técnica diluye diferencias de orden natural y cultural a través de los objetos técnicos que son productos culturales. La estética se ocupa de la percepción sensible del mundo no puede eludir su dimensión técnica. Al margen de la crítica a la “Industria cultural” consideramos relevante la aproximación de Benjamin al problema de la técnica porque aborda la imbricación antes mencionada en el campo de la percepción. Según Benjamin la irrupción de la técnica al mismo tiempo que posibilita una estetización de la política que confluye en el fascismo como punto extremo también abre la posibilidad de desmontar la ideología del progreso infinito (1967). Una integración entre aproximaciones estéticas y políticas a la técnica Flusser (1983) propone la “caja negra” como metáfora de la técnica contemporánea. Su propuesta es la “apertura de la caja negra” que consiste en tomar conocimiento del funcionamiento del dispositivo. Nuestra propuesta de investigación aborda la técnica desde una consideración filosófica/estética/política, donde redefiniremos la técnica partiendo de la imbricación entre cultura y naturaleza. This project will set the basis for a sustained research on the relation nature/culture/technique. They have been traditionally considered as separate and even opposite fields. And it is on the brink of this distinction where technique plays a central role. In Western thought technique has received many interpretations since the beginnings of philosophy: from a subordination to true knowledge (episteme) in classic philosophy, or the optimism which sees in technique the possibility of dominating nature in the Renaissance and in the Enlightenment, to the Romantic ambiguity and uneasiness towards technological change (Mitcham, 1979). During the twentieth century two opposed approach on technique prevail. On one hand, a “critical” attitude such defines the work of philosophers of different traditions such as Ortega y Gasset (1939), Heidegger (1954), Mumford (1971) Ellul (1960) and the Frankfurt School. On the other hand there is an “engineering” philosophy of technique that consists in the analisis of technology as a paradigm to understand human action and thought. Besides their differences, both positions have in common a dichotomy between nature and culture. We reject such dichotomy. On the contrary we consider there is a growing intertwinement between both which blurs the borders of the concepts. Simondon’s notion of “technical object” refers to the insertion of the technique in culture where the “human reality” in it must be recognised. This does not imply “humanising the technical object”, but investigate on the role it plays on culture and establishing its relation to nature. To articulate this relation we will work with unorthodox approaches on technique such as Benjamin (1967), Flusser (1983) and others. The hypothesis of our project is that the traditional distinction of “animal/man/machine” must be re-thought, therefore raising the question on the blurring line between nature, culture and technique and its effects in philosophy, politics and aesthetics.
Resumo:
En este proyecto se propone: 1- Formular y analizar los problemas actuales en las técnicas de inyección de fallas para estimar SER (Single Event Response) en los circuitos integrados, aplicandolas luego para evaluar la tolerancia a fallos de diferentes circuitos integrados analógicos/digitales. El objetivo general que se persigue es proporcionar una solución que permita realizar, de forma rápida, eficaz y a bajo costo, la inyección de fallos en los circuitos analógicos y digitales. 2- Estudiar una aproximación no intrusita de detección de fallos en CI, combinando técnicas de hardware y software para detectar errores transitorios en circuitos analógicos y digitales. Este tipo de fallos transitorios tienen una influencia importante en sistemas de microprocesadores, que afectan al flujo de datos y a la etapa de control. Con el fin de proteger el sistema, un módulo de hardware orientado a la aplicación se generará automáticamente, reconfigurándose en el sistema durante el tiempo de ejecución. Cuando se combina esto con técnicas de tolerancia a fallas basadas en programación (Software), esta solución ofrece una protección total del sistema contra fallos transitorios. La campaña de inyección de fallas se planea realizar en un microprocesador MIPS, ejecutando algún programa de evaluación, con ayuda de una plataforma genérica y versátil desarrollada en TIMA (Francia). 3- Comparar los resultados obtenidos del estudio de las técnicas de inyección con los resultados experimentales, a partir de ensayos de radiación (aceleradores de partículas, micro rayos, etc.) al exponer a los circuitos a posibles fuentes de fallas.
Resumo:
Transmission of Cherenkov light through the atmosphere is strongly influenced by the optical clarity of the atmosphere and the prevailing weather conditions. The performance of telescopes measuring this light is therefore dependent on atmospheric effects. This thesis presents software and hardware developed to implement a prototype sky monitoring system for use on the proposed next-generation gamma-ray telescope array, VERITAS. The system, consisting of a CCD camera and a far-infrared pyrometer, was successfully installed and tested on the ten metre atmospheric Cherenkov imaging telescope operated by the VERITAS Collaboration at the F.L. Whipple Observatory in Arizona. The thesis also presents the results of observations of the BL Lacertae object, 1ES1959+650, made with the Whipple ten metre telescope. The observations provide evidence for TeV gamma-ray emission from the BL Lacertae object, 1ES1959+650, at a level of more than 15 standard deviations above background. This represents the first unequivocal detection of this object at TeV energies, making it only the third extragalactic source seen at such levels of significance in this energy range. The flux variability of the source on a number of timescales is also investigated.
Resumo:
The research described in this thesis was developed as part o f the Information Management for Green Design (IMA GREE) Project. The 1MAGREE Project was founded by Enterprise Ireland under a Strategic Research Grant Scheme as a partnership project between Galway Mayo Institute o f Technology and C1MRU University College Galway. The project aimed to develop a CAD integrated software tool to support environmental information management for design, particularly for the electronics-manufacturing sector in Ireland.
Resumo:
FUNDAMENTO: A estandardização do padrão de imagens utilizada dentro da medicina foi realizada em 1993 por meio do padrão DICOM (Digital Imaging and Communications in Medicine). Diversos exames utilizam esse padrão e cada vez mais são necessários softwares capazes de manipular esse tipo de imagem, porém esses softwares geralmente não têm o formato livre e de código aberto, e isso dificulta o seu ajuste para os mais diferentes interesses. OBJETIVO: Desenvolver e validar um software livre e de código aberto capaz de manipular imagens DICOM de exames de angiotomografia de coronárias. MÉTODOS: Desenvolvemos e testamos o software intitulado ImageLab na avaliação de 100 exames selecionados de forma randômica por meio de um banco de dados. Foram realizadas 600 análises divididas por dois observadores utilizando o ImageLab e um outro software comercializado junto a aparelhos de tomografia computadorizada Philips Brilliance, na avaliação da presença de lesões e placas coronarianas nos territórios do Tronco da Coronária Esquerda (TCE) e na Artéria Descendente Anterior (ADA). Para avaliar as concordâncias intraobservador, interobservadores e intersoftware, utilizamos concordância simples e estatística Kappa. RESULTADOS: As concordâncias observadas entre os softwares foram em geral classificadas como substancial ou quase perfeitas na maioria das comparações. CONCLUSÃO: O software ImageLab concordou com o software Philips na avaliação de exames de angiotomografia de coronárias especialmente em pacientes sem lesões, com lesões inferiores a 50% no TCE e inferiores a 70% na ADA. A concordância para lesão >70% na ADA foi menor, porém isso também é observado quando se utiliza o padrão de referência anatômico.
Resumo:
Feature modeling, embebbed software, software product lines, tool support
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2011
Resumo:
Magdeburg, Univ., Fak. für Informatik, Diss., 2007
Resumo:
Feature-Oriented Programming, Aspect-Oriented Programming, Software Product Lines, Stepwise Development
Resumo:
Software engineering, software measurement, software process engineering, capability, maturity
Resumo:
Hardware-Software Co-Design, Simulated Annealing, Real-Time Image Processing, Automated Hardware-Software Partitioning