996 resultados para Teste em sistemas de software


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La partición hardware/software es una etapa clave dentro del proceso de co-diseño de los sistemas embebidos. En esta etapa se decide qué componentes serán implementados como co-procesadores de hardware y qué componentes serán implementados en un procesador de propósito general. La decisión es tomada a partir de la exploración del espacio de diseño, evaluando un conjunto de posibles soluciones para establecer cuál de estas es la que mejor balance logra entre todas las métricas de diseño. Para explorar el espacio de soluciones, la mayoría de las propuestas, utilizan algoritmos metaheurísticos; destacándose los Algoritmos Genéticos, Recocido Simulado. Esta decisión, en muchos casos, no es tomada a partir de análisis comparativos que involucren a varios algoritmos sobre un mismo problema. En este trabajo se presenta la aplicación de los algoritmos: Escalador de Colinas Estocástico y Escalador de Colinas Estocástico con Reinicio, para resolver el problema de la partición hardware/software. Para validar el empleo de estos algoritmos se presenta la aplicación de este algoritmo sobre un caso de estudio, en particular la partición hardware/software de un codificador JPEG. En todos los experimentos es posible apreciar que ambos algoritmos alcanzan soluciones comparables con las obtenidas por los algoritmos utilizados con más frecuencia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La constante innovación tecnológica y al abaratamiento de los dispositivos, han hecho que el fototrampeo se convierta en una técnica ampliamente utilizada para la realización de inventarios biológicos, generando gran cantidad de registros de alto interés ecológico. El principal objetivo de esta comunicación es presentar una herramienta de software libre (FOSS), desarrollada para facilitar el manejo de datos, obtenidos mediante fototrampeo en un espacio protegido de la Comunidad Valenciana. Así, a partir de un estudio iniciado en 2009, se ha analizado la composición de la comunidad de vertebrados en el Parque Natural de la Sierra de Mariola. Para la realización de los muestreos se han empleado cámaras de infrarrojos con sensor de movimiento (Moultrie Game Spy I-60®), obteniendo un total de 29,941 contactos que han servido para determinar la abundancia de las especies muestreadas en las 63 cuadrículas (2*2 Km) establecidas en la zona de estudio. La aplicación FOSS, denominada “Camera Trap Manager”, se ha diseñado para agilizar el tratamiento de esta información y funciona sobre la plataforma .NET, pudiendo ser utilizada en varios sistemas operativos. Además, este software dispone de un interfaz de usuario muy intuitivo, capacidad de extraer automáticamente distintos tipos de metadatos (fecha, hora, fase lunar, localización, temperatura, presión atmosférica, etc), basados en el estándar Exif; disponibilidad de listas taxonómicas para permitir a los usuarios etiquetar fácilmente las imágenes con las identidades de las especies, capacidad de análisis y creación de informes. El uso de esta aplicación ha permitido simplificar el procesado, análisis y edición de datos, consiguiendo una significativa reducción de los costes económicos y temporales. Mientras que en el procesado manual se alcanzaba una media de 55 fotografías/hora, el uso de esta herramienta permite procesar más de 1,000 fotografías/hora, obteniendo una mayor cantidad de información. Finalmente, se pone de manifiesto la gran utilidad de esta aplicación, que puede ser adaptada a las necesidades de otros proyectos de gestión de fauna, haciendo su uso extensivo no solamente a los profesionales del sector, sino a todos aquellos que requieran procesar gran cantidad de imágenes de fototrampeo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El diseño de recursos educacionales y materiales didácticos vía on-line permite mejorar el aprendizaje autónomo y a distancia (o no presencial). El proceso de convergencia Europea del Espacio de Educación Superior determina que el empleo de este tipo de recursos dota al estudiante de más flexibilidad, aunque la metodología de educación dominante sea la tradicional (es decir, las clases presenciales). Los recursos educacionales on-line juegan un rol importante en este contexto. En trabajos previos se ha experimentado diseñando cursos con ayuda de un LCMS (Learning Content Management System) como el Moodle corporativo de la UA, incorporando documentos SCORM para diseñar lecciones de autoevaluación, con laboratorios virtuales y otras herramientas de simulación de diseño propio (KIVANS, applets KIVANS+EJS). En esta nueva red se pretende generar nuevos recursos didácticos basados en software libre. Ninguno de los laboratorios virtuales desarrollados hasta ahora permiten a los alumnos poner en práctica los desarrollos de las clases presenciales a distancia. Para ello, usando el software de libre distribución GNS3, y teniendo como base la configuración de la red del laboratorio L24 de la EPS, se pretende construir un entorno virtual que simule las posibilidades reales de este laboratorio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Context: Global Software Development (GSD) allows companies to take advantage of talent spread across the world. Most research has been focused on the development aspect. However, little if any attention has been paid to the management of GSD projects. Studies report a lack of adequate support for management’s decisions made during software development, further accentuated in GSD since information is scattered throughout multiple factories, stored in different formats and standards. Objective: This paper aims to improve GSD management by proposing a systematic method for adapting Business Intelligence techniques to software development environments. This would enhance the visibility of the development process and enable software managers to make informed decisions regarding how to proceed with GSD projects. Method: A combination of formal goal-modeling frameworks and data modeling techniques is used to elicitate the most relevant aspects to be measured by managers in GSD. The process is described in detail and applied to a real case study throughout the paper. A discussion regarding the generalisability of the method is presented afterwards. Results: The application of the approach generates an adapted BI framework tailored to software development according to the requirements posed by GSD managers. The resulting framework is capable of presenting previously inaccessible data through common and specific views and enabling data navigation according to the organization of software factories and projects in GSD. Conclusions: We can conclude that the proposed systematic approach allows us to successfully adapt Business Intelligence techniques to enhance GSD management beyond the information provided by traditional tools. The resulting framework is able to integrate and present the information in a single place, thereby enabling easy comparisons across multiple projects and factories and providing support for informed decisions in GSD management.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trabalho de Projeto apresentado à Escola Superior de Tecnologia do Instituto Politécnico de Castelo Branco para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Desenvolvimento de Software e Sistemas Interactivos, realizada sob a orientação científica do Professor Doutor José Carlos Metrôlho, do Instituto Politécnico de Castelo Branco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El objeto de estudio de este proyecto son los sistemas de calentamiento de agua mediante energía solar que funcionan termosifónicamente. En particular se tratará con dos diseños particulares generados por fabricantes de la Provincia de Córdoba y que han solicitado el asesoramiento del Grupo de Energía Solar (GES) para el mejoramiento de la performance térmica de dichos equipos. Se trata de dos sistemas que tienen materiales no tradicionales y se diferencian además por tener una distinta disposición del tanque de almacenamiento: uno es en forma vertical y el otro en forma horizontal. Basados en los resultados de un ensayo bajo norma internacional, donde se detectaron algunas puntos factibles de mejora, se propone en este proyecto el análisis en detalle de los equipos, para lo cual se les debe desarmar completos, para realizar un estudio analítico y experimental de los mismos con el objeto de hacer un planteo teórico-analítico del comportamiento de los mismos, con la implementación de propuestas de mejora y chequeo de los resultados. Se propone entonces como objetivo lograr un mejoramiento de la performance térmica de los citados equipos a partir de un estudio experimental y analítico. Asumiendo esta posibilidad de mejora, se plantea la hipótesis de que es posible representar el funcionamiento de estos equipos mediante modelos físico-matemáticos desarrollados a partir de ecuaciones y correlaciones conocidas y procesos a interpretar mediante resoluciones numéricas y softwares específicos de simulación. De esta manera, se plantea el despieze completo de los equipos para estudiar en detalle su estructura y conexiones internas y a partir de la geometría, dimensiones y propiedades termofísicas de materiales constructivos y fluidos de trabajo, realizar modelos físico-matemáticos que permitan realizar variaciones de propiedades y geometría y así buscar las mejores combinaciones que produzcan equipos más eficientes térmicamente. Los modelos físico-matemáticos serán codificados en lenguajes de alto nivel para poder luego de una validación de los modelos, correr simulaciones en un software de reconocimiento internacional que permite sumar dichos modelos mediante un protocolo de comunicación, haciendo que las poderosas prestaciones del software se puedan aplicar a nuestros modelos. Se complementará el estudio con un análisis exergético para identificar los puntos críticos en que se producen las pérdidas de oportunidad de aprovechar la energía disponible, para así analizar cómo solucionar los problemas en dichos puntos. Los materiales a utilizar serán los propios equipos provistos por los fabricantes, que serán modificados convenientemente para operarlos como prototipos Se espera obtener un conocimiento acabado de los procesos y principios de funcionamiento de los equipos, que permita plantear las mejoras, las cuales se implementarán en los prototipos, realizándose una medición mediante norma igual a la inicial para ver en que magnitud se logran las mejoras esperadas. Se pretende además que las mejoras a implementar, en la etapa de transferencia a las empresas involucradas, redunden no sólo en un beneficio técnico, sino que también los sea desde el punto de vista económico. Para ello se trabajará también sobre los procesos y métodos de fabricación para que los equipos mejorados no sean mas caros que los originales y de ser posible sean aún más económicos, todo esto apuntando a la difusión de la energía solar térmica y poner al alcance de todos estos equipos tan convenientes para la propagación de las energías limpias. El proyecto redundará también en un importante beneficio para el conocimiento de la comunidad científica en general, con el aporte de nuevos resultados en diseños novedosos y con nuevos materiales. Además, la institución se beneficiará con la formación que obtendrán los integrantes del proyecto, muchos de ellos en etapa de realización de sus estudios de posgrado y en una etapa importante de su vida como investigadores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En este proyecto se investigan 3 subáreas de Inteligencia Artificial y sus aplicaciones en contextos educativos. Las 3 áreas son 1) agentes conversacionales automatizados que actúan como instructores virtuales o sistemas de tutoring automatizado, 2) asistentes virtuales que llevan a cabo una tarea dada bajo la instrucción de un aprendiz avanzado, y 3) plataformas de programación de chatbots como una herramienta educativa para enseñar conceptos básicos de ciencias de la computación. La hipótesis de este proyecto es que tanto los tutores como los asistentes conversacionales automatizados deben incluir una representación contextual rica que identifique lo entendido por el aprendiz hasta el momento y ser capaces de realizar inferencias sobre ella para poder guiar mejor su aprendizaje. Los objetivos de este proyecto incluyen el desarrollo de algoritmos de inferencia contextuales apropiados para instructores y asistentes virtuales, el desarrollo de algoritmos para la programación simplificada de chatbots, la evaluación de estos algoritmos en pruebas piloto en escuelas y la realización de un curso online abierto masivo para estudiantes de secundario del programa Conectar Igualdad que quieran aprender sobre Inteligencia Artificial y Ciencias de la Computación. El método a utilizar será la realización de recolección de corpus (interacciones humano-humano de las interacciones tutor-aprendiz), la aplicación de técnicas de procesamiento de lenguaje natural como la generación por selección y la interpretación por clustering y maximum entropy models usando características sintácticas, semánticas y pragmáticas. Se desarrollarán los algoritmos siguiendo una metodología estándar de Ingeniería de Software y se evaluarán en experiencias piloto en escuelas secundarias así como en un curso online abierto y masivo. Además se dictará un curso de capacitación docente para la incorporación de las tecnologías producidas a sus cursos. Como resultado se espera la contribución al área de Inteligencia Artificial con aplicaciones en Educación de algoritmos evaluados empíricamente en entornos educativos reales del nivel medio. Además, se espera contribuir a las metodologías de enseñanza de Ciencias de la Computación en el nivel medio. Este proyecto es relevante a la realidad nacional y mundial de falta de recursos humanos formados en las Ciencias de la Computación y al crecimiento mundial que el área de Inteligencia Artificial en general y de Sistemas de diálogo (o interfaces conversacionales) en particular ha tenido en los últimos años con el crecimiento exponencial de la tecnología en la vida diaria.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre no Instituto Superior de Ciências da Saúde Egas Moniz

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dissertação para obtenção do grau de Mestre no Instituto Superior de Ciências da Saúde Egas Moniz

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em época de crise financeira, as ferramentas open source de data mining representam uma nova tendência na investigação, educação e nas aplicações industriais, especialmente para as pequenas e médias empresas. Com o software open source, estas podem facilmente iniciar um projeto de data mining usando as tecnologias mais recentes, sem se preocuparem com os custos de aquisição das mesmas, podendo apostar na aprendizagem dos seus colaboradores. Os sistemas open source proporcionam o acesso ao código, facilitando aos colaboradores a compreensão dos sistemas e algoritmos e permitindo que estes o adaptem às necessidades dos seus projetos. No entanto, existem algumas questões inerentes ao uso deste tipo de ferramenta. Uma das mais importantes é a diversidade, e descobrir, tardiamente, que a ferramenta escolhida é inapropriada para os objetivos do nosso negócio pode ser um problema grave. Como o número de ferramentas de data mining continua a crescer, a escolha sobre aquela que é realmente mais apropriada ao nosso negócio torna-se cada vez mais difícil. O presente estudo aborda um conjunto de ferramentas de data mining, de acordo com as suas características e funcionalidades. As ferramentas abordadas provém da listagem do KDnuggets referente a Software Suites de Data Mining. Posteriormente, são identificadas as que reúnem melhores condições de trabalho, que por sua vez são as mais populares nas comunidades, e é feito um teste prático com datasets reais. Os testes pretendem identificar como reagem as ferramentas a cenários diferentes do tipo: performance no processamento de grandes volumes de dados; precisão de resultados; etc. Nos tempos que correm, as ferramentas de data mining open source representam uma oportunidade para os seus utilizadores, principalmente para as pequenas e médias empresas, deste modo, os resultados deste estudo pretendem ajudar no processo de tomada de decisão relativamente às mesmas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A transição do século XX para o século XXI trouxe consigo uma série de mudanças, em especial às organizações, que vivenciaram evoluções de ordem tecnológica impactantes em sua estrutura administrativa e econômica. As agências de publicidade, apesar de terem um enfoque voltado ao aspecto criativo, não deixam de ser organizações, e assim como as demais também vivenciam este ciclo de mudanças, que aparenta ser ininterrupto. A importância do planejamento estratégico e financeiro e do atendimento integrado aos clientes proporcionou às agências novas perspectivas de funcionamento, e nelas enquadram-se as fusões/aquisições. Agências internacionais optaram por participar do mercado publicitário brasileiro através de fusões/aquisições; estas ocorreram com agências de bastante expressão no mercado internacional, mas também com agências menos conhecidas, mas que demonstraram a realização de bons trabalhos no setor. Através deste estudo realizou-se uma análise a respeito do mercado de fusões e aquisições de agências de publicidade, em especial, sob a perspectiva financeira. Através da base de dados lançada no Software SPSS foi aplicado o Teste T. Constatou-se que as agências de publicidade no Brasil entre 1999 a 2009 não apresentaram diferenças de média em relação ao faturamento, independente de terem passado ou não pelo processo de fusão/aquisição. Este crescimento pouco representativo demonstra que as fusões/aquisições tendem a ocorrer por diversos motivos e não se restringem exclusivamente ao aspecto financeiro, a perspectiva de bom atendimento ao cliente, visando o planejamento estratégico no âmbito publicitário, tende a ser um deles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Software product line engineering promotes large software reuse by developing a system family that shares a set of developed core features, and enables the selection and customization of a set of variabilities that distinguish each software product family from the others. In order to address the time-to-market, the software industry has been using the clone-and-own technique to create and manage new software products or product lines. Despite its advantages, the clone-and-own approach brings several difficulties for the evolution and reconciliation of the software product lines, especially because of the code conflicts generated by the simultaneous evolution of the original software product line, called Source, and its cloned products, called Target. This thesis proposes an approach to evolve and reconcile cloned products based on mining software repositories and code conflict analysis techniques. The approach provides support to the identification of different kinds of code conflicts – lexical, structural and semantics – that can occur during development task integration – bug correction, enhancements and new use cases – from the original evolved software product line to the cloned product line. We have also conducted an empirical study of characterization of the code conflicts produced during the evolution and merging of two large-scale web information system product lines. The results of our study demonstrate the approach potential to automatically or semi-automatically solve several existing code conflicts thus contributing to reduce the complexity and costs of the reconciliation of cloned software product lines.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents a study of the integration of filters and microstrip antennas, yielding devices named as filtennas for applications in wireless communications systems. The design of these structures is given from the observation of filtennas based integration between horn antennas and frequency selective surfaces (FSS), used in the band X. The choice of microstrip line structures for the development of a new configuration filtennas justifies the wide application of these transmission lines, in recent decades, always resulting in the production of circuit structures with planar light-weight, compact size, low cost, easy to construct and particularly easy to integrate with other microwave circuits. In addition, the antenna structure considered for the composition of filtennas consists of a planar monopole microstrip to microstrip filters integrated in the feed line of the antenna. In particular, are considered elliptical monopole microstrip (operating in UWB UWB) microstrip filters and (in structures with associated sections in series and / or coupled). In addition, the monopole microstrip has a proper bandwidth and omnidirectional radiation pattern, such that its integration with microstrip filters results in decreased bandwidth, but with slight changes in the radiation pattern. The methods used in the analysis of monopoles, and filters were filtennas finite elements and moments by using commercial software Ansoft Designer and HFSS Ansoft, respectively. Specifically, we analyze the main characteristics of filtennas, such as radiation pattern, gain and bandwidth. Were designed, constructed and measures, several structures filtennas, for validation of the simulated results. Were also used computational tools (CAD) in the process of building prototypes of planar monopoles, filters and filtennas. The prototypes were constructed on substrates of glass-fiber (FR4). Measurements were performed at the Laboratory for Telecommunications UFRN. Comparisons were made between simulated and measured, and found good agreement in the cases considered

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Building installations of cold water are key parts in any model of housing, are homes or condos. However, these systems are subject to failure, which can range from a leak in a device until faults in the structure of water reservoirs and distribution system. These faults are responsible for great economic and environmental costs. In order to reduce these losses, this work proposes the development of a system able to detect the presence and identify some types of water leaks that may occur. For implementation and testing, consumption model was used in a simulator capable of reproducing a similar behavior to a real model and its consequent failures. The detection of leaks is done based on an expert like model having two detection modules, one active and one passive, which use an array of sensors and actuators (valves) to do the sensing. For testing and implementation has been developed a software capable of coupling the system simulator and detector. From the results it can be seen that the system proposed in this work, as well as functioning satisfactorily, can be easily implemented in microcontrollers or embedded systems due to its simplicity.