853 resultados para Sistemas de Software. Qualidade. Tratamento de exceções. Mecanismos de tratamento de exceções. Robustez. Manutenibilidade.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In radiotherapy, computational systems are used for radiation dose determination in the treatment’s volume and radiometric parameters quality analysis of equipment and field irradiated. Due to the increasing technological advancement, several research has been performed in brachytherapy for different computational algorithms development which may be incorporated to treatment planning systems, providing greater accuracy and confidence in the dose calculation. Informatics and information technology fields undergo constant updating and refinement, allowing the use Monte Carlo Method to simulate brachytherapy source dose distribution. The methodology formalization employed to dosimetric analysis is based mainly in the American Association of Physicists in Medicine (AAPM) studies, by Task Group nº 43 (TG-43) and protocols aimed at dosimetry of these radiation sources types. This work aims to analyze the feasibility of using the MCNP-5C (Monte Carlo N-Particle) code to obtain radiometric parameters of brachytherapy sources and so to study the radiation dose variation in the treatment planning. Simulations were performed for the radiation dose variation in the source plan and determined the dosimetric parameters required by TG-43 formalism for the characterization of the two high dose rate iridium-192 sources. The calculated values were compared with the presents in the literature, which were obtained with different Monte Carlo simulations codes. The results showed excellent consistency with the compared codes, enhancing MCNP-5C code the capacity and viability in the sources dosimetry employed in HDR brachytherapy. The method employed may suggest a possible incorporation of this code in the treatment planning systems provided by manufactures together with the equipment, since besides reducing acquisition cost, it can also make the used computational routines more comprehensive, facilitating the brachytherapy ...

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A manutenção e evolução de sistemas de software tornou-se uma tarefa bastante crítica ao longo dos últimos anos devido à diversidade e alta demanda de funcionalidades, dispositivos e usuários. Entender e analisar como novas mudanças impactam os atributos de qualidade da arquitetura de tais sistemas é um pré-requisito essencial para evitar a deterioração de sua qualidade durante sua evolução. Esta tese propõe uma abordagem automatizada para a análise de variação do atributo de qualidade de desempenho em termos de tempo de execução (tempo de resposta). Ela é implementada por um framework que adota técnicas de análise dinâmica e mineração de repositório de software para fornecer uma forma automatizada de revelar fontes potenciais – commits e issues – de variação de desempenho em cenários durante a evolução de sistemas de software. A abordagem define quatro fases: (i) preparação – escolher os cenários e preparar os releases alvos; (ii) análise dinâmica – determinar o desempenho de cenários e métodos calculando seus tempos de execução; (iii) análise de variação – processar e comparar os resultados da análise dinâmica para releases diferentes; e (iv) mineração de repositório – identificar issues e commits associados com a variação de desempenho detectada. Estudos empíricos foram realizados para avaliar a abordagem de diferentes perspectivas. Um estudo exploratório analisou a viabilidade de se aplicar a abordagem em sistemas de diferentes domínios para identificar automaticamente elementos de código fonte com variação de desempenho e as mudanças que afetaram tais elementos durante uma evolução. Esse estudo analisou três sistemas: (i) SIGAA – um sistema web para gerência acadêmica; (ii) ArgoUML – uma ferramenta de modelagem UML; e (iii) Netty – um framework para aplicações de rede. Outro estudo realizou uma análise evolucionária ao aplicar a abordagem em múltiplos releases do Netty, e dos frameworks web Wicket e Jetty. Nesse estudo foram analisados 21 releases (sete de cada sistema), totalizando 57 cenários. Em resumo, foram encontrados 14 cenários com variação significante de desempenho para Netty, 13 para Wicket e 9 para Jetty. Adicionalmente, foi obtido feedback de oito desenvolvedores desses sistemas através de um formulário online. Finalmente, no último estudo, um modelo de regressão para desempenho foi desenvolvido visando indicar propriedades de commits que são mais prováveis a causar degradação de desempenho. No geral, 997 commits foram minerados, sendo 103 recuperados de elementos de código fonte degradados e 19 de otimizados, enquanto 875 não tiveram impacto no tempo de execução. O número de dias antes de disponibilizar o release e o dia da semana se mostraram como as variáveis mais relevantes dos commits que degradam desempenho no nosso modelo. A área de característica de operação do receptor (ROC – Receiver Operating Characteristic) do modelo de regressão é 60%, o que significa que usar o modelo para decidir se um commit causará degradação ou não é 10% melhor do que uma decisão aleatória.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Software bug analysis is one of the most important activities in Software Quality. The rapid and correct implementation of the necessary repair influence both developers, who must leave the fully functioning software, and users, who need to perform their daily tasks. In this context, if there is an incorrect classification of bugs, there may be unwanted situations. One of the main factors to be assigned bugs in the act of its initial report is severity, which lives up to the urgency of correcting that problem. In this scenario, we identified in datasets with data extracted from five open source systems (Apache, Eclipse, Kernel, Mozilla and Open Office), that there is an irregular distribution of bugs with respect to existing severities, which is an early sign of misclassification. In the dataset analyzed, exists a rate of about 85% bugs being ranked with normal severity. Therefore, this classification rate can have a negative influence on software development context, where the misclassified bug can be allocated to a developer with little experience to solve it and thus the correction of the same may take longer, or even generate a incorrect implementation. Several studies in the literature have disregarded the normal bugs, working only with the portion of bugs considered severe or not severe initially. This work aimed to investigate this portion of the data, with the purpose of identifying whether the normal severity reflects the real impact and urgency, to investigate if there are bugs (initially classified as normal) that could be classified with other severity, and to assess if there are impacts for developers in this context. For this, an automatic classifier was developed, which was based on three algorithms (Näive Bayes, Max Ent and Winnow) to assess if normal severity is correct for the bugs categorized initially with this severity. The algorithms presented accuracy of about 80%, and showed that between 21% and 36% of the bugs should have been classified differently (depending on the algorithm), which represents somewhere between 70,000 and 130,000 bugs of the dataset.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The growing demand for large-scale virtualization environments, such as the ones used in cloud computing, has led to a need for efficient management of computing resources. RAM memory is the one of the most required resources in these environments, and is usually the main factor limiting the number of virtual machines that can run on the physical host. Recently, hypervisors have brought mechanisms for transparent memory sharing between virtual machines in order to reduce the total demand for system memory. These mechanisms “merge” similar pages detected in multiple virtual machines into the same physical memory, using a copy-on-write mechanism in a manner that is transparent to the guest systems. The objective of this study is to present an overview of these mechanisms and also evaluate their performance and effectiveness. The results of two popular hypervisors (VMware and KVM) using different guest operating systems (Linux and Windows) and different workloads (synthetic and real) are presented herein. The results show significant performance differences between hypervisors according to the guest system workloads and execution time.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A preocupação com a qualidade dos serviços prestados pelas organizações de saúde é uma realidade. Em resultado de várias pressões e diferentes metodologias têm sido implementadas nas instituições Sistemas de Informação a fim de melhorar a qualidade e segurança dos procedimentos aí desenvolvidos. A qualidade dos Sistemas de Informação assume um destaque pela sua componente de mais-valia, neste trabalho procuramos avalia-la e verificar a sua correta implementação. A presente dissertação reporta-se ao estudo dos Sistemas de informação no Serviço de Radiologia do HCC, tendo como objetivo principal saber se os Sistemas de Informação, potenciaram a melhoria da qualidade de desempenho dos profissionais de saúde, assim como caracterizar a qualidade dos Sistemas de Informação. Como estratégia de pesquisa optamos por um estudo de natureza descritiva, utilizando um modelo de análise quantitativo. Aplicou-se um questionário elaborado pela investigadora, tendo sido aceites as respostas de 55 questionários realizados aos utilizadores dos SI. De uma forma geral os resultados demonstram que os Sistemas de Informação foram bem aceites por parte dos profissionais deste serviço, existindo porem algumas deficiências que não permite que se atinja níveis de qualidade elevados. Relativamente à formação depreendemos que existem algumas lacunas relativas ao processo de formação dos utilizadores, que podem ser colmatadas por uma intervenção adequada. ABSTRACT: The concern about the quality of the accounted services by the health organizations is a reality. Information Systems have been installed in many establishments as a result of many pressures and different methodologies in order to improve the quality and safety of the procedures developed in such places. The quality of the Information Systems gains relevance due to its “rise” character; on this essay we aimed to evaluate and verify its adequate execution. The present essay is about the study of the Information Systems on the Radiology Service of Hospital Curry Cabral (HCC) being its main objective to know if the Information Systems improved the performance of the health professionals, as well as to point out their quality. We decided to build a study of descriptive nature using a quantitative analysis method. We applied an inquiry elaborated by the researcher and accepted the answers of 55 inquiries made to the SI users. In general, the results revealed that the Information Systems were well accepted by the professionals of this service. However, some minor problems do not allow high standard of quality to be obtained. As regards training we understand that there are a few defaults concerning the process of formation of the users which can be surpassed if using an adequate intervention.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Em várias regiões do mundo, assim como no Brasil, um alto percentual da população e até comunidades inteiras não têm acesso a um sistema de tratamento de esgoto centralizado, sendo comum o uso das fossas sépticas e/ou sumidouros e, em muitos casos, os esgotos são lançados in natura diretamente nos corpos hídricos. Com o objetivo de oferecer uma alternativa tecnológica de baixo custo de implantação e operação com vistas à minimização dos impactos ambientais e em atendimento a pequenas comunidades isoladas e de interesse social, o presente projeto desenvolveu com base em sistemas apresentados na literatura, um ecossistema engenheirado compacto para o tratamento de esgoto domiciliar de pequenos geradores. O sistema é composto por tratamento preliminar (caixa controladora de vazão e caixa de gordura), primário (fossa séptica), secundário (filtro aerado submerso e decantador secundário) e um conjunto de tanques vegetados por macrófitas aquáticas (Eichhornia crassipes, Schoenoplectus sp., Panicum cf. racemosum) intercalados por um tanque de algas para remoção da carga poluidora remanescente e nutrientes. O sistema foi instalado no CEADS/UERJ na Vila de Dois Rios, Ilha Grande, litoral Sul do Rio de Janeiro, operado e monitorado desde Abril de 2009, sendo que o presente estudo referese aos primeiros 200 dias de monitoramento. A remoção da carga poluidora foi monitorada na vazão de 200 L/h, posteriormente corrigida para 52 L/h, almejando alcançar os padrões de lançamento da Resolução CONAMA 357 e a NBR 13969 da ABNT, para os parâmetros de OD, pH, Temperatura, Nitrato, N amoniacal, DBO5, DQO, SSD, Cloreto e, Óleos e Graxas e outros parâmetros não incluídos na Resolução (Cond. Elétrica, COT, Alcalinidade, Dureza, Nitrito, Fósforo total e demais Sólidos (ST, SST, SSV, SSF e SDT ). Os resultados obtidos indicam que o sistema foi mais eficiente quando operado na vazão de 52 L/h, quando apresentou as seguintes taxas de remoção: 96 % (Nitrito); 71 % (Nitrato); 47 % (N amoniacal); 96,7 % (DQO); 95,7 % (DBO5); 10 % (Fósforo total). O sistema apresentou uma evolução ao longo do tempo de operação e após a redução na vazão, garantiu o enquadramento de 12 dos 14 parâmetros analisados (exceto N amoniacal e Fósforo total), nos padrões de lançamento contemplados pela Legislação Federal, CONAMA 357 e Legislação Estadual do RJ, SP, MG e GO. Para aumento da eficiência de tratamento, recomenda-se redimensionamento do filtro aerado submerso-decantador e tanques vegetados, com base nas recomendações do PROSAB 2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo da realização deste trabalho foi analisar em detalhes o processo de depuração que ocorre depois da atividade de teste. Por tanto, vários processos de depuração de software foram analisados. Baseado nessa análise foi definido um processo de Depuração depois do teste (DDT) que enfativa os seguintes aspectos: identificação, avaliação e refinamento sucessivo de sintomas internos até a localização do defeito; e tipo de informação de teste utilizada. Várias técnicas de depuração foram então avaliadas em termos de mecanismos de apoio ao processo DDT e quanto a sua escabilidade para programas reais. Dessa avaliação, observou-se que os resultados do teste sistemático de software, quando utilizado na depuração, resultam em técnicas de baixo custo e com maiores perspectivas de escabilidade para programas reais. Infelizmente, esses resultados têm sido utilizados apenas para apoiar um dos aspectos do processo DDT- identificação de sintomas internos. Essa observação motiva a definição de estratégias de depuração que utilizem, de maneira eficaz e eficiente, as informações de teste na avaliação e no refinamento de sintomas internos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho de investigação centra-se no estudo das reclamações em matéria de ambiente submetidas às Câmaras dos municípios envolventes à Ria de Aveiro entre os anos de 2000 e 2007. Pretendeu compreender-se de que forma podem ser caracterizadas as reclamações, nomeadamente a análise temporal, os principais atores envolvidos na apresentação e na resolução das reclamações, os imputados pelos problemas ambientais levantados, as tipologias de problemas de ambiente associadas às reclamações, o padrão territorial que assumem e as resoluções aplicadas. Procurou ainda compreender-se até que ponto a existência de um ecossistema em comum aos municípios, a Ria de Aveiro, influencia os tipos de problemas ambientais que têm sido alvo de reclamações e quais são os fatores que determinam as semelhanças e as diferenças encontradas no estudo das reclamações por municípios. A metodologia do trabalho consistiu, sumariamente, na revisão da literatura da especialidade com o objetivo de identificar o que tem sido desenvolvido nesse ramo de investigação, na caracterização da área de estudo e no desenvolvimento de uma estrutura metodológica para a identificação e a análise das reclamações e para a ponderação dos resultados com as perceções dos líderes locais através da realização de entrevistas. O enquadramento teórico do estudo salientou os principais aspetos referidos no domínio dos protestos ambientais e das reclamações do público sobre o ambiente, bem como o quadro concetual relativo à governação ambiental local. Adicionalmente, descreveram-se um breve panorama dos protestos ambientais em Portugal, dos quadros legislativos Europeu e nacional assentes no direito de acesso à informação ambiental e no princípio da participação, bem como os procedimentos locais para a apresentação de reclamações ambientais. Apresentou-se também a caracterização dos municípios abrangidos, destacando-se os principais aspetos socioeconómicos, ambientais, de infraestruturação, os instrumentos de planeamento e de gestão do território e do ambiente e o enquadramento institucional relativo à gestão ambiental nos municípios, constituindo informações relevantes para o enquadramento da área de estudo e um suporte útil para a análise e a interpretação dos resultados. Os resultados obtidos permitiram evidenciar que, no geral, há um aumento do número de reclamações ao longo dos anos. Como principais atores envolvidos, foi possível destacar os munícipes como os mais participativos, tendo se revelado também como os principais responsáveis pelos problemas ambientais observados. Para além das Câmaras Municipais, as instituições policiais surgem como as principais entidades requeridas na resolução dos problemas. As reclamações refletem sobretudo problemas localizados e que interferem com o quotidiano dos cidadãos, tais como a limpeza de terrenos, os depósitos de lixo a céu aberto ou o saneamento básico. Os problemas enunciados tendem a concentrar-se nas áreas mais urbanizadas e com maior densidade populacional. A intensidade, a tipologia e a distribuição territorial das reclamações são também determinadas pelas fronteiras administrativas. Contrariamente ao esperado, a Ria não constitui um fator mobilizador de reclamações ambientais dirigidas às Câmaras Municipais. Os diferentes mecanismos de submissão de reclamações, as políticas e prioridades de gestão ambiental local, a par da perceção ambiental das populações, influenciam esses resultados. A análise da resolução das reclamações mostrou que, embora a maior parte tenha sido equacionada pelos governos locais, uma percentagem significativa permaneceu em aberto. Apesar de ter sido detetada uma relevante concordância entre os principais problemas de ambiente referidos nos planos municipais de ambiente ou das Agendas 21 Locais existentes, as reclamações informam sobre problemas que nem sempre estão considerados naqueles instrumentos e que requerem atenção por parte dos governos locais. Adicionalmente, a ponderação entre os resultados obtidos a partir do estudo as reclamações e as perceções dos líderes locais acerca das exposições do público mostra que, apesar de uma perceção consistente sobre os problemas ambientais dominantes, há ainda um caminho relevante a percorrer para consolidar os sistemas municipais de receção, tratamento e análise das reclamações. O estudo desenvolvido ressalta o potencial que as reclamações ambientais incorporam enquanto fontes de informação sobre a tipologia de problemas ambientais persistentes, a sua localização e os principais atores envolvidos. Essa informação é crucial no momento em que se desenvolvem ou reveem instrumentos locais de gestão e de planeamento ambiental. Ao destacar o potencial das reclamações em matéria de ambiente, o trabalho propõe um conjunto de recomendações que permitem às Câmaras Municipais enriquecerem o sistema de gestão da informação proporcionada pelas reclamações, a sua utilização, e, em consequência, melhorar as relações de confiança entre o público e a Autarquia e a própria a governação ambiental local.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação de Mestrado, Gestão de Unidades de Saúde, Faculdade de Economia, Universidade do Algarve, 2015

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen basado en el de la publicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen basado en el de la publicaci??n. Monogr??fico con el t??tulo: Tiempos de cambio universitario en Europa

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta uma ferramenta para gerenciamento de projetos, priorizando as fases de planejamento e o controle do desenvolvimento de software. Ao efetuar o planejamento de um projeto é necessário estimar o prazo, o custo e o esforço necessário, aplicando técnicas já aprovadas, existentes na literatura, tais como: Estimativa do Esforço, Estimativa de Putnam, Modelo COCOMO, Análise de Pontos por Função, Pontos de Particularidade e PSP. É necessária a utilização de uma ferramenta que automatizem o processo de estimativa. Hoje no mercado, encontram-se várias ferramentas de estimativas, tais como: ESTIMACS, SLIM, SPQR/20, ESTIMATE Professional. O controle do desenvolvimento do projeto está relacionado ao acompanhamento do projeto, do profissional e da própria estimativa de custo e esforço de desenvolvimento. Nenhuma das ferramentas estudadas permitiu o controle do projeto por parte da gerência, por isto esta se propondo o desenvolvimento uma nova ferramenta que permita o planejamento e controle do processo de desenvolvimento. Esta ferramenta deve permitir a comparação entre as diversas técnicas de estimativas, desde que baseadas na mesma medida de tamanho: pontos por função. Para exemplificar o uso desta ferramenta, foram aplicados dois estudos de casos desenvolvidos pela empresa Newsoft Consultoria de Informática.