49 resultados para Difusão mamária


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em História Contemporânea

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos começaram a ser vulgares os computadores dotados de multiprocessadores e multi-cores. De modo a aproveitar eficientemente as novas características desse hardware começaram a surgir ferramentas para facilitar o desenvolvimento de software paralelo, através de linguagens e frameworks, adaptadas a diferentes linguagens. Com a grande difusão de redes de alta velocidade, tal como Gigabit Ethernet e a última geração de redes Wi-Fi, abre-se a oportunidade de, além de paralelizar o processamento entre processadores e cores, poder em simultâneo paralelizá-lo entre máquinas diferentes. Ao modelo que permite paralelizar processamento localmente e em simultâneo distribuí-lo para máquinas que também têm capacidade de o paralelizar, chamou-se “modelo paralelo distribuído”. Nesta dissertação foram analisadas técnicas e ferramentas utilizadas para fazer programação paralela e o trabalho que está feito dentro da área de programação paralela e distribuída. Tendo estes dois factores em consideração foi proposta uma framework que tenta aplicar a simplicidade da programação paralela ao conceito paralelo distribuído. A proposta baseia-se na disponibilização de uma framework em Java com uma interface de programação simples, de fácil aprendizagem e legibilidade que, de forma transparente, é capaz de paralelizar e distribuir o processamento. Apesar de simples, existiu um esforço para a tornar configurável de forma a adaptar-se ao máximo de situações possível. Nesta dissertação serão exploradas especialmente as questões relativas à execução e distribuição de trabalho, e a forma como o código é enviado de forma automática pela rede, para outros nós cooperantes, evitando assim a instalação manual das aplicações em todos os nós da rede. Para confirmar a validade deste conceito e das ideias defendidas nesta dissertação foi implementada esta framework à qual se chamou DPF4j (Distributed Parallel Framework for JAVA) e foram feitos testes e retiradas métricas para verificar a existência de ganhos de performance em relação às soluções já existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho pretende-se introduzir os conceitos associados às redes neuronais e a sua aplicação no controlo de sistemas, neste caso na área da robótica autónoma. Foi utilizado um AGV de modo a testar experimentalmente um controlo através de uma rede neuronal artificial. A grande vantagem das redes neuronais artificiais é estas poderem ser ensinadas a funcionarem como se pretende. A partir desta caraterística foram efetuadas duas abordagens na implementação do AGV disponibilizado. A primeira abordagem ensinava a rede neuronal a funcionar como o controlo por lógica difusa que foi implementado no AGV aquando do seu desenvolvimento. A segunda abordagem foi ensinar a rede neuronal artificial a funcionar a partir de dados retirados de um controlo remoto simples implementado no AGV. Ambas as abordagens foram inicialmente implementadas e simuladas no MATLAB, antes de se efetuar a sua implementação no AGV. O MATLAB é utilizado para efetuar o treino das redes neuronais multicamada proactivas através do algoritmo de treino por retropropagação de Levenberg-Marquardt. A implementação de uma rede neuronal artificial na primeira abordagem foi implementada em três fases, MATLAB, posteriormente linguagem de programação C no computador e por fim, microcontrolador PIC no AGV, permitindo assim diferenciar o desenvolvimento destas técnicas em várias plataformas. Durante o desenvolvimento da segunda abordagem foi desenvolvido uma aplicação Android que permite monitorizar e controlar o AGV remotamente. Os resultados obtidos pela implementação da rede neuronal a partir do controlo difuso e do controlo remoto foram satisfatórios, pois o AGV percorria os percursos testados corretamente, em ambos os casos. Por fim concluiu-se que é viável a aplicação das redes neuronais no controlo de um AGV. Mais ainda, é possível utilizar o sistema desenvolvido para implementar e testar novas RNA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fuzzy logic controllers (FLC) are intelligent systems, based on heuristic knowledge, that have been largely applied in numerous areas of everyday life. They can be used to describe a linear or nonlinear system and are suitable when a real system is not known or too difficult to find their model. FLC provide a formal methodology for representing, manipulating and implementing a human heuristic knowledge on how to control a system. These controllers can be seen as artificial decision makers that operate in a closed-loop system, in real time. The main aim of this work was to develop a single optimal fuzzy controller, easily adaptable to a wide range of systems – simple to complex, linear to nonlinear – and able to control all these systems. Due to their efficiency in searching and finding optimal solution for high complexity problems, GAs were used to perform the FLC tuning by finding the best parameters to obtain the best responses. The work was performed using the MATLAB/SIMULINK software. This is a very useful tool that provides an easy way to test and analyse the FLC, the PID and the GAs in the same environment. Therefore, it was proposed a Fuzzy PID controller (FL-PID) type namely, the Fuzzy PD+I. For that, the controller was compared with the classical PID controller tuned with, the heuristic Ziegler-Nichols tuning method, the optimal Zhuang-Atherton tuning method and the GA method itself. The IAE, ISE, ITAE and ITSE criteria, used as the GA fitness functions, were applied to compare the controllers performance used in this work. Overall, and for most systems, the FL-PID results tuned with GAs were very satisfactory. Moreover, in some cases the results were substantially better than for the other PID controllers. The best system responses were obtained with the IAE and ITAE criteria used to tune the FL-PID and PID controllers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Buildings account for 40% of total energy consumption in the European Union. The reduction of energy consumption in the buildings sector constitute an important measure needed to reduce the Union's energy dependency and greenhouse gas emissions. The Portuguese legislation incorporate this principles in order to regulate the energy performance of buildings. This energy performance should be accompanied by good conditions for the occupants of the buildings. According to EN 15251 (2007) the four factors that affect the occupant comfort in the buildings are: Indoor Air Quality (IAQ), thermal comfort, acoustics and lighting. Ventilation directly affects all except the lighting, so it is crucial to understand the performance of it. The ventilation efficiency concept therefore earn significance, because it is an attempt to quantify a parameter that can easily distinguish the different options for air diffusion in the spaces. The two indicators most internationally accepted are the Air Change Efficiency (ACE) and the Contaminant Removal Effectiveness (CRE). Nowadays with the developed of the Computational Fluid Dynamics (CFD) the behaviour of ventilation can be more easily predicted. Thirteen strategies of air diffusion were measured in a test chamber through the application of the tracer gas method, with the objective to validate the calculation by the MicroFlo module of the IES-VE software for this two indicators. The main conclusions from this work were: that the values of the numerical simulations are in agreement with experimental measurements; the value of the CRE is more dependent of the position of the contamination source, that the strategy used for the air diffusion; the ACE indicator is more appropriate for quantifying the quality of the air diffusion; the solutions to be adopted, to maximize the ventilation efficiency should be, the schemes that operate with low speeds of supply air and small differences between supply air temperature and the room temperature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelação e simulação baseadas em agentes estão a ganhar cada vez mais importância e adeptos devido à sua flexibilidade e potencialidade em reproduzir comportamentos e estudar um sistema na perspetiva global ou das interações individuais. Neste trabalho, criou-se um sistema baseado em agentes e desenvolvido em Repast Simphony com o objectivo de analisar a difusão de um novo produto ou serviço através de uma rede de potenciais clientes, tentando compreender, assim, como ocorre e quanto tempo demora esta passagem de informação (inovação) com diversas topologias de rede, no contato direto entre pessoas. A simulação baseia-se no conceito da existencia de iniciadores, que são os primeiros consumidores a adotar um produto quando este chega ao mercado e os seguidores, que são os potenciais consumidores que, apesar de terem alguma predisposição para adotar um novo produto, normalmente só o fazem depois de terem sido sujeitos a algum tipo de influência. Com a aplicação criada, simularam-se diversas situações com a finalidade de obter e observar os resultados gerados a partir de definições iniciais diferentes. Com os resultados gerados pelas simulações foram criados gráficos representativos dos diversos cenários. A finalidade prática desta aplicação, poderá ser o seu uso em sala de aula para simulação de casos de estudo e utilização, em casos reais, como ferramenta de apoio à tomada de decisão, das empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As organizações são entidades de natureza sistémica, composta, na sua maioria por várias pessoas que interagindo entre si, se propõem atingir objetivos comuns. Têm, frequentemente, de responder a alterações da envolvente externa através de processos de mudança organizacional, sendo fundamentalmente adaptativas, pois, para sobreviver, precisam de se reajustar continuamente às condições mutáveis do meio. O sucesso das organizações depende da sua capacidade de interação com o meio envolvente, ou seja, da sua capacidade de inovar e operar local ou globalmente, criando novas oportunidades de negócio que importa aproveitar. As tecnologias e os sistemas de informação e a forma como são utilizadas são fatores determinantes nesses processos de evolução e mudança. É necessário que a estratégia de TI esteja alinhada com os objetivos de negócio e que a sua utilização contribua para aumentos de produtividade e de eficiência no seu desempenho. Este trabalho descreve a análise, conceção, seleção e implementação de um Sistema de Informação na Portgás, S.A. baseado de um ERP - Enterprise Resource Planning, capaz de suportar a mudança organizacional e melhorar o desempenho global da organização. Promovendo numa primeira fase um crescimento exponencial do negócio e, de seguida, a adaptação da organização ao mercado concorrencial. O caso descreve o trabalho realizado pelo candidato e por equipas internas e externas, de levantamentos de requisitos gerais, técnicos e funcionais, desenvolvimento de um caderno de encargos, seleção, implementação e exploração de um ERP SAP. A apresentação e discussão do caso são enquadradas numa revisão de literatura sobre o papel das TI nos processos de mudança organizativa, alinhamento estratégico e vantagem competitiva das TI, contributo das TI para o aumento da produtividade, processos adoção e difusão das TI, fatores críticos de sucesso e BPM –Business Process Management

Relevância:

10.00% 10.00%

Publicador:

Resumo:

More than ever, there is an increase of the number of decision support methods and computer aided diagnostic systems applied to various areas of medicine. In breast cancer research, many works have been done in order to reduce false-positives when used as a double reading method. In this study, we aimed to present a set of data mining techniques that were applied to approach a decision support system in the area of breast cancer diagnosis. This method is geared to assist clinical practice in identifying mammographic findings such as microcalcifications, masses and even normal tissues, in order to avoid misdiagnosis. In this work a reliable database was used, with 410 images from about 115 patients, containing previous reviews performed by radiologists as microcalcifications, masses and also normal tissue findings. Throughout this work, two feature extraction techniques were used: the gray level co-occurrence matrix and the gray level run length matrix. For classification purposes, we considered various scenarios according to different distinct patterns of injuries and several classifiers in order to distinguish the best performance in each case described. The many classifiers used were Naïve Bayes, Support Vector Machines, k-nearest Neighbors and Decision Trees (J48 and Random Forests). The results in distinguishing mammographic findings revealed great percentages of PPV and very good accuracy values. Furthermore, it also presented other related results of classification of breast density and BI-RADS® scale. The best predictive method found for all tested groups was the Random Forest classifier, and the best performance has been achieved through the distinction of microcalcifications. The conclusions based on the several tested scenarios represent a new perspective in breast cancer diagnosis using data mining techniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação pretendeu-se estudar a viabilidade do uso de eletrodiálise com membranas bipolares (BM) na recuperação de ácido clorídrico e de hidróxido de sódio a partir de um efluente industrial que contém 1.4 mol/L de cloreto de sódio. Estas membranas mostraram ser uma ferramenta eficiente para a produção de ácidos e bases a partir do respetivo sal. Foi feita uma seleção de diferentes membranas bipolares (Neosepta, Fumatech e PCA) e aniónicas (PC-SA e PC-ACID 60) na tentativa de encontrar a combinação mais adequada para o tratamento do efluente. Dependendo do critério, o melhor arranjo de membranas é o uso de PC-ACID 60 (membrana aniónica), PC-SK (membrana catiónica) e membranas bipolares do tipo Neosepta para maior pureza dos produtos; membranas bipolares Fumatech para maior eficiência de dessalinização e membranas bipolares PCA para um maior grau de dessalinização. Tecnologicamente foi possível obter uma dessalinização de 99.8% em quatro horas de funcionamento em modo batch com recirculação de todas as correntes. Independentemente da combinação usada é recomendável que o processo seja parado quando a densidade de corrente deixa de ser máxima, 781 A/m2. Assim é possível evitar o aumento de impurezas nos produtos, contra difusão, descida instantânea do pH e uma dessalinização pouco eficiente. A nível piloto o principal fornecedor de membranas e unidade de tratamento “stack” é a marca alemã PCA. Sendo assim realizaram-se ensaios de repetibilidade, contra difusão, avaliação económica e upscaling utilizando as membranas bipolares PCA. A nível económico estudou-se o uso de dois tipos de unidades de tratamento; EDQ 380 e EDQ 1600, para diferentes níveis de dessalinização (50, 75 e 80%). Tendo em conta a otimização económica, é recomendável uma dessalinização máxima de 80%, uma vez que a eficiência de processo a este ponto é de 40%. A aplicação do método com a unidade EDQ 1600 para uma dessalinização de 50% é a mais vantajosa economicamente, com custos de 16 €/m3 de efluente tratado ou 0,78 €/kg Cl- removido. O número de unidades necessárias é 4 posicionados em série.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho pretende preencher uma lacuna no controlo difuso em todos os autómatos/controladores que usam a plataforma Codesys para a sua programação. Começando por um levantamento histórico e a respetiva compreensão do que é a lógica difusa até à análise do que existe no mercado nos dias de hoje. Será realizada uma abordagem do que é a plataforma Codesys e a utilização da norma IEC61131-3. Sendo efetuada também uma análise da norma IEC61131-7 que explica como deve ser realizado o controlo difuso em PLC. Para colmatar a lacuna existente foi desenvolvido um software tendo por base a plataforma Codesys e validado e testado com o software SoMachine da Schneider Electric. Esse software será devidamente descrito para ser entendido de uma forma fácil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o advento da invenção do modelo relacional em 1970 por E.F.Codd, a forma como a informação era gerida numa base de dados foi totalmente revolucionada. Migrou‐se de sistemas hierárquicos baseados em ficheiros para uma base de dados relacional com tabelas relações e registos que simplificou em muito a gestão da informação e levou muitas empresas a adotarem este modelo. O que E.F.Codd não previu foi o facto de que cada vez mais a informação que uma base de dados teria de armazenar fosse de proporções gigantescas, nem que as solicitações às bases de dados fossem da mesma ordem. Tudo isto veio a acontecer com a difusão da internet que veio ligar todas as pessoas de qualquer parte do mundo que tivessem um computador. Com o número de adesões à internet a crescer, o número de sites que nela eram criados também cresceu (e ainda cresce exponencialmente). Os motores de busca que antigamente indexavam alguns sites por dia, atualmente indexam uns milhões de sites por segundo e, mais recentemente as redes sociais também estão a lidar com quantidades gigantescas de informação. Tanto os motores de busca como as redes sociais chegaram à conclusão que uma base de dados relacional não chega para gerir a enorme quantidade de informação que ambos produzem e como tal, foi necessário encontrar uma solução. Essa solução é NoSQL e é o assunto que esta tese vai tratar. O presente documento visa definir e apresentar o problema que as bases de dados relacionais têm quando lidam com grandes volumes de dados, introduzir os limites do modelo relacional que só até há bem pouco tempo começaram a ser evidenciados com o surgimento de movimentos, como o BigData, com o crescente número de sites que surgem por dia e com o elevado número de utilizadores das redes sociais. Será também ilustrada a solução adotada até ao momento pelos grandes consumidores de dados de elevado volume, como o Google e o Facebook, enunciando as suas características vantagens, desvantagens e os demais conceitos ligados ao modelo NoSQL. A presente tese tenciona ainda demonstrar que o modelo NoSQL é uma realidade usada em algumas empresas e quais as principias mudanças a nível programático e as boas práticas delas resultantes que o modelo NoSQL traz. Por fim esta tese termina com a explicação de que NoSQL é uma forma de implementar a persistência de uma aplicação que se inclui no novo modelo de persistência da informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A evolução digital proporcionou às sociedades uma facilidade extraordinária de comunicação. Com o número crescente de computadores e o aumento de acessos à internet, surgiu uma nova forma de criminologia, que cresceu em paralelo com o número de utilizadores. Desta forma, tornou-se comum a criação e difusão de vírus informáticos pelos chamados hackers. Neste trabalho estudam-se modelos de transmissão de vírus informáticos, usando modelos epidemiológicos. Começa-se por fazer uma revisão dos modelos existentes na literatura, de seguida sugerem-se alterações a esses modelos de forma a conseguir uma melhor aproximação à dinâmica real de transmissão de vírus informáticos. As simulações numéricas dos modelos permitem-nos inferir de que uma forma de controlar a transmissão de vírus informáticos é a diminuição da taxa de infeção, isto é, da taxa de transmissão do vírus. No último capítulo enumeram-se as conclusões do trabalho efetuado e indicam-se direções de trabalho futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento em Didática e Formação