101 resultados para Algoritmos computacionais


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, pretende-se identificar e descrever as características da mediação do professor determinantes para promover o envolvimento produtivo dos alunos, durante o uso de simulações computacionais (SC). São apresentados resultados com base no estudo de aulas lecionadas por dois professores de física e química, com a mesma experiência profissional, mas diferente experiência de integração de investigação didática nas suas práticas de ensino. Os resultados permitem compreender as condições fundamentais para os alunos se envolverem produtivamente nas tarefas, as principais diferenças entre a mediação de professores com experiência de integração de resultados de investigação didática nas práticas de ensino. São ainda discutidos os fatores que influenciam o uso de SC em contexto de aula.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ao longo dos últimos anos, os scanners 3D têm tido uma utilização crescente nas mais variadas áreas. Desde a Medicina à Arqueologia, passando pelos vários tipos de indústria, ´e possível identificar aplicações destes sistemas. Essa crescente utilização deve-se, entre vários factores, ao aumento dos recursos computacionais, à simplicidade e `a diversidade das técnicas existentes, e `as vantagens dos scanners 3D comparativamente com outros sistemas. Estas vantagens são evidentes em áreas como a Medicina Forense, onde a fotografia, tradicionalmente utilizada para documentar objectos e provas, reduz a informação adquirida a duas dimensões. Apesar das vantagens associadas aos scanners 3D, um factor negativo é o preço elevado. No âmbito deste trabalho pretendeu-se desenvolver um scanner 3D de luz estruturada económico e eficaz, e um conjunto de algoritmos para o controlo do scanner, para a reconstrução de superfícies de estruturas analisadas, e para a validação dos resultados obtidos. O scanner 3D implementado ´e constituído por uma câmara e por um projector de vídeo ”off-the-shelf”, e por uma plataforma rotativa desenvolvida neste trabalho. A função da plataforma rotativa consiste em automatizar o scanner de modo a diminuir a interação dos utilizadores. Os algoritmos foram desenvolvidos recorrendo a pacotes de software open-source e a ferramentas gratuitas. O scanner 3D foi utilizado para adquirir informação 3D de um crânio, e o algoritmo para reconstrução de superfícies permitiu obter superfícies virtuais do crânio. Através do algoritmo de validação, as superfícies obtidas foram comparadas com uma superfície do mesmo crânio, obtida por tomografia computorizada (TC). O algoritmo de validação forneceu um mapa de distâncias entre regiões correspondentes nas duas superfícies, que permitiu quantificar a qualidade das superfícies obtidas. Com base no trabalho desenvolvido e nos resultados obtidos, é possível afirmar que foi criada uma base funcional para o varrimento de superfícies 3D de estruturas, apta para desenvolvimento futuro, mostrando que é possível obter alternativas aos métodos comerciais usando poucos recursos financeiros.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

É de senso comum que os nutrientes são fundamentais à vida e que a subnutrição leva à acumulação de gorduras que pode chegar a casos de obesidade, tendo como consequência inúmeras complicações de saúde. Diferentes estruturas neuroanatómicas do cérebro têm um papel essencial no comportamento digestivo. A ação de várias moléculas de sinalização (hormonas, neurotransmissores e neuropéptidos) resulta na regulação da ingestão de alimentos, sendo que, por exemplo, algumas hormonas podem aumentar a sensação de saciedade podendo diminuir o apetite e a ingestão calórica. A descoberta de hormonas envolvidas no balanço energético proporcionou novas oportunidades para desenvolver meios para o tratamento da obesidade. A transferência de medicação antiobesidade por via tópica ou transdérmica é um desafio pois a pele funciona como uma barreira natural e protetora. Sendo uma barreira com uma grande área de superfície e de fácil acessibilidade, a pele tem potencial interesse na libertação de fármacos específicos a cada terapia. Vários métodos têm sido estudados de modo a permitir um aumento da permeabilidade de moléculas terapêuticas para o interior da pele e através da pele. As biotecnologias transdérmicas são um campo de interesse cada vez maior, devido as aplicações dérmicas e farmacêuticas que lhes estão subjacentes. Existem vários modelos computacionais e matemáticos em uso que permite uma visão mais abrangente de puros dados experimentais e até mesmo permite a extrapolação prática de novas metodologias de difusão dérmica. Contudo, eles compreendem uma complexa variedade de teorias e suposições que atribuem a sua utilização para situações específicas. Este trabalho, primeiramente analisa, de forma extensiva, as várias metodologias teóricas para o estudo da difusão dérmica e sistematiza as suas características, realizando depois a fase prévia duma nova abordagem computacional para o estudo da difusão dérmica, que determina características microscópicas de moléculas capazes de provocar a perda de peso, tais como a Leptina e/ou os seus agonistas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O carcinoma foi a principal causa de morte para cerca de 8,2 milhões de habitantes no ano de 2012 a nível mundial. Deste valor, estima-se que o carcinoma colo retal foi responsável por 694.000 mortes nesse mesmo ano. O tratamento eficaz deste carcinoma carece de uma deteção precoce de determinadas patologias associadas, nomeadamente, à presença de hemorragia ou pólipo na mucosa intestinal. Essa deteção precoce passa pela realização frequente de determinados exames clínicos invasivos, como a endoscopia e a colonoscopia, que poderão ser demasiado invasivos para o Homem para serem realizados regularmente. Assim surgiu a capsula endoscópica (CE) como método de diagnóstico pouco invasivo, confortável, seguro e com a funcionalidade de permitir a visualização de todo o trato gastrointestinal (TGI), uma vez que, com os métodos tradicionais de diagnóstico (endoscopia e colonoscopia) isso não acontece. Técnicas computacionais de processamento e análise de imagem automáticas, tais como filtros de suavização, remoção de ruído, deteção de contorno ou segmentação de zonas de interesse, podem ser utilizadas para facilitar a deteção destas patologias e homogeneizar a resposta entre diferentes clínicos, uma vez que, por cada exame de endoscopia por capsula são recolhidas cerca de 57 600 imagens. As imagens recolhidas a partir da CE passam por uma série de passos de processamento de imagem a m de clarificar a existência ou ausência de patologias no interior do TGI. Essa classificação pretende simplificar e auxiliar o clínico no diagnóstico precoce relativamente às patologias em causa, assim como reduzir o seu cansaço, aumentar a sua performance e aumentar a sua eficiência na análise de dados. Neste contexto e em parceria com a empresa INOVA+, esta tese está integrada no projeto PhotonicPill cofinanciado pelo QREN (Quadro de Referência Estratégico Nacional). Este projeto visa desenvolver um conjunto de módulos baseados em fotónica para incorporar numa CE, a m de possibilitar um diagnóstico mais preciso e atempado de diversas patologias, nomeadamente a presença de pólipos e hemorragias, assim como a possibilidade de terapêutica em locais do trato gastrointestinal de difícil acesso, como é o caso do intestino delgado. Um dos módulos baseados em fotónica assenta na tecnologia narrow band imaging (NBI). A contribuição desta tese no projeto prendeu-se no desenvolvimento de 3 métodos de deteção automática. O primeiro direcionado para a deteção de hemorragia, baseou-se na identificação dos valores mínimos e máximos dos canais de R,G,B para criar um valor de threshold duplo. De seguida, complementa-se o método através de operações morfológicas e operações locais. O segundo método de deteção automática é direcionado para a deteção de pólipo e baseou-se na aplicação da transformada de watershed juntamente com o cálculo de medidas associadas à forma típica de um pólipo. Por último, desenvolveu-se um método de deteção de vascularização na mucosa intestinal recorrendo essencialmente à deteção de valores máximos para cada canal do modelo RGB, definindo um valor de threshold máximo para cada um dos três canais. Uma vez testados os algoritmos e obtendo uma percentagem de especificidade e sensibilidade média superior a 70% em todos os métodos, desenvolveu-se um protótipo de uma interface gráfica para este sistema de apoio à decisão clínica que engloba os três parâmetros em análise: deteção de hemorragia, deteção de pólipo e deteção de vascularização. Esta interface fará toda a gestão do processo, ou seja, fara de forma automática a deteção e classificação das patologias a detetar, lançando uma mensagem de alerta ao clínico a informar se o paciente é ou não portador de alguma das anomalias em análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O problema do cálculo de valores próprios, vectores próprios e subespaços invariantes está presente em áreas tão diversas como Engenharia, Física, Ciências de Computação e Matemática. Considerando a importância deste problema em tantas aplicações práticas, não é de surpreender que tenha sido e continue a ser objecto de intensa investigação, dando corpo a uma literatura muito vasta. Desenvolvemos um novo algoritmo de Lanczos na variedade de Grassmann. Este trabalho surgiu na sequência de um artigo de A. Edelman, T. A. Arias and S. T. Smith, The geometry of algorithms with orthogonality constraints, onde apresentam um novo algoritmo do gradiente conjugado na variedade de Grassmann. Desenvolveram um enquadramento geométrico o que ofereceu uma nova aproximação aos algoritmos numéricos envolvendo restrições de ortogonalidade. Ora, estando o método de Lanczos e o método dos gradientes conjugados intimamente relacionados, e sendo um dos principais problemas do método de Lanczos a perda de ortogonalidade, surgiu a ideia de tentar verificar se algum dos algoritmos de Lanczos seria uma iteração na variedade de Grassmann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em consequência do acentuado crescimento da procura do gás natural, é essencial a organização de uma eficiente infra-estrutura de abastecimento de gás. O local certo para instalar as UFGs - Unidades de Fornecimento de Gás, assim como a afectação óptima dessas fontes às cargas de gás da rede, devem ser convenientemente planeados, de forma a minimizar os custos totais do sistema. Este estudo foi efectuado com o desenvolvimento de uma metodologia de cálculo baseada na aplicação do problema das P-medianas, resolvido pela abordagem Lagrangeana. A heurística Lagrangeana desenvolvida foi aplicada ao caso concreto da rede Ibérica primária de gás natural, modelizada em 65 nós de carga, ligados quer por gasodutos físicos quer por gasodutos virtuais. São apresentados os resultados computacionais gráficos que apoiam a decisão da escolha das UFGs, para um cenário previsível de evolução da procura do combustível até 2015.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo propõe um Mecanismo de Negociação para Escalonamento Dinâmico com recurso a Swarm Intelligence (SI). No Mecanismo de Negociação, os agentes devem competir para obter um plano de escalamento global. SI é o termo geral para várias técnicas computacionais que retiram ideias e inspiração nos comportamentos sociais de insectos e outros animais. Este artigo propõe uma abordagem híbrida de diferentes conceitos da Inteligência Artificial (IA), como SI, Negociação em Sistemas Multi-Agente (SMA) e Técnicas de Aprendizagem Automática (AA). Este trabalho concentra a sua atenção na negociação, processo através do qual múltiplos agentes auto-interessados podem chegar a acordo através da troca competitiva de recursos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O surgimento de novos modelos de negócio, nomeadamente o estabelecimento de parcerias entre organizações, a possibilidade de as empresas poderem adicionar informação existente na web, em especial na web semânjtica, à informação de que dispõem, levou ao acentuar de alguns problemas já existentes nas bases de dados, nomeadamente no que respeita a problemas de qualidade de dados. Dados de má qualidade podem levar à perda de competitividade das organizações que os detêm, podendo inclusive levar ao seu desaparecimento, uma vez que muitas das suas tomadas de decisão são baseadas nestes dados. Por este motivo torna-se relevante a limpeza de dados que é um processo automático de detecção e eventual correção dos problemas de qualidade de dados, tais como registos duplicados, dados incompletos, e/ou inconsistentes. As abordagens atualmente existentes para solucionar estes problemas, encontram-se muito ligadas ao esquema das bases de dados e a domínios específicos. Para que as operações de limpeza de dados possam ser utilizadas em diferentes repositórios, torna-se necessário o entendimento, por parte dos sistemas computacionais, desses mesmos dados, ou seja, é necessária uma semântica associada. A solução apresentada passa pelo uso de ontologias, como forma de representação das operações de limpeza, para solucionar os problemas de heterogeneidade semântica, quer ao nível dos dados existentes nos diversos repositórios, quer ao nível da especificação das operações de limpeza. Estando as operações de limpeza definidas ao nível conceptual e existindo mapeamentos entre as ontologias de domínio e a ontologia associada a uma qualquer base de dados, aquelas poderão ser instanciadas e propostas ao utilizador para serem executadas sobre essa base de dados, permitindo assim a sua interoperabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Electrotécnica e de Computadores

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Engenharia Informática