880 resultados para segmentazione immagini mediche algoritmo Canny algoritmo watershed edge detection
Resumo:
[ES]Este proyecto consiste en el diseño de un sistema de control integrado para inversores de potencia monofásicos haciendo uso del algoritmo de eliminación de armónicos. De este modo, permite generar una señal de salida con frecuencia controlada, ideal para la alimentación de motores eléctricos monofásicos. El objetivo del mismo es lograr la implementación de un algoritmo de rendimiento superior a las alternativas PWM para casos de frecuencia de salida elevada. El sistema incluye el software y hardware necesario para implementación completa, así como los documentos necesarios para su fabricación en serie.
Resumo:
[ES]Este proyecto tiene como objetivo analizar el rendimiento de diferentes técnicas criptográficas que el protocolo de movilidad HIP puede utilizar para proporcionar los servicios de seguridad que se determinen. Lo primero que se hará será seleccionar los diferentes algoritmos criptográficos que HIP podría utilizar para cubrir los servicios de seguridad considerados más relevantes, estos son autenticación, confidencialidad e integridad de datos. A continuación se identificarán los parámetros más significativos en relación al rendimiento y se definirá un escenario y un plan de pruebas para realizar las mediciones. Posteriormente se realizarán las mediciones con los algoritmos criptográficos previamente seleccionados, y por último se analizarán y valorarán los resultados obtenidos para así determinar la eficiencia de cada algoritmo criptográfico.
Resumo:
[ES]Mejorar el proceso de handover en el despliegue de comunicaciones inalámbricas de banda ancha tradicionalmente ha motivado muchas iniciativas de investigación. En el dominio de los ferrocarriles de alta velocidad, el reto es incluso mayor. Debido a las largas distancias que se cubren, el nodo móvil se ve envuelto en una secuencia obligatoria de procesos de handover. Consecuentemente, un rendimiento pobre en la ejecución de esos procesos de handover degrada significativamente el rendimiento global extremo a extremo. Este documento propone una nueva estrategia de handover para el dominio de los ferrocarriles: un algoritmo de decisión para LTE basado en distancia en lugar de en potencia. La decisión de realizar el handover se realiza cuando un eNB candidato se encuentra más cerca del UE que el eNB fuente. Adicionalmente, cabe la posibilidad de retrasar esa decisión mediante un umbral. Asimismo, se añade una nueva función al modelo de LTE de la plataforma de simulación empleada en la verificación de este modelo. Este mecanismo de decisión introduce un retardo menor en los procesos de handover y, en consecuencia, la calidad extremo-a-extremo aumenta.
Resumo:
Nas últimas décadas, teorias têm sido formuladas para interpretar o comportamento de solos não saturados e estas têm se mostrado coerentes com resultados experimentais. Paralelamente, várias técnicas de campo e de laboratório têm sido desenvolvidas. No entanto, a determinação experimental dos parâmetros dos solos não saturados é cara, morosa, exige equipamentos especiais e técnicos experientes. Como resultado, essas teorias têm aplicação limitada a pesquisas acadêmicas e são pouco utilizados na prática da engenharia. Para superar este problema, vários pesquisadores propuseram equações para representar matematicamente o comportamento de solos não saturados. Estas proposições são baseadas em índices físicos, caracterização do solo, em ensaios convencionais ou simplesmente em ajustes de curvas. A relação entre a umidade e a sucção matricial, convencionalmente denominada curva característica de sucção do solo (SWCC) é também uma ferramenta útil na previsão do comportamento de engenharia de solos não saturados. Existem muitas equações para representar matematicamente a SWCC. Algumas são baseadas no pressuposto de que sua forma está diretamente relacionada com a distribuição dos poros e, portanto, com a granulometria. Nestas proposições, os parâmetros são calibrados pelo ajuste da curva de dados experimentais. Outros métodos supõem que a curva pode ser estimada diretamente a partir de propriedades físicas dos solos. Estas propostas são simples e conveniente para a utilização prática, mas são substancialmente incorretas, uma vez que ignoram a influência do teor de umidade, nível de tensões, estrutura do solo e mineralogia. Como resultado, a maioria tem sucesso limitado, dependendo do tipo de solo. Algumas tentativas têm sido feitas para prever a variação da resistência ao cisalhamento com relação a sucção matricial. Estes procedimentos usam, como uma ferramenta, direta ou indiretamente, a SWCC em conjunto com os parâmetros efetivos de resistência c e . Este trabalho discute a aplicabilidade de três equações para previsão da SWCC (Gardner, 1958; van Genuchten, 1980; Fredlund; Xing, 1994) para vinte e quatro amostras de solos residuais brasileiros. A adequação do uso da curva característica normalizada, proposta por Camapum de Carvalho e Leroueil (2004), também foi investigada. Os parâmetros dos modelos foram determinados por ajuste de curva, utilizando técnicas de problema inverso; dois métodos foram usados: algoritmo genético (AG) e Levenberq-Marquardt. Vários parâmetros que influênciam o comportamento da SWCC são discutidos. A relação entre a sucção matricial e resistência ao cisalhamento foi avaliada através de ajuste de curva utilizando as equações propostas por Öberg (1995); Sällfors (1997), Vanapalli et al., (1996), Vilar (2007); Futai (2002); oito resultados experimentais foram analisados. Os vários parâmetros que influênciam a forma da SWCC e a parcela não saturadas da resistência ao cisalhamento são discutidos.
Resumo:
Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.
Resumo:
Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.
Resumo:
[ES]En este proyecto se presenta un estudio sobre la estimación de la longitud efectiva de lluvia derivada de los escaneos de elevación obtenidos por el radar meteorológico de Kapildui, en Álava. Se estudia la altura y la longitud de la lluvia para distintos eventos: para lluvia estratiforme y para lluvia convectiva. Se analizará la variabilidad espacial y temporal para diferentes ángulos de elevación del radar. Finalmente, se presentará una versión del algoritmo implementado para el cálculo de longitudes efectivas de lluvia y se realizará un estudio estadístico de la variabilidad de ésta para diferentes direcciones y con diferentes eventos de lluvia.
Resumo:
Nesta dissertação, foi utilizada a técnica SIFT (Scale Invariant Feature Transform) para o reconhecimento de imagens da área dos olhos (região periorbital). Foi implementada uma classificação das imagens em subgrupos internos ao banco de dados, utilizando-se das informações estatísticas provenientes dos padrões invariantes produzidos pela técnica SIFT. Procedeu-se a uma busca categorizada pelo banco de dados, ao invés da procura de um determinado padrão apresentado, através da comparação deste com cada padrão presente no banco de dados. A tais padrões foi aplicada uma abordagem estatística, através da geração da matriz de covariâncias dos padrões gerados, sendo esta utilizada para a categorização, tendo por base uma rede neural híbrida. A rede neural classifica e categoriza o banco de dados de imagens, criando uma topologia de busca. Foram obtidos resultados corretos de classificação de 76,3% pela rede neural híbrida, sendo que um algoritmo auxiliar determina uma hierarquia de busca, onde, ocorrendo uma errônea classificação, a busca segue em grupos de pesquisas mais prováveis.
Resumo:
Análisis de caucho reciclado de manera hiperelástica mediante métodos de ajuste de Mínimos Cuadrados con programa MATLAB y Curve fitting mediante ANSYS. Para la parte viscoelástica se usa Algoritmo de Optimicación con MATLAB. Comprobación de resultados y fiabilidad.
Resumo:
Esta Tesis Doctoral presenta un metamodelo para la estimaci�n del fen�meno de interacci�n el�stica en las uniones atornilladas de torres de aerogenerador, cuya principal particularidad geom�trica es la existencia de un hueco entre bridas. El metamodelo permite conocer la p�rdida de carga que cada tornillo de la uni�n experimenta durante la secuencia de atornillado a consecuencia de la interacci�n el�stica ocurrida. El metamodelo consta de cuatro par�metros (resortes lineales) que simulan la respuesta de la uni�n durante la secuencia, y cuyos valores se obtienen a partir de dos an�lisis est�tico-lineales. Se ha creado un algoritmo que, a trav�s del metamodelo, permite llevar a cabo la simulaci�n de secuencias de atornillado; dicho proceso consiste en reproducir una determinada secuencia de atornillado a partir de las cargas introducidas en los tornillos, de forma que, a trav�s de la estimaci�n de las interacciones el�sticas ocurridas durante la secuencia, proporciona como resultado las cargas finales en los tornillos. Tambi�n se ha desarrollado una metodolog�a que, mediante su correspondiente algoritmo, permite optimizar secuencias de atornillado. El proceso de optimizaci�n consiste en calcular las cargas a aplicar a los tornillos a lo largo de una determinada secuencia a fin de obtener en ellos una determinada distribuci�n final de cargas, que generalmente se desea uniforme y se denomina precarga. Combinando los procesos de simulaci�n y optimizaci�n, el metamodelo permite definir la secuencia �ptima para una determinada uni�n. Los resultados obtenidos han sido validados mediante modelos param�tricos de elementos finitos. Por �ltimo, debe remarcarse que, adem�s de proporcionar buenos resultados, tanto el proceso de simulaci�n como el de optimizaci�n se llevan a cabo con un coste computacional muy bajo gracias a la simplicidad del metamodelo.
Resumo:
For the first time to our knowledge, in a high-energy laser facility with an output energy of 454.37 J, by using a temporal-space-transforming pulse-shaping system with our own design of a knife-edge apparatus, we obtained a quasi-square laser pulse. (c) 2005 Optical Society of America.
Resumo:
En los trabajos expuestos en esta memoria de tesis, hemos analizado elefecto que tienen sobre la capacidad de aprendizaje de diferentes algoritmosde clasificación los cambios en la distribución de clases, teniendo encuenta para ello, diferentes métodos de remuestreo de datos.En concreto se ha analizado este efecto en el conocido algoritmo deconstrucción de árboles de clasificación propuesto por Quinlan, el algoritmoC4.5, y en el algoritmo de construcción de árboles consolidados, elalgoritmo CTC, propuesto por el grupo de investigación ALDAPA de laUniversidad del País Vasco que, basado en el mismo C4.5, obtiene un árbol declasificación pero basado en un conjunto de muestras.Así mismo, planteamos cómo encontrar la distribución de clases más adecuadapara un algoritmo de clasificación y método de remuestreo concretos.
Resumo:
A lens array composed of edge-softened elements is used to improve on-target irradiation uniformity in the Shenguang II Laser Facility, with which a Fresnel pattern of suppressed diffraction peaks is obtained. Additional uniformity can be reached by reducing short-wavelength interference speckles inside the pattern when the technique of smoothing by spectral dispersion is also used. Two-dimensional performance of irradiation is simulated and the results indicate that a pattern of steeper edges and a flat top can be achieved with this joint technique. (c) 2007 Optical Society of America.
Resumo:
Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.
Resumo:
Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento de vídeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.