767 resultados para Algoritmo de optimización


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, teorias têm sido formuladas para interpretar o comportamento de solos não saturados e estas têm se mostrado coerentes com resultados experimentais. Paralelamente, várias técnicas de campo e de laboratório têm sido desenvolvidas. No entanto, a determinação experimental dos parâmetros dos solos não saturados é cara, morosa, exige equipamentos especiais e técnicos experientes. Como resultado, essas teorias têm aplicação limitada a pesquisas acadêmicas e são pouco utilizados na prática da engenharia. Para superar este problema, vários pesquisadores propuseram equações para representar matematicamente o comportamento de solos não saturados. Estas proposições são baseadas em índices físicos, caracterização do solo, em ensaios convencionais ou simplesmente em ajustes de curvas. A relação entre a umidade e a sucção matricial, convencionalmente denominada curva característica de sucção do solo (SWCC) é também uma ferramenta útil na previsão do comportamento de engenharia de solos não saturados. Existem muitas equações para representar matematicamente a SWCC. Algumas são baseadas no pressuposto de que sua forma está diretamente relacionada com a distribuição dos poros e, portanto, com a granulometria. Nestas proposições, os parâmetros são calibrados pelo ajuste da curva de dados experimentais. Outros métodos supõem que a curva pode ser estimada diretamente a partir de propriedades físicas dos solos. Estas propostas são simples e conveniente para a utilização prática, mas são substancialmente incorretas, uma vez que ignoram a influência do teor de umidade, nível de tensões, estrutura do solo e mineralogia. Como resultado, a maioria tem sucesso limitado, dependendo do tipo de solo. Algumas tentativas têm sido feitas para prever a variação da resistência ao cisalhamento com relação a sucção matricial. Estes procedimentos usam, como uma ferramenta, direta ou indiretamente, a SWCC em conjunto com os parâmetros efetivos de resistência c e . Este trabalho discute a aplicabilidade de três equações para previsão da SWCC (Gardner, 1958; van Genuchten, 1980; Fredlund; Xing, 1994) para vinte e quatro amostras de solos residuais brasileiros. A adequação do uso da curva característica normalizada, proposta por Camapum de Carvalho e Leroueil (2004), também foi investigada. Os parâmetros dos modelos foram determinados por ajuste de curva, utilizando técnicas de problema inverso; dois métodos foram usados: algoritmo genético (AG) e Levenberq-Marquardt. Vários parâmetros que influênciam o comportamento da SWCC são discutidos. A relação entre a sucção matricial e resistência ao cisalhamento foi avaliada através de ajuste de curva utilizando as equações propostas por Öberg (1995); Sällfors (1997), Vanapalli et al., (1996), Vilar (2007); Futai (2002); oito resultados experimentais foram analisados. Os vários parâmetros que influênciam a forma da SWCC e a parcela não saturadas da resistência ao cisalhamento são discutidos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os principais constituintes do ar, nitrogênio, oxigênio e argônio, estão cada vez mais presentes nas indústrias, onde são empregados nos processos químicos, para o transporte de alimentos e processamento de resíduos. As duas principais tecnologias para a separação dos componentes do ar são a adsorção e a destilação criogênica. Entretanto, para ambos os processos é necessário que os contaminantes do ar, como o gás carbônico, o vapor dágua e hidrocarbonetos, sejam removidos para evitar problemas operacionais e de segurança. Desta forma, o presente trabalho trata do estudo do processo de pré-purificação de ar utilizando adsorção. Neste sistema a corrente de ar flui alternadamente entre dois leitos adsorvedores para produzir ar purificado continuamente. Mais especificamente, o foco da dissertação corresponde à investigação do comportamento de unidades de pré-purificação tipo PSA (pressure swing adsorption), onde a etapa de dessorção é realizada pela redução da pressão. A análise da unidade de pré-purificação parte da modelagem dos leitos de adsorção através de um sistema de equações diferenciais parciais de balanço de massa na corrente gasosa e no leito. Neste modelo, a relação de equilíbrio relativa à adsorção é descrita pela isoterma de Dubinin-Astakhov estendida para misturas multicomponentes. Para a simulação do modelo, as derivadas espaciais são discretizadas via diferenças finitas e o sistema de equações diferenciais ordinárias resultante é resolvido por um solver apropriado (método das linhas). Para a simulação da unidade em operação, este modelo é acoplado a um algoritmo de convergência relativo às quatro etapas do ciclo de operação: adsorção, despressurização, purga e dessorção. O algoritmo em questão deve garantir que as condições finais da última etapa são equivalentes às condições iniciais da primeira etapa (estado estacionário cíclico). Desta forma, a simulação foi implementada na forma de um código computacional baseado no ambiente de programação Scilab (Scilab 5.3.0, 2010), que é um programa de distribuição gratuita. Os algoritmos de simulação de cada etapa individual e do ciclo completo são finalmente utilizados para analisar o comportamento da unidade de pré-purificação, verificando como o seu desempenho é afetado por alterações nas variáveis de projeto ou operacionais. Por exemplo, foi investigado o sistema de carregamento do leito que mostrou que a configuração ideal do leito é de 50% de alumina seguido de 50% de zeólita. Variáveis do processo foram também analisadas, a pressão de adsorção, a vazão de alimentação e o tempo do ciclo de adsorção, mostrando que o aumento da vazão de alimentação leva a perda da especificação que pode ser retomada reduzindo-se o tempo do ciclo de adsorção. Mostrou-se também que uma pressão de adsorção maior leva a uma maior remoção de contaminantes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La optimización de la energía obtenida en una turbina eólica standard de paso variable requiere una estimación precisa de la velocidad de viento promedio en la sección vertical barrida por las palas. Las medidas proporcionadas por el anemómetro situado en la góndola (o "nacelle") lo son sólo en un punto y están afectadas por el paso de las palas (en una turbina standard a barlovento), por el cabeceo de la torre y por otras perturbaciones; son muy inexactas y, por sí solas, inutilizables. Se hace preciso por tanto estimar dicha magnitud de manera indirecta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este trabajo se va a explicar la relación que existe entre la optimización de un problema lineal y el problema dual correspondiente. Se usara la herramienta Solver del Microsoft Excel para resolver los el problema de programación lineal planteado. Se analizaran los resultados obtenidos tanto del problema primal como del problema dual y se explicara el significado de los resultados obtenidos. Se finalizara con unas conclusiones donde se expondría lo aprendido durante este trabajo y el significado económico de este tipo de problemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, é proposta uma nova família de métodos a ser aplicada à otimização de problemas multimodais. Nestas técnicas, primeiramente são geradas soluções iniciais com o intuito de explorar o espaço de busca. Em seguida, com a finalidade de encontrar mais de um ótimo, estas soluções são agrupadas em subespaços utilizando um algoritmo de clusterização nebulosa. Finalmente, são feitas buscas locais através de métodos determinísticos de otimização dentro de cada subespaço gerado na fase anterior com a finalidade de encontrar-se o ótimo local. A família de métodos é formada por seis variantes, combinando três esquemas de inicialização das soluções na primeira fase e dois algoritmos de busca local na terceira. A fim de que esta nova família de métodos possa ser avaliada, seus constituintes são comparados com outras metodologias utilizando problemas da literatura e os resultados alcançados são promissores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[ES]En este proyecto se presenta un estudio sobre la estimación de la longitud efectiva de lluvia derivada de los escaneos de elevación obtenidos por el radar meteorológico de Kapildui, en Álava. Se estudia la altura y la longitud de la lluvia para distintos eventos: para lluvia estratiforme y para lluvia convectiva. Se analizará la variabilidad espacial y temporal para diferentes ángulos de elevación del radar. Finalmente, se presentará una versión del algoritmo implementado para el cálculo de longitudes efectivas de lluvia y se realizará un estudio estadístico de la variabilidad de ésta para diferentes direcciones y con diferentes eventos de lluvia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta dissertação, foi utilizada a técnica SIFT (Scale Invariant Feature Transform) para o reconhecimento de imagens da área dos olhos (região periorbital). Foi implementada uma classificação das imagens em subgrupos internos ao banco de dados, utilizando-se das informações estatísticas provenientes dos padrões invariantes produzidos pela técnica SIFT. Procedeu-se a uma busca categorizada pelo banco de dados, ao invés da procura de um determinado padrão apresentado, através da comparação deste com cada padrão presente no banco de dados. A tais padrões foi aplicada uma abordagem estatística, através da geração da matriz de covariâncias dos padrões gerados, sendo esta utilizada para a categorização, tendo por base uma rede neural híbrida. A rede neural classifica e categoriza o banco de dados de imagens, criando uma topologia de busca. Foram obtidos resultados corretos de classificação de 76,3% pela rede neural híbrida, sendo que um algoritmo auxiliar determina uma hierarquia de busca, onde, ocorrendo uma errônea classificação, a busca segue em grupos de pesquisas mais prováveis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Análisis de caucho reciclado de manera hiperelástica mediante métodos de ajuste de Mínimos Cuadrados con programa MATLAB y Curve fitting mediante ANSYS. Para la parte viscoelástica se usa Algoritmo de Optimicación con MATLAB. Comprobación de resultados y fiabilidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Azken urteotan eman diren kutsatzaile desberdinen gehiegizko isurpen edo erabilpena dela eta, lurzoruetan metal astunak metatu dira eta horrek , kate trofikoaren oinarrian dauden organismoen gainean k altea k sorrarazi d itu. Eisenia fetida zizarea espezie zent inela gisa erabili da lur entsegu ekotoxikologi koet an . Esperimentu honetan Eisenia fetida - ren jariakin zelomikoan dauden eta babes funtzioa duten zelomozitoak pH desberdinetara edo Kadmio bezalako metalera esposatzeak Neutral Red (NR) edo gorri neutro tindatzaile kationikoaren harreran eta fagoz itosi ahalmenean , eragina duen aztertu nahi izan da. Esperimentua in vitro egin zen 3R filosofia jarraituz. Alde batetik, pH desberdinen eragin ari dagokio nez gorri neutroaren harrera ( NRU ) entsegua n erantzun bimodal bat behatu zen eta beste alde bate tik, f agozitatzeko ahalmenari dagokiola zelomozitoak Eagle medioan kultibatzean ez zen aldaketa esangarria ikusi kadmioa ren, kontr olaren eta kontrol positi boaren artean. Bai ordea L - 1 5 medioarekin, non kontrol posit iboa k beste biak baino absorbantzia handiagoa erakutsi zuen. Emaitza hauek erakusten dute zelomozitoe n mintza gradualki kaltetzen doala pH neutrotik aldentzen doan heinean eta puntu batetik aurrera NRU emendatzen da zelomozito batzuen (amebozitoen) fagozitosia aktibatzen d el a ko .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Matemáticas para Economistas IV es una asignatura cuatrimestral dedicada fundamentalmente a la optimización con convexidad que se ha impartido en los últimos años en el segundo curso de la licenciatura de Economía en la Facultad de Ciencias Económicas y Empresariales de la Universidad del País Vasco. Esta publicación recoge problemas planteados en los exámenes de esta asignatura desde el año 2000 al 2009, en las convocatorias de junio y septiembre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los trabajos expuestos en esta memoria de tesis, hemos analizado elefecto que tienen sobre la capacidad de aprendizaje de diferentes algoritmosde clasificación los cambios en la distribución de clases, teniendo encuenta para ello, diferentes métodos de remuestreo de datos.En concreto se ha analizado este efecto en el conocido algoritmo deconstrucción de árboles de clasificación propuesto por Quinlan, el algoritmoC4.5, y en el algoritmo de construcción de árboles consolidados, elalgoritmo CTC, propuesto por el grupo de investigación ALDAPA de laUniversidad del País Vasco que, basado en el mismo C4.5, obtiene un árbol declasificación pero basado en un conjunto de muestras.Así mismo, planteamos cómo encontrar la distribución de clases más adecuadapara un algoritmo de clasificación y método de remuestreo concretos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desarrollo de modelos cinéticos para las reacciones de hidrodesulfuración del líquido de pirólisis de neumáticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo aplicar um algoritmo genético (GA) ao projeto de filtros FIR com coeficientes quantizados representados em somas de potências de dois com sinal (SPT). Os filtros FIR apresentam configurações que permitem a obtenção de fase linear, atributo desejado em diversas aplicações que necessitam de atraso de grupo constante. A representação SPT, de fácil implementação em circuitos, foi discutida e uma comparação das representações SPT mínimas e canônicas foi feita, baseada no potencial de redução de operações e na variedade de valores representáveis. O GA é aplicado na otimização dos coeficientes SPTs do filtro, para que este cumpra as suas especificações de projeto. Foram feitas análises sobre o efeito que diversos parâmetros do GA como a intensidade de seleção, tamanho das populações, cruzamento, mutação, entre outros, têm no processo de otimização. Foi proposto um novo cruzamento que produz a recombinação dos coeficientes e que obteve bons resultados. Aplicou-se o algoritmo obtido na produção de filtros dos tipos passa-baixas, passa-altas, passa-faixas e rejeita-faixas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo estudar um método para estimar a velocidade de veículos ferroviários usando processamento dedeo. O sistema proposto consiste na utilização de câmeras ao longo das vias férreas que permitam não só o monitoramento do tráfego ferroviário, mas cujo vídeo captado possa ser utilizado para a obtenção de estimativas para a velocidade instantânea dos trens que por ela trafegam. Tal sistema seria utilizado independentemente dos sistemas de controle já utilizados pela operadora do sistema ferroviário, permitindo que os controladores possam ter uma segunda análise no caso de falha da primeira, assim como um modelo que permita avaliar a velocidade instantânea do veículo ferroviário ao longo do percurso. Os algoritmos de rastreamento empregados para esse fim abordaram diferentes métodos. Confrontaram-se os resultados obtidos com os algoritmos propostos com os dados empíricos de forma a determinar aquele com melhor resposta dada as características do sistema. O algoritmo que apresentou os melhores resultados emprega um único bloco de referência para todos os quadros comparados. A métrica de similaridade responsável por determinar quais blocos são mais ou menos similares dentro do universo de busca estipulado é a soma de diferenças absolutas (SAD, Sum of Absolute Differences). O tempo de processamento requerido por cada um dos métodos de rastreamento estudados também foi considerado nas avaliações de resultados apresentadas. Uma comparação realizada entre as velocidades coletadas e aquelas informadas pelo sistema de controle mostraram que os resultados obtidos com o sistema atual, utilizando a sinalização apenas por circuito de via apresenta resultados pouco confiáveis com erros bastante significativos. Os resultados obtidos com o sistema proposto apresentaram erros menores quando comparados àqueles obtidos pelo sistema vigente, apresentando-se assim como uma solução viável e de baixo custo quando comparada às técnicas atualmente empregadas para a medida de velocidade de trens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).