976 resultados para Ajuste de parâmetros de transformação


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Los fenómenos de impacto y explosión sobre estructuras de hormigón tienen efectos en muchos casos catastróficos a pesar de su reducida probabilidad. Las estructuras de hormigón no suelen estar diseñadas para resistir este tipo de solicitaciones dinámicas. El análisis numérico mediante elementos finitos con integración explícita permite una aproximación suficiente a los efectos de la onda explosiva sobre pilares y forjados de estructuras reticuladas de hormigón. Los materiales recientemente implementados en LS-Dyna para hormigón como el CSCM [1], para elementos de continuo 3D, y la formulación que proporciona la debida compatibilidad con los elementos viga de acero dispuestos de forma segregada, permite estudiar de forma realista modelos detallados de pilares y forjados. Pero las limitaciones computacionales hacen inviable emplear estos métodos en estructuras completas. Como alternativa es posible usar modelos de elementos estructurales de vigas y láminas para el análisis de estas estructuras. Sin embargo es necesario un adecuado ajuste de parámetros y propiedades en estos modelos. Este trabajo muestra un método con en el que obtener modelos de elementos estructurales, elementos viga y lámina, usando modelos de material [2] adecuados para ellos, junto a un procedimiento para incluir la armadura de forma adecuada. Utilizando este método es posible representar con suficiente aproximación el comportamiento de modelos detallados realistas de forjados y pilares de estructuras reticuladas de hormigón frente a acciones explosivas, posibilitando el análisis de una estructura completa frente a explosión.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Entre los problemas medioambientales más trascendentales para la sociedad, se encuentra el del cambio climático así como el de la calidad del aire en nuestras áreas metropolitanas. El transporte por carretera es uno de los principales causantes, y como tal, las administraciones públicas se enfrentan a estos problemas desde varios ángulos: Cambios a modos de transporte más limpios, nuevas tecnologías y combustibles en los vehículos, gestión de la demanda y el uso de tecnologías de la información y la comunicación (ICT) aplicadas al transporte. En esta tesis doctoral se plantea como primer objetivo el profundizar en la comprensión de cómo ciertas medidas ICT afectan al tráfico, las emisiones y la propia dinámica de los vehículos. El estudio se basa en una campaña de recogida de datos con vehículos flotantes para evaluar los impactos de cuatro medidas concretas: Control de velocidad por tramo, límites variables de velocidad, limitador de velocidad (control de crucero) y conducción eficiente (eco‐driving). Como segundo objetivo, el estudio se centra en la conducción eficiente, ya que es una de las medidas que más ahorros de combustible presenta a nivel individual. Aunque estas reducciones están suficientemente documentadas en la literatura, muy pocos estudios se centran en estudiar el efecto que los conductores eficientes pueden tener en el flujo de tráfico, y cuál sería el impacto si se fuera aumentando el porcentaje de este tipo de conductores. A través de una herramienta de microsimulación de tráfico, se han construido cuatro modelos de vías urbanas que se corresponden con una autopista urbana, una arteria, un colector y una vía local. Gracias a los datos recogidos en la campaña de vehículos flotantes, se ha calibrado el modelo, tanto el escenario base como el ajuste de parámetros de conducción para simular la conducción eficiente. En total se han simulado 72 escenarios, variando el tipo de vía, la demanda de tráfico y el porcentaje de conductores eficientes. A continuación se han calculado las emisiones de CO2 and NOx mediante un modelo de emisiones a nivel microscópico. Los resultados muestran que en escenarios con alto porcentaje de conductores eficientes y altas demandas de tráfico las emisiones aumentan. Esto se debe a que las mayores distancias de seguridad y las aceleraciones y frenadas suaves hacen que aumente la congestión, produciendo así mayores emisiones a nivel global. Climate change and the reduced air quality in our metropolitan areas are two of the main environmental problems that the society is addressing currently. Being road transportation one of the main contributors, public administrations are facing these problems from different points of view: shift to cleaner modes, new fuels and vehicle technologies, demand management and the use of information and communication technologies (ICT) applied to transportation. The first objective of this thesis is to understand how certain ICT measures affect traffic, emissions and vehicle dynamics. The study is based on a data collection campaign with floating vehicles to evaluate the impact of four specific measures: section speed control, variable speed limits, cruise control and eco‐driving. The second objective of the study focuses on eco‐driving, as it is one of the measures that present the largest fuel savings at an individual level. Although these savings are well documented in the literature, few studies focus on how ecodrivers affect the surrounding vehicles and the traffic, and what would be the impact in case of different eco‐drivers percentage. Using a traffic micro‐simulation tool, four models in urban context have been built, corresponding to urban motorway, urban arterial, urban collector and a local street. Both the base‐case and the parameters setting to simulate eco‐driving have been calibrated with the data collected through floating vehicles. In total 72 scenarios were simulated, varying the type of road, traffic demand and the percentage of eco‐drivers. Then, the CO2 and NOx emissions have been estimated through the use of an emission model at microscopic level. The results show that in scenarios with high percentage of co‐drivers and high traffic demand the emissions rise. Higher headways and smooth acceleration and decelerations increase congestion, producing higher emissions globally.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Com o objetivo de aumentar o lucro de plantas químicas, a Otimização em Tempo Real (RTO) é uma ferramenta que busca determinar as condições ótimas operacionais do processo em estado estacionário, respeitando as restrições operacionais estabelecidas. Neste trabalho foi realizada a implementação prática de um ciclo RTO em um processo de destilação por recompressão de vapor (VRD), propileno-propano, da Refinaria de Paulínia (Petrobras S.A.), a partir de dados históricos da planta. Foram consideradas as principais etapas de um ciclo clássico de RTO: identificação de estado estacionário, reconciliação de dados, estimação de parâmetros e otimização econômica. Essa unidade foi modelada, simulada e otimizada em EMSO (Environment for Modeling, Simulation and Optimization), um simulador de processos orientado a equações desenvolvido no Brasil. Foram analisados e comparados dois métodos de identificação de estado estacionário, um baseado no teste estatístico F e outro baseado em wavelets. Ambos os métodos tiveram resultados semelhantes e mostraram-se capazes de identificar os estados estacionários de forma satisfatória, embora seja necessário o ajuste de parâmetros na sua implementação. Foram identificados alguns pontos estacionários para serem submetidos ao ciclo RTO e foi possível verificar a importância de partir de um estado estacionário para a continuidade do ciclo, já que essa é uma premissa do método. A partir dos pontos analisados, os resultados deste estudo mostram que o RTO é capaz de aumentar o ganho econômico entre 2,5-24%, dependendo das condições iniciais consideradas, o que pode representar ganhos de até 18 milhões de dólares por ano. Além disso, para essa unidade, verificou-se que o compressor é um equipamento limitante no aumento de ganho econômico do processo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introdução: As células F(CF) são eritrócitos contendo hemoglobina (Hb) F e outros tipos de hemoglobina. São encontradas em indivíduos de todas as idades, ao contrário dos eritrócitos fetais, só encontrados em fetos e recém-nascidos. Nestes eritrócitos fetais, a Hb F é o tipo dominante de Hb. Estudos publicados indicam que a gravidez pode levar a um aumento progressivo de células com Hb F no sangue materno, devido à presença de CF e/ou de células fetais, estas últimas frequentemente associadas a hemorragia feto–materna (HFM). Objetivo: (1) Determinação da percentagem (%) de células com Hb F em sangue materno, usando um anticorpo Anti-Hb F num analisador hematológico. (2) Quantificação de CF e/ou células fetais na gravidez e pós o parto. (3) Elaboração de algoritmo para a triagem de HFM. Material e Métodos: Estudadas 168 amostras de sangue materno: 29 no 1º trimestre da gravidez (1ºT); 43 no segundo (2º T); 82 no terceiro (3ºT), 14 pós-parto (PP) (amostras entre dia 0 e dia 7, após parto); 32 controlos negativos (Ctl N) com homens adultos saudáveis e 30 controlos positivos (Ctl P), obtidos por mistura de sangue do cordão com sangue do adulto, AB0 compatíveis. Amostras processadas no analisador hematológico Cell-Dyn Sapphire tm, em modo RBC Flow, após ajuste de parâmetros IAS, FL1 e FL3, utilizando um reagente com iodeto de propídio e 2,5 uL de anticorpo monoclonal anti-Hb F FITC. Imagens analisadas pelo software FCS Express V3. Análise estatística com Kruskal-Wallis e teste t-Student (significância estatística p <0,05). Cut-off para HFM obtido pelo valor mínimo, em %, em que se detetam células fetais na amostra Ctl P. Resultados: foram encontradas diferenças estatisticamente significativas na % células com Hb F (P<0,0001) nos grupos estudados. % CF aumenta com a gravidez:1ºT vs Ctl N - p <0,0217 e também durante a gravidez 1ºT Vs 3ºT – P=0,0007. Mesmo depois do PP a % CF está aumentada Ctl N vs PP: - p<0,0001. Valores médios de % CF residuais em adultos saudáveis: 0,53. Maioria das amostras nos diferentes grupos estudados apresenta % CF acima do valor residual (>0,53%): 66% no grupo 1ºT, 83 % no 2º T e 91% no 3º T. Valor cut-off para suspeita de HFM de 1,70% de células com Hb F. Teste preciso (CV+- 4%) para baixas % de células com Hb F. Discussão/Conclusão: Há um aumento células com Hb F durante a gravidez e esse aumento permanece no período PP. Em duas amostras do 3ºT obteve-se % células com Hb F elevada, superior ao cut-off (≥1,70%), sendo detetada uma população de prováveis células fetais. A presença células fetais nestas amostras foi confirmada por citometria de fluxo com Anti-Hb F/ Anti-CA, com subsequente diagnóstico de HFM. Esta metodologia é simples, rápida e não dispendiosa, quando aplicada a um analisador hematológico, representa uma mais-valia no rastreio da HFM. No futuro, pode integrar o protocolo de análises de rotina das grávidas, permitindo detetar as HFM silenciosas, que são a origem de muitas anemias de causa desconhecida em recém-nascidos.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Estudio cinético de la reacción de combustión del coque mediante el cálculo de los parámetros cinéticos de la reacción, empleando diferentes métodos de cálculo. Idioma: castellano.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Foram realizados quatro estudos de simulação para verificar a distribuição de inversas de variáveis com distribuição normal, em função de diferentes variâncias, médias, pontos de truncamentos e tamanhos amostrais. As variáveis simuladas foram GMD, com distribuição normal, representando o ganho médio diário e DIAS, obtido a partir da inversa de GMD, representando dias para se obter determinado peso. em todos os estudos, foi utilizado o sistema SAS® (1990) para simulação dos dados e para posterior análise dos resultados. As médias amostrais de DIAS foram dependentes dos desvios-padrão utilizados na simulação. As análises de regressão mostraram redução da média e do desvio-padrão de DIAS em função do aumento na média de GMD. A inclusão de um ponto de truncamento entre 10 e 25% do valor da média de GMD reduziu a média de GMD e aumentou a de DIAS, quando o coeficiente de variação de GMD foi superior a 25%. O efeito do tamanho dos grupos nas médias de GMD e DIAS não foi significativo, mas o desvio-padrão e CV amostrais médios de GMD aumentaram com o tamanho do grupo. em virtude da dependência entre a média e o desvio-padrão e da variação observada nos desvios-padrão de DIAS em função do tamanho do grupo, a utilização de DIAS como critério de seleção pode diminuir a acurácia da variação. Portanto, para a substituição de GMD por DIAS, é necessária a utilização de um método de análise robusto o suficiente para a eliminação da heterogeneidade de variância.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Há muitos anos, técnicas de Computação Evolucionária vem sendo aplicadas com sucesso na solução dos mais variados tipos de problemas de otimização. Na constante procura pelo ótimo global e por uma melhor exploração da superfície de busca, as escolhas para ajustar estes métodos podem ser exponencialmente complexas e requerem uma grande quantidade de intervenção humana. Estes modelos tradicionais darwinianos apóiam-se fortemente em aleatoriedade e escolhas heurísticas que se mantém fixas durante toda a execução, sem que acompanhem a variabilidade dos indivíduos e as eventuais mudanças necessárias. Dadas estas questões, o trabalho introduz a combinação de aspectos da Teoria do Design Inteligente a uma abordagem hibrida de algoritmo evolucionário, através da implementação de um agente inteligente o qual, utilizando lógica fuzzy, monitora e controla dinamicamente a população e seis parâmetros definidos de uma dada execução, ajustando-os para cada situação encontrada durante a busca. Na avaliação das proposições foi construído um protótipo sobre a implementação de um algoritmo genético para o problema do caixeiro viajante simétrico aplicado ao cenário de distância por estradas entre as capitais brasileiras, o que permitiu realizar 580 testes, simulações e comparações entre diferentes configurações apresentadas e resultados de outras técnicas. A intervenção inteligente entrega resultados que, com sucesso em muitos aspectos, superam as implementações tradicionais e abrem um vasto espaço para novas pesquisas e estudos nos aqui chamados: “Algoritmos Evolucionários Híbridos Auto-Adaptáveis”, ou mesmo, “Algoritmos Evolucionários Não-Darwinianos”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As técnicas inversas têm sido usadas na determinação de parâmetros importantes envolvidos na concepção e desempenho de muitos processos industriais. A aplicação de métodos estocásticos tem aumentado nos últimos anos, demonstrando seu potencial no estudo e análise dos diferentes sistemas em aplicações de engenharia. As rotinas estocásticas são capazes de otimizar a solução em uma ampla gama de variáveis do domínio, sendo possível a determinação dos parâmetros de interesse simultaneamente. Neste trabalho foram adotados os métodos estocásticos Luus-Jaakola (LJ) e Random Restricted Window (R2W) na obtenção dos ótimos dos parâmetros cinéticos de adsorção no sistema de cromatografia em batelada, tendo por objetivo verificar qual método forneceria o melhor ajuste entre os resultados obtidos nas simulações computacionais e os dados experimentais. Este modelo foi resolvido empregando o método de Runge- Kutta de 4 ordem para a solução de equações diferenciais ordinárias.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do trabalho foi identificar ferramentas e indicadores adequados ao monitoramento e à otimização de processos de biorremediação, incluindo parâmetros físicos, químicos e microbiológicos definidos em estudos de tratabilidade de solos contaminados por óleo cru em escala de laboratório e comparar estratégias de biorremediação, tais como bioestímulo e bioaumento conduzidas em simulações de biopilhas dinâmicas ou estáticas. Quando três métodos de extração de hidrocarbonetos de petróleo de solo arenoso e franco-argiloso para análise cromatográfica (Soxhlet-SOX, microondas-MARS e extração acelerada por solvente-ASE) foram comparados entre si, concluiu-se que a técnica que promove a melhor recuperação depende da fração de interesse (n-alcanos, HRP, MCNR, HPA), das características texturais do solo (teores de areia, silte e argila) e da idade da contaminação. Dentre os indicadores de densidade populacional microbiana (microrganismos heterotróficos totais-PHT, população de fungos-PF e população microbiana degradadora de óleo (PDO) passíveis de utilização para indicar a taxa de degradação de compostos orgânicos presentes no solo tais como os hidrocarbonetos de petróleo, o PDO mostrou-se o mais adequado em conjunto com a produção de CO2 aferida pelo método respirométrico. Quando a estratégia de biorremediação de solo franco-argiloso contaminado com óleo cru a 3% (m m-1) utilizando bioestímulo (ajuste de pH, umidade e taxa C:N:P) foi comparada ao bioaumento (bioestímulo e adição de inóculo de microrganismos extraídos, enriquecidos e aclimatizados ao óleo cru como fonte de carbono), em sistemas de bancada simulando biopilha dinâmica (microcosmo M) e biopilha estática com aeração forçada (reator B), o tratamento que apresentou melhor remoção (32%) de HTP após 121 dias foi o bioaumento em biopilha estática. Para HPA, o tratamento que alcançou a melhor remoção (33%) foi com bioestímulo também em biopilha estática. A avaliação da taxa de mortalidade (%) de Eisenia andrei exposta tanto a solos recém-contaminados por óleo cru e preparados para bioestímulo (BIOS) e bioaumento (BIOA) a serem tratados em biopilhas dinâmicas e estáticas em escala de laboratório mostrou que após 56 dias de exposição da E. andrei, todos os solos produziram letalidade de 100%, quer fossem os solos recém-contaminados e preparados para os diferentes tratamentos (BIOS M, BIOS B, BIOA M, BIOA B) ou após 121 dias de tratamento. Tal resultado confirma que a biorremediação foi incipiente também do ponto de vista de remoção da ecotoxicidade. Em linhas gerais, a biorremediação de solo franco-argiloso contaminado por óleo cru, contendo tanto contaminação antiga quanto recente, reúne os maiores desafios à biorremediação, tanto do ponto de vista da composição textural do solo quanto da natureza do contaminante. Os processos são aparentemente lentos e requerem ferramentas auxiliares para aceleração dos mesmos. Recomenda-se no futuro, condução de experimentos com o uso de diferentes surfactantes, com ênfase em biosurfactantes

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante as últimas décadas, os materiais compósitos têm substituído com sucesso os materiais tradicionais em muitas aplicações de engenharia, muito devido às excelentes propriedades que se conseguem obter com a combinação de materiais diferentes. Nos compósitos reforçados com fibras longas ou contínuas tem-se verificado, ao longo dos últimos anos, um aumento do uso de matrizes termoplásticas, fruto de várias vantagens associadas, como o facto de serem bastante mais ecológicas, comparativamente às termoendurecíveis. No entanto, este aumento está muito dependente do desenvolvimento de novas tecnologias de processamento, pois a elevada viscosidade dos termoplásticos, comparativamente aos termoendurecíveis, dificulta significativamente o processo. Muitos equipamentos de produção de termoplásticos são resultado de adaptações de equipamentos de produção de termoendurecíveis, onde normalmente é necessário adicionar fornos de pré-aquecimento. Neste trabalho, pretendeu-se produzir pré-impregnados de fibras contínuas com matriz termoplástica, por deposição a seco de polímero em pó sobre fibras de reforço (denominados por towpreg) para, posteriormente, serem transformados por pultrusão e caracterizados. As matérias-primas utilizadas foram: Polipropileno (PP) como matriz termoplástica e fibra de carbono como reforço. Por forma a melhorar as propriedades finais do compósito, foram otimizadas as condições de processamento na produção dos towpregs, estudando-se a influência da variação dos parâmetros de processamento no teor de polímero presente nestes, tendo como objetivo teores mássicos de polímero superiores a 30%. A condição ótima e a influência dos parâmetros de processamento foram obtidas com o auxílio do Método de Taguchi. Os perfis produzidos por pultrusão foram sujeitos a ensaios de flexão, de forma a obter as suas propriedades quando sujeitos a esse tipo de esforço. Foram também realizados ensaios de calcinação de forma a obter as frações mássicas de fibra e polímero presentes no compósito final. Sabidas as frações mássicas, converteramse em frações volúmicas e obtiveram-se as propriedades teoricamente esperadas através da Lei das Misturas e compararam-se com as obtidas experimentalmente. As propriedades obtidas foram também comparadas com as de outros compósitos pultrudidos.