961 resultados para Modelos lineares mistos
Resumo:
As más oclusões de Classe I com biprotrusão dentária são caracterizadas pela projeção dos incisivos superiores e inferiores e podem ser corrigidas com extrações de primeiros pré-molares, permitindo reposicionar os incisivos, usando como ancoragem os dentes posteriores. Esse trabalho teve como objetivo comparar, por meio de superposição de modelos tridimensionais, a movimentação de molares e de incisivos com duas técnicas para fechamento de espaços. Foram selecionados, tomografados (T0) e distribuídos, aleatoriamente em dois grupos, seis pacientes com indicação de exodontia de quatro primeiros pré-molares. No grupo 1 (n=3) foi feito o fechamento dos espaços das extrações em uma única etapa (fechamento em massa) e no grupo 2 (n=3), em duas etapas (distalização de caninos seguida da retração de incisivos). Após o completo fechamento dos espaços foi solicitada nova tomografia (T1). Os modelos tridimensionais em T0 e T1 para os dois grupos foram superpostos para descrever e quantificar a movimentação ocorrida nos primeiros molares. A retração de incisivos foi avaliada de maneira bidimensional. Os molares superiores e inferiores do grupo 1 sofreram movimentação mesial de translação, enquanto os do grupo 2, apresentaram deslocamento de coroa maior do que de ápice radicular, demonstrando movimento de inclinação mesial de coroa. Ao se comparar o movimento mesial dos molares entre os dois grupos, observou-se que no grupo 1 houve maior movimentação mesial da raiz mésio-vestibular dos molares superiores (p=0,009). No entanto, em ambos os grupos os molares superiores giraram sobre a raiz palatina. No arco inferior verificou-se maior movimento mesial de coroa para o grupo 2 (p=0,015). A análise da movimentação dos incisivos apresentou variações semelhantes para as medidas lineares e angulares dos incisivos superiores nos dois grupos. Já, para as medidas angulares dos incisivos inferiores, observou-se que o grupo 1 apresentou menor controle de torque. O tempo de tratamento de todos os pacientes da amostra foi superior a 30 meses, exceto um paciente que apresentou tempo de tratamento inferior a 24 meses. Pôde-se concluir que a perda de ancoragem ocorreu por movimento de translação no fechamento de espaços em massa, e por inclinação mesial no fechamento de espaços em duas etapas, para ambos os arcos. Parece haver maior movimentação mesial radicular nos molares superiores no fechamento em massa e maior movimento mesial de coroa dos molares inferiores para o fechamento em duas etapas. Sugere-se que não há diferença na retração dos incisivos superiores e maior retroinclinação dos incisivos inferiores no fechamento de espaços em duas etapas.
Resumo:
A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.
Resumo:
Esta é uma pesquisa sobre o uso de metáforas na construção de modelos por parte do físico escocês James Clerk Maxwell. O objetivo da pesquisa foi buscar compreender de que maneira o uso de metáforas e modelos é legítimo na ciência e em que medida contribui para seu sucesso. Além disso, busca compreender em que medida o uso de artifícios como modelos e analogias entre ramos distintos da ciência são impulsionadores de sucesso explicativo e preditivo da teoria do físico estudado. Explora as crenças teológicas e filosóficas do autor, que vê o mundo como unidade, permitindo a analogia entre ramos distintos da física. Seus desenvolvimentos em torno de teorias como calor, cores, óptica, magnetismo e eletricidade permitem evidenciar essa visão em todo o seu trabalho. Maxwell é considerado inaugurador de nova metodologia com o uso de modelos e metáforas. Explora o desenvolvimento da teoria das cores, da descrição matemática da estabilidade dos anéis de Saturno e o desenvolvimento da teoria dos gases como preâmbulo à discussão da teoria do eletromagnetismo. Descreve o desenvolvimento teórico do eletromagnetismo em seus diversos momentos. A construção da teoria do eletromagnetismo evidencia paulatino abandono do mecanicismo, uso intenso de modelos e metáforas temporários e ênfase na quantificação e no uso de experimentos. Discute o relacionamento de Maxwell com as discussões filosóficas, sociais e teológicas de sua época, seu engajamento em atividades práticas nesse sentido e suas influências científicas e filosóficas. Descreve e discute os textos filosóficos do cientista, em que se evidenciam sua ontologia, suas crenças teológicas e sua concepção de analogias. Discute a questão do uso de analogias em ciência e compara diversos autores que abordam o tema. A metodologia utilizada foi a de levantamento bibliográfico com análise crítica da literatura do autor e de seus comentadores, além de comentário crítico sobre os textos primários e secundários. Conclui que o sucesso científico de Maxwell deve-se à sua aposta numa unidade do mundo garantida por Deus, bem como na unidade entre o mundo e a mente humana, posturas que mostraram ser bem-sucedidas quando aplicadas à metodologia científica. Conclui também pela legitimidade e necessidade do uso de metáforas e modelos no empreendimento científico.
Resumo:
O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos.
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.
Resumo:
O atual nível das mudanças uso do solo causa impactos nas mudanças ambientais globais. Os processos de mudanças do uso e cobertura do solo são processos complexos e não acontecem ao acaso sobre uma região. Geralmente estas mudanças são determinadas localmente, regionalmente ou globalmente por fatores geográficos, ambientais, sociais, econômicos e políticos interagindo em diversas escalas temporais e espaciais. Parte desta complexidade é capturada por modelos de simulação de mudanças do uso e cobertura do solo. Uma etapa do processo de simulação do modelo CLUE-S é a quantificação da influência local dos impulsores de mudança sobre a probabilidade de ocorrência de uma classe de uso do solo. Esta influência local é obtida ajustando um modelo de regressão logística. Um modelo de regressão espacial é proposto como alternativa para selecionar os impulsores de mudanças. Este modelo incorpora a informação da vizinhança espacial existente nos dados que não é considerada na regressão logística. Baseado em um cenário de tendência linear para a demanda agregada do uso do solo, simulações da mudança do uso do solo para a microbacia do Coxim, Mato Grosso do Sul, foram geradas, comparadas e analisadas usando o modelo CLUE-S sob os enfoques da regressão logística e espacial para o período de 2001 a 2011. Ambos os enfoques apresentaram simulações com muito boa concordância, medidas de acurácia global e Kappa altos, com o uso do solo para o ano de referência de 2004. A diferença entre os enfoques foi observada na distribuição espacial da simulação do uso do solo para o ano 2011, sendo o enfoque da regressão espacial que teve a simulação com menor discrepância com a demanda do uso do solo para esse ano.
Resumo:
A remoção de compostos sulfurados da gasolina é um assunto de grande interesse na indústria de refino de petróleo em função das restrições ambientais cada vez mais rígidas em relação ao teor máximo de enxofre de produtos acabados. A solução mais comum para remoção de contaminantes são as unidades de hidrotratamento que operam a alta pressão e possuem alto custo de instalação e de operação além de levarem à perda de octanagem do produto acabado. O uso de membranas é uma alternativa promissora para a redução do teor de enxofre de correntes de gasolina e possui diversas vantagens em relação ao hidrotratamento convencional. O conhecimento aprofundado dos parâmetros que influenciam as etapas de sorção e difusão é crítico para o desenvolvimento da aplicação. Este trabalho avalioua seletividade e sorção do sistema formado por n-heptano e tiofeno em polímeros através de modelos termodinâmicos rigorosos, baseados em contribuição de grupos. O modelo UNIFAC-FV, variante do tradicional modelo UNIFAC para sistemas poliméricos, foi o modelo escolhido para cálculo de atividade dos sistemas estudados. Avaliou-se ainda a disponibilidade de parâmetros para desenvolvimento da modelagem e desenvolveu-se uma abordagem com alternativas para casos de indisponibilidade de parâmetros UNIFAC. Nos casos com ausência de parâmetros, o cálculo do termo residual da atividade das espécies é feito na forma proposta por Flory-Hugginsutilizando-se parâmetros de solubilidade obtidos também por contribuição de grupos. Entre os métodos de contribuição de grupos existentes para cálculo de parâmetros de solubilidade, o método de Hoy mostrou menores desvios para os sistemas estudados. A abordagem utilizada neste trabalho permite, ao final, uma análise de alterações da configuração da cadeia principal de polímeros de forma a influenciar sua seletividade e sorção para dessulfurização de naftas
Resumo:
Como forma de impulsionar o crescimento econômico, governos de diversos países incentivam o empreendedorismo, a inovação e o desenvolvimento tecnológico. Para isto, se utilizam de programas governamentais por meio de políticas de incentivo ou subvenção econômica a empreendimentos com este perfil. No Brasil, o capital de risco público vem sendo oferecido à empresas inovadoras através dos fundos da série Criatec, com recursos do BNDES. Estas empresas possuem, principalmente, ativos intangíveis, que devem ser considerados pelos investidores em suas avaliações que antecedem o aporte de recursos. Neste contexto, esta pesquisa foi desenvolvida com o objetivo de analisar como a metodologia de avaliação de intangíveis utilizada pelo Fundo Criatec I do BNDES, como ferramenta de apoio de decisão de investimento de capital de risco público, considera os indicadores de inovação frente aos modelos teóricos propostos na literatura contábil. Para isto foi realizado estudo de campo através de entrevistas realizadas com os gestores do Fundo e com diversas empresas investidas por este. Por meio da pesquisa foi observado que é realizada profunda análise das empresas candidatas ao aporte de recursos através da avaliação de três fatores de risco. Foi possível verificar indicadores de inovação presentes nas metodologias de avaliação de intangíveis propostas na literatura contábil na análise de um destes fatores. Contudo foi possível identificar que os indicadores de inovação não são avaliados de forma pré definida e parametrizada no modelo utilizado pelo Fundo.
Resumo:
Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.
Resumo:
Em estudos ecológicos é importante entender os processos que determinam a distribuição dos organismos. O estudo da distribuição de animais com alta capacidade de locomoção é um desafio para pesquisadores em todo o mundo. Modelos de uso de habitat são ferramentas poderosas para entender as relações entre animais e o ambiente. Com o desenvolvimento dos Sistemas de Informação Geográfica (SIG ou GIS, em inglês), modelos de uso de habitat são utilizados nas análises de dados ecológicos. Entretanto, modelos de uso de habitat frequentemente sofrem com especificações inapropriadas. Especificamente, o pressuposto de independência, que é importante para modelos estatísticos, pode ser violado quando as observações são coletadas no espaço. A Autocorrelação Espacial (SAC) é um problema em estudos ecológicos e deve ser considerada e corrigida. Nesta tese, modelos generalizados lineares com autovetores espaciais foram usados para investigar o uso de habitat dos cetáceos em relação a variáveis fisiográficas, oceanográficas e antrópicas em Cabo Frio, RJ, Brasil, especificamente: baleia-de-Bryde, Balaenoptera edeni (Capítulo 1); golfinho nariz-de-garrafa, Tursiops truncatus (Capítulo 2); Misticetos e odontocetos em geral (Capítulo 3). A baleia-de-Bryde foi influenciada pela Temperatura Superficial do Mar Minima e Máxima, no qual a faixa de temperatura mais usada pela baleia condiz com a faixa de ocorrência de sardinha-verdadeira, Sardinella brasiliensis, durante a desova (22 a 28C). Para o golfinho nariz-de-garrafa o melhor modelo indicou que estes eram encontrados em Temperatura Superficial do Mar baixas, com alta variabilidade e altas concentrações de clorofila. Tanto misticetos quanto os odontocetos usam em proporções similares as áreas contidas em Unidades de Conservação (UCs) quanto as áreas não são parte de UCs. Os misticetos ocorreram com maior frequência mais afastados da costa, em baixas temperaturas superficiais do mar e com altos valores de variabilidade para a temperatura. Os odontocetos usaram duas áreas preferencialmente: as áreas com as menores profundidades dentro da área de estudo e nas maiores profundidade. Eles usaram também habitats com águas frias e com alta concentração de clorofila. Tanto os misticetos quanto os odontocetos foram encontrados com mais frequência em distâncias de até 5km das embarcações de turismo e mergulho. Identificar habitats críticos para os cetáceos é um primeiro passo crucial em direção a sua conservação
Resumo:
A obesidade, cuja origem é multifatorial e a prevalência é crescente em diferentes regiões no mundo, está geralmente associada à produção desregulada de adipocinas, ao aumento do estresse oxidativo e à ocorrência de distúrbios metabólicos como dislipidemia, intolerância à glicose e hipertensão. A Programação Metabólica ou Plasticidade Ontogenética tem sido proposta como um importante fator na etiologia da obesidade. Este fenômeno sugere que alterações nutricionais, hormonais e ambientais durante períodos críticos do desenvolvimento, tais como gestação e lactação, podem alterar a fisiologia e o metabolismo de um organismo provocando o desenvolvimento de distúrbios metabólicos na vida adulta. Neste trabalho foram estudados dois modelos de plasticidade ontogenética que programam ratos Wistar para obesidade na vida adulta: a supernutrição na lactação e o desmame precoce. A supernutrição na lactação provocada pela redução da ninhada causou obesidade, hiperfagia, aumento do estresse oxidativo, resistência hepática à ação da insulina e esteatose nas proles na idade adulta. A desnutrição, provocada pelo desmame precoce, também se associou na idade adulta com obesidade visceral, aumento do estresse oxidativo e esteatose, assim como dislipidemia, resistência à insulina, hipertensão arterial e resistência central à leptina. No modelo de programação pelo desmame precoce, os animais adultos foram tratados com resveratrol (30mg/kg/MC), um polifenol encontrado nas uvas e conhecido por seus efeitos antioxidante e hipoglicemiante, por 30 dias. Os animais programados pelo desmame precoce que receberam resveratrol tiveram massa corporal, gordura visceral e morfologia hepática semelhantes aos animais controles. Ainda, o resveratrol normalizou a pressão arterial, a dislipidemia, a glicemia e as concentrações de adiponectina e leptina. A normalização da leptinemia esteve associada à correção da resistência central à leptina nestes animais, uma vez que o resveratrol normalizou além da ingestão, o conteúdo hipotalâmico de JAK2, pSTAT3 e NPY. Portanto, os animais programados pela supernutrição na lactação ou pelo desmame precoce apresentaram aumento do estresse oxidativo associado à obesidade e alterações metabólicas como esteatose. O tratamento com resveratrol nos animais programados pelo desmame precoce preveniu o aumento de estresse oxidativo, obesidade visceral, resistência à insulina, dislipidemia e esteatose. Além disso, o resveratrol causou normalização da leptinemia nestes animais, assim como da ação deste hormônio no hipotálamo, controlando a hiperfagia característica deste modelo.
Resumo:
A asma é um distúrbio crônico pulmonar caracterizado por inflamação, obstrução e remodelamento brônquico, levando a sintomas como sibilo, tosse e falta de ar. A terapia antiasmática consiste em corticosteroides inalados e agonistas β2 de curta ou longa duração. O tratamento é limitado por efeitos colaterais e refratariedade de alguns pacientes, justificando a necessidade de novas terapias. Estudos demonstram que a 15-deoxy-delta- 12,14-prostaglandina J2 (15d-PGJ2), um ligante endógeno de receptores ativados por proliferadores de peroxissomos do tipo gama (PPAR-γ), é capaz de reduzir a expressão de citocinas pró-inflamatórias, o que pode resultar em benefícios no tratamento de doenças com esse perfil. O objetivo deste estudo foi avaliar o potencial anti-inflamatório e antiasmático da 15d-PGJ2 em modelos experimentais de asma. Camundongos A/J machos foram sensibilizados nos dias 0 e 7 através de injeção subcutânea (s.c.), contendo ovoalbumina (OVA) e Al(OH)3, e desafiados com 4 instilações intranasais (i.n.) de OVA em intervalos semanais. O tratamento com 15d-PGJ2 (30 e 100 g/Kg, s.c.) foi realizado 30 min antes dos desafios a partir da terceira provocação antigênica. Em outro modelo, camundongos A/J foram desafiados intranasalmente com extrato de ácaro 3 vezes por semana durante 3 semanas. As administrações de 15d-PGJ2 (30, 70 e 100 g/Kg, s.c. e 0,65; 1,5 e 2,3 g/animal, i.n.) foram realizadas a partir da 3 semana, 30 min antes dos desafios. As análises ocorreram 24 h após o último desafio. Nossos resultados mostraram que, em camundongos previamente sensibilizados e desafiados com OVA, a administração de 15d-PGJ2 limitou significativamente o influxo peribrônquico de eosinófilos e neutrófilos, bem como a produção de muco por células caliciformes e fibrose sub-epitelial, além da hiperreatividade das vias aéreas e produção de IL-5. A redução do epitélio brônquico e das citocinas IL-13 e TNF-α foram observadas somente na maior dose administrada. No modelo HDM a inflamação e o remodelamento foram atenuados em todas as doses administradas do composto, enquanto que a hiperresponssividade brônquica foi inibida apenas nas doses de 70 e 100 μg/Kg (via sistêmica) e na dose intermediária dada topicamente (1,5 μg/animal, i.n.). Os níveis de citocinas foram atenuados pelo tratamento subcutâneo, porém somente os níveis de IL-17, eotaxina-1 e TNF-α foram inibidos com a dose intranasal de 0,65 g/animal. O aumento da expressão de NF-κB, induzido por provocação com HDM também foi reduzido significativamente pela administração de 15d-PGJ2. Em conjunto, nossos dados indicam que o tratamento com 15d-PGJ2 inibe alterações cruciais associadas à patogênese da asma, em modelos experimentais distintos da doença, demonstrando possuir grande potencial para controlar e reverter inflamação, hiperreatividade e remodelamento pulmonar desencadeados por provocação alérgica.
Resumo:
As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
Este trabalho objetiva a construção de estruturas robustas e computacionalmente eficientes para a solução do problema de deposição de parafinas do ponto de vista do equilíbrio sólido-líquido. São avaliados diversos modelos termodinâmicos para a fase líquida: equação de estado de Peng-Robinson e os modelos de coeficiente de atividade de Solução Ideal, Wilson, UNIQUAC e UNIFAC. A fase sólida é caracterizada pelo modelo Multisólido. A previsão de formação de fase sólida é inicialmente prevista por um teste de estabilidade termodinâmica. Posteriormente, o sistema de equações não lineares que caracteriza o equilíbrio termodinâmico e as equações de balanço material é resolvido por três abordagens numéricas: método de Newton multivariável, método de Broyden e método Newton-Armijo. Diversos experimentos numéricos foram conduzidos de modo a avaliar os tempos de computação e a robustez frente a diversos cenários de estimativas iniciais dos métodos numéricos para os diferentes modelos e diferentes misturas. Os resultados indicam para a possibilidade de construção de arcabouços computacionais eficientes e robustos, que podem ser empregados acoplados a simuladores de escoamento em dutos, por exemplo.