870 resultados para Nuevos modelos de ciencia
Resumo:
A utilização do metano (CH4) presente no biogás gerado através da degradação anaeróbica de resíduos orgânicos depositados em aterros sanitários como fonte de energia é uma tecnologia em expansão, principalmente nos países em desenvolvimento. Para assegurar um melhor aproveitamento do CH4 e a viabilidade econômica do projeto de exploração energética é necessário que estes empreendimentos avaliem sua capacidade de produzir este gás com o passar dos anos, mesmo após o encerramento da deposição de resíduos. O potencial de geração é comumente estimado a partir de modelos cinéticos de primeira ordem propostos por conceituadas instituições, entretanto, estudos recentes apontam alto grau de incerteza e diferenças relevantes entre os resultados obtidos com cada metodologia. Este trabalho tem por objetivo analisar a variação dos resultados das estimativas de emissão de metano dos modelos recomendados pela USEPA, Banco Mundial (Scholl Canyon) e IPCC utilizando tanto dados e informações disponibilizadas do aterro sanitário Moskogen, localizado em Kalmar, Suécia, que foi operado entre 1977 e 2008. Além de estimar a capacidade de geração de CH4, objetiva-se identificar qual o modelo cujas estimativas mais se aproximam dos dados de biogás efetivamente medidos e quanto gás ainda pode ser extraído do aterro. O estudo ainda avaliou como valores diferentes para os parâmetros principais dos modelos afetam a estimativa de geração final. O modelo IPCC mostrou-se o mais confiável dentre os analisados, estimando que o aterro Moskogen produza mais de 102 milhões de m de CH4 entre 1977 e 2100, sendo 39,384 milhões passíveis de extração de 2012 a 2100. Os demais modelos apresentaram premissas inadequadas com a realidade do aterro sanitário estudado. Contudo, mesmo com a superioridade do modelo proposto pelo IPCC, maiores estudos são necessários no local, que levantem outras informações de campo como a vazão passiva de gás pela camada de cobertura do aterro e uma melhor estimativa do percentual de material orgânico biodegradável presente em cada fração de resíduos depositada em Moskogen.
Resumo:
Esta é uma pesquisa sobre o uso de metáforas na construção de modelos por parte do físico escocês James Clerk Maxwell. O objetivo da pesquisa foi buscar compreender de que maneira o uso de metáforas e modelos é legítimo na ciência e em que medida contribui para seu sucesso. Além disso, busca compreender em que medida o uso de artifícios como modelos e analogias entre ramos distintos da ciência são impulsionadores de sucesso explicativo e preditivo da teoria do físico estudado. Explora as crenças teológicas e filosóficas do autor, que vê o mundo como unidade, permitindo a analogia entre ramos distintos da física. Seus desenvolvimentos em torno de teorias como calor, cores, óptica, magnetismo e eletricidade permitem evidenciar essa visão em todo o seu trabalho. Maxwell é considerado inaugurador de nova metodologia com o uso de modelos e metáforas. Explora o desenvolvimento da teoria das cores, da descrição matemática da estabilidade dos anéis de Saturno e o desenvolvimento da teoria dos gases como preâmbulo à discussão da teoria do eletromagnetismo. Descreve o desenvolvimento teórico do eletromagnetismo em seus diversos momentos. A construção da teoria do eletromagnetismo evidencia paulatino abandono do mecanicismo, uso intenso de modelos e metáforas temporários e ênfase na quantificação e no uso de experimentos. Discute o relacionamento de Maxwell com as discussões filosóficas, sociais e teológicas de sua época, seu engajamento em atividades práticas nesse sentido e suas influências científicas e filosóficas. Descreve e discute os textos filosóficos do cientista, em que se evidenciam sua ontologia, suas crenças teológicas e sua concepção de analogias. Discute a questão do uso de analogias em ciência e compara diversos autores que abordam o tema. A metodologia utilizada foi a de levantamento bibliográfico com análise crítica da literatura do autor e de seus comentadores, além de comentário crítico sobre os textos primários e secundários. Conclui que o sucesso científico de Maxwell deve-se à sua aposta numa unidade do mundo garantida por Deus, bem como na unidade entre o mundo e a mente humana, posturas que mostraram ser bem-sucedidas quando aplicadas à metodologia científica. Conclui também pela legitimidade e necessidade do uso de metáforas e modelos no empreendimento científico.
Resumo:
A presente tese busca compreender e explicar a formação do Estado Plurinacional da Bolívia a partir do legado de símbolos, procedimentos e modelos de aquisição de legitimidade deixados ao longo de sua história e que podem ser agrupados em três grandes matrizes políticas: o liberalismo-constitucional, o indianismo-comunitário e o nacional-popular. Assim, o objetivo é analisar como o legado destas três matrizes políticas, através principalmente da evolução histórica de seus horizontes políticos e da memória de suas agendas e promessas inconclusas acerca do Estado e da nação na Bolívia, influenciam o atual experimento inaugurado em 2009 com a promulgação de sua atual Constituição Política do Estado (CPE). A hipótese subjacente é a de que o experimento plurinacional, em sua tentativa de resolver a forte crise de legitimidade estatal trazida pela conjuntura crítica dos anos 2000-2005, se nutre fortemente das agendas destas três matrizes seja intencional e deliberadamente como no caso do Indianismo e do Nacional-popular ou de maneira reticente como no caso do Liberalismo - de forma a tentar reconciliar o Estado com sua altamente heterogênea formação social. A fim de verificá-la, foi realizado um estudo de natureza eminentemente bibliográfica complementado por pesquisa de campo de seis meses a fim de traçar a evolução política das três matrizes em seus momentos constitutivos, horizontes e agendas e contrastá-las com as características institucionais assumidas pelo novo Estado Plurinacional, bem como a prática política dos principais atores bolivianos contemporâneos. Dessa maneira, foi possível perceber o quanto de fato persistem no experimento refundacionista atual e na prática política corrente do país uma mescla heterogênea e com distintas ênfases das agendas e práticas das três matrizes, representadas sobretudo no apego à democracia como valor e procedimento; no reconhecimento étnico-cultural trazido ao interior do Estado com a incorporação potencial pelo mesmo de formatos institucionais comunitários e a preservação de espaços autônomos de deliberação; e na busca por participação política mais direta por parte do povo e na ênfase relativa à soberania popular sobre os recursos naturais do país e um maior intervencionismo estatal na economia.
Resumo:
O atual nível das mudanças uso do solo causa impactos nas mudanças ambientais globais. Os processos de mudanças do uso e cobertura do solo são processos complexos e não acontecem ao acaso sobre uma região. Geralmente estas mudanças são determinadas localmente, regionalmente ou globalmente por fatores geográficos, ambientais, sociais, econômicos e políticos interagindo em diversas escalas temporais e espaciais. Parte desta complexidade é capturada por modelos de simulação de mudanças do uso e cobertura do solo. Uma etapa do processo de simulação do modelo CLUE-S é a quantificação da influência local dos impulsores de mudança sobre a probabilidade de ocorrência de uma classe de uso do solo. Esta influência local é obtida ajustando um modelo de regressão logística. Um modelo de regressão espacial é proposto como alternativa para selecionar os impulsores de mudanças. Este modelo incorpora a informação da vizinhança espacial existente nos dados que não é considerada na regressão logística. Baseado em um cenário de tendência linear para a demanda agregada do uso do solo, simulações da mudança do uso do solo para a microbacia do Coxim, Mato Grosso do Sul, foram geradas, comparadas e analisadas usando o modelo CLUE-S sob os enfoques da regressão logística e espacial para o período de 2001 a 2011. Ambos os enfoques apresentaram simulações com muito boa concordância, medidas de acurácia global e Kappa altos, com o uso do solo para o ano de referência de 2004. A diferença entre os enfoques foi observada na distribuição espacial da simulação do uso do solo para o ano 2011, sendo o enfoque da regressão espacial que teve a simulação com menor discrepância com a demanda do uso do solo para esse ano.
Resumo:
Historia de la Ciencia fue una materia ofrecida en 2003, por el curso de Posgrado en Ciencias Ambientales (PEA) de la Universidad Estadual de Maringá, PR, Brasil, dictada por la profesora Luiza Marta Bellini. Durante el curso de la misma, se discutía sobre la historia y filosofía de vida de los científicos que brillaron o, por el contrario, pasaron desapercibidos por la historia del pensamiento humano. Al final del término de la materia, se logró compilar un libro llamado Ecólogos e suas histórias: Um olhar sobre a construção das ideas ecológicas (Pelicice et al., 2010). El capitulo diez del libro, es un comentario sobre algunos pioneros que contribuyeron para el desarrollo de la Limnología fluvial en Sudamérica. Dos fueron tratados en ese capítulo, Harald Sioli y Juan José Neiff (ver Arenas‐Ibarra et al., 2010). Sin embargo, la idea principal del capítulo era incluir también a los doctores Argentino Aurelio Bonetto y Raúl Adolfo Ringuelet, pero cuestiones relativas al formato y espacio de cada capítulo, impidieron mantener la integridad original de éste y el mayor conocimiento de las contribuciones de estos dos destacados investigadores argentinos en tierras brasileras. Si bien esta omisión fue compensada en parte por el artículo de Arenas‐Ibarra & Souza‐Filho (2010) en el que se resaltan las figuras de Bonetto y Rzóska como precursores de la Limnología fluvial, quedó aún pendiente este reconocimiento por parte de los autores de este documento a Raúl Ringuelet. Con motivo de que en el transcurso de este año se cumplieron treinta años del fallecimiento del Dr. Raúl Adolfo Ringuelet, decidimos, por invitación de Hugo Luis López, publicar el material recopilado durante la materia cursada en la Universidad Estadual de Maringá (UEM, Brasil), actualizándola con nuevos datos proporcionados por Hugo López y Juan José Neiff. Este trabajo es una síntesis de las ideas de Raúl Adolfo Ringuelet, quien sin duda se encuentra entre los pioneros de la ictio‐limnología local y sudamericana.
Resumo:
A remoção de compostos sulfurados da gasolina é um assunto de grande interesse na indústria de refino de petróleo em função das restrições ambientais cada vez mais rígidas em relação ao teor máximo de enxofre de produtos acabados. A solução mais comum para remoção de contaminantes são as unidades de hidrotratamento que operam a alta pressão e possuem alto custo de instalação e de operação além de levarem à perda de octanagem do produto acabado. O uso de membranas é uma alternativa promissora para a redução do teor de enxofre de correntes de gasolina e possui diversas vantagens em relação ao hidrotratamento convencional. O conhecimento aprofundado dos parâmetros que influenciam as etapas de sorção e difusão é crítico para o desenvolvimento da aplicação. Este trabalho avalioua seletividade e sorção do sistema formado por n-heptano e tiofeno em polímeros através de modelos termodinâmicos rigorosos, baseados em contribuição de grupos. O modelo UNIFAC-FV, variante do tradicional modelo UNIFAC para sistemas poliméricos, foi o modelo escolhido para cálculo de atividade dos sistemas estudados. Avaliou-se ainda a disponibilidade de parâmetros para desenvolvimento da modelagem e desenvolveu-se uma abordagem com alternativas para casos de indisponibilidade de parâmetros UNIFAC. Nos casos com ausência de parâmetros, o cálculo do termo residual da atividade das espécies é feito na forma proposta por Flory-Hugginsutilizando-se parâmetros de solubilidade obtidos também por contribuição de grupos. Entre os métodos de contribuição de grupos existentes para cálculo de parâmetros de solubilidade, o método de Hoy mostrou menores desvios para os sistemas estudados. A abordagem utilizada neste trabalho permite, ao final, uma análise de alterações da configuração da cadeia principal de polímeros de forma a influenciar sua seletividade e sorção para dessulfurização de naftas
Resumo:
Como forma de impulsionar o crescimento econômico, governos de diversos países incentivam o empreendedorismo, a inovação e o desenvolvimento tecnológico. Para isto, se utilizam de programas governamentais por meio de políticas de incentivo ou subvenção econômica a empreendimentos com este perfil. No Brasil, o capital de risco público vem sendo oferecido à empresas inovadoras através dos fundos da série Criatec, com recursos do BNDES. Estas empresas possuem, principalmente, ativos intangíveis, que devem ser considerados pelos investidores em suas avaliações que antecedem o aporte de recursos. Neste contexto, esta pesquisa foi desenvolvida com o objetivo de analisar como a metodologia de avaliação de intangíveis utilizada pelo Fundo Criatec I do BNDES, como ferramenta de apoio de decisão de investimento de capital de risco público, considera os indicadores de inovação frente aos modelos teóricos propostos na literatura contábil. Para isto foi realizado estudo de campo através de entrevistas realizadas com os gestores do Fundo e com diversas empresas investidas por este. Por meio da pesquisa foi observado que é realizada profunda análise das empresas candidatas ao aporte de recursos através da avaliação de três fatores de risco. Foi possível verificar indicadores de inovação presentes nas metodologias de avaliação de intangíveis propostas na literatura contábil na análise de um destes fatores. Contudo foi possível identificar que os indicadores de inovação não são avaliados de forma pré definida e parametrizada no modelo utilizado pelo Fundo.
Resumo:
Nesta dissertação consideramos duas abordagens para o tráfego de veículos: a macroscópica e a microscópica. O tráfego é descrito macroscopicamente por três grandezas físicas interligadas entre si, a saber, a velocidade, a densidade e o fluxo, descrevendo leis de conservação do número de veículos. Há vários modelos para o tráfego macroscópico de veículos. A maioria deles trata o tráfego de veículos como um fluido compressível, traduzindo a lei de conservação de massa para os veículos e requer uma lei de estado para o par velocidade-densidade, estabelecendo uma relação entre eles. Já o modelo descrito pela abordagem microscópica considera os veículos como partículas individuais. Consideramos os modelos da classe "car - following". Estes modelos baseiam-se no princípio de que o (n - 1)-ésimo veículo (denominado de "following-car") acelera em função do estímulo que recebe do n-ésimo veículo. Analisamos a equação de conservação do número de veículos em modelos macroscópicos para fluxo de tráfego. Posteriormente resolvemos esta equação através da linearização do modelo, estudando suas retas características e apresentamos a resolução do problema não linear em domínios limitados utilizando o método das características
Resumo:
Um dos temas mais estudados na área de finanças, em especial na análise de créditos, são os modelos que buscam prever a capacidade das empresas em se manterem solventes. Via de regra, tais estudos buscam, dentre vários indicadores, aqueles que se mostram mais apropriados para realizar tal predição. Nesse trabalho propõe-se um outro olhar sobre os modelos de previsão. Partindo de modelos já consagrados na literatura, escolheram-se os indicadores contábeis mais utilizados, que foram comparados, através da Análise Discriminante e da Regressão Logística, com os indicadores oriundos do Modelo Dinâmico. O objetivo do estudo foi verificar se os indicadores do Modelo Dinâmico oferecem melhores resultados que os indicadores tradicionais. O trabalho se baseia numa amostra com 48 empresas, composta de 24 insolventes e as outras 24 ditas como saudáveis, tratadas como pares das insolventes, escolhidas dentro do mesmo setor econômico de cada uma das insolventes. Além disso, foi incluída no estudo a classificação de empresas de Fleuriet como variável qualitativa. Os resultados obtidos não apresentam evidências sobre a superioridade de um ou outro conjunto de indicadores, mas, os melhores resultados alcançados derivam da inclusão da classificação de empresas de Fleuriet, seja através da Análise Discriminante, seja através da Regressão Logística, conseguindo no melhor dos resultados, um percentual de acerto total de 83,3%. A análise minuciosa dos erros de classificação ensejou uma proposta de reordenação dos tipos de situação de liquidez originalmente propostos por Fleuriet.
Resumo:
A obesidade, cuja origem é multifatorial e a prevalência é crescente em diferentes regiões no mundo, está geralmente associada à produção desregulada de adipocinas, ao aumento do estresse oxidativo e à ocorrência de distúrbios metabólicos como dislipidemia, intolerância à glicose e hipertensão. A Programação Metabólica ou Plasticidade Ontogenética tem sido proposta como um importante fator na etiologia da obesidade. Este fenômeno sugere que alterações nutricionais, hormonais e ambientais durante períodos críticos do desenvolvimento, tais como gestação e lactação, podem alterar a fisiologia e o metabolismo de um organismo provocando o desenvolvimento de distúrbios metabólicos na vida adulta. Neste trabalho foram estudados dois modelos de plasticidade ontogenética que programam ratos Wistar para obesidade na vida adulta: a supernutrição na lactação e o desmame precoce. A supernutrição na lactação provocada pela redução da ninhada causou obesidade, hiperfagia, aumento do estresse oxidativo, resistência hepática à ação da insulina e esteatose nas proles na idade adulta. A desnutrição, provocada pelo desmame precoce, também se associou na idade adulta com obesidade visceral, aumento do estresse oxidativo e esteatose, assim como dislipidemia, resistência à insulina, hipertensão arterial e resistência central à leptina. No modelo de programação pelo desmame precoce, os animais adultos foram tratados com resveratrol (30mg/kg/MC), um polifenol encontrado nas uvas e conhecido por seus efeitos antioxidante e hipoglicemiante, por 30 dias. Os animais programados pelo desmame precoce que receberam resveratrol tiveram massa corporal, gordura visceral e morfologia hepática semelhantes aos animais controles. Ainda, o resveratrol normalizou a pressão arterial, a dislipidemia, a glicemia e as concentrações de adiponectina e leptina. A normalização da leptinemia esteve associada à correção da resistência central à leptina nestes animais, uma vez que o resveratrol normalizou além da ingestão, o conteúdo hipotalâmico de JAK2, pSTAT3 e NPY. Portanto, os animais programados pela supernutrição na lactação ou pelo desmame precoce apresentaram aumento do estresse oxidativo associado à obesidade e alterações metabólicas como esteatose. O tratamento com resveratrol nos animais programados pelo desmame precoce preveniu o aumento de estresse oxidativo, obesidade visceral, resistência à insulina, dislipidemia e esteatose. Além disso, o resveratrol causou normalização da leptinemia nestes animais, assim como da ação deste hormônio no hipotálamo, controlando a hiperfagia característica deste modelo.
Resumo:
A asma é um distúrbio crônico pulmonar caracterizado por inflamação, obstrução e remodelamento brônquico, levando a sintomas como sibilo, tosse e falta de ar. A terapia antiasmática consiste em corticosteroides inalados e agonistas β2 de curta ou longa duração. O tratamento é limitado por efeitos colaterais e refratariedade de alguns pacientes, justificando a necessidade de novas terapias. Estudos demonstram que a 15-deoxy-delta- 12,14-prostaglandina J2 (15d-PGJ2), um ligante endógeno de receptores ativados por proliferadores de peroxissomos do tipo gama (PPAR-γ), é capaz de reduzir a expressão de citocinas pró-inflamatórias, o que pode resultar em benefícios no tratamento de doenças com esse perfil. O objetivo deste estudo foi avaliar o potencial anti-inflamatório e antiasmático da 15d-PGJ2 em modelos experimentais de asma. Camundongos A/J machos foram sensibilizados nos dias 0 e 7 através de injeção subcutânea (s.c.), contendo ovoalbumina (OVA) e Al(OH)3, e desafiados com 4 instilações intranasais (i.n.) de OVA em intervalos semanais. O tratamento com 15d-PGJ2 (30 e 100 g/Kg, s.c.) foi realizado 30 min antes dos desafios a partir da terceira provocação antigênica. Em outro modelo, camundongos A/J foram desafiados intranasalmente com extrato de ácaro 3 vezes por semana durante 3 semanas. As administrações de 15d-PGJ2 (30, 70 e 100 g/Kg, s.c. e 0,65; 1,5 e 2,3 g/animal, i.n.) foram realizadas a partir da 3 semana, 30 min antes dos desafios. As análises ocorreram 24 h após o último desafio. Nossos resultados mostraram que, em camundongos previamente sensibilizados e desafiados com OVA, a administração de 15d-PGJ2 limitou significativamente o influxo peribrônquico de eosinófilos e neutrófilos, bem como a produção de muco por células caliciformes e fibrose sub-epitelial, além da hiperreatividade das vias aéreas e produção de IL-5. A redução do epitélio brônquico e das citocinas IL-13 e TNF-α foram observadas somente na maior dose administrada. No modelo HDM a inflamação e o remodelamento foram atenuados em todas as doses administradas do composto, enquanto que a hiperresponssividade brônquica foi inibida apenas nas doses de 70 e 100 μg/Kg (via sistêmica) e na dose intermediária dada topicamente (1,5 μg/animal, i.n.). Os níveis de citocinas foram atenuados pelo tratamento subcutâneo, porém somente os níveis de IL-17, eotaxina-1 e TNF-α foram inibidos com a dose intranasal de 0,65 g/animal. O aumento da expressão de NF-κB, induzido por provocação com HDM também foi reduzido significativamente pela administração de 15d-PGJ2. Em conjunto, nossos dados indicam que o tratamento com 15d-PGJ2 inibe alterações cruciais associadas à patogênese da asma, em modelos experimentais distintos da doença, demonstrando possuir grande potencial para controlar e reverter inflamação, hiperreatividade e remodelamento pulmonar desencadeados por provocação alérgica.
Resumo:
Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.
Resumo:
As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.
Resumo:
A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
Resumo:
Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia.