1000 resultados para métodos de aplicação
Resumo:
A utilização da etnografia tradicional não é um fenómeno novo no domínio da investigação qualitativa. Antropólogos e, de seguida, sociólogos privilegiaram esta abordagem metodológica desde há muito tempo. Em meados dos anos 1970, alguns investigadores « críticos » voltaram-se para a etnografia enquanto abordagem de investigação, porque lhes permitia perceber melhor a realidade dos grupos oprimidos, e, deste modo, compreender melhor as realções de poder e o modo como elas evoluem. O presente artigo procura demonstrar a pertinência da etnografia crítica no exame das relações de poder. Os resultados de dois estudos etnográficos servem para mostrar de que modo a abordagem etnográfica permite um exame mais aprofundado das práticas sociais existentes, permitindo assim ao investigador dissecar no plano teórico a noção de poder. A análise comparativa de resultados apresentados centram-se nas minorias linguísticas no Canadá, sejam francófonos que vivem no exterior do Quebeque sejam anglófonos vivendo no Quebeque. A análise comparativa demonstra que as relações de poder não se situam somente entre as duas minorias linguísticas e a sua maioria respetiva, mas também entre as próprias minorias linguísticas.
Resumo:
O presente artigo descreve uma metodologia não invasiva, compreendendo abordagens estáticas e dinâmicas realizadas in vivo com o objectivo de avaliar o efeito da aplicação na pele deumcreme hidratante contendo ureia. Participaram no estudo 15 voluntárias, que aplicaram o produto (Kératosane15©, Uriage, França) na região lateral exterior frontal da perna durante 15 dias.Ametodologia dinâmica de avaliação de eficácia consistiu na aplicação de nicotinato de etilo seguida de medição através de fluxometria de laser doppler (FLD). Nas estratégias estáticas utilizaram-se as técnicas de medição da perda transepidérmica de água e da hidratação cutânea, esta última recorrendo a dois aparelhos diferentes. Na FLD não se observou diferença nos resultados obtidos da zona tratada para a zona controlo. Também na PTEA não se verifica diferença estatisticamente significativa nos locais em estudo. Nas variáveis relacionadas com a hidratação existem diferenças estatisticamente significativas, sendo o estado de hidratação superior no local tratado face ao controlo. Concluiu-se que o creme não melhora significativamente a função de barreira cutânea mas proporciona um bom estado de hidratação à pele quando usado regularmente. Ambos os aparelhos de medição da hidratação são adequados ao estudo da eficácia do produto, mas o MoistureMeter-SC permite observar diferenças de uma forma mais clara.
Resumo:
A presente dissertação tem como objectivo efectuar o estudo do comportamento térmico de estruturas com betão em massa através do Método de Schmidt e compará-lo com outros métodos. A análise do comportamento do betão reveste-se de extrema importância em diversos domínios, de entre os quais se pode referir o que visa evitar a fissuração de origem térmica decorrente do calor de hidratação. Pelo motivo enunciado torna-se necessária dispor de metodologias de análise que requerem a mobilização de meios de cálculo. Existem diferentes métodos para o cálculo das temperaturas: uns mais simples, outros mais complexos, uns mais rápidos, outros mais demorados, uns mais onerosos e outros mais económicos. O conhecimento dos vários métodos permite adequá-los à especificidade de cada obra. Para realizar os vários procedimentos pode recorrer-se a programas informáticos de cálculo, como por o Excel ou utilizar Software Específico. Nesta dissertação apresenta-se uma metodologia de cálculo baseada no Método de Schmidt e faz-se a comparação com o Método de Solução Analítica. Utiliza-se também este Método no cálculo das temperaturas das várias camadas de uma barragem. O Método de Schmidt é ainda aplicado a um caso real de uma barragem da Tailândia construída em Betão Compactado com Cilindros e os resultados obtidos são comparados com outros Métodos de Análise Numérica de Barragens.
Resumo:
Nos últimos anos estudos efectuados com frutos vermelhos têm revelado a sua riqueza em compostos bioactivos,sobretudo devido a presença de compostos polifenólicos. Neste trabalho foram avaliados os sub-produtos da ginja (Prunus cerasus L.) resultantes da indústria do licor de Óbidos, através da determinação do seu conteúdo em compostos fenólicos totais e, em particular, em antocianinas. As amostras de folhagens (pedúnculos e folhas) e de bagaço (película e película+caroço) foram extraídas por maceração através de 2 métodos de extracção diferentes, utilizando o etanol e o metanol como solventes. Na generalidade observaram-se diferenças significativas entre os teores em fenóis totais e antocianinas, quer dos extractos obtidos a partir de diferentes fracções (folhagem ou bagaço), quer dos extractos obtidos a partir da mesma fracção mas utilizando diferentes solventes. Os extractos das folhagens apresentaram valores de fenóis totais mais elevados que os extractos de bagaço. O metanol foi o solvente mais eficaz na extracção dos fenóis totais e das antocianinas para todas as amostras em estudo. Para as amostras de bagaço as amostras sem caroço (amostras de película) foram as que apresentaram valores mais elevados de fenóis totais e de antocianinas. Os resultados obtidos apontam no sentido dos sub-produtos agro-industriais analisados poderem constituir uma promissora fonte de compostos polifenólicos de custo reduzido, com potencial para aplicação em formulações dermocosméticas. Estudos futuros serão efectuados para avaliar o potencial destes resíduos como ingrediente antioxidante.
Resumo:
O objetivo principal deste trabalho é apresentar um método recursivo para a determinação da resposta forçada de sistema de segunda ordem na forma de uma íntegra de concolução, proveniente da utilização de propriedades de transição da resposta impulso de tais sistemas. Descrevem-se também diversos métodos analíticos e numéricos desenvolvidos para o cálculo da resposta forçada, bem como as limitações de cada método. As vantagens do método recursivo proposto são notáveis já que não é requerido o cálculo de autovalores das matrizes nem a redução à primeira ordem, e nem o uso de hipóteses adicionais sobre natureza dos coeficientes matriciais do sistema. Como aplicação do método proposto, considera-se o cálculo da resposta dinâmica de estruturas flexíveis sujeitas a excitações arbitrárias tais como terremotos.
Resumo:
Este estudo foi motivado pela possibilidade de se empregar os conhecimentos da engenharia mecânica na solução de problemas de engenharia de alimentos por métodos numéricos, assim como pela utilização da dinâmica dos fluidos computacional (CFD) em mais um campo de pesquisa. A idéia básica foi a aplicação do método de elementos finitos na solução de problemas de escoamentos envolvendo mistura de diferentes componentes. Muitos alimentos apresentam-se como fluidos, e seu comportamento material pode ser newtoniano ou não newtoniano, às vezes descrito por relações constitutivas bastante complexas. Utilizou-se uma teoria de misturas apoiada nos conceitos de mecânica do contínuo para a modelagem mecânica do que se passou a considerar como um sistema multicomponente. Necessitou-se de uma detalhada revisão sobre os postulados clássicos da mecânica para que se pudesse recolocá-los, com alguma segurança e embasamento teórico, para sistemas multicomponentes. Tendo em mãos a modelagem do balanço de momentum e massa em sistemas multicomponentes, pôde-se aproximar estas equações através do método de elementos finitos. A literatura aponta que o método clássico de Galerkin não possui a eficiência necessária para a solução das equações de escoamento, que envolvem uma formulação mista onde se faz necessário tomar compatíveis os subespaços de velocidade e pressão, e também devido à natureza assimétrica da aceleração advectiva, o que também aparece como uma dificuldade na solução de problemas de advecçãodifusão, nos casos de advecção dominante. Assim, fez-se uso do método estabilizado tipo GLS, o qual supera as dificuldades enftentadas pelo método de Galerkin clássico em altos números de Reynolds, adicionando termos dependentes da malha, construídos de forma a aumentar a estabilidade da formulação de Galerkin original sem prejudicar sua consistência. Os resultados numéricos dividem-se em três categorias: problemas de transferência de quantidade de movimento para fluidos newtonianos, problemas de transferência de quantidade de movimento para fluidos com não linearidade material e problemas de advecção e difusão de massa em misturas. A comparação de algumas aproximações obtidas com as de outros autores se mostraram concordantes. A aproximação de problemas de fluidos segundo os modelos Carreau e Casson geraram os resultados esperados. A aproximação de um problema de injeção axial com mistura de dois fluidos produziu resultados coerentes, motivando a aplicação prática da aproximação por métodos estabilizados de problemas de misturas.
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos em diferentes tarefas. Estes sistemas são capazes de reconhecer padrões previamente ensinados em uma imagem complexa. A leitura automática é uma das mais atraentes tarefas nesta área [1], sendo que uma máquina com esta capacidade pode reconhecer objetos que possuam caracteres em sua identificação. Na área de trânsito, a identificação de veículos através da leitura de sua placa de licença vem conquistando cada vez mais espaço. No início dos anos cinqüenta, este conceito era usado para estudar o tempo de duração de viagens entre origem e destino. Os primeiros métodos utilizados eram baseados em observadores que anotavam as placas dos veículos e os tempos correspondentes em um papel ou fita gravada. As placas eram manualmente comparadas mais tarde, e os tempos de viagem calculados [2]. O crescente avanço tecnológico tem aumentado substancialmente a precisão e facilidade desta técnica permitindo sua utilização na identificação de veículos infratores e em situação irregular, e no controle de pedágios e estacionamentos pagos Este trabalho envolve o estudo de diversas técnicas de processamento e análise de imagem culminando no desenvolvimento de um sistema capaz de localizar e reconhecer os caracteres contidos numa placa de licença de um veículo. A imagem é previamente analisada por um algoritmo de procura por variações tonais padronizadas de maneira a restringir a área de análise do algoritmo principal do sistema. Este, por sua vez, binariza a imagem através de um algoritmo adaptativo e busca elementos que possuam dimensões próximas às dimensões esperadas dos caracteres da placa. O sistema busca encontrar uma seqüência de caracteres de dimensões aproximadamente iguais e para isso, varia um valor de limiar no processo de binarização conferindo maior robustez ao algoritmo. Uma vez encontrado um grupo de dígitos que satisfaçam alguns critérios prédefinidos, os caracteres são redimensionados e apresentados a duas redes neurais, uma para as letras e outra para os números.
Resumo:
Com objetivo de comparar duas metodologias de inspeção visual de pavimentos asfálticos para utilização em área urbana foram realizadas avaliações em 104 seções viárias, tanto utilizando-se o método Vizir quanto o método SHRP de avaliação de pavimentos. Os resultados foram comparados através de testes t, Qui-quadrado e correlação linear simples. Em ambos os métodos foram também levantados o tempo de aplicação do método e avaliação de confiabilidade através de correlação linear simples, proporção geral de concordância e testes Kappa. A proporção geral de concordância da nota final no método Vizir foi de 0,55, enquanto a proporção geral de concordância da nota final no método SHRP foi de 0,95. As áreas totais acometidas por defeitos não apresentaram diferença significativa entre os dois métodos. A correlação entre as áreas de defeitos foi de 0,41. Foi realizada também a comparação entre as notas finais do estado dos pavimentos pelos dois métodos, que demonstraram uma diferença significativa. Estes resultados demonstraram que o método SHRP foi mais confiável que o método Vizir, no presente trabalho. Também concluiu-se que as notas finais nos dois métodos de avaliação visual não são equivalentes entre si.
Resumo:
A caracterização de desempenho e uma atividade fundamental na area de controle industrial. Por se tratar, na maior parte das vezes, de aplicações de tempo real, a caracterização de desempenho torna-se ainda mais necessária e importante. Entretanto, atualmente não há nenhuma metodologia estabelecida para realizar esta caracterização. Não há nem mesmo um conjunto de parâmetros que devem ser avaliados em um equipamento de controle utilizado em processos industriais. Para tentar suprir esta carência, este trabalho apresenta uma proposta de métricas e workloads para serem utilizados na avaliação de desempenho de sistemas de controle baseados em CLPs e CPUs Industriais. O processo de avaliação de desempenho e discutido em todas as etapas, desde o estudo da aplicação at e a execução dos passos de caracterização de desempenho. Para ilustrar a aplicação das métricas, técnicas e procedimentos propostos, são avaliadas três CPUs Industriais, e os resultados s~ao apresentados ao nal do trabalho. Espera-se assim estar contribuindo para o estabelecimento de uma metodologia padronizada para avaliação de desempenho de equipamentos de controle industrial.
Resumo:
A Engenharia de Conhecimento (Knowledge Engineering - KE) atual considera o desenvolvimento de Sistemas Baseados em Conhecimento (Knowledge- Based Systems - KBSs) como um processo de modelagem baseado em modelos de conhecimento reusáveis. A noção de Métodos de Solução de Problemas (Problem- Solving Methods - PSMs) desempenha um importante papel neste cenário de pesquisa, pois representa o conhecimento inferencial de KBSs em um formalismo explícito. Não menos importante, PSMs também facilitam a compreensão do processo de raciocínio desenvolvido por humanos. PSMs são descritos em um formalismo abstrato e independente de implementação, facilitando a análise do conhecimento inferencial que muitas vezes é obscurecido em grandes bases de conhecimento. Desta forma, este trabalho discute a noção de PSMs, avaliando os problemas de pesquisa envolvidos no processo de desenvolvimento e especificação de um método, como também analisando as possibilidades de aplicação de PSMs. O trabalho apresenta a descrição e análise de um estudo de caso sobre o processo de desenvolvimento, especificação e aplicação de um PSM Interpretação de Rochas. As tarefas de interpretação de rochas são desenvolvidas por petrógrafos especialistas e correspondem a um importante passo na caracterização de rochasreservatório de petróleo e definição de técnicas de exploração, permitindo que companhias de petróleo reduzam custos de exploração normalmente muito elevados. Para suportar o desenvolvimento de KBSs neste domínio de aplicação, foram desenvolvidos dois PSMs novos: o PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos. Tais métodos foram especificados a partir de uma análise da perícia em Petrografia Sedimentar, como também a partir de modelos de conhecimento e dados desenvolvidos durante o projeto PetroGrapher. O PSM Interpretação de Rochas e o PSM Interpretação de Ambientes Diagenéticos são especificados conceitualmente em termos de competência, especificação operacional e requisitos/suposições. Tais definições detalham os componentes centrais de um esquema de raciocínio para interpretação de rochas. Este esquema é empregado como um modelo de compreensão e análise do processo de raciocínio requerido para orientar o desenvolvimento de uma arquitetura de raciocínio para interpretação de rochas. Esta arquitetura é descrita em termos de requisitos de armazenamento e manipulação de dados e conhecimento, permitindo projetar e construir um algoritmo de inferência simbólico para uma aplicação de bancos de dados inteligentes denominada PetroGrapher.
Resumo:
O presente trabalho é dedicado ao estudo de métodos de simulação para ciclos de Rankine. O trabalho é iniciado com a modelagem de um ciclo de Rankine simples e segue evoluindo para configurações mais complexas tal como o ciclo de Rankine com reaquecimento e regeneração. São adotadas as considerações mais convencionais da prática de projeto de centrais termelétricas cujos sistema térmicos baseiam-se no ciclo de Rankine, incluindo-se queda de pressão em tubulações do circuito além de outras perdas. Em seguida, são estabelecidas as expressões matemáticas que possibilitam a determinação das propriedades termodinâmicas da água em seus mais diversos estados ao longo do ciclo. Por último, são desenvolvidos métodos de simulação, chamados neste trabalho de Substituição Sucessiva e Bloco Único, que caracterizam-se pela resolução simultânea do conjunto de equações algébricas dos ciclos elaborados. As simulações são efetuadas através de programas escritos na linguagem Fortran. Os métodos de simulação são aplicados para a obtenção dos resultados considerados mais importantes na análise de sistemas térmicos de potência, tais como rendimento térmico do ciclo, título na saída da turbina, vazões mássicas pelo sistema, potência nas bombas e calor trocado no gerador de vapor e no condensador Na maioria das simulações, estes resultados apresentam-se como funções da: (1) potência elétrica requerida, eficiência isentrópica e pressões na turbina; (2) eficiência térmica, pressão e temperatura no gerador de vapor; (3) pressão e grau de subresfriamento do líquido saturado no condensador e (4) eficiência isentrópica das bombas. São obtidos os mesmos resultados para os métodos de simulação utilizados. O método da Substituição Sucessiva apresentou menor tempo computacional, principalmente para configurações de ciclo mais complexas. Uma aplicação alternativa do método de Bloco Único demonstrou ser inconveniente para ciclos de configurações mais complexas devido ao elevado tempo computacional, quando todas as equações de cálculo das propriedades termodinâmicas são incluídas no sistema de equações a ser resolvido. Melhores rendimentos térmicos e título na saída da turbina foram obtidos para configurações de ciclo de Rankine com reaquecimento e regeneração.
Resumo:
Nos últimos anos, um grande esforço tem sido despendido no estudo de formas de representar documentos textuais, chamados semi-estruturados, objetivando extrair informações destes documentos com a mesma eficiência com que essas são extraídas de bancos de dados relacionais e orientados a objetos. A pesquisa, em dados semi-estruturados, tornou-se fundamental com o crescimento da Web como fonte e repositório de dados, uma vez que os métodos de pesquisa existentes, baseados em navegação e busca por palavra-chave, mostraram-se insuficientes para satisfazer as necessidades de consulta em escala cada vez maior. Com o surgimento da XML, e a tendência de se tornar a linguagem padrão na Web, fez com que a representação de informações fosse dirigida para este novo padrão, porque disponibiliza um bom intercâmbio de informações e a produção de documentos eletrônicos. Existe a necessidade de se disponibilizar os documentos e as informações na rede em formato Web, HTML ou XML. Sendo assim, consultar documentos XML representa um desafio para a comunidade de pesquisa em banco de dados, pois implica em disponibilizar os grandes volumes de dados já existentes em formato XML, surgindo a necessidade de ferramentas de consulta que sejam ao mesmo tempo, flexíveis o suficiente para compreender a heterogeneidade dos documentos e, poderosas ao ponto de extraírem informações com rapidez e correção. Este trabalho apresenta uma abordagem sobre a linguagem XML, sua importância, vantagens, principais aplicações e as linguagens de consulta para dados XML. Após, é detalhada uma aplicação para Web utilizando a tecnologia XML, baseado em Ontologias, e a sua disponibilização na Web. A aplicação desenvolvida utilizou XML e linguagens de consulta para XML e com suporte a XML, baseando-se em Ontologias, com o objetivo de permitir consultas e o armazenamento de informações referentes aos alunos concluintes de determinados cursos da Universidade da Região da Campanha - Urcamp/Bagé, colocando à disposição da Universidade uma nova ferramenta, que disponibiliza informações referentes aos cursos em questão, utilizando uma nova tecnologia, que tende a tornar-se padrão na Web.
Resumo:
Neste trabalho foram avaliadas as propriedades de resistência e deformabilidade de misturas solo-cimento-fibra. O estudo experimental consistiu de duas etapas, denominadas de etapa de laboratório e etapa de campo. Na etapa de laboratório foi verificada a influência da adição de fibras de polipropileno no comportamento tensão x deformação de um solo arenoso cimentado e não cimentado. Ensaios de resistência à compressão triaxial foram realizados para avaliar os efeitos da porcentagem de fibras, do comprimento das fibras, do diâmetro das fibras, da porcentagem de cimento, da densidade relativa, da tensão de confinamento e da distribuição granulométrica no comportamento do compósito. Na etapa de campo, o comportamento carga x recalque do solo arenoso cimentado reforçado com fibras foi avaliado, juntamente com os mecanismos de ruptura de cada compósito, através da execução de ensaios de placa de 0,30 m e 0,60 m de diâmetro sobre camadas tratadas de 0,30 m de espessura. Os métodos propostos por Vesic (1975), Meyerhof & Hanna (1978) e Thomé (1999) foram utilizados para a previsão da capacidade de suporte das camadas tratadas em campo A partir dos resultados obtidos chegou-se às seguintes conclusões: (1) a influência da inclusão de fibras sobre as propriedades mecânicas do compósito depende fundamentalmente das propriedades da matriz; (2) a porcentagem de cimento e a tensão de confinamento exercem forte influência no comportamento mecânico do material compósito; (3) o efeito da inclusão de fibras é mais evidente para maiores comprimentos e maiores teores de fibras, sendo seu efeito mais pronunciado para materiais compósitos com maiores densidades; (4) a influência das fibras na resistência de pico e última do material depende também do diâmetro das fibras e da distribuição granulométrica do solo; (5) O comportamento carga x recalque do solo cimentado é influenciado pela adição das fibras, alterando principalmente o comportamento pós-pico e o mecanismo de ruptura; (6) os valores de previsão da capacidade de suporte das camadas cimentadas, com e sem reforço de fibras, apresentam boa aproximação com os valores experimentais.
Resumo:
A aquisição do ciclo pressão-volume é de grande importância para diagnóstico de cardiopatias e principalmente para o acompanhamento de intervenções terapêuticas, porém os métodos hoje utilizados são caros e agressivos ao paciente, reduzindo por estes motivos sua aplicação. Este estudo pretende obter, por métodos não-invasivos, o ciclo pressão-volume do ventrículo esquerdo de pacientes humanos. Isto consiste na aquisição dos sinais P(t) e V(t) simultaneamente e a apresentação de um gráfico P(V). Para tanto, após a revisão bibliográfica, decidiu-se utilizar a ecocardiografia com detecção automática de bordos, para obtenção do volume ventricular e a medição da onda de pressão transmitida através da artéria braquial para um manguito inflado com ar, conectado a um transdutor piezo-resistivo em ponte. A aquisição da pressão pelo método não-invasivo é comparada a dados resultantes da aquisição invasiva da pressão arterial por catéter intra-aórtico que é considerado padrãoouro. Os sinais são condicionados e digitalizados em uma placa de aquisição com conversor A/D de 8 bits e micro controlador 80c196. Os dados digitalizados são então enviados serialmente para um computador onde são gerados os gráficos. Obteve-se de cinco pacientes nove aquisições simultâneas da pressão invasiva através de catéter intra-aórtico e do protótipo desenvolvido resultando concordância segundo o método de Bland e Altman (1986) (r=0,989; d + 2s= 6,52; d - 2s =-6,07), comprovando a eficiência do método de aquisição. Obteve-se resultado satisfatório também quanto à operação sistema desenvolvido pois foram realizadas dez aquisições em cinco pacientes, registrando-se gráficos bastante similares aos apresentados na literatura disponível.
Resumo:
No processo de classificação de uma imagem digital, o atributo textura pode ser uma fonte importante de informações. Embora o processo de caracterização da textura em uma imagem seja mais difícil, se comparado ao processo de caracterização de atributos espectrais, sabe-se que o emprego daquele atributo pode aumentar significativamente a exatidão na classificação da imagem. O objetivo deste trabalho de pesquisa consiste em desenvolver e testar um método de classificação supervisionado em imagens digitais com base em atributos de textura. O método proposto implementa um processo de filtragem baseado nos filtros de Gabor. Inicialmente, é gerado um conjunto de filtros de Gabor adequados às freqüências espaciais associadas às diferentes classes presentes na imagem a ser classificada. Em cada caso, os parâmetros utilizados por cada filtro são estimados a partir das amostras disponíveis, empregando-se a transformada de Fourier. Cada filtro gera, então, uma imagem filtrada que quantifica a freqüência espacial definida no filtro. Este processo resulta em um certo número de imagens filtradas as quais são denominadas de "bandas texturais". Desta forma, o problema que era originalmente unidimensional passa a ser multi-dimensional, em que cada pixel passa a ser definido por um vetor cuja dimensionalidade é idêntica ao número de filtros utilizados. A imagem em várias "bandas texturais" pode ser classificada utilizando-se um método de classificação supervisionada. No presente trabalho foi utilizada a Máxima Verossimilhança Gaussiana. A metodologia proposta é então testada, utilizandose imagens sintéticas e real. Os resultados obtidos são apresentados e analisados.