124 resultados para Método de censo para avifauna
Resumo:
Este trabalho apresenta o estudo e projetação de uma sala de controle de uma central de geração de energia de uma mineradora do norte do Brasil. Foi utilizada a ferramenta participativa Design Macroergonômico (DM) para a identificação da demanda ergonômica de usuários, além da análise da representação mental que os usuários tem do seu ambiente de trabalho. Foi feita a comparação das demandas dos usuários, da gerência, da chefia e do especialista, o que mostrou que o usuário é quem melhor define as suas necessidades. A etapa de projeto foi embasada na revisão biliográfica sobre o trabalho de controle e no conhecimento da equipe multidisciplinar. Para avaliação e visualização das propostas elaboradas pelos participantes da pesquisa, foi utilizado uma maquete eletrônica que permitiu a visualização do ambiente futuro o mais próximo do real. A participação é um fator de sucesso na aprovação de mudanças pois o projeto está em vias de implantação.
Resumo:
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
Resumo:
Este trabalho tem como objeto de estudo dois romances – O Reino deste Mundo e O Recurso do Método, do escritor cubano Alejo Carpentier, precursor do real maravilhoso, sob uma perspectiva comparatista a partir das teorias e noções que são de interesse da literatura comparada, como o processo de transculturação na América Latina, a intertextualidade, a descolonização cultural, a carnavalização do seu discurso, a desterritorialização, o hibridismo cultural e literário, a busca da identidade cultural e da consciência latino-americana no contexto sócio-político, histórico e cultural no qual essas obras se inserem. Fundamenta-se esse estudo nas contribuições de dois teóricos latino-americanos, o etnólogo cubano Fernando Ortíz, pioneiro do conceito de transculturação, e o crítico literário uruguaio Ángel Rama, teórico da transculturação narrativa na América Latina. Destaca-se, ainda, a relevância que o ato tradutório, em geral, e a tradução literária, em particular, têm como mediadores interculturais, apontando-se algumas questões de tradução cultural nas traduções das obras para o português e o importante papel do tradutor em obras dessa natureza.
Resumo:
Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.
Resumo:
Este trabalho teve como objetivos: determinar, para suínos, os valores de ED e EM de farinhas de sangue e farinhas de víceras, obtidas por diferentes processamentos, com base na EB e na digestibilidade da proteína e da gordura; estimar valores de ED e EM de farinhas de sangue e de víceras, pela soma das energias da proteína e da gordura digestíveis destas fontes; estudar influências da origem e do tipo de processamento sobre os valores energéticos das farinhas de origem animal; gerar dados para atualizar tabelas de composição química e valores energéticos de alimentos para suínos.
Resumo:
O estudo dos mecanismos de fadiga por contato tem grande relevância para o estudo dos componentes mecânicos que estão sujeitos ao desgaste. O desgaste é um tipo de falha que ocorre na maioria dos componentes que trabalham em contato. Atualmente para prever o desgaste são utilizados métodos experimentais que permitem ajustar curvas semi-empíricas, ou seja, o resultado depende de vários testes que além de caros são demorados. Com o aumento da competitividade na indústria, o tempo se tornou artigo de luxo e com isso o aprimoramento dos modelos de cálculo e das simulações numéricas são muito bem justificados. O estudo aprofundado do mecanismo de fratura por contato sem dúvida pode dar subsídios para um melhor projeto do componente mecânico e assim conseguir predizer com maior precisão quando a falha por desgaste ocorrerá e assim evitar falhas catastróficas e paradas de máquinas não programadas gerando grandes prejuízos e também risco de vidas humanas Este estudo apresenta um modelo numérico utilizando o método dos elementos finitos computacional para a simulação do spalling em componentes mecânicos sujeitos à fadiga de contato. O modelo foi simplificado para duas dimensões e foi considerado estado plano de deformações. Este estudo apresenta uma aproximação na aplicação dos conceitos da Mecânica da Fratura para estimar a vida de componentes mecânicos. O resultado do modelo numérico é confrontado qualitativamente com resultados práticos. A geometria dos pits assim como as relações entre o Fator de intensidade de tensões e o tamanho da trinca é apresentado.
Resumo:
Este trabalho de conclusão apresenta um método e uma ferramenta para avaliação da maturidade e da capacitação de ambientes de desenvolvimento de software baseado no uso da abordagem Goal/Question/Metric-GQM combinada aos métodos tradicionais de avaliação já existentes para o modelo Capability Maturity Model-CMM. A aplicação deste método através da ferramenta proposta permitirá a organização avaliada estabelecer o grau de conformidade preliminar dos seus processos em relação às exigências do modelo CMM. Esta avaliação poderá ser utilizada como ponto de partida para o estabelecimento de um processo de melhoria. O modelo CMM descreve uma série de estágios de maturidade que são atingidos através da satisfação de metas estabelecidas para áreas-chave do processo de desenvolvimento de software da organização. A evolução deste modelo, chamada de CMMI, Capability Maturity Model Integrated, possibilita que as organizações optem pela forma de implementação do modelo. Esta opção pode se dar através do uso do CMMI em estágios, vertical utilizando os níveis tradicionais do modelo, ou contínua; horizontal baseada nas áreas-chave de processo. Da mesma forma, a avaliação pode ser realizada sobre qualquer modelo escolhido. O modelo GQM descreve uma estrutura hierárquica baseada na existência de metas de melhoria preestabelecidas das quais são extraídas métricas e questões que as satisfazem. O nível de satisfação dessas metas é obtido através da análise das métricas relativas às questões aplicadas ao foco da avaliação Algumas ferramentas para avaliação dos processos relativos ao modelo CMM são apresentadas, tais como o questionário da maturidade e os modelos existentes para a criação de métodos de avaliação, CMM Apraisal Framework-CAF e Apraisal Requirements for CMMI-ARC. O diferencial apresentado é o estabelecimento de métricas objetivas e regras de interpretação dessas para a definição da satisfação de uma determinada área-chave de processo, ACP, do nível 2 do modelo CMMI. Além dessas contribuições vale destacar o estabelecimento de questões adicionais ao questionário da maturidade com o objetivo de capturar essas métricas e a criação de grafos GQM para cada ACP do nível 2 do CMMI. Esses grafos permitem a visualização do relacionamento existente entre cada ACP do nível 2 do CMMI com suas metas, questões e métricas. A aplicação do método e da ferramenta será demonstrada através da utilização de um estudo de caso aplicado na empresa DWA Informática Ltda.
Resumo:
Neste trabalho apresenta-se uma solu c~ao para um problema abstrato de Cauchy. Basicamente, d a-se uma formula c~ao abstrata para certos tipos de equa c~oes diferenciais parciais n~ao lineares de evolu c~ao em espa cos de Nikol'skii, tais espa cos possuem boas propriedades de regularidade e resultados de imers~ao compacta, num certo sentido s~ao intermedi arios entre os espa cos de Holder e os espa cos de Sobolev. Aplicando o m etodo de Galerkin, prova-se resultados de exist^encia global de solu c~oes fracas, como tamb em a exist^encia de solu c~oes fracas com a propriedade de reprodu c~ao. E impondo mais hip oteses sobre os operadores envolvidos demonstra-se unicidade de solu c~oes fracas.
Resumo:
Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.
Resumo:
A concepção dos sistemas eletrônicos previstos para o futuro próximo implica em uma atividade multidisciplinar, a qual demanda, para o projeto de sistemas eletrônicos, o uso de métodos e técnicas provenientes de diversos domínios do conhecimento humano. Esses domínios podem variar desde a especificação de aplicações, até a realização física de circuitos integrados. A constante evolução dos processos de fabricação de circuitos integrados permite a criação de circuitos bastante complexos, seja em relação ao número de componentes eletrônicos e de suas inter-relações, seja em relação à heterogeneidade funcional presente nas aplicações alvo, previstas para estes sistemas. Para os próximos anos está prevista a possibilidade da inclusão de mais de um bilhão de transistores em uma única pastilha de silício, inaugurando a era da “gigaescala”. Devido a essa situação, a comunidade científica vem demonstrando preocupação em relação às novas técnicas que se fazem necessárias para a concepção dos “gigacircuitos”. Essas técnicas envolvem o uso de diferentes níveis de abstração na concepção e análise das funcionalidades da aplicação alvo, além de abordagens para explorar o grande espaço de busca, inerente à disponibilidade de um grande número de componentes para a implementação da arquitetura alvo, a qual deve ser otimizada para as restrições de projeto. As idéias apresentadas nesse trabalho vão de encontro à necessidade por novas técnicas para a concepção de circuitos eletrônicos complexos. Este trabalho procura contribuir para que esta classe de circuitos possa tornar-se realidade em um futuro próximo, avalizando a disponibilidade de informação, de entretenimento e de serviços para a sociedade. Para tanto, um novo método é proposto, onde um fluxo de projeto considera as ferramentas necessárias para a exploração do espaço de busca em componentes de processamento e de comunicação, visando à sua otimização. As ferramentas seguem os princípios do projeto baseado em plataformas, onde componentes podem ser reutilizadas para aplicações da mesma classe, em diferentes níveis de abstração. Além disso, os princípios da especificação baseada em interface são considerados, visando explicitar a especificação de funcionalidades heterogêneas para componentes arquiteturais, bem como permitir a avaliação dinâmica do comportamento destes.
Resumo:
Neste trabalho é descrito um método automático para o cálculo das dimensões de caixas, em tempo real, a partir de uma única imagem obtida com projeção perspectiva. Conhecendo a orientação da caixa no espaço tridimensional e sua distância em relação à câmera, as coordenadas 3D de seus vértices podem ser estimadas e suas dimensões calculadas. Na técnica proposta, são utilizados conceitos de geometria projetiva para estimar a orientação espacial da caixa de interesse a partir de sua silhueta. Já a distância da caixa em relação à câmera é estimada por meio da projeção de feixes de laser sobre uma das faces visíveis da caixa. Esta abordagem pode ser aplicada quando duas ou três faces da caixa de interesse são visíveis simultaneamente na imagem, mesmo quando a caixa encontra-se parcialmente oclusa por outros objetos na cena. Entre as contribuições deste trabalho está o desenvolvimento de um eficiente processo de votação para a transformada de Hough, onde os pixels de uma imagem binária são processados em grupos ao invés de individualmente, como ocorre no método convencional. Também é apresentado um modelo estatístico para a remoção de fundo de cena. Nesse modelo, a cor de fundo é representada sob diferentes condições de iluminação por meio da delimitação de uma região no espaço de cores RGB. O modelo proposto não requer parametrização e é próprio para o uso em aplicações que requeiram câmeras móveis. Para a validação das técnicas descritas neste trabalho, foi construído um protótipo de scanner que calcula as dimensões de caixas a partir de imagens em tempo real. Com o auxilio do scanner, foram capturadas imagens e calculadas as dimensões de diversas caixas reais e sintéticas. As caixas sintéticas foram utilizadas em um ambiente controlado para a validação das técnicas propostas Um dos aspectos importantes deste trabalho é a análise da confiabilidade das medidas obtidas por meio da técnica proposta. Com o objetivo de estudar a propagação de erros ao longo do processo de cálculo das medidas, foi aplicado um método analítico baseado na Teoria de Erros. Também são apresentados estudos estatísticos envolvendo medições realizadas com o protótipo. Estes estudos levam em conta a diferença entre as medidas calculadas pelo sistema e as medidas reais das caixas. A análise dos resultados permite concluir que o método proposto é acurado e preciso.
Resumo:
A presente dissertação tem por objetivo desenvolver uma reflexão sobre a relação entre método e escrita da história a partir da análise dos escritos de João Capistrano de Abreu. A hipótese que orienta a leitura de sua obra é a de que os dispositivos da crítica documental, praticada pelos historiadores do século XIX, ao mesmo tempo em que conferem as marcas de credibilidade ao texto histórico, também impõem coerções e limites incontornáveis à sua construção. O estudo do caso Capistrano oferece a possibilidade de investigar alguns desdobramentos epistemológicos desta questão, sobretudo em um momento em que a história nacional investiu-se de pretensões científicas, com diretrizes teóricas e temáticas próprias. A história em capítulos do historiador corresponderia à instauração de um novo regime de escrita cujos dispositivos de validação não se encontrariam exclusivamente na explicitação do aparato crítico utilizado, mas na coerência explicativa própria do texto que ele elaborou.
Resumo:
A previsão da capacidade de carga de estacas constitui-se um dos desafios da engenharia de fundações por requerer, na teoria, a estimativa de propriedades do solo, suas alterações pela execução da fundação e o conhecimento do mecanismo de interação solo-estaca. Devido à dificuldade de reproduzir analítica e numericamente o mecanismo de interação solo-estaca, a prática brasileira faz uso correlações empíricas, relacionando diretamente os resultados do ensaio SPT com o desempenho do elemento de fundação. Apesar da grande contribuição dos métodos tradicionalmente utilizados, a sua validade está limitada à prática construtiva regional e às condições específicas dos casos históricos utilizados em seu estabelecimento. Com o objetivo de incorporar à engenharia de fundações brasileira um novo método de previsão de capacidade de carga de estacas, obtido diretamente a partir de ensaios SPT, desenvolveu-se nesta pesquisa uma metodologia baseada na interpretação do ensaio SPT sugerida por Odebrecht (2003). À luz desta nova interpretação, utiliza-se a força dinâmica de reação do solo à cravação do amostrador SPT para estimar a capacidade de carga de estacas, relacionando os mecanismos de mobilização de resistência do amostrador (modelo) com os da estaca (protótipo). No intuito de validar a metodologia proposta, organizou-se neste trabalho, um expressivo banco de dados compostos por 325 provas de carga à compressão e 43 provas de carga à tração, executadas em diferentes regiões do país. Das provas de carga à compressão, 132 casos são de estacas cravadas pré-moldadas de concreto, 28 de estacas metálicas, 95 de estacas hélice contínua e 70 casos de estacas escavadas. Já nas provas de carga à tração, 3 casos são de estacas cravadas pré-moldadas, 31 de estacas hélice contínua e 9 casos de estacas escavadas. Conclui-se a partir de análises comparativas entre cargas previstas e medidas que o método proposto é capaz de prever de forma satisfatória a capacidade de carga de estacas. Uma análise estatística dos dados possibilitou atribuir à estimativa de capacidade de carga, um intervalo de confiança das previsões, baseado na confiabilidade requerida para o projeto.
Resumo:
Neste trabalho, apresenta-se um estudo numérico de um modelo convectivo-difusivo-reativo em combustão baseado no Método de Elementos Finitos. Primeiramente, apresenta-se o desenvolvimento das equações de balanço (quantidade de movimento, massa, espécie e energia) que modelam um processo de mistura molecular e reação química, irreversível, de passo único e exotérmica entre duas espécies químicas F (Combustível) e O (Oxidante). Tais espécies reagem e formam um produto P, conforme vFF +vOO ! vPP + calor, onde vF , vO e vP são os coeficientes estequiométricos molares. No modelo, considera-se que a reação é de primeira ordem com respeito a cada um dos reagentes e que a taxa de reação específica segue a cinética de Arrhenius. Em seguida, o modelo é estudado numericamente considerando-se um domínio retangular e condições de contorno do tipo Neumann. Tanto a Técnica das Diferenças Finitas como a Técnica de Elementos Finitos são utilizadas na discretização espacial das equações do modelo. Para a integração no tempo, utiliza-se a método de Runge-Kutta simplificado de três estágios. Os diferentes códigos computacionais obtidos, tanto pela Técnica de Diferenças Finitas como de Elementos Finitos, são comparados frente ao problema de interesse. Observa-se que ambas as técnicas apresentam resultados equivalentes. Além disso, os códigos desenvolvidos são robustos (capazes de lidar com vários conjuntos de parâmetros), de baixo custo e precisos. Por fim, apresenta-se uma revisão do trabalho de Zavaleta [48], no qual obtem-se uma estimativa local do erro na aproximação do problema estudado pela Técnica de Elementos Finitos.
Resumo:
Nos últimos dez anos, milhares de trabalhos foram publicados somente no desenvolvimento da técnica de eletroforese capilar (CE) e suas aplicações em ciências biológicas, química e em outras áreas. Apesar disto, muitos tópicos de pesquisa básica da CE ainda continuam sendo desenvolvidos. Algumas vantagens da CE sobre as demais técnicas de separação são marcantes, tais como: possibilidade de automação, rapidez na obtenção dos resultados e alto poder de resolução. A pequena quantidade de amostra que é necessária para uma análise é uma característica muito interessante no estudo de sistemas biológicos, sendo que normalmente são injetados no capilar, volumes de 5 a 50 nl de amostra. Por outro lado, esta reduzida quantidade de amostra utilizada, a pequena janela de detecção e as baixas concentrações dos analitos nas amostras biológicas, são fatores que desafiam os pesquisadores nesta área. Para contornar este problema diversos métodos de pré-concentração de amostra foram desenvolvidos. Neste trabalho, foi desenvolvido um método inédito de pré-concentração de amostras através de gradientes térmicos em CE. O princípio do método é concentrar o analito quando ele passa de uma zona de alta temperatura para uma zona de baixa temperatura. Um modelo teórico foi desenvolvido para auxiliar o planejamento experimental no que diz respeito à determinação das condições em que a corrida deve ser realizada (pH, tipo de tampão, temperatura) para aplicar a compressão térmica em um analito. Foi utilizado L-Lisina derivatizada com naftaleno 2,3-dicarboxialdeído (Lys/NDA) como analito modelo. Uma diferença de temperatura de 58 °C entre as duas zonas térmicas foi suficiente para comprimir em 2,5 vezes a banda da Lys/NDA em um tampão de baixo coeficiente térmico com o pH ajustado para 8,7. O método de compressão de banda por gradientes térmicos proposto neste trabalho é uma nova opção para aumentar a sensibilidade e a resolução em CE. Ao contrário dos métodos clássicos de pré-concentração, esse novo método pode ser aplicado em amostras tanto com alta ou baixa condutividade iônica, comprimir bandas de analitos aniônicos ou catiônicos e ser aplicado em corridas em solução livre ou não. Além disso, considerando que o controle de temperatura seja realizado de maneira automatizada, pode apresentar altas taxas de reprodutibilidade, além de ser de simples e de fácil aplicação, podendo ser empregado em análises de rotina. Diferentes LEDs (Light Emitting Diode) foram testado em detector por fluorescência induzida por LED. Além disso, um novo sistema de aquisição de dados e tratamento de sinal utilizando a placa de som de um PC (Personal Computer) e um amplificador Lock-in emulado por software foi montado e comparado com um sistema de aquisição de dados convencional. O equipamento de CE utilizado neste trabalho com esses componentes, apresentou uma elevada sensibilidade, na faixa de 0,5 à 1 fmol para os peptídeos e aminoácidos testados e foi superior ao sistema convencional em vários aspectos como: sensibilidade de detecção, faixa linear de detecção em concentração do analito, facilidade de operação e custo do sistema.