887 resultados para Comparação entre métodos de análise


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho analisa as transformações ocorridas nos sistemas de produção dos agricultores produtores de leite do município de Jóia, que tiveram seus rebanhos sacrificados devido a ocorrência da febre aftosa, em 2000. Os dados para a composição, análise e comparação dos sistemas de produção foram coletados junto a 40 agricultores e contemplam informações agronômicas e sócio-econômicas do período anterior e posterior a ocorrência da doença. Como ponto de partida tomou-se unidades de produção que implementavam a produção de leite e derivados para a comercialização, antes da ocorrência da doença. A partir de uma metodologia fundamentada na Abordagem Sistêmica, o presente estudo consistiu basicamente numa análise histórica do município a partir da evolução e diferenciação dos Sistemas Agrários e, na descrição, comparação e análise dos sistemas de produção da região diretamente impactada pela febre aftosa no município. Como resultados, constatou-se que o município de Jóia, por razões geográficas, históricas, mas, principalmente, em função da ocupação do meio, evoluiu, ao longo do tempo, sob a égide de dois Sistemas Agrários (Sistema Agrário de Campos e Sistema Agrário de Florestas), cada qual com suas respectivas fases e diferenciações. Quanto aos Sistemas de Produção identificou-se, antes da ocorrência da febre aftosa, três sistemas de criação que envolviam animais para a produção de leite e derivados e seis sistemas de produção que implementavam a produção de leite para fins comerciais, juntamente com o cultivo de grãos seja em pequena, média ou grande escala Após a ocorrência da febre aftosa, identificou-se mais uma vez, três sistemas de criação que envolvem animais leiteiros, cinco sistemas de produção que voltaram a reimplementar a produção de leite para comercialização e três sistemas de produção em que os agricultores não reimplementaram a pecuária de leite em suas respectivas unidades de produção. Passados mais de dois anos da ocorrência da febre aftosa em Jóia, entre os oito sistemas de produção do período posterior à ocorrência febre aftosa, somente dois (SP8 e SP6’) registraram evolução positiva nos indicadores de renda relacionados às atividades agropecuárias, sendo que um deles não mais contempla a produção de leite em escala comercial. Considerando somente o rebanho bovino leiteiro, ocorreram, sistematicamente, a redução dos animais leiteiros e da produção anual em todos os sistemas, um sistema de produção apresentou evolução positiva no efetivo de animais em lactação (SP6’), e um sistema registrou o aumento da produtividade (SP1’). Constatou-se ainda, que na região estudada, apesar da reconhecida importância da pecuária leiteira, a mesma perdeu espaço para a cultura da soja.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A detecção de Salmonella sp. é fundamental nos programas de controle de salmonelose. Métodos de detecção mais eficientes permitem uma melhor determinação do nível de infecção dos rebanhos, um melhor entendimento da epidemiologia da infecção por Salmonella sp. e o desenvolvimento de programas de controle do patógeno, que visem a segurança biológica do alimento. Nos métodos convencionais, o enriquecimento seletivo é uma etapa crítica, pois inibe a microbiota competitiva e permite a multiplicação de Salmonella sp. Vários caldos de enriquecimento seletivo têm sido comparados quanto à eficiência na recuperação de Salmonella sp. a partir de alimentos, contudo existem poucos estudos relativos a fezes de suínos. O objetivo deste trabalho foi comparar caldos de enriquecimento seletivo para o isolamento de Salmonella sp. a partir de fezes de suínos. Numa primeira fase, amostras de fezes foram contaminadas artificialmente e os caldos Rappaport-Vassiliadis incubado a 42°C (RV), Tetrationato Müller-Kauffmann a 37°C (TMK37) e 42°C (TMK42), e Selenito Cistina (SC) a 37°C foram testados, em associação com meios sólidos seletivos: Rambach (RA), Xilose Lisina Tergitol 4 (XLT4), e Verde Brilhante Vermelho de Fenol Lactose Sacarose (VB). Na segunda fase os caldos RV, TMK37 e TMK42, semeados nos meios XLT4 e VB, foram testados com amostras naturalmente contaminadas. Na primeira fase o RV, TMK42 e TMK37 foram mais eficientes que o SC. No isolamento de Salmonella sp. em amostras naturalmente contaminadas os caldos TMK42 e RV foram superiores ao TMK37. O desempenho destes influenciou diretamente a capacidade seletiva e indicadora dos meios sólidos seletivos. No presente estudo, a associação TMK42/XLT4 demonstrou ser mais sensível, e a RV/XLT4 mais específica. O ágar VB também é recomendado para aumentar a probabilidade de detecção do patógeno. Desta forma os caldos RV e TMK42 e o ágar XLT4 e o VB foram considerados os mais indicados para a implantação de protocolos de detecção de Salmonella sp. em fezes suínas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O espessamento intimal e a reestenose que ocorrem após os procedimentos de angioplastia transluminal percutânea e/ou o implante de stents representam uma causa freqüente de falência destes procedimentos. O principal achado patológico responsável pela reestenose parece ser a hiperplasia intimal, já que o dispositivo intravascular é resistente ao remodelamento arterial geométrico. O propósito deste estudo é avaliar, através da morfometria digital, o espessamento intimal presente nas regiões da parede arterial imediatamente proximal e distal ao implante de um stent metálico em configuração em “Z “ não recoberto ou recoberto com PTFE. Vinte e cinco suínos de raça mista, com seis a dez semanas de idade, pesando em média 20 kg foram divididos em três grupos. No grupo I, cinco animais foram submetidos à exposição cirúrgica retroperitoneal da aorta abdominal, aortotomia e manipulação com uma bainha introdutora de 12 F. O grupo II incluiu dez animais que foram submetidos ao implante de um stent metálico auto-expansível não recoberto. No grupo III, incluindo também dez animais, foram implantados stents recobertos com PTFE. Após quatro semanas, todos os animais foram sacrificados e o segmento aorto-ilíaco foi removido. Quatro animais foram excluídos do estudo por trombose da aorta (um animal do grupo II e três animais do grupo III). Para a análise morfométrica foram utilizados os testes não paramétricos de Wilcoxon e de Kruskal-Wallis, para as comparações, respectivamente, no mesmo grupo e entre os grupos. Foi adotado o nível de significância de 5% ( p< 0,05). Quando os espécimes da parede arterial, imediatamente proximal e distal aos stents foram comparados, nenhuma diferença estatisticamente significativa foi encontrada entre as áreas luminal, intimal, média ou índice intimal em cada grupo. Na comparação entre os grupos, as áreas intimal, média e o índice intimal não demonstraram variação estatisticamente significativa. Foram identificadas diferenças entre os grupos quanto às áreas luminais proximais (p = 0,036) e distais (p=0,044). Pelo teste de comparações múltiplas para Kruskal-Wallis (Teste de Dunn) identificou-se diferença significativa entre os grupos I e II. Entretanto, quando estas variáveis foram controladas pelo fator peso (relação área luminal/peso) a diferença não foi mais observada. Concluímos que, após quatro semanas, stents recobertos com PTFE induzem um espessamento intimal justa-stent similar ao observado com stents não recobertos ou com a simples manipulação arterial com uma bainha introdutora. Neste modelo experimental suíno, de curto seguimento, o revestimento com PTFE não foi responsável por adicional espessamento intimal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O tema central deste trabalho é o Planejamento, Programação e Controle da Produção na indústria, com o auxílio de uma ferramenta computacional, do tipo Finite Capacity Schedule (FCS). No Brasil, essa categoria de software é denominada, genericamente, por Sistemas de Planejamento Fino de Produção ou de Capacidade Finita. Alinhado com as tendências mundiais e a vantagem de menores investimentos em hardware, o sistema escolhido é compatível com a operação em microcomputadores. Na primeira parte do trabalho, o assunto é tratado de forma geral, quando se pretende caraterizar amplamente o problema da programação da produção, as dificuldades na sua execução, as soluções existentes e suas limitações. A segunda parte do trabalho discute, detalhadamente, os métodos tradicionais de planejamento de materiais e capacidade. A revisão bibliográfica se encerra com uma apresentação dos sistemas FCS e sua classificação. A terceira parte trata da descrição, ensaios e avaliação da programação gerada por um software de Planejamento Fino de Produção determinístico, baseado na lógica de simulação computacional com regras de decisão. Embora a avaliação esteja limitada ao software utilizado, a análise ainda vai procurar identificar as diferenças fundamentais entre os resultados da programação de Capacidade Finita e a convencional, representada pelos sistemas da categoria MRPII ou Planejamento dos Recursos de Manufatura (Manufacturing Resources Planning). As lógicas dos sistemas MRPII e de Capacidade Finita são discutidas na revisão bibliográfica, enquanto que, para o software empregado no trabalho, ainda há um capítulo específico tratando da sua descrição, fundamentos, software house, hardware necessário e outras informações relevantes. Os ensaios serão implementados com o objetivo de analisar o sistema FCS como ferramenta de planejamento e de programação de produção. No caso, uma fração de um processo produtivo será modelada no sistema, através do qual serão gerados planos de produção que serão confrontados com a programação usual e com o comportamento real dos recursos envolvidos. Os ensaios serão realizados numa das unidades pertencentes a uma empresa transnacional de grande porte, que atua no ramo de pneumáticos. Por último, são apresentadas as conclusões gerais, recomendações na aplicação do sistema estudado e sugestões para futuras pesquisas relacionadas com o assunto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A década de 80 é um marco para a área de comunicação de dados. Muitos estudos, pesquisas e especificações foram iniciados para permitir a integração de sistemas de comunicação para voz, vídeo e dados. Desde essa década, os cientistas procuram investir na Internet, que é um dos mais importantes e populares meios de transmissão de informações no mundo, para acomodar aplicações que permitam enviar imagens e sons por esta imensa rede de comunicação. Também nessa década, no final, o International Telecommunications Union – Telecommunication (ITU-T), especificou a tecnologia ATM, cujas pesquisas vinham ocorrendo desde o seu início. O serviço de rede tradicional na Internet é transmissão de datagramas ´besteffort ´, conforme será visto neste trabalho. Neste serviço, os pacotes da origem são enviados para o destino, sem garantia de entrega. Para aquelas aplicações que requerem garantia de entrega, o protocolo TCP (equivalente à camada 4 do RM-OSI) se encarregará da retransmissão dos pacotes que falharam ao atingir o destino para então se conseguir uma recepção correta. Para aplicações de comunicação tradicionais, como FTP e Telnet, em que uma entrega correta é mais importante que a perda de tempo da retransmissão, este serviço é satisfatório. Entretanto, uma nova classe de aplicações, as quais usam mídias múltiplas (voz, som e dados), começam a aparecer na Internet. Exemplos desta classe de aplicação são: vídeo teleconferência, vídeo sob demanda e simulação distribuída. Operações de modo tradicional para estas aplicações resultam em redução da qualidade da informação recebida e, potencialmente, ineficiência do uso da largura de banda. Para remediar este problema é desenvolvido um ambiente de serviço para tempo real, no qual múltiplas classes de serviços são oferecidas. Este ambiente estende o modelo de serviços existentes para ir ao encontro das necessidades das aplicações multimídia com obrigatoriedade de tempo real, porém esta não é uma meta muito fácil. Contudo, a comunidade pesquisadora tem conseguido desenvolver alguns mecanismos que vão pouco a pouco permitindo que este objetivo se transforme em realidade. O ATM é uma tecnologia que provê dutos de alta velocidade para a transferência de qualquer tipo de informação em pequenos pacotes de tamanho fixo, chamados células. A idéia básica é estabelecer entre dois pontos que desejam se comunicar um circuito virtual que é mantido pelos comutadores de células para levar a informação de um lado a outro. A característica marcante do ATM é a Qualidade de Servico – QoS, que garante o desempenho predefinido que determinado serviço necessita. Isso permite suportar aplicações de tempo real que são sensíveis ao atraso. O atendimento à diversidade de características de tráfego e exigências distintas de grandes quantidades de serviços é possível pelo ATM graças ao controle de tráfego reunido à capacidade de multiplexação estatística do meio em altas taxas de transmissão. O objetivo principal desta dissertação é elaborar uma comparação quantitativa e qualitativa do funcionamento de aplicações multimídia sobre IP com RSVP - Protocolo desenvolvido para realizar reservas de recursos integrante da arquitetura de Serviços Integrados (IntServ) proposta pelo IETF para oferecer qualidade de serviço para aplicações tais como aplicações multimídia. Essa proposta também inclui duas classes de serviços, sendo que nessa dissertação, o serviço de carga controlada é que está sendo utilizado. Isso deve-se a implementação dos módulos apresentados em [GRE 2001] e que foram utilizados na realização desse trabalho - e sobre ATM. A proposta final é a elaboração de uma técnica de análise baseado nas principais métricas de desempenho em redes que deve permitir uma melhor visualização do comportamento das tecnologias sob determinadas cargas de tráfego, permitindo assim uma tomada de decisão entre qual das tecnologias que deverá ser adotada em um dado momento, em uma dada situação, ou seja, a indicação do ponto de quebra tecnológica na situação modelada. Para que fosse possível fazer esta comparação, foi necessário dividir-se este trabalho em 3 grandes etapas, que são: • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia ATM; • Estudo e desenvolvimento da técnica para análise do elemento carga de tráfego na tecnologia IP com RSVP; • Comparativo quantitativo e qualitativo dos estudos acima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta dissertação estuda os procedimentos de tomada de decisão de investimentos em ativos, utilizados pelas empresas industriais de médio e grande porte da região noroeste do Estado do Rio Grande do Sul, investigadas em termos de critérios de avaliação e a consideração de aspectos estratégicos na decisão de investimento. Trata-se de uma pesquisa exploratória, realizada em trinta empresas, que procurou investigar o comportamento das mesmas em matéria de critérios de decisão, consideração do risco, timing e ciclo econômico, incorporação de novas tecnologias e a avaliação do desempenho do investimento. A seguir, procede-se à análise comparativa de alguns resultados da presente pesquisa com a pesquisa de Saul (1990/1991), realizada nas grandes empresas industriais e prestadoras de serviços públicos básicos do país. Finalmente é apresentado o estudo de caso múltiplo, que teve como base a pesquisa survey realizada nas trinta empresas, das quais foram selecionadas três empresas uma do setor agropecuário e duas do setor metal-mecânica que mais se assemelham quanto às práticas de seleção e avaliação de investimentos constantes na teoria. Esse estudo teve por objetivo examinar os procedimentos adotados no processo de tomada de decisão, bem como a consideração de ativos intangíveis na decisão de investimento. Nas conclusões, geral e parcial, são apresentados os comportamentos das empresas investigadas e analisadas e suas diferenças com as recomendações constantes na teoria financeira, no que se refere a critérios de avaliação e decisão de investimento. Os resultados da pesquisa demonstraram uma aproximação das práticas empresariais com as descritas na teoria financeira, já que a maioria das empresas utiliza técnicas formais para avaliar, selecionar e controlar os seus projetos de investimentos; verificou-se que as empresas utilizam uma estimativa de rentabilidade para “todos” ou para a “maioria” de seus projetos. Através do estudo, a pesquisa confirmou que as empresas da região noroeste utilizam a taxa interna de retorno (TIR) como critério principal de rentabilidade na análise de investimento. Também, constatou-se que o payback , nas modalidades sem e com atualização é usado como critério secundário. Outro aspecto constatado na investigação mostra que a maioria das empresas avaliam o risco de maneira subjetiva, vindo a contrariar a teoria financeira pelo não uso dos métodos de mensuração existentes. No que se refere `a comparação dos resultados da presente pesquisa com os resultados da pesquisa de Saul (1990), evidenciou-se que as empresas da região noroeste diferem em alguns procedimentos, principalmente em termos de mensuração do risco, pois em 1990 às empresas utilizavam um método quantitativo para medir o risco, nos demais procedimentos são semelhantes aos utilizados pelas empresas nacionais. Assim, conclui-se, que a análise de investimento vem influenciando a maneira das empresas decidirem e agirem, mostrando que os empresários não estão explorando ao máximo as técnicas de análise de investimento oferecidas pela teoria financeira, embora as empresas busquem constantemente a modernização tecnológica, adaptando-as ao seu ambiente, de acordo com as necessidades que o mercado exige, oportunizando o crescimento e o desenvolvimento de seus negócios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho realiza uma análise do potencial dos sistemas centralizados para controle de tráfego no Brasil, executando uma comparação entre as diferentes tecnologias disponíveis, e os conseqüentes resultados obtidos. Estes resultados são apresentados, através de "cases", na forma de benefícios obtidos, comparados com os custos associados para a implantação de cada sistema. As partes que compõem estes sistemas são apresentadas através de um histórico do controle de tráfego e das evoluções tecnológicas dos equipamentos e dos critérios de controle utilizados. Um resumo dos panoramas atuais, americano e brasileiro, permite uma comparação, quanto à utilização e investimentos em sistemas centralizados para controle de tráfego. Ao final do trabalho é apresentada uma proposta, adequada à realidade brasileira, para implantação de sistemas centralizados de tráfego, baseada em uma metodologia de implantação em etapas, com investimentos e benefícios crescentes, atendendo gradativamente à demanda de cada município.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Para a análise estática e dinâmica, linear e não-linear de placas, cascas e vigas, implementa-se neste trabalho o elemento hexaédrico com integração reduzida, livre de travamento volumétrico e travamento de cisalhamento e que não apresenta modos espúrios. Na formulação do elemento, utiliza-se apenas um ponto de integração. Desta forma, a matriz de rigidez é dada de forma explícita e o tempo computacional é significativamente reduzido, especialmente em análise não-linear. Os modos espúrios são suprimidos através de um procedimento de estabilização que não exige parâmetros especificados pelo usuário. Para evitar o travamento de cisalhamento, desenvolve-se o vetor de deformações num sistema co-rotacional e remove-se certos termos não constantes nas componentes de deformações de cisalhamento. O travamento volumétrico é resolvido fazendo-se com que a parte dilatacional (esférica) da matriz gradiente seja avaliada apenas no ponto central do elemento. Como a eliminação do travamento de cisalhamento depende de uma abordagem no sistema local, emprega-se um procedimento co-rotacional para obter o incremento de deformação no sistema local e atualizar os vetores de tensões e forças internas na análise não-linear Para a solução das equações de equilíbrio na análise estática, utilizam-se métodos diretos baseados na eliminação de Gauss ou métodos iterativos de Gradientes Conjugados Precondicionado elemento-por-elemento (EBE). Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito de Taylor-Galerkin ou do método implícito de Newmark. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise de casca, placas e vigas submetidas a grandes deslocamentos e grande rotações. Os resultados são comparados com trabalhos que utilizam elementos clássicos de placa e casca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A paralelização de métodos de resolução de sistemas de equações lineares e não lineares é uma atividade que tem concentrado várias pesquisas nos últimos anos. Isto porque, os sistemas de equações estão presentes em diversos problemas da computação cientí ca, especialmente naqueles que empregam equações diferenciais parciais (EDPs) que modelam fenômenos físicos, e que precisam ser discretizadas para serem tratadas computacionalmente. O processo de discretização resulta em sistemas de equações que necessitam ser resolvidos a cada passo de tempo. Em geral, esses sistemas têm como características a esparsidade e um grande número de incógnitas. Devido ao porte desses sistemas é necessária uma grande quantidade de memória e velocidade de processamento, sendo adequado o uso de computação de alto desempenho na obtenção da solução dos mesmos. Dentro desse contexto, é feito neste trabalho um estudo sobre o uso de métodos de decomposição de domínio na resolução de sistemas de equações em paralelo. Esses métodos baseiam-se no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções de cada subdomínio. Uma vez que diferentes subdomínios podem ser tratados independentemente, tais métodos são atrativos para ambientes paralelos. Mais especi camente, foram implementados e analisados neste trabalho, três diferentes métodos de decomposição de domínio. Dois desses com sobreposição entre os subdomínios, e um sem sobreposição. Dentre os métodos com sobreposição foram estudados os métodos aditivo de Schwarz e multiplicativo de Schwarz. Já dentre os métodos sem sobreposição optou-se pelo método do complemento de Schur. Todas as implementações foram desenvolvidas para serem executadas em clusters de PCs multiprocessados e estão incorporadas ao modelo HIDRA, que é um modelo computacional paralelo multifísica desenvolvido no Grupo de Matemática da Computação e Processamento de Alto Desempenho (GMCPAD) para a simulação do escoamento e do transporte de substâncias em corpos de águas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cerca de dois terços das maiores áreas metropolitanas mundiais estão nas proximidades dos estuários, portanto são regiões comumente sujeitas à situações de risco impostas pela pressão populacional. Instalações portuárias, efluentes diversos, uso indevido das suas margens, estão entre os riscos potenciais à grande diversidade de seus recursos naturais. A ação das marés, das ondas e o aporte fluvial interagem tornando bastante complexa a caracterização do seu funcionamento. A presente dissertação foca os seguintes aspectos: hidrodinâmica, transporte de sedimentos em suspensão, sedimentologia, morfologia e classificação do ambiente. A hidrodinâmica e o transporte de sedimentos foram estudados em duas etapas de campo em condições de maré de sizígia e de quadratura, cada qual com abrangência de dois ciclos de maré (25 hs). Estas etapas foram realizadas numa estação fixa com medições de: maré, velocidade da corrente, material em suspensão, sólidos totais dissolvidos, salinidade, pH, oxigênio dissolvido e temperatura. As características sedimentológicas foram avaliadas pela coleta de sedimentos de fundo em 24 pontos. Os aspectos morfológicos foram reconhecidos por uma batimetria detalhada e por aerofotografias. Os resultados revelaram a dominância das correntes de maré vazante em sizígia e de enchente em quadratura. O fluxo total de sedimentos por ciclo de maré na sizígia foi de 71 ton. (vazante), enquanto que na quadratura foi de 2,2 ton. (enchente). Os sedimentos de fundo variaram de areia muito grossa a silte. A profundidade máxima foi de 7,4 m (maré alta de sizígia). A comparação das aerofotografias revela a instabilidade morfológica da desembocadura. Relaciona-se este fato à influência variável da deriva litorânea e da descarga hidráulica. Este estuário foi classificado como: de frente de barreira arenosa; de circulação do tipo xvi parcialmente misturada e, por vezes, verticalmente homogênea; de Tipo 2b (quadratura); de tipo intermerdiário 2a e 2b (sizígia); de negativo; de mesomaré e de energia mista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Muitos estudos sobre análise do risco de crédito foram feitos até recentemente, tendo como principal foco a previsão de falência. A insolvência das empresas devedoras, sem dúvida, é um grande problema para os concedentes de crédito, no entanto, a inadimplência não é um fato exclusivo do processo falimentar. Neste sentido, a presente investigação se propôs a prognosticar a ocorrência da inadimplência - aqui definida como a cobrança que está sendo realizada por via judicial - com as informações disponíveis no momento da análise de crédito, neste caso, os três últimos demonstrativos contábeis. A pesquisa foi realizada com uma amostra constituída de empresas industriais, especificamente da indústria de transformação, clientes de uma instituição financeira que receberam financiamento durante o período de 1996 a 1997, dividida entre adimplentes e inadimplentes; mediante o uso de dois métodos estatísticos de análise múltipla de dados, já consolidados em estudos desta natureza: análise discriminante linear e regressão logística; e com emprego de quocientes financeiros obtidos a partir das demonstrações contábeis. Os resultados demonstraram que há uma lacuna no que tange a análise financeira tradicional no processo de exame de crédito, que pode ser suprida com modelos quantitativos setoriais estimados com auxilio de métodos estatísticos, contribuindo para uma melhor qualidade de análise, com intuito de evitar a inadimplência, melhorando o resultado das instituições financeiras.