995 resultados para desenvolvidos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho destina-se a apresentar a experiência de montagem e de validação de uma Bancada de Calibração de sensores para determinação da umidade relativa do ar com base nas teorias e normas existentes de psicrometria. A Bancada foi construída com base em normas internacionais, onde salienta-se a ASHRAE 41.1-1974, sendo uma evolução de trabalhos anteriormente desenvolvidos. A validação da bancada passa por uma verificação do funcionamento do sistema montado, buscando garantir que o mesmo é eficaz no que se propõe. Para isso, curvas de estabilidade em temperatura e umidade relativa do ar em função do tempo foram levantadas e analisadas dentro de uma certa faixa de operação, entre 30,50 e 44,50 ºC e para temperatura de bulbo úmido, entre 25,00 e 31,10 ºC. Para a estabilidade em umidade relativa do ar testada, a faixa varia de 57,20 a 74,46 %. Também foi verificado experimentalmente o comportamento da temperatura de bulbo úmido em função da velocidade do ar no escoamento, entre 1,25 e 5,00m/s. Para a comprovação desta verificação experimental, os dados coletados nos sensores e termômetros foram corrigidos através das equações de calibração e depois os mesmos foram comparados e estudados mediante uma análise de variância (ANOVA). Os resultados dos testes revelaram que a velocidade na faixa experimentada (1,25 a 5,00) m/s não gera uma diferença significativa na leitura dos sensores Um outro teste experimental foi elaborado para verificar o comportamento da temperatura de bulbo úmido em função da umidade relativa do ar para diversos elementos sensores de temperatura. (termômetros de Hg, sensores PT100, AD592 e termopar tipo K). Para esta verificação, os elementos sensores foram submetidos a uma velocidade de 5,00 m/s. Para cada nível de temperatura, três níveis de umidade relativa do ar foram analisadas. Os resultados mostram que a Bancada de calibração é um ambiente controlado dentro de uma faixa de temperatura e umidade relativa do ar, sendo um recurso a mais que pode ser usado no vasto campo da psicrometria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentes terremotos e furacões mostraram quão vulneráveis são as estruturas às forças da natureza. Ainda em países desenvolvidos, existe alto risco a desastres naturais. Portanto, um dos principais desafios da Engenharia é a prevenção de desastres mediante o desenvolvimento de conceitos inovadores de projeto, para proteger eficientemente as estruturas, seus moradores e o conteúdo, dos efeitos destrutivos das forças ambientais. O tradicional procedimento de projeto de construções para prevenir falhas catastróficas é baseado na combinação de resistência e capacidade de deformação (ductilidade). Solicitações de baixos níveis provocadas por ventos ou sismos são freqüentemente idealizados com cargas laterais que devem ser resistidas só pela ação elástica da estrutura, enquanto que, em eventos moderados ou severos permite-se certos níveis de dano estrutural e não estrutural, mas não, colapso da mesma. Esta filosofia proporcionou a base da maioria dos códigos de construção (fundados em métodos estáticos equivalentes) desde princípios do século, com resultados satisfatórios. No entanto, a partir do estudo das características dinâmicas das estruturas surgem novos e diversos conceitos de proteção dos sistemas estruturais que tem sido desenvolvidos e ainda estão em expansão, entre os quais pode-se citar a dissipação de energia externa. Esta nova tecnologia consiste em incorporar na estrutura, elementos projetados especificamente para dissipar energia. Com isto, logra-se reduzir as deformações nos membros estruturais primários e portanto, diminui-se a demandada de ductilidade e o possível dano estrutural, garantindo uma maior segurança e vida útil da estrutura Graças a recentes esforços e ao particular interesse da comunidade científica internacional, estudos teóricos e experimentais têm sido desenvolvidos durante a última década com resultados surpreendentes. Hoje já existem sistemas de dissipação de energia aplicados com sucesso em países como Estados Unidos, Itália, Nova Zelândia, Japão e México. Recentemente este campo está-se estendendo na América do Sul. Dentro deste contexto, considerando o beneficio econômico e o melhor desempenho estrutural que implica a incorporação desta nova tecnologia, no presente trabalho abordou-se o estudo deste tipo de sistemas de proteção estrutural orientado ao uso de amortecedores metálicos. O trabalho dividiu-se em três partes principais: a) Projetar e construir um amortecedor metálico que usa as excelentes propriedades do chumbo para dissipar energia. b) Desenvolvimento de metodologias de análise e projeto de estruturas que incorporam amortecimento suplementar a fim de melhorar o seu desempenho estrutural. c) Avaliação da eficiência de sistemas externos de dissipação de energia em estruturas. A primeira parte consistiu em projetar e construir um amortecedor metálico para logo submetê-lo a numerosos testes com diferentes níveis de amplitude de deslocamento e freqüência a fim de avaliar suas propriedades mecânicas e desempenho. Os resultados são considerados altamente satisfatórios. Na segunda parte foram desenvolvidas ferramentas computacionais para pesquisa e docência na área da mecânica estrutural mediante as quais é possível simular o comportamento linear e não linear de estruturas que incorporam amortecimento suplementar Finalmente, apresenta-se um procedimento robusto para avaliar a eficiência dos sistemas dissipadores de energia baseado numa análise da confiabilidade estrutural. Através de vários exemplos com estruturas reais e teóricas se atingem os objetivos traçados no presente trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem por objetivo determinar e avaliar a transmissibilidade da vibração no corpo humano além de desenvolver um modelo numérico de quatro graus de liberdade representativo do sistema banco e corpo humano. Para auxiliar no desenvolvimento deste trabalho foi realizado um resgate de pesquisas publicadas por pesquisadores anteriormente na área de modelamento numérico, além das medições e avaliações da transmissibilidade da vibração no corpo humano. Foram realizadas medições da transmissibilidade da vibração no corpo humano na posição sentado em um banco comumente utilizado para motoristas de ônibus urbanos. As medições foram realizadas ao longo do eixo z, de acordo com as recomendações das normas ISO 2631 (1974 e 1997), utilizando-se de acelerômetros uni-axiais, um computador com placa conversora analógica para digital (A/D), além de programas desenvolvidos na plataforma de programação gráfica HPVee para aquisição dos níveis de vibração e avaliação das transmissibilidades da vibração. A vibração vertical foi simultaneamente medida no corpo humano (direção z – ISO 2631). Para medir os níveis de vibração no assento, na pélvis, no ombro e na cabeça foram utilizados quatro micro-acelerômetros uni-axiais (Endveco Isotron 2250A/AM1-10) enquanto que no piso, foi utilizado um acelerômetro uni-axial da Brüel & Kjaer 4338. O grupo estudado nos experimentos era composto por cinco indivíduos, sendo três homens e duas mulheres. Avaliou-se a transmissibilidade entre o assento do banco e o piso, entre a pélvis o assento, entre o ombro e o assento e entre a cabeça e o assento. Os resultados indicaram que o sistema apresentou uma amplificação da transmissibilidade entre o assento e o piso em até 2,5 vezes, enquanto que, para as demais transmissibilidades (pélvis/assento, ombro/assento, cabeça/assento) houve uma atenuação gradual da transmissibilidade da vibração Um modelo linear de quatro graus de liberdade foi desenvolvido para representar o comportamento biodinâmico de indivíduos brasileiros submetidos à vibração forçada proveniente de sinais medidos em ônibus urbanos brasileiros. O modelo responde simultaneamente de acordo com os dados obtidos experimentalmente da transmissibilidade entre o assento e o piso e entre o ombro e o assento para uma faixa de freqüência de 4 até 40 Hz. Foi desenvolvida uma rotina no Maple 5.5 (anexo 10.4) a qual consiste em ajustar uma curva de transmissibilidade calculada com os limites estabelecidos dos parâmetros biomecânicos definidos nos ensaios biométricos e literatura às curvas de transmissibilidade obtidas experimentalmente. Os resultados indicaram que para a curva de transmissibilidade entre o assento e o ombro o erro foi de 37,78% enquanto que para as curvas de transmissibilidade entre o assento e o piso apresentaram um erro de 17,74 %. Apesar dos valores de erro percentual terem sido relativamente elevados, os valores de ambas as curvas de transmissibilidade numérica apresentaram resultados de ajuste muito próximos às curvas experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A globalização eliminou, ao longo dos tempos, as fronteiras territoriais para os capitais financeiros e intelectuais e, conseqüentemente, tem exigido dos governos, empresas, administradores e investidores uma enorme variedade de informações para nortear investimentos potencialmente eficientes e geradores de riquezas capazes de atrair e mobilizar esses recursos. Empreendedores modernos, coadunados com essa nova realidade mundial, têm buscado nas teorias da administração financeira elementos importantes na análise de seus planos estratégicos e dos projetos de investimentos, buscando minimizar os riscos e maximizar os recursos financeiros disponíveis e suas estruturas físicas e materiais, além de conhecer e prever os desdobramentos de suas decisões sobre a perpetuidade de suas empresas. Esses novos visionários agregam valor econômico à empresa e aos investidores, pois suas decisões empresariais e de investimentos são tabuladas de forma a projetar seus empreendimentos no longo prazo, afastando, desde já, a insolvência das empresas como suporte sócio-econômico da dinâmica das nações. Os variados modelos desenvolvidos nos campos acadêmicos para as áreas de administração financeira, quer por desconhecimento, descaso dos administradores ou pela complexidade de alguns destes, ainda não foram disseminados para um grande contingente de empresas ao redor do planeta. Certos modelos possuem especificidades restritas ou se prestam a situações especiais. Alguns empreendedores ainda se utilizam dos resultados extraídos da contabilidade tradicional na definição de valor econômico de seus investimentos, de uma maneira geral, dando ênfase aos dados financeiros tradicionais originados na contabilidade Para corrigir está deficiência estrutural, os acadêmicos desenvolveram modelos que, acompanhados dos dados relatados pela contabilidade, da forma como se apresenta na atualidade, complementam e dão suporte aos envolvidos, objetivando a mensuração do valor econômico de seus empreendimentos e a eficiência de suas decisões. Dentre esses variados modelos, pode-se destacar o modelo de fluxo de caixa descontado (DFC), considerado uma ferramenta eficiente para a avaliação de investimentos ao capturar a agregação de valor do projeto no longo prazo e os riscos inseridos no mesmo, muitas vezes negligenciado pelos administradores. O modelo em questão, e os outros mais, serão, sumariamente, conceituados ao longo do presente estudo, buscando identificar as potencialidades de cada um e em que tipo de avaliação pode, ou deve, ser aplicado. Conclusivamente, serão aplicadas todas as premissas abstraídas do modelo DFC, recomendado por COPELAND, KOLLER e MURRIN (2002), ajustado às características da empresa, para conhecer o valor de mercado da Linck Agroindustrial Ltda.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer colorretal é um tumor maligno freqüente no mundo ocidental. É o terceiro em freqüência e o segundo em mortalidade nos países desenvolvidos. No Brasil está entre as seis neoplasias malignas mais encontradas e a quinta em mortalidade. Dos tumores colorretais, aproximadamente 40% estão localizados no reto. A sobrevida, em cinco anos, dos pacientes operados por câncer do reto varia entre 40% e 50%, estando os principais fatores prognósticos, utilizados na prática clínica corrente, baseados em critérios de avaliação clínico-patológicos. A avaliação das alterações morfométricas e densimétricas nas neoplasias malignas tem, recentemente, sido estudadas e avaliadas através da análise de imagem digital e demonstrado possibilidades de utilização diagnóstica e prognóstica. A assinatura digital é um histograma representativo de conjuntos de características de textura da cromatina do núcleo celular obtida através da imagem computadorizada. O objetivo deste estudo foi a caracterização dos núcleos celulares neoplásicos no adenocarcinoma primário de reto pelo método da assinatura digital e verificar o valor prognóstico das alterações nucleares da textura da cromatina nuclear para esta doença. Foram avaliados, pelo método de análise de imagem digital, 51 casos de pacientes operados no Hospital de Clínicas de Porto Alegre (HCPA) entre 1988 e 1996 e submetidos à ressecção eletiva do adenocarcinoma primário de reto, com seguimento de cinco anos pós-operatório, ou até o óbito antes deste período determinado pela doença, e 22 casos de biópsias normais de reto obtidas de pacientes submetidos a procedimentos endoscópicos, para controle do método da assinatura digital. A partir dos blocos de parafina dos espécimes estocados no Serviço de Patologia do HCPA, foram realizadas lâminas coradas com hematoxilina e eosina das quais foram selecionados 3.635 núcleos dos adenocarcinomas de reto e 2.366 núcleos dos controles da assinatura digital, totalizando 6.001 núcleos estudados por análise de imagem digital. De cada um destes núcleos foram verificadas 93 características, sendo identificadas 11 características cariométricas com maior poder de discriminação entre as células normais e neoplásicas. Desta forma, através da verificação da textura da cromatina nuclear, foram obtidos os histogramas representativos de cada núcleo ou conjunto de núcleos dos grupos ou subgrupos estudados, também no estadiamento modificado de Dukes, dando origem às assinaturas digitais correspondentes. Foram verificadas as assinaturas nucleares, assinaturas de padrão histológico ou de lesões e a distribuição da Densidade Óptica Total. Houve diferença significativa das características entre o grupo normal e o grupo com câncer, com maior significância para três delas, a Área, a Densidade Óptica Total e a Granularidade nuclear. Os valores das assinaturas médias nucleares foram: no grupo normal 0,0009 e nos estadiamentos; 0,9681 no A, 4,6185 no B, 2,3957 no C e 2,1025 no D e diferiram com significância estatística (P=0,001). A maior diferença do normal ocorreu no subgrupo B de Dukes-Turnbull. As assinaturas nucleares e de padrão histológico mostraram-se distintas no grupo normal e adenocarcinoma, assim como a distribuição da Densidade Óptica Total a qual mostra um afastamento progressivo da normalidade no grupo com câncer. Foi possível a caracterização do adenocarcinoma de reto, que apresentou assinaturas digitais específicas. Em relação ao prognóstico, a Densidade Óptica Total representou a variável que obteve o melhor desempenho, além do estadiamento, como preditor do desfecho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo o estudo da matéria nuclear a altas densidades considerando-se as fases hadrônica e de quarks à temperatura nula e finita, com vistas a aplicações no estudo de propriedades estáticas globais de estrelas compactas. Parte dos cálculos apresentados nesta dissertação foram realizados por diferentes autores. Entretanto, em geral, estes trabalhos limitaram-se ao estudo da matéria nuclear em regiões de densidades e temperaturas específicas. Este estudo visa, por sua vez, o desenvolvimento de um tratamento amplo e consistente para estes sistemas, considerando-se diferentes regimes de densidade e temperatura para ambas as fases, hadrônica e de quarks. Buscamos com isso adquirir conhecimento suficiente que possibilite, não somente a ampliação do escopo dos modelos considerados, como também o desenvolvimento, no futuro, de um modelo mais apropriado à descrição de propriedades estáticas e dinâmicas de estrelas compactas. Ainda assim, este trabalho apresenta novos aspectos e resultados inéditos referentes ao estudo da matéria nuclear, como descrevemos a seguir. No estudo da matéria nuclear na fase hadrônica, consideramos os modelos da teoria quântica de campos nucleares desenvolvidos por J. D. Walecka, J. Zimanyi e S. A. Moszkowski, e por J. Boguta e A. R. Bodmer, e conhecidos, respectivamente, como Hadrodinâmica Quântica, ZM e Não-Linear. Nestes modelos a matéria nuclear é descrita a partir de uma formulação lagrangeana com os campos efetivos dos bárions acoplados aos campos dos mésons, responsáveis pela interação nuclear Neste estudo consideramos inicialmente a descrição de propriedades estáticas globais de sistemas nucleares de muitos corpos à temperatura nula, como por exemplo, a massa efetiva do núcleon na matéria nuclear simétrica e de nêutrons. A equação de estado da matéria de nêutrons possibilita a descrição de propriedades estáticas globais de estrelas compactas, como sua massa e raio, através da sua incorporação nas equações de Tolman, Oppenheimer e Volkoff (TOV). Os resultados obtidos nestes cálculos estão em plena concordância com os resultados apresentados por outros autores. Consideramos posteriormente o estudo da matéria nuclear com graus de liberdade de bárions e mésons à temperatura finita, com particular atenção na região de transição de fase. Para este estudo, incorporamos aos modelos considerados, o formalismo da mecânica estatística à temperatura finita. Os resultados obtidos, para as propriedades da matéria nuclear à temperatura finita, concordam também com os resultados obtidos por outros autores. Um aspecto inédito apresentado neste trabalho refere-se à incorporação de valores para os pontos críticos da transição de fase, ainda não determinados por outros autores. O comportamento do calor específico também é analisado de forma inédita nesta dissertação no tratamento utilizado com os modelos Não-Linear e ZM. Utilizamos a equação de estado da matéria de nêutrons à temperatura finita nas equações TOV, determinando propriedades globais de uma estrela protoneutrônica Observamos neste trabalho que ocorre um aumento da massa máxima da estrela com o aumento da temperatura, comportamento este já previsto por outros autores em diferentes modelos. Posteriormente incorporamos ao formalismo à temperatura finita, o equilíbrio químico, a presença de graus de liberdade leptônicos para elétrons e múons e a neutralidade de carga. Apresentamos nesta etapa do trabalho, uma forma alternativa para a incorporação destes ingredientes, baseada na determinação de uma fração relativa entre os potenciais químicos de prótons e nêutrons, à temperatura nula, extendendo este resultado à temperatura finita. Este procedimento permite a determinação da distribuição de núcleons e léptons no interior de uma estrela protoneutrônica, onde incluímos ainda a presença de neutrinos confinados. No estudo da matéria de quarks, consideramos o modelo de sacola do Massachussets Institute of Technology (MIT). Incorporando as equações TOV neste estudo, determinamos propriedades globais de estrelas de quarks, bem como a distribuição dos diferentes sabores de quarks no interior estelar. Como principal resultado, obtivemos uma equação de estado geral para a matéria hadrônica e de quarks, introduzida nas equações TOV, e analisamos a existência de estrelas híbridas. Os resultados obtidos nesta etapa do trabalho são totalmente coerentes com aqueles obtidos por outros autores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é dado ênfase à inclusão das incertezas na avaliação do comportamento estrutural, objetivando uma melhor representação das características do sistema e uma quantificação do significado destas incertezas no projeto. São feitas comparações entre as técnicas clássicas existentes de análise de confiabilidade, tais como FORM, Simulação Direta Monte Carlo (MC) e Simulação Monte Carlo com Amostragem por Importância Adaptativa (MCIS), e os métodos aproximados da Superfície de Resposta( RS) e de Redes Neurais Artificiais(ANN). Quando possível, as comparações são feitas salientando- se as vantagens e inconvenientes do uso de uma ou de outra técnica em problemas com complexidades crescentes. São analisadas desde formulações com funções de estado limite explícitas até formulações implícitas com variabilidade espacial de carregamento e propriedades dos materiais, incluindo campos estocásticos. É tratado, em especial, o problema da análise da confiabilidade de estruturas de concreto armado incluindo o efeito da variabilidade espacial de suas propriedades. Para tanto é proposto um modelo de elementos finitos para a representação do concreto armado que incorpora as principais características observadas neste material. Também foi desenvolvido um modelo para a geração de campos estocásticos multidimensionais não Gaussianos para as propriedades do material e que é independente da malha de elementos finitos, assim como implementadas técnicas para aceleração das avaliações estruturais presentes em qualquer das técnicas empregadas. Para o tratamento da confiabilidade através da técnica da Superfície de Resposta, o algoritmo desenvolvido por Rajashekhar et al(1993) foi implementado. Já para o tratamento através de Redes Neurais Artificias, foram desenvolvidos alguns códigos para a simulação de redes percéptron multicamada e redes com função de base radial e então implementados no algoritmo de avaliação de confiabilidade desenvolvido por Shao et al(1997). Em geral, observou-se que as técnicas de simulação tem desempenho bastante baixo em problemas mais complexos, sobressaindo-se a técnica de primeira ordem FORM e as técnicas aproximadas da Superfície de Resposta e de Redes Neurais Artificiais, embora com precisão prejudicada devido às aproximações presentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A preocupação com os ciclos econômicos induzidos por eleições não é meramente uma curiosidade científica. Já se pode dizer que há consenso na literatura que um comportamento ciclicamente endógeno da política econômica contribui para a volatilidade nos países latinoamericanos, de modo que isto tem efeitos significativamente prejudiciais sobre o desenvolvimento destes países. Em particular o ciclo na política fiscal, não estando associado à tentativa de compensar o ciclo econômico, mas sincronizado com o calendário eleitoral leva a uma alocação intertemporal ineficiente dos recursos. Pela importância do ciclo e pela investigação empírica da teoria no país, ao longo deste trabalho, buscou-se avançar na agenda de pesquisa sobre ciclo político no Brasil. Aqui se procurou cobrir a área referente aos efeitos de políticas oportunistas de caráter eleitoral sobre a execução orçamentária nos estados brasileiros. Investigou-se a existência de ciclos eleitorais nas variáveis orçamentárias, visando fornecer uma idéia minimamente clara do comportamento destas ao longo dos mandatos e identificar como algumas características políticoeleitorais dos estados poderiam afetar as receitas e despesas públicas. Para tanto se utilizou um modelo de painel dinâmico, que permitiu que se analisasse uma amostra na sua dimensão temporal capaz de abranger o período 1983-2000. Os resultados da estimação acabaram confirmando de maneira contundente as suposições teóricas, e mesmo do senso comum, que se tinha em relação ao ciclo político nas variáveis orçamentárias. Para a maioria absoluta das variáveis analisadas não se pode negar a existência de um efeito do período eleitoral sobre o seu comportamento, sendo que para aquelas associadas à despesa pública e ao resultado orçamentário, o comportamento no ano eleitoral em particular, confirmou o sugerido pela teoria e pelos resultados de outros trabalhos aplicados a países em desenvolvimento, desenvolvidos e mesmo para Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo tem como objetivo contribuir para o desenvolvimento de competências gerenciais necessárias à implementação dos conceitos e princípios da Produção Enxuta na Construção, partindo da premissa de que esta implementação impfica mudança do paradigma gerencial predominante no setor. A estratégia de pesquisa adotada neste estudo consistiu no desenvolvimento de estudos exploratórios em dois ciclos de aprendizagem que levaram ao desenvolvimento do estudo empírico final, através de pesquisa-ação. O primeiro ciclo consistiu em um estudo sobre métodos de ensino para formação gerencial, cujos resultados conduziram a uma mudança de foco para o processo de aprendizagem com o uso da Aprendizagem na Ação. No segundo ciclo, foram desenvolvidos estudos exploratórios sobre a abordagem da Aprendizagem na Ação e o uso de Mapas Conceituais para negociação de significados dos conceitos da Produção Enxuta, visando o planejamento da pesquisa-ação e preparação de instrumentos de coleta e análise de dados. Para este estudo empírico final foi constituído um grupo, composto por gerentes de produção de empresas construtoras de pequeno e médio porte, com o uso da Aprendizagem na Ação. Os dados coletados foram analisados através de Anáfise de Consteúdo, sendo que os resultados obtidos permitiram a identificação de barreiras de origem cultural para a disseminação dos conceitos e princípios da Produção Enxuta na Construção. Além disso, o estudo resultou em contribuições conceituais para a construção de uma teoria sobre a Aprendizagem na Ação: perfildos membros do grupo, condução do processo pelo facilitador e indução mudança de atitudes através da reflexão na ação e nos significados dos conceitos utilizados na análsie e resolução de problemas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Esta tese de doutorado é mais uma contribuição do Grupo de Qualidade de Vida (Centro Brasileiro) do Programa de Pós-Graduação em Ciências Médicas: Psiquiatria, da UFRGS. Esse grupo têm trabalhado em projetos transculturais de elaboração de instrumentos de qualidade de vida (QV) sob a coordenação da Organização Mundial de Saúde. Entre os instrumentos genéricos de QV já desenvolvidos estão o WHOQOL-100 e o WHOQOL-Bref e entre os instrumentos específicos, para populações especiais, estão o WHOQOL-HIV, o WHOQOL-SRPB e, mais recentemente, o WHOQOL-OLD. O desenvolvimento de uma escala de QV para idosos é especialmente importante tendo em vista especificidades deste grupo etário, bem como o aumento da proporção de idosos na população mundial. Objetivos: O objetivo maior deste estudo é desenvolver uma escala de QV para idosos (WHOQOL-OLD). Entretanto, como trata-se de um processo com longa duração de tempo, foram gerados objetivos específicos a partir da revisão da literatura e coleta de dados, que deram origem a 5 artigos, cada um com sua proposta, a saber: artigo 1. Apresentar a metodologia utilizada e os resultados dos grupos focais para avaliação de QV do idoso, artigo 2. Identificar variáveis relevantes na QV de pessoas idosas, artigo 3. Investigar a relação da percepção de QV do idoso com a percepção de QV do idoso na opinião de seu cuidador, artigo 4. Investigar variáveis associadas com percepção subjetiva de saúde em idosos internados e artigo 5. Pesquisar um possível viés nas respostas de idosos no Inventário de Depressão de Beck (BDI). Métodos: O primeiro estudo teve um desenho qualitativo enquanto os demais foram quantitativos. As amostras variaram para cada estudo. Em todos os estudos idosos(as) acima de 60 anos foram entrevistados. Para os estudos 1 e 2, a amostra contou com profissionais da área da saúde (1) e cuidadores (1 e 2). E, para o estudo 5, adultos acima de 18 anos também foram pesquisados. A coleta dos dados foi realizada em hospitais, lares e grupos comunitários, residências e recrutamento utilizando a técnica de "snow-ball" (bola de neve) em que cada sujeito indicava um outro sujeito. Todos os entrevistados preencheram o Termo de Consentimento Informado e, a partir daí, foram convidados a responder acerca de informações sociodemográficas, QV percebida (WHOQOL-100) e sintomatologia depressiva (BDI), com pequena variação para os cuidadores. O último estudo contou apenas com os dados sociodemográficos e com as respostas ao BDI. Resultados: De forma abreviada, os resultados dos 5 artigos confirmam as especificidades do idoso e portanto a necessidade de desenvolvimento de instrumentos específicos para esta população. O artigo 1 teve como resultado a sugestão de novos itens para idosos, a partir das respostas espontâneas e análise dos domínios e facetas do WHOQOL-100. O artigo 2, por sua vez, mostrou associações da percepção de QV geral com níveis de depressão, percepção subjetiva de saúde e sexo. No artigo 3, foi possível verificar uma tendência, em todos os domínios e na medida QV geral, de o cuidador responder pior percepção de QV do idoso do que o próprio idoso cuidado, apesar de algumas concordâncias (domínios físico, nível de independência, meio ambiente e espiritualidade/religião). Também observou-se que a intensidade de depressão do idoso exerceu forte influência tanto na sua própria percepção de QV quanto na percepção do cuidador sobre o idoso. O artigo 4 mostrou uma prevalência alta e não esperada de idosos internados que se percebiam como saudáveis. Foi possível observar, ainda, uma associação significativa entre percepção saudável e menor intensidade de sintomas depressivos, bem como melhor percepção de QV no domínio nível de independência. E por último, o artigo 5 discute o viés da subescala somático e de desempenho nas respostas do idoso ao BDI. Conclusões: Idosos constituem um grupo particular e, como tal, apresentam especificidades relevantes. A avaliação dos idosos em relação às suas percepções de QV está associada a sexo, idade, estado civil, classe social, percepção de saúde e mais fortemente associada a níveis de sintomas depressivos. Explorando o cuidador como avaliador da QV do idoso observou-se uma tendência de o cuidador perceber a QV do idoso pior do que a própria percepção do idoso, apesar de fortes correlações para todos os domínios e na medida QV geral na percepção do par idoso-cuidador. Já na avaliação de percepção de saúde em idosos foi verificada a influência da intensidade dos sintomas depressivos bem como da dimensão independência: quanto menor a intensidade de depressão e quanto maior o nível de independência, maior associação com percepção de saúde entre idosos. Além desses, características próprias da população idosa podem interferir nos resultados do BDI fazendo com que seus achados sejam maximizados por questões somáticas e de desempenho sugerindo pontos de corte especiais para os idosos. Novos estudos são sugeridos a fim de atender a demanda específica do idoso.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estudos referentes à dinâmica espaço-temporal da interação hospedeiro-parasitóide são de fundamental importância para o desenvolvimento de técnicas de manejo de insetos em agroecossistemas. Uma recente abordagem têm sido o estudo de populações através da simulação computacional dos indivíduos que a compõem. Este método tem possibilitado a incorporação de importantes características como individualidade e estrutura espacial nos modelos teóricos. Neste sentido, o presente estudo visou a elaboração de um modelo baseado no comportamento individual para simular a dinâmica espaço-temporal da interação Spartocera dentiventris (Berg) (Hemiptera: Coreidae), inseto associado à cultura do fumo, e de seu inimigo natural, o parasitóide de ovos Gryon gallardoi (Brethes) (Hymenoptera: Scelionidae). Para a elaboração do modelo, estudos sobre a bioecologia de G. gallardoi foram desenvolvidos, de modo a investigar (i) o efeito da temperatura no seu desenvolvimento e viabilidade, (ii) a mortalidade de imaturos em campo, (iii) os parâmetros reprodutivos e a longevidade dos adultos, (iv) os padrões de dispersão em campo e (v) a resposta funcional e a interferência mútua dos parasitóides em diferentes densidades de ovos de S. dentiventris. No intuito de avaliar a capacidade de predição do modelo elaborado, a dinâmica espaço-temporal de ovos sadios e parasitados de S. dentiventris foi acompanhada em um cultivo de fumo, estabelecido em área experimental do Departamento de Fitossanidade da Faculdade de Agronomia da UFRGS, Porto Alegre (30o01’S e 51o13’O), RS, Brasil A viabilidade do desenvolvimento dos parasitóides na faixa de 20 a 30oC não diferiu significativamente, alcançando 98,8%. O tempo de desenvolvimento ovo-adulto de machos e fêmeas foi inversamente proporcional ao aumento da temperatura. Os valores estimados para o limite térmico inferior de desenvolvimento e para a constante térmica foram 15,5oC e 185,19GD para machos e 15,6oC e 192,31GD para fêmeas. Diversos fatores afetam o sucesso de imaturos de G. gallardoi em campo, sendo que o malogro e a predação por sugadores são os principais responsáveis pela emergência de apenas 37,87% dos adultos. Foi observado um período médio de oviposição de 10,1 ± 1,74 dias, com o pico de oviposição no segundo dia, sendo depositados ao longo dos mesmos uma média de 67,5 ± 11,29 ovos por fêmea. Fêmeas de G. gallardoi foram significativamente mais longevas que os machos, vivendo, respectivamente, 13,7 ± 1,94 e 10,6 ± 1,78 dias. A razão sexual total observada foi de 0,79. A dispersão de G. gallardoi em cultivo de fumo não foi sensivelmente influenciada pelo vento, sendo estimada uma capacidade de locomoção diária média para fêmeas de no mínimo 7,62 m. O padrão de parasitismo de G. gallardoi ajustou-se perfeitamente à resposta funcional do tipo II (pseudo-r2= 0,99), sendo obtidos os valores de 0,0557 e 0,9989 h para os componentes a’ e Tm , respectivamente O aumento da densidade de parasitóides acarretou, de maneira geral, uma diminuição no número de ovos parasitados por parasitóide. Foi obtido para o índice de interferência mútua “m” o valor 0,626. A dinâmica temporal de S. dentiventris – G. gallardoi simulada ajustou-se muito bem aos dados obtidos em campo (r2= 0,82 para ovos sadios e r2= 0,72 para ovos parasitados). Da mesma forma, os arranjos espaciais dos ovos e da taxa de parasitismo observados em campo foram satisfatoriamente reproduzidos através das simulações computacionais. Os resultados indicam que G. gallardoi apresenta um bom potencial para controlar populações de S. dentiventris, seja pela sua viabilidade de desenvolvimento em uma larga faixa de temperatura ou pela sua capacidade reprodutiva e padrões de dispersão similares àqueles observados para outras espécies já utilizadas no controle biológico de insetos. Por outro lado, a sensibilidade às baixas temperaturas, a alta mortalidade de imaturos observada em campo e uma resposta funcional do tipo II podem ser fatores que se contrapõe ao sucesso do parasitóide no controle de populações de S. dentiventris. Considerando a independência entre os dados observados e os dados obtidos através de simulações, o modelo elaborado obteve pleno sucesso em simular a dinâmica da interação S. dentiventris – G. gallardoi a partir do comportamento individual dos diferentes agentes Duas importantes características associadas à estabilidade de sistemas hospedeiro-parasitóide foram observadas no estudo de campo e reproduzidas no modelo – um padrão de parasitismo inversamente dependente da densidade dos hospedeiros e uma resposta agregativa dos parasitóides em algumas regiões do sistema. Desta forma, futuros estudos podem avaliar, a partir de um enfoque baseado no indivíduo, quais mecanismos são responsáveis por tais comportamentos e qual é o seu efeito na dinâmica do sistema. Conclui-se, através deste trabalho, que o estudo da dinâmica de populações através de uma abordagem baseada no indivíduo, com base em modelos computacionais, pode ser uma alternativa viável para superar as limitações e a complexidade inerente ao uso de modelos populacionais analíticos. Desta forma, o maior realismo implícito nestes modelos os torna ferramentas muito úteis para diversas áreas da ecologia aplicada, particularmente para a entomologia agrícola.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente utilização da Tecnologia da Informação (TI), que surge como um fator importante para a efetividade do negócio e, muitas vezes, como um diferencial competitivo, se potencializa quando considerada no processo de gestão estratégica da organização. Entretanto, muitas universidades e empresas ainda não têm a exata consciência da importância do alinhamento da estratégia da TI à estratégia do negócio, quando visam atingir seus objetivos organizacionais de forma integral. Este estudo, de natureza exploratória, buscou verificar o alinhamento entre as estratégias de negócio e as estratégias da TI, a partir de instrumentos de pesquisa desenvolvidos por Chan (1992). Os instrumentos de pesquisa 6WUDWHJLF 2ULHQWDWLRQ RI %XVLQHVV (QWHUSULVHV STROBE, 6WUDWHJLF 2ULHQWDWLRQ RI ,QIRUPDWLRQ 6\VWHPV $SSOLFDWLRQV - STROIS, Desempenho do Negócio e Efetividade de TI foram traduzidos para o português, passaram por ajustes ao ambiente universitário e foram aplicados em uma única instituição, aos membros da reitoria, aos diretores e aos gerentes, permitindo verificar os diversos aspectos do alinhamento estratégico entre TI e o negócio. Os resultados deste estudo levam a concluir-se pela existência de um bom ajuste das estratégias de negócio e de TI na instituição pesquisada, considerando os elementos: agressividade, análise, defensividade (interna e externa), perspectiva futura, proatividade, aversão a riscos e inovação.