968 resultados para Modelos físicos reduzidos
Resumo:
Estudamos neste trabalho, o nível de significância empírico dos testes portmanteau baseados nas estatísticas propostas por Ljung e Box (1978), Monti (1994) e Pe˜na e Rodríguez (2002) nos processos ARFIMA(p; d; q). Consideramos o processo ARFIMA(p; d; q) nas situações adequadas para representar séries temporais com características de longa dependência. Para estimar o parâmetro de diferenciação d utilizamos os métodos de estimação propostos por Geweke e Porter-Hudak (1983), Reisen (1994), Robinson (1994) e Fox e Taqqu (1983).
Resumo:
A distribuição de recursos públicos de modo equilibrado e bem aplicado é questão de suma importância para administradores públicos e planejadores, especialmente em países como o Brasil que, a cada ano, vê sua capacidade de investimento mais reduzida e onde mais se acentuam os desníveis sociais. A metodologia, aqui empregada, busca incorporar ao modelo a característica de dinamismo própria da realidade regional e por isso permite grande abertura na fase de seleção de variáveis, tratamento dos dados e cálculos de correlações. Descarta de saída a possibilidade de ser resposta única para a questão da regionalização, e sobretudo, visa ser um modelo heurístico que se realimenta via interações, permitindo inúmeras soluções, tanto melhores, quanto mais forem as tentativas de otimização do método. Este trabalho trata da questão da regionalização sob a ótica do estabelecimento de similaridades através de uma análise centrada nos dados sócio-econômicos que guardam melhor correlação com a estrutura espacial, utilizando a técnica de análise de agrupamentos e estatística multivariada, com o fim de facilitar o planejamento regional e munir os administradores públicos com instrumentos de decisão para uma distribuição melhor dimensionada de recursos. O tratamento dos dados se desenvolve a partir de matrizes que relacionam cada objeto unitário com todos os demais, neste caso, cada unidade municipal do estado do Rio Grande do Sul com todos os demais municípios. Utiliza-se o cálculo de variadas formas de distâncias euclidianas e não euclidianas para estabelecer a similaridade entre os objetos, o que é medido através do Teste de Mantel que relaciona as matrizes de dados com a matriz de distância. Posteriormente, via uso de técnicas de análise de agrupamento obtém-se os padrões regionais atrelados à estrutura espacial. As regionalizações geradas pelo método têm a vantagem de apresentarem-se em vários níveis hierárquicos, direcionando-se para uma maior diferenciação à medida que os níveis se aprofundam. Permitem uma visualização dos resultados em qualquer um dos níveis de diferenciação, o que proporciona ampla gama de possibilidades comparativas. Possuem um bom grau de isenção técnica, porque são o resultado de uma análise cujos principais referenciais são de domínio coletivo e definidores do espaço, em que pese o índice de correlação entre as matrizes de distâncias ter sido baixo, para esta partida de dados selecionada e aplicada ao estado do Rio Grande do Sul.
Resumo:
Este trabalho aborda uma intervenção ergonômica baseada em princípios da macroergonomia, de caráter participativo, realizada nos postos de trabalho dos caixas do Banco do Estado do Rio Grande do Sul S. A. - Banrisul. A demanda deveu-se à alta incidência de patologias ocupacionais, LERlDORT (Lesões por Esforços Repetitivos /Doenças Osteomusculares relacionadas ao Trabalho), em escriturários do banco (caixas). Utilizando os mesmos instrumentos de pesquisa, foi avaliado o grau de satisfação dos empregados em relação à organização do trabalho, saúde, ambiente laboral e mobiliário, antes e após a intervenção realizada nos setores de caixa. Os resultados demonstraram que a metodologia Análise Macroergonômica do Trabalho (AMT) utilizada foi adequada, pois inova ao identificar e quantificar também fatores subjetivos que, muitas vezes, permanecem restritos aos próprios trabalhadores, pois provêm de suas vivências e experiências pessoais ou de grupo.
Resumo:
Combinando métodos computacionais da eletrostática e dinâmica molecular, este trabalho teve como objetivo descrever processos de solvatação em sistemas quimicamente importantes. Foram obtidas propriedades termodinâmicas necessárias para o entendimento do processo de solvatação. Estão descritos e testados modelos para descrever a interação soluto-solvente, possibilitando, assim, aprimorar a descrição físico-química dos processos de solvatação. Utilizaram-se programas desenvolvidos em nosso grupo e programas comerciais que permitem os cálculos de dinâmica molecular e química quântica. Uma nova abordagem para o cálculo de energia livre de solvatação foi desenvolvida proporcionando a obtenção acurada e eficiente dessa propriedade, dentro do enfoque da dinâmica molecular. Nessa nova abordagem, novas metodologias para a geração de cavidades moleculares foram propostas e avaliadas. As energias livres de solvatação obtidas estão em boa concordância com os valores experimentais.
Resumo:
Este trabalho foi realizado dentro da área de reconhecimento automático de voz (RAV). Atualmente, a maioria dos sistemas de RAV é baseada nos modelos ocultos de Markov (HMMs) [GOM 99] [GOM 99b], quer utilizando-os exclusivamente, quer utilizando-os em conjunto com outras técnicas e constituindo sistemas híbridos. A abordagem estatística dos HMMs tem mostrado ser uma das mais poderosas ferramentas disponíveis para a modelagem acústica e temporal do sinal de voz. A melhora da taxa de reconhecimento exige algoritmos mais complexos [RAV 96]. O aumento do tamanho do vocabulário ou do número de locutores exige um processamento computacional adicional. Certas aplicações, como a verificação de locutor ou o reconhecimento de diálogo podem exigir processamento em tempo real [DOD 85] [MAM 96]. Outras aplicações tais como brinquedos ou máquinas portáveis ainda podem agregar o requisito de portabilidade, e de baixo consumo, além de um sistema fisicamente compacto. Tais necessidades exigem uma solução em hardware. O presente trabalho propõe a implementação de um sistema de RAV utilizando hardware baseado em FPGAs (Field Programmable Gate Arrays) e otimizando os algoritmos que se utilizam no RAV. Foi feito um estudo dos sistemas de RAV e das técnicas que a maioria dos sistemas utiliza em cada etapa que os conforma. Deu-se especial ênfase aos Modelos Ocultos de Markov, seus algoritmos de cálculo de probabilidades, de treinamento e de decodificação de estados, e sua aplicação nos sistemas de RAV. Foi realizado um estudo comparativo dos sistemas em hardware, produzidos por outros centros de pesquisa, identificando algumas das suas características mais relevantes. Foi implementado um modelo de software, descrito neste trabalho, utilizado para validar os algoritmos de RAV e auxiliar na especificação em hardware. Um conjunto de funções digitais implementadas em FPGA, necessárias para o desenvolvimento de sistemas de RAV é descrito. Foram realizadas algumas modificações nos algoritmos de RAV para facilitar a implementação digital dos mesmos. A conexão, entre as funções digitais projetadas, para a implementação de um sistema de reconhecimento de palavras isoladas é aqui apresentado. A implementação em FPGA da etapa de pré-processamento, que inclui a pré-ênfase, janelamento e extração de características, e a implementação da etapa de reconhecimento são apresentadas finalmente neste trabalho.
Resumo:
XML é um padrão da W3C largamente utilizado por vários tipos de aplicações para representação de informação semi-estruturada e troca de dados pela Internet. Com o crescimento do uso de XML e do intercâmbio de informações pela Internet é muito provável que determinadas aplicações necessitem buscar uma mesma informação sobre várias fontes XML relativas a um mesmo domínio de problema. No intuito de representar a informação dessas várias fontes XML, o programador é obrigado a escolher entre muitas estruturas hierárquicas possíveis na criação dos esquemas de seus documentos XML. Um mesmo domínio de informação, desta maneira, pode então ser representado de diferentes formas nas diversas fontes de dados XML existentes. Por outro lado, verifica-se que as linguagens de consulta existentes são fortemente baseadas no conhecimento da estrutura de navegação do documento. Assim, ao consultar uma determinada informação semanticamente equivalente em várias fontes é necessário conhecer todos os esquemas envolvidos e construir consultas individuais para cada uma dessas fontes. Em um ambiente de integração, entretanto, é possível gerar um modelo global que representa essas fontes. Ao construir consultas sobre um modelo global, temos consultas integradas sobre estas fontes. Para se atingir esse objetivo, contudo, devem ser resolvidos os problemas da heterogeneidade de representação dos esquemas XML. Dessa forma, com base em uma abordagem de integração de esquemas, o presente trabalho define a linguagem de consulta CXQuery (Conceptual XQuery) que possibilita a construção de consultas sobre um modelo conceitual. Para possibilitar o retorno dos dados das fontes nas consultas feitas em CXQuery, foi desenvolvido um mecanismo de tradução da linguagem CXQuery para a linguagem de consulta XQuery 1.0. A linguagem XQuery 1.0 é umas das linguagens mais utilizadas para o acesso as fontes XML e permite que os dados possam ser retornados ao usuário. Para possibilitar essa tradução, foi definida uma metodologia de representação da informação de mapeamento através de visões XPath. Essa metodologia é relativamente eficaz no mapeamento das diferentes representações das fontes XML.
Resumo:
A computação de tempo real é uma das áreas mais desafiadoras e de maior demanda tecnológica da atualidade. Está diretamente ligada a aplicações que envolvem índices críticos de confiabilidade e segurança. Estas características, inerentes a esta área da computação, vêm contribuindo para o aumento da complexidade dos sistemas tempo real e seu conseqüente desenvolvimento. Isto fez com que mecanismos para facilitar especificação, delimitação e solução de problemas passem a ser itens importantes para tais aplicações. Este trabalho propõe mecanismos para atuarem no desenvolvimento de sistemas de tempo real, com o objetivo de serem empregados como ferramenta de apoio no problema da verificação de presença de inconsistências, que podem vir a ocorrer nos vários modelos gerados partir da notação da linguagem de modelagem gráfica para sistemas de tempo real - UML-RT(Unified Modeling Language for Real Time). Estes mecanismos foram projetados através da construção de um metamodelo dos conceitos presentes nos diagramas de classe, de objetos, de seqüência, de colaboração e de estados. Para construir o metamodelo, utiliza-se a notação do diagrama de classes da UML (Unified Modeling Language). Contudo, por intermédio das representações gráficas do diagrama de classes não é possível descrever toda a semântica presente em tais diagramas. Assim, regras descritas em linguagem de modelagem OCL (Object Constraint Language) são utilizadas como um formalismo adicional ao metamodelo. Com estas descrições em OCL será possível a diminuição das possíveis ambigüidades e inconsistências, além de complementar as limitações impostas pelo caráter gráfico da UML. O metamodelo projetado é mapeado para um modelo Entidade&Relacionamento. A partir deste modelo, são gerados os scripts DDL (Data Definition Language) que serão usados na criação do dicionário de dados, no banco de dados Oracle. As descrições semânticas escritas através de regras em OCL são mapeadas para triggers, que disparam no momento em que o dicionário de dados é manipulado. O MET Editor do SiMOO-RT é a ferramenta diagramática que faz o povoamento dos dados no dicionário de dados. SiMOO-RT é uma ferramenta orientada a objetos para a modelagem, simulação e geração automática de código para sistemas de tempo real.
Resumo:
A quantificação da precipitação é dificultada pela extrema aleatoriedade do fenômeno na natureza. Os métodos convencionais para mensuração da precipitação atuam no sentido de espacializar a precipitação mensurada pontualmente em postos pluviométricos para toda a área de interesse e, desta forma, uma rede com elevado número de postos bem distribuídos em toda a área de interesse é necessária para um resultado satisfatório. No entanto, é notória a escassez de postos pluviométricos e a má distribuição espacial dos poucos existentes, não somente no Brasil, mas em vastas áreas do globo. Neste contexto, as estimativas da precipitação com técnicas de sensoriamento remoto e geoprocessamento pretendem potencializar a utilização dos postos pluviométricos existentes através de uma espacialização baseada em critérios físicos. Além disto, o sensoriamento remoto é a ferramenta mais capaz para gerar estimativas de precipitação nos oceanos e nas vastas áreas continentais desprovidas de qualquer tipo de informação pluviométrica. Neste trabalho investigou-se o emprego de técnicas de sensoriamento remoto e geoprocessamento para estimativas de precipitação no sul do Brasil. Três algoritmos computadorizados foram testados, sendo utilizadas as imagens dos canais 1, 3 e 4 (visível, vapor d’água e infravermelho) do satélite GOES 8 (Geostacionary Operational Environmental Satellite – 8) fornecidas pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais. A área de estudo compreendeu todo o estado do Rio Grande do Sul, onde se utilizaram os dados pluviométricos diários derivados de 142 postos no ano de 1998. Os algoritmos citados buscam identificar as nuvens precipitáveis para construir modelos estatísticos que correlacionem as precipitações diária e decendial observadas em solo com determinadas características físicas das nuvens acumuladas durante o mesmo período de tempo e na mesma posição geográfica de cada pluviômetro considerado. Os critérios de decisão que norteiam os algoritmos foram baseados na temperatura do topo das nuvens (através do infravermelho termal), reflectância no canal visível, características de vizinhança e no plano de temperatura x gradiente de temperatura Os resultados obtidos pelos modelos estatísticos são expressos na forma de mapas de precipitação por intervalo de tempo que podem ser comparados com mapas de precipitação obtidas por meios convencionais.
Resumo:
Neste trabalho, uma versão analítica do método de ordenadas discretas é usada para desenvolver soluções para alguns problemas da dinÂmica de gases rarefeitos, baseado em um modelo com freqüência de colisão variável (modelo CLF) da equação de Boltzmann linearizada. Em particular, resultados numéricos obtidos para os problemas de salto de temperatura, fluxo de Poiseuille, fluxo de Couette, Kramers, creep-térmico e deslizamento térmico são apresentados e discutidos.
Resumo:
A simulação computacional de processos é uma ferramenta valiosa em diversas etapas da operação de uma planta química, tais como o projeto, a análise operacional, o estudo da estratégia de controle e a otimização, entre outras. Um programa simulador requer, freqüentemente, o cálculo das propriedades termofísicas que fazem parte das equações correspondentes aos balanços de massa, energia e quantidade de movimento. Algumas dessas quantidades, típicas de operações baseadas no equilíbrio de fases (tais como a destilação fracionada e a separação flash), são as fugacidades e entalpias das fases líquida e vapor em equilíbrio. Contudo, o uso de modelos e correlações cada vez mais sofisticadas para representar acuradamente as propriedades termofísicas dos sistemas reais fez com que grande parte do tempo gasto numa simulação de processos seja devida à avaliação destas propriedades. Muitas estratégias têm sido propostas na literaturas a fim de se reduzir a carga computacional envolvida na simulação, estática e dinâmica, dos problemas de Engenharia Química. Esta diminuição do tempo de processamento pode muitas vezes ser determinante na aplicação ou não da simulação de processos na prática industrial, como, por exemplo, no controle automático. Esta dissertação aborda uma das alternativas para a redução do tempo computacional gasto na simulação de processos: a aproximação das funções que descrevem as propriedades termofísicas através de funções mais simples, porém de fácil avaliação. Estas funções, a fim de se garantir uma aproximação adequada, devem ser corrigidas ou atualizadas de alguma forma, visto que se tratam de modelos estritamente válidos em uma pequena região do espaço das variáveis, sendo, por isto, chamados de modelos locais. Partindo-se do estado atual desta técnica, é proposta nesta dissertação uma nova metodologia para se efetuar esta aproximação, através da representação global da propriedade mediante múltiplas funções simples, constituindo, desse modo, uma rede de modelos locais. Algumas possibilidades para a geração efetiva destas redes são também discutidas, e o resultado da metodologia é testado em alguns problemas típicos de separação por equilíbrio de fases.
Resumo:
Materiais compósitos são empregados nos mais diversos tipos de estruturas (civis, mecânicas, aeronáuticas, etc.). A possibilidade de otimização de suas propriedades, frente às solicitações consideradas, representa uma grande vantagem na sua utilização. A teoria da homogeneização permite a avaliação da influência de detalhes microestruturais nas características do composto através do estudo de uma célula elementar. Os deslocamentos periódicos dessa célula são aproximados com expansões ortogonais polinomiais. A exatidão dos cálculos elásticos está associada ao grau dos polinômios utilizados. O procedimento numérico no modelo viscoelástico é incremental no tempo, utilizando-se de variáveis de estado, cuja implementação proporciona grande economia computacional, pois evita o cálculo de integrais hereditárias. A influência de diversos parâmetros físicos na constituição dos compósitos de fibras unidirecionais estudados é discutida e comparada com resultados obtidos com modelos em elementos finitos, tanto em elasticidade, quanto em viscoelasticidade sem envelhecimento. Para o caso de envelhecimento, no qual as características dos constituintes são variáveis com o tempo, é mostrada a resposta dos compósitos sob relaxação para diferentes instantes iniciais de carregamento em situações de "softening" (ou abrandamento) e "hardening" (ou endurecimento).
Resumo:
A presente tese tem como objetivo geral investigar os impactos e mudanças promovidos pela implementação de programas de avaliação institucional, nas condições de produção do ensino de graduação das universidades municipais no Estado de Santa Catarina, a partir do Programa de Avaliação Institucional das Universidades Brasileiras - Paiub. Justifica-se a nível contextual, pela necessidade de se discutir propostas de políticas de avaliação das universidades comprometidas com modelos de autonomia e emancipação. A nível teórico, são reduzidos os trabalhos que tenham explorado a temática, levando em consideração as universidades municipais catarinenses. Focou o ensino de graduação. Priorizou as categorias analíticas: avaliação X impacto X mudança; fatores técnicos X fatores políticos. A população foi composta de gestores de onze universidades criadas por lei municipal no estado de Santa Catarina. Duas abordagens de pesquisa estiveram presentes no estudo: uma de cunho histórico e outra de cunho exploratório. O referencial teórico explorou: as principais transformações ocorridas a nível internacional no campo econômico, político, social e tecnológico e que interferem no contexto do ensino superior brasileiro; a mercantilização do Ensino Superior e a ação do Estado avaliativo através da emergência da avaliação institucional como estratégia de controle do mercado; as políticas avaliativas diferenciadas entre aquelas emergentes da sociedade civil organizada e aquelas oriundas do Estado avaliativo, priorizando as análises no PAIUB e no ENC - Exame Nacional de Cursos Descreve a gênese das instituições de Ensino Superior fundacional municipal catarinense, suas principais características, perspectivas e os aspectos legais de sua inserção no Sistema Estadual de Educação. Ao abordar os impactos e mudanças da avaliação institucional nas condições de produção do ensino de graduação contempla o estudo: da missão das IES; das origens dos programas de avaliação institucional; do papel do PAIUB na elaboração dos primeiros projetos de avaliação institucional; dos fatores técnicos e fatores políticos e suas interferências na evolução e consolidação dos programas de avaliação institucionais das IES; dos impactos e mudanças promovidos pela avaliação institucional no ensino de graduação; e o compromisso dos programas de avaliação institucional com regulação, emancipação, universidade do conhecimento e universidade de mercado. Conclui o estudo comprovando a tese de que: a gênese do processo de avaliação institucional está vinculada ao lançamento do PAIUB; a avaliação institucional tem gerado impactos e mudanças nas condições de produção do ensino de graduação; fatores técnicos e políticos interferem no pleno êxito dos programas avaliativos.
Resumo:
As doenças cerebrovasculares, popularmente conhecidas como derrames, são uma das principais causas de morbidade e mortalidade entre adultos e idosos. Contudo, muitos pacientes que sofrem derrame sobrevivem e experimentam as conseqüências do insulto por muitos anos, muitas vezes a nível emocional, motor ou intelectual. Dentre estas lesões, destaca-se a isquemia cerebral. Existem modelos experimentais de isquemia cerebral in vivo e in vitro. Os modelos in vitro são realizados em culturas ou fatias de tecido cerebral submetidas à Privação de Oxigênio e Glicose (POG), que mimetizam condições traumáticas similares, mas não idênticas às produzidas in vivo. A investigação da atividade de substâncias potencialmente neuroprotetoras a partir da comparação da morte celular entre culturas ou fatias de tecido cerebral controle e tratadas é facilitada neste tipo de modelo experimental. Após a injúria, as culturas são expostas a métodos de avaliação da viabilidade ou dano celular como, por exemplo, o corante fluorescente iodeto de propídeo, que marca seletivamente células mortas ou em curso de morte, ou MTT (3-[4,5-dimethylthiazol-2-yl]-2,5-diphenyltetrazoliumbromide) que mede a viabilidade mitocondrial possibilitando uma posterior quantificação. As plantas são uma fonte importante de produtos naturais biologicamente ativos, muitos dos quais se constituem em modelos para a síntese de um grande número de fármacos. Um exemplo é a planta kava-kava ou somente kava (Piper Methysticum) a qual chamou a atenção dos pesquisadores devido à sua utilização nas ilhas do Pacífico sul. Foi demonstrada a possibilidade da kava possuir uma variedade de atividades farmacológicas importantes, entre elas a atividade de neuroproteção Esse trabalho tem como objetivo avaliar a atividade neuroprotetora do extrato de kava-kava (Piper methysticum) em modelos in vitro de morte neuronal em fatias de hipocampo de ratos, investigar o envolvimento da proteína de choque térmico HSP27 (Heat Shock Protein) no processo de morte e neuroproteção induzida pela kava, bem como investigar o efeito da lesão induzida por POG sobre o imunoconteúdo da proteína Oxido Nítrico Sintase induzível (iNOS). Os resultados dos experimentos por nós realizados nas culturas organotípicas submetidas à POG por 40 minutos e tratadas com extrato de kava (7µg/ml) demonstraram uma significativa redução, na ordem de 58% na intensidade da morte neuronal na região CA1 do hipocampo em resposta à injúria. Em fatias hipocampais submetidas à POG por 60 minutos a adição do extrato de kava 7µg/ml aumentou em 15% a viabilidade celular, confirmando a atividade neuroprotetora sugerida para esta planta. As culturas expostas à POG e tratadas com kava apresentaram um aumento significativo no imunoconteúdo da proteína HSP27, esse aumento é acompanhado de um aumento da fosforilação, uma vez que a percentagem de proteína fosforilada se mantém igual. As fatias lesionadas tratadas com kava apresentaram uma diminuição significativa no imunoconteúdo da iNOS na ordem de 35 % em relação as fatias lesionadas tratadas com DMSO (Dimetilsulfoxido). Estes dados podem sugerir que um dos mecanismos da neuroproteção observada para o extrato de kava, possa envolver essas proteínas.