958 resultados para Minimização de funcionais
Resumo:
A matéria orgânica do solo (MOS) constitui importante componente dos solos de regiões tropicais e subtropicais, tendo papel importante em suas propriedades químicas e físicas. Com objetivo de avaliar as características da MOS em Latossolos brasileiros sob vegetação nativa e sua relação com a profundidade e com as características mineralógicas e texturais dos solos, foram realizados dois estudos. No primeiro estudo foi investigou-se o efeito do tratamento com solução de HF 10% na resolução espectral de RMN 13C e na qualidade da MOS em amostras de horizontes A e B de quatro Latossolos brasileiros. Os sucessivos tratamentos com HF melhoraram a resolução espectral em ambos os horizontes. As perdas de C ao longo dos tratamentos foram da ordem de 39 a 48% no horizonte A e 71 a 85% no horizonte B, porém não foram seletivas para nenhum dos grupos funcionais determinados por RMN 13C. No segundo estudo, amostras do horizonte A de oito Latossolos, sendo seis do Rio Grande do Sul sob vegetação de campo nativo, um do Distrito Federal sob vegetação de cerrado e um do Amazonas sob vegetação de floresta tropical foram submetidas ao fracionamento físico da MOS As frações obtidas foram analisadas por análise elementar e espectroscopia de RMN 13C CP/MAS. Microagregados de argila contendo óxidos de ferro, resistiram à dispersão de ultrassom a 450J mL-1. A proporção dos grupos C-O-alquil aumentou com a diminuição do tamanho de partícula e a razão C alquil/ C-O-alquil diminuiu, evidenciando o mecanismo de proteção da MOS devido à interação com a superfície dos minerais. Este comportamento foi mais acentuado nos solos argilosos do Rio Grande do Sul. A variação dos grupos funcionais da MOS em função do tamanho de partícula foi diferenciada entre os solos estudados, indicando que a comparação direta da qualidade e dinâmica da MOS em diferentes ambientes é limitada.
Resumo:
A resposta da vegetação às condições ambientais pode ser observada nos diferentes padrões da paisagem. Estas respostas são o reflexo da atuação de fatores bióticos e abióticos que são responsáveis pela distribuição complexa observada nos mosaicos paisagísticos, em diferentes escalas – espaciais e temporais. Neste sentido, o presente trabalho teve como objetivo elucidar as possíveis relações entre a vegetação e as características edáficas, em uma área de mineralização de cobre, mina Volta Grande, Lavras do Sul, RS. Com bases na ecologia de paisagem, utilizamos diferentes ferramentas para analisar a vegetação - métodos dos pontos e determinação dos tipos funcionais de plantas – e o solo – determinação das características geomorfológicas, químicas e físicas do solo, e o processo pedogenético – tendo em vista o estabelecimento de unidades da paisagem - ecótopos. De acordo com os resultados obtidos, distinguiram-se 8 diferentes ecótopos vegetacionais, expressos nas três escalas de abordagem (meso, micro e macro escala). Os ecótopos com maior expressividade são os savanóides, estando estes provavelmente associados às ocorrências dos filões de cobre. Com relação às concentrações de cobre disponível no solo, não se observou, estatisticamente, nenhum valor de correlação entre a as características dos tipos funcionais e as concentrações deste metal nos solos estruturados. Os tipos funcionais revelaram a existência de adaptações escleromórficas nos indivíduos constituintes da vegetação de savana. Além disto, observamos a existência de um gradiente vegetacional – formações campestres, savanas e florestas, e um gradiente edáfico – afloramento rochoso, litossolos e cambissolos, ambos relacionados com a geomorfologia da área da mina.
Resumo:
o setor de manutenção, em geral, é visto como uma das áreas mais propícias à implementação de melhorias na qualidade da gestão e dos serviços. Nesse campo, a Manutenção Centrada em Confiabilidade (MCC) tem apresentado bons resultados. A MCC é uma metodologia que permite determinar racionalmente o que deve ser feito para assegurar que um equipamento continue a cumprir suas funções em seu contexto operacional, determinando tarefas de manutenção, necessárias para manter o sistema funcionando, ao invés de restaurar o equipamento a uma condição ideal. A metodologia de implementação da MCC descrita neste trabalho contempla as seguintes etapas: (i) preparação do estudo; (ii) seleção do sistema e subsistemas funcionais; (iii) análise das funções e falhas funcionais; (iv) seleção dos itens críticos do subsistema; (v) coleta e análise de informações; (vi) análise de modos de falha e efeitos; (vii) seleção das tarefas de manutenção preventiva; e (viii) elaboração do plano de manutenção. o objetivo deste trabalho é consolidar as definições e etapas para implementação da MCC no setor de preparação de polpa da fábrica de pasta químico-mecânica (FPQM) da Celulose Irani S.A. Inicialmente, foi feita uma abordagem sobre os métodos de manutenção, discorrendo em específico sobre aqueles voltados à MCC. Em seguida, são apresentadas as definições, as principais ferramentas utilizadas pela MCC e a sistemática de implementação da MCC na visão de vários autores. Posteriormente, foi realizado um estudo de caso em que foram determinadas as tarefas de manutenção para manter as funções dos itens fisicos da FPQM. Nas etapas de implementação, são geradas informações sobre os subsistemas e são determinadas as funções, as falhas funcionais, os modos de falha, a causa e o efeito da falha e se faz a descrição do realizado em cada etapa, esclarecendo e ampliando a compreensão do leitor, diante da MCC. Os resultados obtidos demonstram que a metodologia da MCC é um processo contínuo e sua aplicação deve ser reavaliada conforme a experiência operacional for acumulada, e que, apesar da ausência de informações históricas sobre falhas de itens fisicos, a MCC permite definir planos de manutenção e aprimorar o conhecimento acerca do sistema em estudo.
Resumo:
É bem conhecido que técnicas experimentais que fazem uso de feixes iônicos induzem sobre a superfície dos alvos irradiados o depósito de diversos tipos de impurezas. Este depósito é causado pelas interações entre o feixe de íons, as moléculas de gás residual no interior das câmaras de irradiação e a superfície da amostra. Apesar do fato deste processo poder alterar significativamente os parâmetros de irradiações, bem como afetar a análise de materiais tratados, os parâmetros experimentais que influenciam na deposição das impurezas ainda não são bem conhecidos e nem o depósito se encontra suficientemente quantificado. No presente trabalho relatamos um estudo quantitativo da deposição de carbono sobre amostras de Si (100) irradiadas com feixes de He e H. A deposição de carbono foi determinada em função da fluência de irradiação, variando diversos parâmetros experimentais, tais como: pressão na câmara de irradiação, temperatura do alvo, densidade de corrente do feixe, energia do feixe e o estado da carga do íon. Em todos os casos a análise das amostras irradiadas foi feita pela técnica de Retroespalhamento de Rutherford em direção Canalizada (RBS/C) e através da reação nuclear ressonante 12C(a, a´)12C na energia de 4265 keV. Os resultados experimentais mostram que se consegue minimizar a deposição de C através: a) da redução do tempo de irradiação, b) da redução da pressão na câmara de irradiação, c) do aumento da temperatura do alvo durante a irradiação e d) minimização do poder de freamento do íon no alvo.
Resumo:
Mosaicos de áreas úmidas fornecem hábitats para uma ampla gama de espécies de aves, que raramente se distribuem uniformemente dentro das mesmas. O cenário mundial atual do estudo de aves em áreas úmidas deixa bem claro que as metodologias para estudos quantitativos de aves em áreas úmidas ainda estão sendo criadas ou aperfeiçoadas. O mosaico formado pelas áreas úmidas do Banhado dos Pachecos é de reconhecida importância para a conservação de aves aquáticas, constituindo-se numa área ideal para estudos da avifauna. A presente dissertação tem como objetivo avaliar a estrutura espacial e sazonal da avifauna do Banhado dos Pachecos, tecer considerações sobre a conservação das aves aquáticas sob uma perspectiva de paisagem e testar a viabilidade de se utilizar amostragens matinais e vespertinas para análises de distribuição e abundância da avifauna. O Banhado dos Pachecos, juntamente com o Banhado Grande, formam o Sistema Banhado Grande. A amostragem da avifauna foi conduzida através de levantamentos qualitativos e quantitativos de modo a cobrir quatro estações climáticas: verão, outono, inverno e primavera. As amostragens qualitativas foram realizadas através de deslocamentos ad libitum entre e durante as amostragens quantitativas em todas as fisionomias. As amostragens quantitativas foram realizadas através de pontos de contagem, transecções e contagens totais. Riqueza, grupos funcionais de forrageio, grupos funcionais de nidificação, aves aquáticas, situação de ocorrência no Rio Grande do Sul, espécies ameaçadas de extinção e abundância foram os descritores utilizados para a caracterização da avifauna. A estatística empregada na análise dos dados multivariados baseou-se em métodos não-paramétricos de reamostragem através de aleatorização e “bootstrap”. Análises de agrupamentos foram realizadas para determinar a formação de grupos de fisionomias e análises de coordenadas principais foram realizadas para determinar se existia algum padrão de associação entre as diferentes fisionomias. Registraram-se 209 espécies de aves, vinte e e três grupos funcionais de forrageio, sete grupos funcionais de nidificação e 60 espécies de aves aquáticas e 11 espécies ameaçadas de extinção. Trinta e duas espécies apresentaram evidências discordantes da situação de ocorrência conhecida para o estado. Alguns fatores que poderiam ser fontes de viés para a interpretação das análises na presente dissertação foram abordados. A constância encontrada no conjunto de espécies da área de estudo pode refletir uma maior estabilidade ambiental. O alto número de grupos funcionais de forrageio e de nidificação registrados para a área de estudo sugere uma grande diversidade de recursos, reflexo da heterogeneidade entre as diferentes fisionomias. A origem de algumas espécies que se mostraram efetivamente migratórias, pois usaram a área de estudo em um período estacional bem definido, se mostra uma incógnita. Somente estudos extensivos e abrangentes poderão responder essas perguntas e propor medidas eficientes para a conservação tanto das áreas úmidas como das espécies que delas dependem. A restauração de um corredor de áreas úmidas entre o banhado dos Pachecos e o banhado Grande, juntamente com um manejo rotativo de cultivos de arroz parece ser a alternativa mais viável e conciliatória entre pontos de vista econômico e conservacionista para possibilitar o aumento da conectividade no Sistema Banhado Grande.
Resumo:
A área bancária é um dos setores que mais têm investido em tecnologia de informação (TI), tendo seus produtos e serviços fundamentalmente apoiados por essa tecnologia. Apesar de complexo, mostra-se necessário e importante identificar e avaliar os possíveis efeitos de sua aplicação nas organizações, de forma a poder-se comprovar se os altos investimentos em TI fazem diferença. Nesta dissertação, comparam-se as percepções dos executivos dos bancos argentinos, uruguaios, chilenos, norte-americanos e brasileiros, quanto ao impacto proporcionado pela TI nas variáveis estratégicas das organizações bancárias. O estudo é uma pesquisa survey descritiva, que utilizou como instrumento de coleta de dados o questionário desenvolvido por MAÇADA & BECKER (2001). Para tal, foram realizados testes de validação (primeiramente, com os dados dos três países latino-americanos de língua hispânica e, depois, com os dados dos cinco países envolvidos na pesquisa). Com a realização deste estudo, obtiveram-se, como principais resultados, quatro importantes achados: (1) a Competitividade, os Produtos e Serviços e os Tomadores de Recursos Financeiros (clientes) são as variáveis estratégicas mais afetadas pela TI; Preços e Estrutura de Custos e Capacidade são as variáveis estratégicas menos afetadas pela TI; (2) os executivos dos bancos argentinos e uruguaios, e norte-americanos e uruguaios apresentam percepções muito semelhantes, quanto ao impacto de TI nas organizações bancárias às quais pertencem, enquanto as amostras brasileira e norte-americana apresentam as percepções mais distintas entre si; (3) não há diferença entre executivos de TI e de outras áreas funcionais quanto à percepção dos impactos de TI nas variáveis estratégicas; e (4) o impacto da TI na Competitividade está significativamente relacionado com os impactos da TI nos Tomadores de Recursos Financeiros, Governos e Países, Produtos e Serviços e Estrutura de Custos e Capacidade. A pesquisa apontou, ainda, as variáveis estratégicas mais afetadas pela TI nos setores bancários argentino, uruguaio e chileno. Espera-se que este estudo sobre o impacto de TI nas organizações constitua-se, para os executivos bancários, em ferramenta que possibilite apoiar no planejamento de TI e avaliar a sua utilização, bem como sirva de suporte para a realização de futuras pesquisas sobre esta temática.
Resumo:
Para o desenvolvimento de sistemas interativos que respeitem critérios de usabilidade em adição aos critérios de qualidade convencionais, é necessário que, desde suas primeiras etapas, as áreas de Engenharia de Software (ES) e de Interação Humano- Computador (IHC) sejam consideradas, simultaneamente e de maneira integrada. Essas duas áreas investigam modelos, conceitos, técnicas e práticas que refletem diferentes perspectivas sobre a atividade de desenvolvimento, uma orientada mais ao sistema (ES) e outra, mais ao usuário (IHC). Para conciliar estas perspectivas, é necessário o estabelecimento de um entendimento mútuo e a utilização conjunta e integrada de conceitos, técnicas e práticas de desenvolvimento de ambas as áreas. Este trabalho visa mostrar as possibilidades desta integração, através da combinação dos conceitos de Casos de Uso (Use Cases) e Cenários (Scenarios), importantes técnicas de modelagem amplamente utilizadas respectivamente nas áreas de ES e IHC, em diferentes contextos, com diferentes visões; mas apresentando similaridades valiosas para propiciarem o uso complementar de ambas as técnicas. Para sistematizar esta integração, é proposta uma abordagem teleológica – baseada em objetivos – de construção sistemática de casos de uso com quatro diferentes níveis de abstração, desde os mais abstratos casos de uso essenciais até os cenários, aqui utilizados como instâncias concretas de casos de uso. Com esta abordagem, pretende-se construir um modelo de casos de uso que permita especificar requisitos funcionais, conjuntamente com requisitos de interação, de maneira compreensível e praticável e que sirva como ponto de partida à continuidade do desenvolvimento orientado a objetos de software. Com o intuito de exemplificar a proposta, é descrita e discutida a aplicação passo a passo desta abordagem a um exemplo.
Resumo:
Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Neste trabalho é resolvido o problema da minimização do volume de estruturas bidimensionais contínuas submetidas a restrições sobre a flexibilidade (trabalho das forças externas) e sobre as tensões, utilizando a técnica chamada otimização topológica, que visa encontrar a melhor distribuição de material dentro de um domínio de projeto pré-estabelecido. As equações de equilíbrio são resolvidas através do método dos elementos finitos, discretizando a geometria e aproximando o campo de deslocamentos. Dessa forma, essas equações diferenciais são transformadas em um sistema de equações lineares, obtendo como resposta os deslocamentos nodais de cada elemento. A distribuição de material é discretizada como uma densidade fictícia constante por elemento finito. Esta densidade define um material isotrópico poroso de uma seqüência pré-estabelecida (SIMP). A otimização é feita através da Programação Linear Seqüencial. Para tal, a função objetivo e as restrições são sucessivamente linearizadas por expansão em Série de Taylor. A análise de sensibilidade para a restrição de flexibilidade é resolvida utilizando o cálculo da sensibilidade analítico adaptado para elementos finitos de elasticidade plana. Quando as restrições consideradas são as tensões, o problema torna-se mais complexo. Diferente da flexibilidade, que é uma restrição global, cada elemento finito deve ter sua tensão controlada. A tensão de Von Mises é o critério de falha considerado, cuja sensibilidade foi calculada de acordo com a metodologia empregada por Duysinx e Bendsøe [Duysinx e Bendsøe, 1998] Problemas como a instabilidade de tabuleiro e dependência da malha sempre aparecem na otimização topológica de estruturas contínuas. A fim de minimizar seus efeitos, um filtro de vizinhança foi implementado, restringindo a variação da densidade entre elementos adjacentes. Restrições sobre as tensões causam um problema adicional, conhecido como singularidade das tensões, fazendo com que os algoritmos não convirjam para o mínimo global. Para contornar essa situação, é empregada uma técnica matemática de perturbação visando modificar o espaço onde se encontra a solução, de forma que o mínimo global possa ser encontrado. Esse método desenvolvido por Cheng e Guo [Cheng e Guo, 1997] é conhecido por relaxação-ε e foi implementado nesse trabalho.
Resumo:
As empresas, cada vez mais, buscam a redução de custo, para serem mais competitivas. A necessidade de aumentar a vida útil dos equipamentos, através de técnicas apropriadas é prioritário para manutenção dos ativos. Neste trabalho estudou-se o método para implantação da análise e monitoramento da vibração em equipamentos rotativos, com base nos conceitos da manutenção centrada em confiabilidade, usando técnicas preditiva e pró-ativa de manutenção pela condição, com foco na tarefa. Primeiramente foi analisado o comportamento dos componentes em relação ao processo de falha, como as falhas atuam, os tipos de modos de falha, falhas funcionais e seus efeitos. Após foram analisados e selecionados os critérios de níveis de vibração para os equipamentos rotativos em função da potência e rotação. Também, foi determinado em que condições os espectros seriam analisados em função da amplitude e freqüência de rotação. Então, foram preparados os locais para coletas dos dados de vibração. Assim, os níveis de vibração global foram coletados em função das amplitudes, em cada posição específica do equipamento em seu plano. Isto faz com que, análise dos níveis globais de vibração e o diagnóstico através do espectro e a forma de onda, permitissem encontrar a causa do problema. Finalmente, são apresentados os resultados em níveis de amplitude, espectro após ações, a correção da causa do problema e os tipos de defeitos de tendência de falhas e a implementação do método.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
O objetivo da dissertação foi obter um modelo de previsão para os preços dos imóveis, praticados no mercado imobiliário da cidade do Rio de Janeiro no ano 2000, utilizando a Metodologia do Preço Hedônico (HPM), que deve reponder a duas questões: a) Quais são as características relevantes; b) Qual é a forma de relacionamento entre os preços e as características. O modelo de previsão foi obtido, com base em procedimentos econométricos, e teve duas etapas distintas. Na primeira etapa, de formulação do modelo, foram realizadas regressões paras as formas funcionais mais utilizadas pelos estudos na área, a saber, a forma funcional linear, dupla logarítmica e semilogarítmica. Em seguida foi utilizado o procedimento de seleção de modelos “geral para específico”. A segunda etapa consistiu na previsão fora da amostra. Isto é, a partir das formas funcionais reduzidas e utilizando-se dos coeficientes das variáveis significativas, obteve-se os preços estimados e em seguida foram comparados com os preços efetivamente praticados pelo mercado. Calculou-se, então, os Erro Quadrático Médio (EQM) e o Erro Absoluto Médio (EAM) e com o auxílio dos testes de diagnósticos e igualdade de variância, escolheu-se a forma funcional que melhor se adequou aos dados Desta forma, para um nível de significância de 5%, a forma funcional que melhor se adequou aos critérios estabelecidos foi a dupla logarítmica e apresentou como resultado da estimação um R2=92,63% e dentre as características mais relevantes para estimação do preço do imóvel pode-se destacar, entre outras, o tamanho do imóvel como características físicas; a ocorrência de roubos como características de segurança, a quantidade disponível de bens e serviços destinados ao lazer como características de vizinhança e a disponibilidade ou não de serviços de hotelaria como características dummies.
Resumo:
A gestão por alocação de ativos, para ser bem sucedida, deve possuir classes de ativos (vértices) adequados Caso Contrários, o resulatdo do processo pode gerar alocações sem sentidos ou pouco efiecientes e, consequentemente, o desempenho da carteira refletirá a alocação ineficiente. Os vértices para alocação selecionados devem abranger e a representar seu mercado de atuação. Pórem, um grande numero de vertices se torna ineficiente devido à perda de sensibilidade gerencial. Logo, os vértices adequados devem abrager o mercado e ser em número reduzido para que possam ser avaliados corretamentes pelo gestor. O objetivos deste trabalho foi discutir e definir vértices de alocação para a modelagem de decisões de investimentos off shore de investidores brasileiros sob dois focos: - Um investidor brasileiro que analisa risco e retorno em reais, que possui parte dos seus investimentos no Brasil, e toma decisões de quanto quer investir no brasil e no exterior; - Um investidor globaL que analisa risco e retorno em doláres americanos (USD) e que pode tomar decisões de quanto quer investir no Brasil e no exterior. O princípio geral de seleção de vértices utilizou o critério de minimização de risco. Este critério foi adotado devido à instabilidade dos retornos esperados e à estabilidade do riscoestimado. Não se pode ignorar a instabilidade da matriz de variância e convariância, porem esta é mais estável que os retornos esperados. A seleção foi conduzidas em três níveis, sempre sob a ótica de risco. Definiu-se risco como o desvio padrão da série de rentabilidade dos ativos. Os vérticies aqui propostos são aqueles que devem ser regularmente incluídos em decisões de alocação de ativos. Entretanto, em decisões efetivas de alocação de ativos será preciso acrescentar vértices que apresentem expectativas anormais de retorno esperado.
Resumo:
O uso de enzimas como agentes de modificação das propriedades funcionais de proteínas tem se tornado bastante difundido na indústria de alimentos. As proteases, apresentam inúmeras vantagens, principalmente, devido a sua atividade em baixas concentrações e a sua ausência de toxicidade, que faz com que se elimine a necessidade da sua remoção do produto final. O objetivo deste trabalho foi determinar as condições ótimas de produção da protease de Microbacterium sp. kr10, caracterizar e purificar parcialmente a enzima, assim como verificar a sua utilização como agente de modificação das propriedades funcionais da proteína de soja. Através da metodologia de superfície de resposta foram determinadas as condições ótimas de produção da protease, pH de 7,0, temperatura de 25°C e 12,5 g L-1 de farinha de pena (p/v). O padrão proteolítico da enzima tanto no extrato cru quanto na parcialmente purificada indicam que esta é uma metaloprotease, com pH e temperaturas ótimos nas faixas de 6,5 a 7,5, e 45 a 55°C, respectivamente. A atividade enzimática foi totalmente inibida por EDTA, fenantrolina, HgCl2 e CuCl2 e parcialmente inibida por ZnCl2, MnCl2 e SnCl2. A enzima foi parcialmente purificada através de cromatografia de gel filtração e troca iônica resultando num fator de purificação de 250. Um aumento gradativo do grau de hidrólise da proteína de soja foi observado à medida que se aumentou a razão enzima/substrato utilizada, assim como a redução da formação de espuma e o aumento da capacidade emulsificante de uma solução composta pelo hidrolisado de soja e óleo de soja, mesmo sob condições de alta temperatura e alta concentração de sal. Desta forma, esta protease apresenta potencial para aplicação como agente de modificação protéica de proteína de soja isolada.