875 resultados para validação
Resumo:
O processo Spheripol é, atualmente, um dos mais utilizados na produção industrial de polipropileno e seus copolímeros. É composto por dois reatores tipo loop em série e, em alguns casos, um ou dois reatores tipo fase gás também em série. Neste trabalho é apresentado um modelo para os reatores loop do processo Spheripol. Os reatores loop são modelados como CSTR não ideais. O esquema cinético implementado é relativamente amplo, sendo capaz de englobar copolimerizações multisítio. Uma análise qualitativa do modelo é feita utilizando parâmetros cinéticos presentes na literatura e uma análise quantitativa do modelo é feita com base em dados reais de planta industrial. Ainda com base em dados de planta é feita uma estimação de parâmetros e a validação do modelo. Finalmente, o modelo com parâmetros estimados é aplicado num estudo de caso no qual também é criado um modelo de equilíbrio termodinâmico para a mistura reacional baseado na lei de Henry e na equação de estado de Peng-Robinson.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
A área bancária é um dos setores que mais têm investido em tecnologia de informação (TI), tendo seus produtos e serviços fundamentalmente apoiados por essa tecnologia. Apesar de complexo, mostra-se necessário e importante identificar e avaliar os possíveis efeitos de sua aplicação nas organizações, de forma a poder-se comprovar se os altos investimentos em TI fazem diferença. Nesta dissertação, comparam-se as percepções dos executivos dos bancos argentinos, uruguaios, chilenos, norte-americanos e brasileiros, quanto ao impacto proporcionado pela TI nas variáveis estratégicas das organizações bancárias. O estudo é uma pesquisa survey descritiva, que utilizou como instrumento de coleta de dados o questionário desenvolvido por MAÇADA & BECKER (2001). Para tal, foram realizados testes de validação (primeiramente, com os dados dos três países latino-americanos de língua hispânica e, depois, com os dados dos cinco países envolvidos na pesquisa). Com a realização deste estudo, obtiveram-se, como principais resultados, quatro importantes achados: (1) a Competitividade, os Produtos e Serviços e os Tomadores de Recursos Financeiros (clientes) são as variáveis estratégicas mais afetadas pela TI; Preços e Estrutura de Custos e Capacidade são as variáveis estratégicas menos afetadas pela TI; (2) os executivos dos bancos argentinos e uruguaios, e norte-americanos e uruguaios apresentam percepções muito semelhantes, quanto ao impacto de TI nas organizações bancárias às quais pertencem, enquanto as amostras brasileira e norte-americana apresentam as percepções mais distintas entre si; (3) não há diferença entre executivos de TI e de outras áreas funcionais quanto à percepção dos impactos de TI nas variáveis estratégicas; e (4) o impacto da TI na Competitividade está significativamente relacionado com os impactos da TI nos Tomadores de Recursos Financeiros, Governos e Países, Produtos e Serviços e Estrutura de Custos e Capacidade. A pesquisa apontou, ainda, as variáveis estratégicas mais afetadas pela TI nos setores bancários argentino, uruguaio e chileno. Espera-se que este estudo sobre o impacto de TI nas organizações constitua-se, para os executivos bancários, em ferramenta que possibilite apoiar no planejamento de TI e avaliar a sua utilização, bem como sirva de suporte para a realização de futuras pesquisas sobre esta temática.
Resumo:
Com um volume considerável de publicações nacionais e internacionais sobre a satisfação de clientes, uma ênfase cada vez maior tem sido dada para o processo de avaliação pós-compra do consumidor. Porém, o processo de satisfação é insuficiente para explicar muitos dos comportamentos que o consumidor manifesta após o consumo. Além de confrontar o recebido com o esperado, gerando julgamentos de satisfação ou insatisfação, o consumidor confronta o recebido com o que teria acontecido se outra opção tivesse sido feita. É justamente nesta confrontação entre o recebido e o que poderia ter sido recebido que surge o arrependimento. O arrependimento é pouco abordado na literatura brasileira de comportamento do consumidor. Além disso, as escalas que o medem são escassas e o fazem de forma incompleta. Posto isso, o principal objetivo dessa dissertação é o de propor uma escala que meça o arrependimento no processo de tomada de decisão do consumidor, considerando aspectos afetivos e cognitivos desse construto. Para tanto, procedeu-se a uma análise de validação de construto para a escala proposta em duas amostras distintas: consumidores de automóveis e de calçados femininos. Os resultados apontam para a existência de validade de conteúdo, unidimensionalidade, confiabilidade e validade convergente para as dimensões hipotetizadas. A validade divergente não foi evidenciada e é um ponto de discussão. As implicações desse estudo e sugestões para estudos futuros são apresentadas.
Resumo:
Apesar do grande número de publicações nacionais e internacionais que dão destaque à satisfação do cliente, a compreensão do que ocorre com o mesmo quando ele experiencia um sentimento que vai além da satisfação na avaliação pós-consumo ainda é incipiente. O fato de vivenciar esse sentimento gera um estado emocional profundamente positivo para com a experiência de compra ou consumo, que é conhecido como "encantamento do cliente". Apesar da importância desse constructo no estudo do comportamento do consumidor – dadas as diversas atitudes pós-compra/consumo que podem ser oriundas desse estado –, as escalas desenvolvidas até o presente momento para sua mensuração foram poucas e o fizeram de maneira incompleta. Nesse sentido, o objetivo maior desta dissertação é propor uma escala que meça o encantamento do cliente na avaliação pós-consumo, levando em conta as dimensões do constructo. Para tanto, utilizaram-se três estudos sucessivos; os dois primeiros objetivaram purificar a escala proposta, e o terceiro procedeu à validação de constructo. Os resultados apontam para a existência de validade de conteúdo, unidimensionalidade, confiabilidade, validade convergente e validade discriminante para as dimensões do constructo estudado. Considerações finais discutem os achados do estudo, suas implicações gerenciais e acadêmicas, assim como sugestões para a continuidade das pesquisas sobre o tema.
Resumo:
A justificativa de investimentos em Tecnologia da Informação (TI) é um processo de decisão estratégico. Contudo, muitos tomadores de decisão, dada a complexidade dos problemas, acabam por reduzi-lo a um único critério, normalmente monetário, ou a utilizar critérios mais facilmente mensuráveis, em detrimento daqueles relacionados a possíveis benefícios estratégicos ligados à TI. Esse fato pode ser associado à falta de instrumentos de apoio à decisão com habilidade de capturar todos os múltiplos aspectos envolvidos na justificativa de investimentos em TI. A Pesquisa Operacional pode auxiliar esse processo através do desenvolvimento de modelos multicriteriais, visando contemplar, conjuntamente, os aspectos tangíveis e intangíveis normalmente associados a esse tipo de investimento. Nesse sentido, este trabalho apresenta o desenvolvimento de um modelo de decisão multicriterial para a justificativa de investimentos em TI. A implementação do modelo foi realizada utilizando-se o método AHP (do inglês, “Analytic Hierarchy Process”), através do software Expert Choiceâ. O modelo foi validado através da sua submissão a vinte especialistas da área e através da sua aplicação em problemas de decisão. Os resultados obtidos na validação comprovam a generalidade e o potencial do modelo como ferramenta de decisão para o processo de justificativa de investimentos em TI.
Resumo:
Nesta tese são estimadas funções não lineares de importação e exportação para o Brasil, utilizando a metodologia de redes neurais artificiais, a partir de dados trimestrais, no período de 1978 a 1999. Com relação às importações, partindo-se da hipótese de país pequeno, as estimações são feitas para a demanda de importações totais, de bens intermediários e de material elétrico. Para as exportações, o pressuposto de país pequeno, num contexto de concorrência monopolística, é utilizado, de maneira que as estimações são feitas para a oferta e demanda por exportações brasileiras. As séries selecionadas são as exportações totais, as exportações de manufaturados e as exportações de material elétrico. A metodologia adotada para as importações procura visualizar a não linearidade presente nas séries de comércio exterior e encontrar a topologia de rede que melhor represente o comportamento dos dados, a partir de um processo de validação do período analisado. Procura observar, também, a sensibilidade das saídas das redes a estímulos nas variáveis de entrada, dado a dado e por formação de clusters. Semelhante método é utilizado para as exportações, com a ressalva que, diante de um problema de simultaneidade, o processo de ajuste das redes e análise da sensibilidade é realizado a partir de uma adaptação do método de equações simultâneas de dois estágios. Os principais resultados para as importações mostram que os dados apresentam-se de maneira não linear, e que ocorreu uma ruptura no comportamento dos dados em 1989 e 1994. Sobretudo a partir dos anos 90, as variáveis que se mostram mais significativas são o PIB e a taxa de câmbio, seguidas da variável utilização de capacidade produtiva, que se mostra com pouca relevância Para o período de 1978 a 1988, que apresenta um reduzido impacto das variáveis, a taxa de câmbio é relevante, na explicação do comportamento das importações brasileiras, seguida da utilização de capacidade produtiva, que demonstra-se significativa, apenas, para a série de bens intermediários. Para as exportações, os dados, também, se apresentam de maneira não linear, com rupturas no seu comportamento no final da década de 80 e meados de 1994. Especificamente, para a oferta e a demanda, as variáveis mais importantes foram a taxa de câmbio real e o PIB mundial, respectivamente. No todo, as séries mais importantes na explicação das importações e exportações foram a importação total e de bens intermediários e a exportação total e de manufaturados. Tanto para as importações, quanto para as exportações, os resultados mais expressivos foram obtidos para os dados mais agregados. Por fim, com relação às equações das exportações brasileiras, houve uma superioridade de ajuste e significância das variáveis das equações de demanda, frente às de oferta, em explicar os movimentos das exportações brasileiras.
Resumo:
Cada vez mais muitos processos industriais convencionais de separação, tais como destilação, centrifugação e extração com solventes, entre outros, estão sendo substituídos pelos processos de separação por membranas em virtude desses apresentarem vantagens em relação aos processos convencionais, além de serem considerados uma tecnologia limpa. Entre estas vantagens pode-se citar a economia de energia, pois não envolvem mudança de fase; a possibilidade de processamento de substâncias termolábeis, pois podem operar à temperatura ambiente; a maior seletividade; a facilidade de scale – up, pois são modulares e não extensivos em mão de obra, entre outros. Uma característica limitante destes processos é a existência de uma camada de elevada concentração de partículas ou moléculas que se forma próxima à superfície da membrana e que ocasiona uma redução no fluxo permeado, podendo modificar as características de retenção da membrana. Este fenômeno é conhecido como polarização por concentração. O entendimento dos mecanismos de polarização é considerado de grande importância neste campo e o estudo e validação de modelos matemáticos preditivos torna-se necessário para se obter sucesso na aplicação dos processos com membranas no meio industrial O objetivo geral deste trabalho consiste na análise teórico-experimental do processo de microfiltração tangencial com suspensão aquosa de partículas de sílica. O objetivo específico é a utilização de dados experimentais para a estimação de um parâmetro do modelo matemático que descreve o perfil de concentração na superfície da membrana ( membrana). A configuração tangencial implica que a alimentação, contendo as partículas a serem removidas ou concentradas, flui paralelamente à superfície da membrana reduzindo, assim, o fenômeno de polarização por concentração. Os experimentos foram efetuados em uma unidade de bancada de microfiltração tangencial, também conhecido como fluxo cruzado, em um módulo para membrana plana com canal de escoamento retangular sob condições de escoamento laminar. Os seguintes parâmetros foram variados durante os experimentos: pressão transmembrana, velocidade tangencial e concentração de partículas de sílica Os dados experimentais foram utilizados em uma modelagem matemática, baseada nas equações fundamentais da mecânica dos fluidos e da transferência de massa, que considera as propriedades físicas da suspensão, viscosidade dinâmica e difusividade mássica, variáveis com a concentração de sílica para se estimar a concentração máxima de sílica junto à superfície da membrana. Esta modelagem engloba os parâmetros operacionais, bem como as características da membrana nesta única variável. Com a finalidade de se verificar como a concentração máxima sobre a membrana é afetada pelas condições operacionais e, conseqüentemente, como esta afeta o fluxo permeado, a concentração máxima sobre a superfície da membrana é apresentada em função das condições operacionais variadas durante os experimentos de microfiltração. Finalmente, após a estimação desta variável, pôde-se concluir que ela é influenciada pelas condições operacionais típicas do processo de microfiltração tangencial, tais como velocidade tangencial de escoamento, pressão através da membrana e concentração da alimentação.
Resumo:
O interesse pelo tema é decorrente do interesse que a Internet vem despertando nas pessoas de modo geral e, especificamente, nas empresas e em seus profissionais que estão aprendendo a conhecer a tecnologia e a usufruir dos recursos oferecidos por ela. Este trabalho tem por objetivo identificar quais são os impactos causados pelo uso da Internet nas atividades empresariais sob a ótica dos empregados e gerentes, e limita-se a estudar profissionais que atuam no Estado do Paraná. O problema da pesquisa consiste em saber como a Internet está sendo usada no trabalho, de que modo ela altera as relações internas e externas das empresas e quais os impactos sentidos com o uso da tecnologia por gerentes e empregados. Para responder a essa questão foi realizada uma pesquisa survey exploratória , cujo instrumento de pesquisa usado foi um questionário contendo questões abertas e fechadas, destinado a empregados e gerentes. As etapas de levantamento de dados, validação, divulgação e aplicação do questionário foram feitas através da Internet. Como resposta pode-se destacar que a Internet é usada no trabalho para fins pessoais e profissionais. Os profissionais acham que a tecnologia permite mantê- los atualizados. Não vêem na Internet uma ameaça aos seus postos de trabalhos, por isso não oferecem resistência à sua implementação, diferentemente das outras Tecnologias da Informação. Nas relações internas, a Internet causa impacto na comunicação com os colegas de trabalho e também na realização de trabalhos em equipe. A comunicação também é a área mais afetada nas relações externas pela importância da comunicação com clientes, parceiros e fornecedores. Os profissionais não dependem fundamentalmente da Internet para realizar suas atividades, mas afirmam que a tecnologia facilita a realização do seu trabalho.
Resumo:
O uso e a análise da informação podem transformar radicalmente os processos produtivos de setores específicos de organizações e de ambientes sociais e econômicos. A presente dissertação propõe-se a realizar um monitoramento de informações com a seleção, sistematização, análise e interpretação de dados e informações para o setor turístico, especialmente para o Circuito Internacional das Missões Jesuíticas (CIMJ), declarado em 1997 pela UNESCO como um dos quatro roteiros históricos internacionais mais importantes do mundo e o primeiro roteiro turístico oficial do Mercosul. Através desse processo, buscou-se a identificação de problemas e a antecipação de oportunidades visando à maior organização do setor turístico selecionado e, consequentemente, à maior competitividade. Os resultados da pesquisa, oriundos da análise comparativa de dados e informações de três rotas turísticas internacionais, permitiram a identificação de variáveis e indicadores para um maior conhecimento de suas posições estratégicas, a validação de uma metodologia para o desenvolvimento de um processo de inteligência competitiva, além de sugerir algumas linhas para a organização estratégica do setor.
Resumo:
Aplicações como videoconferência, vídeo sob-demanda, aplicações de ensino a distância, entre outras, utilizam-se das redes de computadores como infra-estrutura de apoio. Mas para que tal uso seja efetivo, as redes de computadores, por sua vez, devem fornecer algumas facilidades especiais para atender às necessidades dessas aplicações. Dentre as facilidades que devem ser fornecidas estão os suportes à qualidade de serviço (QoS - Quality of Service) e as transmissões multicast. Além do suporte a QoS e multicast nas redes, é necessário fornecer um gerenciamento da rede adequado às expectativas de tais aplicações. Soluções que fornecem gerenciamento de forma individual para tais facilidades, já foram propostas e implementadas. Entretanto, estas soluções não conseguem agir de modo integrado, o que torna a tarefa do gerente da rede extremamente complexa e difícil de ser executada, pois possibilitam um fornecimento não adequado das facilidades desejadas às aplicações. Nesta dissertação é apresentada uma solução para gerenciamento integrado de QoS e multicast. Fazem parte da solução: a definição e implementação de uma arquitetura para gerenciamento integrado de QoS e multicast, utilizando gerenciamento baseado em políticas (PBNM - Policy-Based Network Management), além da validação da solução proposta através da implementação de um protótipo. Um ambiente, condições de teste, e análise dos resultados obtidos, também são apresentados durante a dissertação.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Neste trabalho foi modelado um reator catalítico heterogêneo, pressurizado, adiabático e provido de reciclo. O leito deste reator está dividido em duas partes, sendo que a primeira opera como um reator trickle-bed, enquanto a segunda opera como um reator de leito fixo, onde os regentes estão em fase líquida. Um Sistema de Hidrogenação de Propeno em operação no Pólo Petroquímico do Sul foi utilizado para fornecer os dados necessários à validação do modelo proposto. Neste sistema, a reação de hidrogenação de propeno, em fase líquida, ocorre sobre um catalisador níquel/óxido de níquel. Uma equação, que representa a taxa da reação no intervalo de temperatura de interesse para o sistema, foi desenvolvida utilizando-se dados experimentais obtidos em um reator batelada. O comportamento termodinâmico foi representado através de dados de equilíbrio do sistema binário hidrogênio-propano. Considerou-se que a fase líquida escoa em plug-flow e a fase gasosa, devido à existência de um selo líquido no interior do reator, foi considerada estagnada.
Resumo:
Esta dissertação possuiu duas intenções: estudar um instrumento de crescimento empresarial e elaborar uma metodologia para identificar e capturar as competências de uma empresa, em específico. O instrumento de crescimento empresarial é fundamentado no alinhamento de três conceitos administrativos: competência organizacional, estratégia empresarial e processos internos. Para isso, foram colocados os significados de cada conceito separadamente e, posteriormente, o alinhamento entre eles. Esta relação possibilitou a criação de uma valiosa cadeia de valor, integrando todas as atividades empresariais, formando um único mapa. O objetivo deste é orientar o conjunto de atividades empresariais, implementar e dar sustentação à estratégia da Empresa referida no caso. A metodologia de pesquisa foi o estudo de caso exploratório numa empresa varejista. Este estudo trouxe como resultados a identificação e validação de quatro competências organizacionais: duas existentes (orientação de equipe e gestão dos relacionamentos) e duas a serem desenvolvidas (pensamento e ações estratégicas e inovação), para a Empresa conquistar uma verdadeira vantagem competitiva.