1000 resultados para métodos de aplicação
Resumo:
Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.
Resumo:
o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.
Resumo:
Neste trabalho é apresentado um estudo da síntese e caracterização de polinaftilaminas substituídas com vistas à sua utilização na proteção contra a corrosão. É mostrada a possibilidade de eletrosíntese de filmes destes polímeros intrinsecamente condutores sobre metais oxidáveis passiváveis em meio aquoso ácido pelos métodos potenciostático e potenciodinâmico sem dissolução dos eletrodos. A caracterização química, morfológica e eletroquímica destes filmes poliméricos demonstrou que não há sensíveis diferenças em relação aos mesmos filmes obtidos sobre eletrodos inertes e que é preservada uma das funções na cadeia polimérica. Os filmes de naftilaminas substituídas oferecem uma barreira parcial contra a corrosão do aço carbono e quando polimerizado o 1,5-diaminonafttaleno juntamente com a anilina forma-se o compósito Poli 1,5-diaminonaftaleno/Polianilina que passiva anódicamente o Fe em meio sulfato pH 4. É apresentada também a síntese química do poli 5-amino 1-naftol, que se mostra passivante anódico do aço inox SS 430 em ácido sulfúrico aquoso 1M.
Resumo:
Neste trabalho, fazendo uso da teoria das equações, iremos cotejar a aplicação de dois métodos clássicos de separação de raízes. Tais métodos, especializados para a "separação" das taxas internas de retorno de um projeto, são superiores às condições de suficiência pois que permitem a determinação do número exato de taxas internas de retorno associadas a um projeto, no intervalo de taxas de juros considerado.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Este trabalho apresenta técnicas econométricas de análise de séries temporais que permitem testar, empiricamente, hipóteses sobre a definição da dimensão geográfica de mercados relevantes. Estas técnicas são aplicadas ao mercado brasileiro de resinas termoplásticas polietilenos e polipropileno com o objetivo de obter subsídios para a correta caracterização de sua dimensão geográfica. Os resultados obtidos adicionam evidências no sentido de que estes mercados relevantes geográficos podem ser definidos como internacionais. A técnica da cointegração indica que existe uma relação estável de longo prazo entre os preços das resinas produzidas domesticamente e das resinas internalizadas. Desvios desta relação têm caráter transitório. Por intermédio da análise da decomposição de variância percebe-se que os erros de previsão dos valores das resinas domésticas passam a ser rapidamente explicados pelas variações ocorridas nos preços das resinas internalizadas, sendo que o oposto não ocorre, ou seja, os preços das resinas internalizadas são explicados primordialmente por seus próprios desvios. Por fim, a Técnica da causalidade de Granger aponta que apenas o preço das resinas internalizadas causa , no sentido de Granger, o preço das resinas domésticas. O oposto não é valido e as variações nos preços das resinas domésticas não adicionam capacidade de previsão dos preços das resinas internalizadas.
Resumo:
Este trabalho tem por objetivo identificar os coeficientes sazonais de algumas variáveis econômicas (produção industrial, exportações e importações), isentos das mudanças estruturais registradas na economia. O estudo verifica se os planos de estabilização implementados pelo governo nos últimos quinze anos afetaram o padrão sazonal daquelas séries. Para tanto aplica-se o X-12-ARIMA, o novo método de dessazonalização de séries desenvolvido pelo U.S. Bureau of the Census. O uso desse método torna-se necessário, porque os demais métodos conhecidos impedem testar nossa hipótese, ao não permitirem o emprego de intervenções, não obtendo assim os melhores estimadores para os coeficientes sazonais. O estudo cobre o período que vai de 1980 a 1997 e os resultados confirmam a nossa hipótese de mudança no padrão sazonal no período. As nossas variáveis econômicas foram - de um ou de outro modo - atingidas pelos planos de estabilização implementados nos últimos quinze anos.
Resumo:
Este estudo busca propor uma teoria da fragmentação de políticas públicas, assim como aplicá-la na análise de três casos de política de gestão pública no período compreendido entre 1995 e 2002. A suposição central deste estudo é de que existe um fenômeno de fragmentação subjacente aos casos analisados, e esse fenômeno constitui uma explicação plausível para a descontinuidade e a baixa implementação das políticas de gestão pública no período. Uma vez caracterizada, a fragmentação de políticas de gestão no período pode ser explicada de diversas formas. A hipótese secundária deste estudo, a partir da teoria desenvolvida, é de que o fenômeno da fragmentação se deve à existência de uma combinação disfuncional de fatores estruturais de integração subjacentes às dinâmicas constitutivas dos casos. O texto está estruturado em três segmentos: a) desenvolvimento teórico; b) construção dos casos e caracterização da fragmentação subjacente; e c) análise dos fatores de fragmentação. O primeiro segmento elabora um modelo conceitual de análise de políticas com a finalidade de caracterizar os processos constitutivos dos casos analisados, a partir de elementos presentes nas principais perspectivas analíticas sobre políticas públicas (sistêmico-heurística, institucional-racionalista e seleção temporal aleatória). O primeiro segmento também elabora a teoria da fragmentação de políticas públicas, seus fundamentos epistemológicos e metodológicos, suas definições de partida, proposições centrais e um modelo analítico. A Teoria da Fragmentação de Políticas propõe que a fragmentação, definida como a perda de coerência, consistência e coordenação nas políticas de um mesmo subsistema e entre diversos subsistemas, é um resultado indesejado associado a elementos estruturais dos processos de formulação e implementação de políticas, tais como liderança executiva, estratégia, ajustamento mútuo, estrutura formal de coordenação, 5 processos e valores. Trata-se de uma teoria de médio alcance elaborada de forma modular: a) permite a formulação de hipóteses retrospectivas baseadas em mecanismos causais que relacionam fatores a uma conseqüência-objeto; b) possibilita o aproveitamento de métodos qualitativos, tais como a narrativa analítica, para elucidar essas correlações; e c) permite o estabelecimento um diálogo entre a observação empírica e a dedução teórica. O segundo segmento delimita, contextualiza e caracteriza os três casos analisados em profundidade: Plano Diretor, Gestão Pública Empreendedora I e Gestão Pública Empreendedora II. Inicialmente, elabora-se um mapeamento do período, pelo qual são identificadas seis trajetórias de políticas de gestão pública no período analisado. Os três casos analisados em profundidade correspondem à primeira trajetória. Sucede-se uma narrativa da dinâmica de formulação e implementação desses casos em três frentes de ação que os perpassam: reestruturação do núcleo estratégico e melhoria de gestão, Organizações Sociais e Agências Executivas. Em seguida, elabora-se uma análise genealógica em que são identificados seus elementos constitutivos (o empreendedor, a construção do domínio da política pública, a visão do problema e da solução e a coalizão política) e sinais de fragmentação, decorrentes das incoerências, inconsistências e descoordenação entre os casos e entre esses e os demais, identificados no mapeamento do período. O terceiro segmento apresenta uma análise dos fatores de fragmentação. Busca-se elaborar, para cada fator, uma análise comparativa no sentido horizontal (entre os casos analisados) e vertical (entre esses e outros que ocorreram de forma paralela no universo das políticas de gestão mapeadas). A análise dos fatores de fragmentação indica, conforme se supunha, que há uma combinação disfuncional de fatores estruturais fragmentadores subjacentes às experiências estudadas. Conclui-se que essa constatação contribui para explicar a fragmentação e valida a teoria da fragmentação de políticas, dentro de sua proposta 6 metodológica modular de campo médio. Apontam-se, também, direções nas quais a teoria poderia ser expandida, testada e aplicada.
Resumo:
A dissertação tem como objeto a investigação das relações entre a o design de um website de comércio eletrônico de CDs e o comportamento do consumidor virtual, com ênfase a sua atitude e intenção de compra. O objetivo principal é mensurar o efeito do design da loja virtual (website) em seu papel de agente de vendas na Internet. A análise do comércio varejista de CDs foi escolhida, pois este produto é um dos principais artigos de venda neste canal. O estudo é apoiado em um referencial teórico, no qual são analisadas as características dos seguintes pontos: i) a Internet atuando como canal de vendas; ii) o comércio varejista de CD no Brasil e iii) o comportamento do consumidor e o seu processo decisório. Ainda no referencial teórico são apresentados os diversos modelos de avaliação de website existentes: baseado em Marketing, Teoria dos Dois Fatores, avaliação da qualidade, avaliação da web (W AM) e aceitação da Tecnologia na Web (T AM). A análise e comparação destes modelos serviu como base para o desenvolvimento da proposta do modelo de avaliação website. O estudo é complementado pelo desenvolvimento de uma pesquisa, com aplicação de questionário via web (websurvey). A coleta dos dados é utilizada como forma de validação estatística das relações existentes no modelo desenvolvido. Isto é feito por meio do uso da ferramenta de análise de Equações Estruturadas (SEM), suportada pelos conceitos e métodos de abordagem descritos no referencial teórico. A ferramenta permite tanto avaliar um modelo de mensuração e um modelo estrutural simultaneamente.
Resumo:
O presente trabalho descreve uma proposta para a representação geométrica de imagens. Através da subdivisão espacial adaptativa de uma imagem em triângulos, uma representação simplificada da estrutura da imagem pode ser obtida. Demonstramos que a representação gerada é adequada para aplicações como a segmentação e a compressão de imagens. O método de segmentação de imagens desenvolvido faz uso deste tipo de representação para obter resultados robustos e compactos, comparados a outros métodos existentes na literatura, e adequado para aplicações como a detecção, descrição e codificação de objetos. Utilizando uma representação geométrica semelhante a métodos de modelagem de superfícies, criamos um novo método de compressão de imagens que apresenta vantagens em relação a outros métodos existentes, em especial na compressão de imagens sem perdas.
Mudanças de métodos de custeio e o impacto no sistema de informação gerencial: um estudo qualitativo
Resumo:
A presente pesquisa consiste em identificar os impactos causados no Sistema de Informações Gerenciais com a mudança de método de Custeio Variável para Unidade de Esforço de Produção (UEP), mediante a realização de um Estudo de Caso sobre a empresa Bistex Alimentos LTDA. A coleta de dados, viabilizada pela análise documental e pela aplicação de entrevista com dois diretores, tornou possível a análise de dados interpretativa dos indicadores de desempenho presentes nas principais alterações após o processo de migração, na forma de um estudo comparativo, levantando controles usados na organização antes e depois da troca de método. Autores como Johnson e Kaplan (1993), que abordam a contabilidade gerencial, Allora (1996), que introduz os custos e controle gerencial de produção, e Wernke (2008), que aborda a aplicação do Método UEP, deram consistência à aplicabilidade operacional desta proposta. Os principais resultados podem ser identificados no ordenamento de informações, fundamental pelo uso da UEP, o que causa alterações na cultura organizacional da empresa. O estudo demonstra que a implementação do método UEP trouxe alterações nos controles da organização, entretanto, ainda falta uma visão holística e a integração com a gestão estratégica
Resumo:
Sob incerteza, possibilidades de gestão e flexibilidade do projeto, os métodos convencionais de desconto que ignoram estes intangíveis e tratam passivamente os investimentos, tem se mostrado limitados, subavaliando o valor do projeto. Nesta tese, aplicamos e exploramos as potencialidades da teoria das opções, na análise e gestão de projetos de exploração de recursos naturais não renováveis. Aplicando-se as técnicas da moderna teoria de finanças, teoria de recificação de opções, técnicas de arbitragem em tempo contínuo, teoria de controle ótimo e métodos numéricos, desenvolve-se uma abordagem para avaliação e política ótima de gestão, definindo-se os momentos ótimos para abrir, fechar ou abandonar o projeto. Os valores do projeto são definidos em função dos valores de uma carteira de títulos transacionados no mercado de capitais. Para tanto, forma-se uma carteira arbitrária autofinanciada cujos fluxos de caixa replicam os fluxos do projeto. Tratado, também, o problema do sequenciamento do investimento quando os desembolsos para implantação do projeto ocorrem num período longo de tempo. Determina-se o efeito do tempo na implantação do projeto, o valor da opção de espera pelo melhor momento para exercer a opção de investir e o custo de oportunidade implícito nessa espera. Finalmente, a abordagem desenvolvida é aplicada a um projeto real de mineração aurifera.
Resumo:
Nó primeiro capítulo, faço com um relato da evolução do controle de qualidade nos últimos 60 anos. Descrevo as diversas escolas de controle de qualidade, suas tendências, bem como a evolução da tecnologia empregada. A partir desta visão panorâmica inicial, descrevo, nos capítulos seguintes, as técnicas modernas de controle de qualidade, com ênfase nas técnicas de engenharia da qualidade e de delineamento de experimentos, muito usadas por Genichi Taguchi. Abordo também as características e necessidades dá qualidade nas indústrias de processos. Mostro as razões pela qual os métodos tradicionais de controle de qualidade nem sempre foram bem sucedidos, quando implementados nas indústrias químicas de modo geral.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).