986 resultados para Sinal esperado


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O problema a ser tratado por essa dissertação de mestrado é a seleção de projetos, de qualquer natureza, a serem executados por uma empresa ou uma área/departamento de uma empresa, considerando o portfólio de projetos existente e o orçamento disponível para tal. O objetivo é ordenar os projetos ou grupos de projetos de forma a identificar os projetos mais relevantes e/ou prioritários para a empresa. Essa relevância é identificada através de critérios que são avaliados por especialistas da empresa ou departamento em questão. Esses critérios são definidos pelos especialistas da empresa e oriundos tanto do plano estratégico e dos objetivos estratégicos da empresa ou departamento, quanto da experiência desses especialistas. São identificados e discutidos previamente às atividades de ordenação dos projetos. Uma vez que esses projetos ou grupos de projetos estejam ordenados, basta seguir essa seqüência para definir quais projetos são comportados pelo orçamento da empresa ou do departamento. Após essa decisão os projetos selecionados deverão ser executados de forma a produzir o resultado esperado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo focou na indústria de supermercados e teve como objetivo examinar o quanto os fatores referentes à existência de um programa de fidelidade em um supermercado, a fidelidade do cliente com esse programa e a percepção de valor que o cliente tem da loja, influenciam na sua lealdade à loja. Como muitas empresas têm feito um grande investimento nos Programas de Fidelidade, é certamente relevante que seja medida a efetividade desse tipo de programa. A metodologia usada foi a análise de regressão linear. Nesta análise de regressão foram consideradas as seguintes variáveis independentes: Valor percebido do programa, a Lealdade ao cartão de fidelidade da loja, o valor percebido da loja. Como variável dependente foi considerada a Lealdade à loja. A análise concluiu que os programas de lealdade em supermercados não estão funcionando como instrumentos efetivos de fidelidade e não têm relação com o Valor Percebido da Loja. O investimento das empresas nessa ferramenta não está trazendo o retorno esperado de desenvolver fidelidade no cliente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo descrever um processo de transmis são de choques na correlação da taxa de câmbio do Brasil, Chile, Euro e México com base no modelo de correlação dinâmica de [Engle, 2002]. O modelo é estendido para capturar efeitos assi métricos na volatilidade e na correlação. A trajetória estimada da correlação mostra-se com desvios significativos em relação a correla ção incondicional, a amplitude da correlação condicional é elevada e há inclusive alteração de sinal quando a correlação é feita em relação ao Euro. Num calculo de valor em risco, o modelo com correlação dinâmica tem uma performance muito superior a um modelo com correlação constante, levando-se em conta os mesmos processos de volatilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A prolactina (PRL) é um hormônio peptídico sintetizado e secretado, principalmente, pelas células lactotróficas da glândula hipófise anterior, tendo como principal função a indução e manutenção da lactação. Existem três formas moleculares de PRL na circulação: PRL monomérica (little prolactin) com massa molecular de cerca de 23KDa, PRL dimérica (big prolactin) com 45 a 50KDa, e macroprolactina (big big prolactin) maior do que 150KDa. Esta última está geralmente ligada a imunoglobulinas G. Em condições normais, ou em pacientes com hiperprolactinemia sintomática, predomina em circulação a forma monomérica. A hiperprolactinemia é uma das disfunções endócrinas hipotálamo-hipofisárias mais comuns em mulheres em idade reprodutiva. Ocorre mais freqüentemente por adenomas hipofisários (prolactinomas) e secundária ao uso de drogas com ação central. Na ausência de causas conhecidas, a hiperprolactinemia é considerada como idiopática. Finalmente, pode estar associada ao predomínio de macroprolactina no soro, sendo denominada macroprolactinemia. A suspeita de macroprolactinemia ocorre quando um paciente com hiperprolactinemia não apresenta os sintomas típicos e/ou não tem evidências radiográficas de tumor na hipófise, embora a macroprolactinemia possa estar ocasionalmente associada a prolactinomas. Os objetivos deste trabalho foram: avaliar a freqüência de macroprolactinemia, através da precipitação com PEG, numa amostra de mulheres com hiperprolactinemia; descrever associações da macroprolactinemia com variáveis clínicas, hormonais e de imagem da hipófise; e caracterizar a evolução clínica e dos níveis de prolactina durante o seguimento desta coorte. Realizou-se um estudo descritivo, onde foi estudada uma coorte de pacientes do sexo feminino (n = 32), consultando no HCPA de 1989 a 2005, com diagnóstico de hiperprolactinemia (>26ng/mL) e seguimento com agonistas da dopamina. Após um período de 3 meses sem tratamento (washout), as pacientes dosaram prolactina para investigação dos níveis séricos e presença de macroprolactina, e foram classificadas como aquelas que normalizaram os níveis séricos de prolactina durante estes anos de seguimento (Grupo Hprl prévia) e as que continuaram hiperprolactinêmicas. Estas foram reclassificadas como grupo de hiperprolactinêmicas cuja forma circulante predominante é a prolactina monomérica (Grupo Hprl mono) e o grupo de hiperprolactinêmicas com predominância de macroprolactina (Grupo Hprl macro). O percentual de macroprolactina foi calculado através dos valores de PRL totais obtidos das amostras íntegras em comparação com os níveis de PRL encontrados nas amostras precipitadas com PEG. Recuperações de prolactina monomérica > 50% classificaram a amostra como tendo predomínio de formas monoméricas, o percentual de recuperação  40% foi considerado como predomínio de formas de alto peso molecular (macroprolactinemia), e recuperação entre 40 e 50% indicou indefinição da forma predominante de PRL. A freqüência de macroprolactina foi de 28,1% (n = 32). Pacientes hiperprolactinêmicas com macroprolactinemia são significativamente mais jovens do que as hiperprolactinêmicas com a forma monomérica. Como esperado, tanto as pacientes do grupo Hprl macro como Hprl mono apresentam níveis de prolactina significativamente mais elevados que as pacientes Hprl prévia. Através do método de precipitação com PEG, identificou-se a forma predominante de prolactina na circulação em 71,8% dos casos (n = 32). Verificamos ainda que as pacientes com predominância de macroprolactina não apresentam os sintomas da síndrome hiperprolactinêmica, e na maioria dos casos, possuem exames de imagem por TC normal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise do sono está baseada na polissonogra a e o sinal de EEG é o mais importante. A necessidade de desenvolver uma análise automática do sono tem dois objetivos básicos: reduzir o tempo gasto na análise visual e explorar novas medidas quantitativas e suas relações com certos tipos de distúrbios do sono. A estrutura do sinal de EEG de sono está relacionada com a chamada microestrutura do sono, que é composta por grafoelementos. Um destes grafoelementos é o fuso de sono (spindles). Foi utilizado um delineamento transversal aplicado a um grupo de indivíduos normais do sexo masculino para testar o desempenho de um conjunto de ferramentas para a detecção automática de fusos. Exploramos a detecção destes fusos de sono através de procura direta, Matching Pursuit e uma rede neural que utiliza como "input"a transformada de Gabor (GT). Em comparação com a análise visual, o método utilizando a transformada de Gabor e redes neurais apresentou uma sensibilidade de 77% e especi cidade de 73%. Já o Matching Pursuit, apesar de mais demorado, se mostrou mais e ciente, apresentando sensibilidade de 81,2% e especi cidade de 85.2%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

nRPN, nRPNSTAT e nRPNDYN são novos índices, propostos nesta dissertação, que quantificam o grau de não-linearidade total, estática e dinâmica, respectivamente, de sistemas dinâmicos não- lineares. Estes novos índices permitem responder se é necessária a utilização de controladores não-lineares ou se simples controladores lineares apresentarão desempenho satisfatório. Além disso, se um controlador não- linear se fizer necessário, quais características este deve apresentar. Nesta dissertação é realizado um estudo acerca das metodologias para determinação do grau de não- linearidade de plant as industriais. Entre as encontradas, a que apresenta as melhores potencialidades é estudada em detalhes, tendo seus atributos e deficiências explorados. As deficiências foram sanadas e um novo conjunto de índices é proposto (nRPN, nRPNSTAT e nRPNDYN), o qual, além de apresentar resultados conclusivos em termos quantitativos, também traz novas informações valiosas para a escolha do controlador adequado, como a parcela estática e dinâmica da não- linearidade. A metodologia proposta é aplicada e testada em um conjunto bastante amplo e complementar de possíveis sistemas dinâmicos não-lineares (tais como: pH, reatores químicos e coluna de destilação de alta pureza) onde o comportamento nãolinear já foi explorado na literatura O desenvolvimento e o estudo do comportamento dinâmico de uma planta laboratorial de cinco tanques acoplados são apresentados. Este sistema possui dinâmica e ganhos variáveis, descontinuidades, inversão no sinal do ganho multivariável e diferentes graus de acoplamento, ilustrando de forma simples vários possíveis comportamentos dinâmicos encontrados em plantas industriais. Devido a esta grande versatilidade a planta foi construída e testada, confirmando os comportamentos previstos nos estudos teóricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this thesis is to discuss the development and modeling of an interface architecture to be employed for interfacing analog signals in mixed-signal SOC. We claim that the approach that is going to be presented is able to achieve wide frequency range, and covers a large range of applications with constant performance, allied to digital configuration compatibility. Our primary assumptions are to use a fixed analog block and to promote application configurability in the digital domain, which leads to a mixed-signal interface. The use of a fixed analog block avoids the performance loss common to configurable analog blocks. The usage of configurability on the digital domain makes possible the use of all existing tools for high level design, simulation and synthesis to implement the target application, with very good performance prediction. The proposed approach utilizes the concept of frequency translation (mixing) of the input signal followed by its conversion to the ΣΔ domain, which makes possible the use of a fairly constant analog block, and also, a uniform treatment of input signal from DC to high frequencies. The programmability is performed in the ΣΔ digital domain where performance can be closely achieved according to application specification. The interface performance theoretical and simulation model are developed for design space exploration and for physical design support. Two prototypes are built and characterized to validate the proposed model and to implement some application examples. The usage of this interface as a multi-band parametric ADC and as a two channels analog multiplier and adder are shown. The multi-channel analog interface architecture is also presented. The characterization measurements support the main advantages of the approach proposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento constitui-se em uma dissertação de mestrado, requisito parcial para a obtenção do grau de Mestre em Gestão Empresaria e Pública. Este estudo procura mostrar que a adoção dessa nova tecnologia através de projetos de implantação de sistema de ERP não só mudam processos administrativos como também produtos, serviços e estruturas organizacionais e que a sua implantação se constitui em um grande projeto que envolve um número considerável de recursos e tempo das organizações. Este estudo procurar mostrar também que os impactos que tais projetos trazem, são mais fortemente sentidos ou não pela organização de acordo com uma série de fatores, entre eles, a resistência à mudança e o quanto a organização está preparada para enfrentar essas mudanças, o medo da perda do emprego pela adoção de uma nova tecnologia, problemas com a falta de comunicação das mudanças, questões relacionadas à cultura organizacional vigente, a falta de envolvimento da alta administração, entre outras. Para gerenciar todas essas variáveis, as organizações modernas adotam técnicas para garantir o sucesso da implantação dessas novas tecnologias. o estudo aqui proposto tem como objetivo determinar até que ponto a utilização de metodologias e de técnicas de Project Management é o suficiente para que esses projetos alcancem o sucesso esperado pelas organizações. A quantidade de variáveis que influenciam o resultado de um projeto são muitas e cada uma delas possui um papel importante que deve ser avaliado. As conclusões desta pesquisa demonstram que o sucesso de um projeto nem sempre se resume a atingir os objetivos inicialmente propostos, relativos ao cumprimento do prazo, escopo e custo de um projeto, conforme define a metodologia de Project Management. Outros aspectos considerados por essa metodologia, se melhor ou pior aplicados, também contribuem para o sucesso ou fracasso de um projeto de implantação de um sistema de ERP sendo o seu fracasso traduzido ou não, no cumprimento do prazo, do escopo inicialmente previsto ou no custo inicialmente calculado. Outros aspectos que não apenas a aplicação correta da metodologia de Project Management contribuem para os resultados alcançados pelo projeto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

D. Hoffman, R. Osserman e R. Schoen mostraram que se a aplicação de Gauss de uma superfície orientada completa de curvatura média constante M imersa em R³ está contida em um hemisfério fechado de S² (equivalentemente, a função não muda de sinal em M, onde n é um vetor unitário normal de M e v algum vetor não nulo de R³), então M é invariante por um subgrupo a um parâmetro de translações de R³ (aquele determinado por v). Neste trabalho obtemos uma extensão deste resultado para o caso em que o espaço ambiente é uma variedade riemanniana e M uma hipersuperfície em N requerendo que a função não mude de sinal em M, onde V é um campo de Killing em N. Na parte final deste trabalho consideramos uma variedade riemanniana Killing paralelizável N para definir uma translação Y: M -> Rn de uma hipersuperfície M de N que é uma extensão natural da aplicação de Gauss de uma hipersuperfície de Rn. Considerando as mesmas hipóteses para a imagem de y obtemos uma extensão do resultado original de Hoffman-Osserman-Schoen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desafios para implementação do global reporting initiative nas empresas sucroenergéticas no Brasil A pesquisa pretende avaliar o grau de maturidade necessário para elaboração e publicação de um Relatório de Sustentabilidade Integrado. O setor sucroenergético brasileiro foi escolhido para a pesquisa por aderir ao padrão da Global Reporting Initiative para relatórios de sustentabi-lidade e por ser um setor com exposição nacional e internacional, que vem passando por grandes transformações com entrada de novos players nacionais e internacionais, profissionalização da gestão, alterações de práticas operacionais visando atender exigências ambientais e sociais. Para se entender o grau de maturidade das organizações foi preciso definir seis fundamentos de supor-te à realização de um relatório integrado: processos, estrutura, pessoas, sistemas, políticas e pro-cedimentos e cultura organizacional. A seguir, foram estabelecidos três graus de maturidade – alto, médio e baixo. Assim, para cada um desses fundamentos foi atribuído um grau de maturida-de. Na prática de elaborar relatórios de desempenho as organizações podem estar em diferentes estágios de um processo evolutivo. Elas têm por fim a publicação de um relatório integrando os aspectos econômicos, ambientais e sociais, denominado triple bottom line. Nesse processo evolu-tivo, existem as empresas que reportam seu desempenho econômico financeiro e há as que repor-tam o relatório anual da administração mais completo e que pode conter o relatório de sustentabi-lidade. Os dois estágios requerem a aplicação dos fundamentos descritos acima, mas em graus de complexidades diferentes. Para elaborar e publicar um relatório integrado, o grau de utilização dos fundamentos deverá ser muito maior. Esse grau de maturidade na aplicação dos fundamentos será determinante para o processo de interação com os stakeholders, criar um relatório transpa-rente e que seja também útil às suas interpretações e decisões. A pesquisa detectou que as empre-sas do setor, como o esperado, têm o grau de maturidade alto quando se trata de reportar o de-sempenho econômico-financeiro. Quando se trata dos indicadores ambientais, já se nota uma evolução em relação ao tema; há um esforço maior a ser empreendido quando o assunto é o re-porte dos aspectos sociais. Independentemente do grau de maturidade, a iniciativa das empresas do setor sucroenergético brasileiro (na região Centro-Sul), na evolução dos Relatórios de Susten-tabilidade, deverá reverter em prol do desafio global para o meio ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste estudo foi descrever os desafios e oportunidades enfrentadas por centros de pesquisa voltados para a agroenergia. Focalizamos o estudo na estruturação de um centro financiado pela iniciativa privada, de forma cooperativa e propomos que seu modelo seja considerado por outros segmentos envolvidos com agroenergia, ou que possam beneficiar-se de experiências semelhantes. A pesquisa em agroenergia apresenta uma gama enorme de alternativas de desenvolvimento. Ao contrário de outros segmentos, a agroenergia pode ser pesquisada no desenvolver de uma longa cadeia que pode se iniciar na localização mais propícia para implantação de empreendimento, e seguir todas as etapas agrícolas e industriais até chegar à qualidade do produto final. A gestão do centro de pesquisas nesta área tem como seu principal desafio o de identificar quais dos diversos elos dessa enorme cadeia devem ser priorizados. Define-se um processo de análise técnica e econômica para cada potencial projeto a ser avaliado, determinar seu risco, prazo de maturação, retorno esperado para chegar-se a um portfólio de projetos satisfatórios com entregas a curto, médio e longo prazo. Durante todo o processo, prestar conta dos resultados de forma participativa e transparente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Baseado no referencial teórico existente se pode constatar que as principais funções da TI que são comumente terceirizadas são: as operações de infraestrutura; o desenvolvimento e a manutenção de aplicações (fábrica de software); e o gerenciamento de redes e computadores (service desk). Dentre as funções comumente terceirizadas, uma que parece ter menor potencial de contribuição diferencial quanto ao seu valor para o negócio é a de infraestrutura, uma atividade bastante estruturada que normalmente é uma das primeiras a serem terceirizadas, parecendo ser corriqueiro que empresas optem por essa terceirização. Este trabalho teve como principal objetivo identificar a associação que pode existir entre o anúncio de terceirização da TI, especialmente infraestrutura, e o valor de mercado das empresas, e para tanto teve como foco empresas brasileiras de capital aberto. Já é sabido que investidores levam em consideração tanto as informações financeiras como não financeiras das empresas que pretendem investir, o que resulta em menor ou maior valorização dessas empresas. O valor da ação no mercado representa o retorno superior esperado em certos momentos, como reflexo da expectativa futura de desempenho que a empresa possa ter. Neste estudo queremos verificar se o anúncio da terceirização da TI levando a essa expectativa de desempenho superior, ou geração de valor futuro, leva também a alguma alteração no valor da ação no mercado. Isto foi feito por meio da comparação da variação do valor de mercado de algumas empresas antes e após o anúncio da realização da terceirização da TI. A metodologia utilizada foi o Estudo de Eventos e, para mensuração dos retornos normais e anormais, utilizamos um modelo de retornos ajustados ao risco e ao mercado, adotando o Capital Asset Pricing Model (CAPM) como modelo econômico para precificação de ativos. O tratamento dos dados das 11 empresas que compuseram a nossa amostra apontou que o anúncio da terceirização da TI parece ter afetado o comportamento das ações dessas empresas. Tomando por base a amostra escolhida, pudemos identificar que houve um impacto positivo no valor de mercado das empresas estudadas, o que pode ter ocorrido em função dos anúncios publicados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O racional teórico das finanças comportamentais se sustenta em dois grandes pilares: limites de arbitragem e irracionalidade dos investidores. Dentre os desvios de racionalidade conhecidos, um foi de particular interesse para este estudo: o viés da disponibilidade. Este viés acontece nas situações em que as pessoas estimam a frequência de uma classe ou a probabilidade de um evento pela facilidade com que instâncias ou ocorrências podem ser lembradas. O advento da internet permitiu a verificação do viés de disponibilidade em larga escala por meio da análise dos dados de buscas realizadas. I.e., se uma determinada ação é mais procurada que outras, podemos inferir que ela está mais disponível na memória coletiva dos investidores. Por outro lado, a literatura das finanças comportamentais tem um braço mais pragmático, que estuda estratégias capazes de fornecer retornos anormais, acima do esperado pela hipótese do mercado eficiente. Para os fins deste estudo, destaca-se o efeito momento, no qual o grupo de ações de melhor resultado nos últimos J meses tende a fornecer melhores resultados pelos próximos K meses. O propósito deste estudo foi verificar a possibilidade de se obter retornos acima dos identificados pelo efeito momento segmentando-se as carteiras de maior e menor viés de disponibilidade. Os resultados obtidos foram positivos e estatisticamente significativos na amostra selecionada. A estratégia cruzada entre efeito momento e disponibilidade produziu, para J=6 e K=6, retornos médios mensais de 2,82% com estatística t de 3,14. Já a estratégia só de efeito momento, para o mesmo período de formação e prazo de manutenção, gerou retornos médios mensais de apenas 1,40% com estatística t de 1,22.