999 resultados para Mecanismos de geração
Resumo:
A literatura sustenta que a tecnologia da informação (TI), quando adequadamente combinada com outros recursos internos, pode desenvolver características difíceis de ser imitadas pela concorrência. Entretanto, nem sempre isso é fácil de conseguir. Alguns casos emblemáticos de insucesso que envolve empresas proficientes nas melhores técnicas de aplicação da TI nos negócios estimulam uma análise mais atenta sobre os mecanismos da geração de valor para o negócio. Neste artigo, revelamos os resultados de um estudo de casos múltiplos, incorporados em organizações proficientes, para a compreensão do valor da utilização da TI e discutimos proposições sobre o porquê de algumas organizações apresentarem resultados superiores a outras. Nossa análise indica que a efetividade alcançada pelo uso da TI está de fato relacionada com a habilidade dos gestores de identificarem ineficiências econômicas prévias na dinâmica dos negócios e mitigá-las pela aplicação da TI, o que não é conseguido com as técnicas de análise de investimento atualmente empregadas.
Resumo:
As características do tráfego na Internet são cada vez mais complexas devido à crescente diversidade de aplicações, à existência de diferenças drásticas no comportamento de utilizadores, à mobilidade de utilizadores e equipamentos, à complexidade dos mecanismos de geração e controlo de tráfego, e à crescente diversidade dos tipos de acesso e respectivas capacidades. Neste cenário é inevitável que a gestão da rede seja cada vez mais baseada em medições de tráfego em tempo real. Devido à elevada quantidade de informação que é necessário processar e armazenar, é também cada vez maior a necessidade das plataformas de medição de tráfego assumirem uma arquitectura distribuída, permitindo o armazenamento distribuído, replicação e pesquisa dos dados medidos de forma eficiente, possivelmente imitando o paradigma Peer-to-Peer (P2P). Esta dissertação descreve a especificação, implementação e teste de um sistema de medição de tráfego com uma arquitectura distribuída do tipo P2P, que fornece aos gestores de rede uma ferramenta para configurar remotamente sistemas de monitorização instalados em diversos pontos da rede para a realização de medições de tráfego. O sistema pode também ser usado em redes orientadas à comunidade onde os utilizadores podem partilhar recursos das suas máquinas para permitir que outros realizem medições e partilhem os dados obtidos. O sistema é baseado numa rede de overlay com uma estrutura hierárquica organizada em áreas de medição. A rede de overlay é composta por dois tipos de nós, denominados de probes e super-probes, que realizam as medições e armazenam os resultados das mesmas. As superprobes têm ainda a função de garantir a ligação entre áreas de medição e gerir a troca de mensagens entre a rede e as probes a elas conectadas. A topologia da rede de overlay pode mudar dinamicamente, com a inserção de novos nós e a remoção de outros, e com a promoção de probes a super-probes e viceversa, em resposta a alterações dos recursos disponíveis. Os nós armazenam dois tipos de resultados de medições: Light Data Files (LDFs) e Heavy Data Files (HDFs). Os LDFs guardam informação relativa ao atraso médio de ida-evolta de cada super-probe para todos os elementos a ela ligados e são replicados em todas as super-probes, fornecendo uma visão simples mas facilmente acessível do estado da rede. Os HDFs guardam os resultados detalhados das medições efectuadas a nível do pacote ou do fluxo e podem ser replicados em alguns nós da rede. As réplicas são distribuídas pela rede tendo em consideração os recursos disponíveis nos nós, de forma a garantir resistência a falhas. Os utilizadores podem configurar medições e pesquisar os resultados através do elemento denominado de cliente. Foram realizados diversos testes de avaliação do sistema que demonstraram estar o mesmo a operar correctamente e de forma eficiente.
Resumo:
Orientador: Alberto Manuel Rodrigues da Silva
Resumo:
In Fazenda Belém oil field (Potiguar Basin, Ceará State, Brazil) occur frequently sinkholes and sudden terrain collapses associated to an unconsolidated sedimentary cap covering the Jandaíra karst. This research was carried out in order to understand the mechanisms of generation of these collapses. The main tool used was Ground Penetrating Radar (GPR). This work is developed twofold: one aspect concerns methodology improvements in GPR data processing whilst another aspect concerns the geological study of the Jandaíra karst. This second aspect was strongly supported both by the analysis of outcropping karst structures (in another regions of Potiguar Basin) and by the interpretation of radargrams from the subsurface karst in Fazenda Belém. It was designed and tested an adequate flux to process GPR data which was adapted from an usual flux to process seismic data. The changes were introduced to take into account important differences between GPR and Reflection Seismic methods, in particular: poor coupling between source and ground, mixed phase of the wavelet, low signal-to-noise ratio, monochannel acquisition, and high influence of wave propagation effects, notably dispersion. High frequency components of the GPR pulse suffer more pronounced effects of attenuation than low frequency components resulting in resolution losses in radargrams. In Fazenda Belém, there is a stronger need of an suitable flux to process GPR data because both the presence of a very high level of aerial events and the complexity of the imaged subsurface karst structures. The key point of the processing flux was an improvement in the correction of the attenuation effects on the GPR pulse based on their influence on the amplitude and phase spectra of GPR signals. In low and moderate losses dielectric media the propagated signal suffers significant changes only in its amplitude spectrum; that is, the phase spectrum of the propagated signal remains practically unaltered for the usual travel time ranges. Based on this fact, it is shown using real data that the judicious application of the well known tools of time gain and spectral balancing can efficiently correct the attenuation effects. The proposed approach can be applied in heterogeneous media and it does not require the precise knowledge of the attenuation parameters of the media. As an additional benefit, the judicious application of spectral balancing promotes a partial deconvolution of the data without changing its phase. In other words, the spectral balancing acts in a similar way to a zero phase deconvolution. In GPR data the resolution increase obtained with spectral balancing is greater than those obtained with spike and predictive deconvolutions. The evolution of the Jandaíra karst in Potiguar Basin is associated to at least three events of subaerial exposition of the carbonatic plataform during the Turonian, Santonian, and Campanian. In Fazenda Belém region, during the mid Miocene, the Jandaíra karst was covered by continental siliciclastic sediments. These sediments partially filled the void space associated to the dissolution structures and fractures. Therefore, the development of the karst in this region was attenuated in comparison to other places in Potiguar Basin where this karst is exposed. In Fazenda Belém, the generation of sinkholes and terrain collapses are controlled mainly by: (i) the presence of an unconsolidated sedimentary cap which is thick enough to cover completely the karst but with sediment volume lower than the available space associated to the dissolution structures in the karst; (ii) the existence of important structural of SW-NE and NW-SE alignments which promote a localized increase in the hydraulic connectivity allowing the channeling of underground water, thus facilitating the carbonatic dissolution; and (iii) the existence of a hydraulic barrier to the groundwater flow, associated to the Açu-4 Unity. The terrain collapse mechanisms in Fazenda Belém occur according to the following temporal evolution. The meteoric water infiltrates through the unconsolidated sedimentary cap and promotes its remobilization to the void space associated with the dissolution structures in Jandaíra Formation. This remobilization is initiated at the base of the sedimentary cap where the flow increases its abrasion due to a change from laminar to turbulent flow regime when the underground water flow reaches the open karst structures. The remobilized sediments progressively fill from bottom to top the void karst space. So, the void space is continuously migrated upwards ultimately reaching the surface and causing the sudden observed terrain collapses. This phenomenon is particularly active during the raining season, when the water table that normally is located in the karst may be temporarily located in the unconsolidated sedimentary cap
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Nowadays, wireless communications systems demand for greater mobility and higher data rates. Moreover, the need for spectral efficiency requires the use of non-constant envelope modulation schemes. Hence, power amplifier designers have to build highly efficient, broadband and linear amplifiers. In order to fulfil these strict requirements, the practical Doherty amplifier seems to be the most promising technique. However, due to its complex operation, its nonlinear distortion generation mechanisms are not yet fully understood. Currently, only heuristic interpretations are being used to justify the observed phenomena. Therefore, the main objective of this work is to provide a model capable of describing the Doherty power amplifier nonlinear distortion generation mechanisms, allowing the optimization of its design according to linearity and efficiency criteria. Besides that, this approach will allow a bridge between two different worlds: power amplifier design and digital pre-distortion since the knowledge gathered from the Doherty operation will serve to select the most suitable pre-distortion models.
Resumo:
Esta dissertação tem como objetivo descrever e analisar como o fenômeno da governança corporativa articula mecanismos de gestão e impacta na dinâmica de uma pequena organização familiar. Para isso, utilizou-se as perspectivas de Fan (2001) e Silva Junior (2006), que tratam da governança corporativa, e de Chandler (1994), para empresas familiares. Através de abordagem qualitativa com ênfase em um estudo de caso, uma triangulação de dados foi realizada, utilizando a entrevista semiestruturada, observação assistemática ou livre e pesquisa de documentos, e a análise dos dados foi realizada por análise de conteúdo. Verificou-se a presença do fenômeno da governança por intermédio da identificação dos fatores de diferenciação, resultando na implantação de mecanismos de governança ao longo do ciclo de vida da organização familiar, o que possibilitou mudanças em seu controle, no seu processo sucessório e na sua profissionalização. Quanto ao controle, foram verificados que os mecanismos de “manutenção do status quo”, “aconselhamento profissional”, “sinergia de interesses”, “regulamentação financeira da sociedade”, “atribuições e responsabilidades”, “alinhamento de interesses do negócio” e “proteção do empreendimento familiar” possibilitaram a modificação e manutenção do controle da empresa com os sócios. Quanto ao eixo da profissionalização, foi verificado que os mecanismos de “regulamentação financeira da sociedade”, “atribuições e responsabilidades”, “alinhamento de interesses do negócio”, “proteção do empreendimento familiar” e “atenção aos interesses dos stakeholders” foram responsáveis por prover as modificações neste quesito e indicar que a empresa caminha no sentido de se profissionalizar. Quanto ao processo sucessório, verificou-se que a terceira geração não tem interesse na empresa, o que podem resultar na contratação de um profissional externo para gerir a mesma, respeitando a questão dos valores familiares e a cultura organizacional ou conduzir à sucessão recursiva. Aparentemente, observou-se que a segunda questão foi mais evidente, visto que a saída do último irmão do negócio culmina com a venda da empresa familiar, gerando duas alternativas: a compra da empresa por um grupo de sócios ou outra empresa não familiar, o que resultaria na “morte” da empresa enquanto empresa familiar; ou a sua compra por outra família ou empresa familiar, preservando sua classificação inicial.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção de grau de Mestre em Engenharia Electrotécnica e de Computadores
Resumo:
Dissertação apresentada para a obtenção do Grau de Mestre em Genética Molecular e Biomedicina, pela Universidade Nova de Lisboa, Faculdade de Ciências e Tecnologia
Resumo:
A elicitação de requisitos é uma das primeiras actividades do processo de Engenharia de Requisitos. Através desta etapa é possível capturar e estruturar os requisitos dos stakeholders e do sistema a ser implementado. Tipicamente esta estruturação é representada através de notação gráfica com o auxílio de ferramentas CASE. Estas ferramentas tornam esta actividade exclusiva, em termos de acessibilidade, a engenheiros sem deficiências físicas devido à complexidade das funcionalidades oferecidas pelas mesmas que permitem construir estes modelos. Nesta dissertação de mestrado é proposto desenvolver uma abordagem com suporte de uma ferramenta para melhorar a acessibilidade, e consequentemente,integrar um engenheiro de requisitos com limitações físicas na actividade de elicitação de requisitos. A ferramenta também possibilita uma alternativa para os stakeholders em geral para produzir modelos sem usar as mãos quando for mais conveniente. Esta abordagem propõe usar mecanismos de voz na geração de modelos de requisitos, mais concretamente modelos de requisitos orientados a objectivos, modelos de objectos e modelos de features usando técnicas de Model-Driven Development (MDD) (e.g., metamodelos). O stakeholder assim irá capturar os seus requisitos através de mecanismos de reconhecimento de voz, sendo automaticamente realizada uma transformação do seu discurso para um modelo KAOS, para um modelo conceptual ou para um modelo de features.
Resumo:
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
Resumo:
Este trabalho aborda o tema da socialização nos relacionamentos inter organizacionais como oportunidade de geração de valor. Atualmente torna-se cada vez mais importante aprimorar o relacionamento entre empresas sob a expectativa de influenciar seu relacionamento e sua performance. Com base nesta percepção, este estudo visa mensurar o impacto dos mecanismos de socialização de compradores para a criação de valor no relacionamento cliente-fornecedor, assim como direcionar algumas oportunidades encontradas na pesquisa anterior sobre os Mecanismos de Socialização. Esta dissertação foi embasada na pesquisa original de Cousins et al. (2006) e contribuiu para o desenvolvimento do tema contando com maior exploração da literatura, atualizações, redefinições de construtos e, conseqüentemente, novas variáveis foram adicionadas à pesquisa. Foi adotado o método de pesquisa Survey e foi desenvolvida via Internet com 91 executivos de Compras e Supply Chain no Brasil entre 2008 e inicio de 2009. A amostra foi analisada utilizando o modelo de equações estruturais e os resultados mostram que os mecanismos de socialização informais possuem impacto significativo na geração de capital relacional, e em contra partida, os mecanismos formais possuem impacto relativamente inferior.
Resumo:
O presente estudo investiga o impacto dos mecanismos de coordenação, como formas de expressão de poder, sobre o tipo de comprometimento apresentado pelos funcionários. A identificação destes mecanismos foi realizada mediante a utilização dos indicadores tipos e estruturas de controle, tipos e fontes de poder, e natureza da organização. A relevância deste trabalho pode ser evidenciada pelo contínuo interesse na análise das relações de poder e mecanismos simbólicos de controle observados nas organizações, com questionamentos nem sempre satisfatoriamente respondidos. Outro aspecto a ser considerado é que, em pesquisa prévia, não foram encontrados estudos relacionando este tema aos tipos de comprometimento dos empregados. O levantamento de dados foi realizado na empresa E.D.A., de médio porte e atuante na área de tecnologia, tipicamente familiar e que vivencia, ao longo do último ano, processo de mudança da gestão, com o repasse do comando para a segunda geração – profissionais jovens e bem preparados para a posição. Na operacionalização do trabalho foi utilizada pesquisa de natureza qualitativa, cujos dados primários foram coletados em focus groups e por meio de entrevistas em profundidade. Os resultados obtidos foram avaliados pelo método de análise do discurso, considerado adequado especialmente porque permite não somente apreender como é transmitida a mensagem, mas também explorar o seu sentido. O pressuposto inicial de que há relação entre os mecanismos de coordenação e o tipo de comprometimento não pôde ser confirmado. Apenas o controle dos limites como fonte de poder leva a crer nesta relação, embora o estudo realizado não seja conclusivo a este respeito, permitindo sugerir que a pesquisa seja repetida em outro momento, na própria E.D.A., quando o processo sucessório esteja consolidado, e que a investigação seja ampliada para outras organizações, nacionais e internacionais, familiares ou não, haja vista a diversidade cultural existente nos diferentes países.
Resumo:
As modernas aplicações em diversas áreas como multimídia e telecomunicações exigem arquiteturas que ofereçam altas taxas de processamento. Entretanto, os padrões e algoritmos mudam com incrível rapidez o que gera a necessidade de que esses sistemas digitais tenham também por característica uma grande flexibilidade. Dentro desse contexto, tem-se as arquiteturas reconfiguráveis em geral e, mais recentemente, os sistemas reconfiguráveis em um único chip como soluções adequadas que podem oferecer desempenho, sendo, ao mesmo tempo, adaptáveis a novos problemas e a classes mais amplas de algoritmos dentro de um dado escopo de aplicação. Este trabalho apresenta o estado-da-arte em relação a arquiteturas reconfiguráveis nos meios acadêmcio e industrial e descreve todas as etapas de desenvolvimento do processador de imagens reconfigurável DRIP (Dynamically Reconfigurable Image Processor), desde suas origens como um processador estático até sua última versão reconfigurável em tempo de execução. O DRIP possui um pipeline composto por 81 processadores elementares. Esses processadores constituem a chave do processo de reconfiguração e possuem a capacidade de computar um grande número de algoritmos de processamento de imagens, mais específicamente dentro do domínio da filtragem digital de imagens. Durante o projeto, foram desenvolvidos uma série de modelos em linguagem de descrição de hardware da arquitetura e também ferramentas de software para auxiliar nos processos de implementação de novos algorimos, geração automática de modelos VHDL e validação das implementações. O desenvolvimento de mecanismos com o objetivo de incluir a possibilidade de reconfiguração dinâmica, naturalmente, introduz overheads na arquitetura. Contudo, o processo de reconfiguração do DRIP-RTR é da ordem de milhões de vezes mais rápido do que na versão estaticamente reconfigurável implementada em FPGAs Altera. Finalizando este trabalho, é apresentado o projeto lógico e elétrico do processador elementar do DRIP, visando uma futura implementação do sistema diretamente como um circuito VLSI.
Resumo:
O fato de que o Estado brasileiro deve, de acordo com sua Carta Magna, garantir o direito de seus cidadãos à saúde não significa, necessariamente, que a provisão destes serviços tem de ser feita diretamente pelo poder público. As parcerias com organizações sociais, previstas na Lei Federal 9.637/1998 e regulamentadas pelos Contratos de Gestão, pretendem oferecer uma alternativa à eficiência, agilidade e flexibilidade na assistência à saúde. Entretanto, a estrutura dos contratos de gestão com Organizações Sociais de Saúde (OSS), elaborada com a pactuação de metas e indicadores de desempenho, não pode ser considerada, isoladamente, como fator garantidor da prestação adequada de tais serviços públicos. É fundamental considerar neste contexto os arranjos organizados pelo poder público para assegurar que os serviços oferecidos representam o que, de fato, os cidadãos consideram valor. O presente trabalho tem como objeto as parcerias com OSS no âmbito do governo do estado de São Paulo. As entrevistas realizadas e as pesquisas empreendidas na confecção deste estudo revelam que, caso se pretenda trabalhar com estas parcerias sob uma perspectiva de value-for-money e geração de valor público, faz-se necessário aprimorar os mecanismos de escuta aos cidadãos, os arranjos de governança colaborativa entre entes federados, o alinhamento com órgãos de controle e, sobretudo, qualificar a capacidade organizacional do Estado e das OSS, por meio da revisão das metas e indicadores dispostos nos contratos de gestão.