1000 resultados para restrições selecionais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Mestrado em Administração da Universidade Municipal de São Caetano do Sul - USCS

Relevância:

10.00% 10.00%

Publicador:

Resumo:

MOREIRA, Leandro Carpegiani. As parcerias público-privadas e o desenvolvimento territorial: uma análise do setor metroferroviário da região metropolitana de São Paulo. 2012. 98f. Dissertação (Mestrado em Administração)-Universidade Municipal de São Caetano do Sul, São Caetano do Sul, 2012.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós- Graduação em Administração-Mestrado, como requisito parcial para obtenção do título de Mestre em Administração

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação apresentada ao Programa de Pós-graduação em Comunicação da Universidade Municipal de São Caetano do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: A comunicação bancária tem registrado uso intenso de novas tecnologias e conteúdos, caso do net banking, o que gera novas possibilidades e relações com o cliente bancário. Trata-se de um consumidor que é incentivado a conhecer os serviços oferecidos por meio de novos canais, a visualizar esses atributos, mas se ele detectar restrições informativas ou falhas na comunicação, irá se manifestar de alguma forma. Muitos consumidores lidam com fraudes ou danos causados pelo sistema de acesso virtual disponibilizado pelos bancos. Tal contexto apresenta inovações no sistema de comunicação protagonizado pelos bancos e consumidores midiatizados pela internet. Objetivo: Descrever a comunicação bancária voltada para a prevenção de danos quando do uso de seus websites pelos consumidores. Metodologia: Foram pesquisados os websites dos bancos Bradesco, Itaú e Banco do Brasil, além de pesquisa de opinião com 130 usuários do net banking desses bancos. Resultados: Os bancos reservam em seus websites espaços específicos e não padronizados para a prevenção de danos ao consumidor no uso do net banking, enquanto os clientes usam tais serviços de forma parcial. Conclusões: Os resultados encontrados não podem ser generalizados, servindo o presente estudo como degrau para que outros trabalhos possam aprofundar o objeto de estudo apresentado a fim de dimensionar com maior amplitude e representatividade a gestão da prevenção de danos ao consumidor no contexto do net banking.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho abordam-se as questões relevantes de uma avaliação analítica de estruturas acabadas, apresentando-se os aspectos fundamentais quanto à inspeção e verificação da sua segurança. Primeiramente, apresenta-se os métodos de avaliação, enfatizando-se as vantagens e restrições do emprego de cada método. Quanto à inspeção, são apresentados e discutidos os principais ítens que devem ser verificados nas estruturas acabadas. :t:nfasemaior é dada à inspeção da resistência do concreto, discutindo-se aspectos de sua variação nas ~struturas e apresentando-se os métodos de ensaio empregados. É proposta uma metodologia para a inspeção do concreto, racionalizando-se o emprego dos métodos não-destrutivos. Por fim, destaca-se os aspectos teóricos da verificação da segurança nas estruturas acabadas e as principais diferenças quanto à introdução da segurança nos projetos de novas estruturas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de desenvolvimento de software implica na necessidade constante de tomadas de decisão. A cada etapa do processo, torna-se necessário estabelecer a comunicação e interação entre usuários, gerentes, analistas, programadores e mantenedores numa constante troca de informações. O registro dos artefatos produzidos durante todo o processo é uma questão que norteia as pesquisas em ambiente de desenvolvimento de software. Quando se fala em suporte ao processo de colaboração entre os elementos de uma equipe de desenvolvimento, este registro torna-se ainda mais necessário. Neste contexto, a modelagem dos dados a serem armazenados se amplia para comportar outras informações provenientes da interação do grupo além dos artefatos gerados. As informações trocadas durante este processo interativo que incluem fatos, hipóteses, restrições, decisões e suas razões, o significado de conceitos e, os documentos formais formam o que é denominado pela literatura especializada como memória de grupo. A proposta da arquitetura SaDg PROSOFT visa fornecer suporte a memória de grupo, no que diz respeito ao registro das justificativas de projeto(Design Rationale), através de uma integração com o gerenciador de processos (GP) provido pelo ADS PROSOFT. Esta integração se dá através das ferramentas inseridas no modelo, assim desenhadas: Editor de Norma, Editor de Argumentação, Extrator de Alternativas, Editor de Votação. O ADS PROSOFT integra ferramentas para desenvolvimento de software. Este ADS foi escolhido para o desenvolvimento do modelo SADG, pois baseia-se na construção formal de software, mas particularmente no método algébrico, por ser um ambiente estendível, possibilitando a inclusão do modelo SaDg PROSOFT ao seu conjunto de ferramentas, por ter características de um ambiente distribuído e cooperativo e por não dispor de nenhum suporte à discussões e decisões em grupos. São apresentados os fundamentos de modelos SADG e algumas ferramentas. Alguns dos principais requisitos desses ambientes foram coletados e são apresentados a fim de embasar a proposta do trabalho. O modelo SADG é apresentado na forma de ferramentas PROSOFT(chamadas ATOs) e permite a definição de atividades como: Atividade de argumentação, atividade de extração e a atividade de votação. Além disso, permite a coordenação destas atividades através de um facilitador e do próprio GP, e também, possui um mecanismo para a configuração do processo decisório.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The recent advances in CMOS technology have allowed for the fabrication of transistors with submicronic dimensions, making possible the integration of tens of millions devices in a single chip that can be used to build very complex electronic systems. Such increase in complexity of designs has originated a need for more efficient verification tools that could incorporate more appropriate physical and computational models. Timing verification targets at determining whether the timing constraints imposed to the design may be satisfied or not. It can be performed by using circuit simulation or by timing analysis. Although simulation tends to furnish the most accurate estimates, it presents the drawback of being stimuli dependent. Hence, in order to ensure that the critical situation is taken into account, one must exercise all possible input patterns. Obviously, this is not possible to accomplish due to the high complexity of current designs. To circumvent this problem, designers must rely on timing analysis. Timing analysis is an input-independent verification approach that models each combinational block of a circuit as a direct acyclic graph, which is used to estimate the critical delay. First timing analysis tools used only the circuit topology information to estimate circuit delay, thus being referred to as topological timing analyzers. However, such method may result in too pessimistic delay estimates, since the longest paths in the graph may not be able to propagate a transition, that is, may be false. Functional timing analysis, in turn, considers not only circuit topology, but also the temporal and functional relations between circuit elements. Functional timing analysis tools may differ by three aspects: the set of sensitization conditions necessary to declare a path as sensitizable (i.e., the so-called path sensitization criterion), the number of paths simultaneously handled and the method used to determine whether sensitization conditions are satisfiable or not. Currently, the two most efficient approaches test the sensitizability of entire sets of paths at a time: one is based on automatic test pattern generation (ATPG) techniques and the other translates the timing analysis problem into a satisfiability (SAT) problem. Although timing analysis has been exhaustively studied in the last fifteen years, some specific topics have not received the required attention yet. One such topic is the applicability of functional timing analysis to circuits containing complex gates. This is the basic concern of this thesis. In addition, and as a necessary step to settle the scenario, a detailed and systematic study on functional timing analysis is also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Técnicas de tolerância a falhas visam a aumentar a dependabilidade dos sistemas nos quais são empregadas. Entretanto, há necessidade de garantir a confiança na capacidade do sistema em fornecer o serviço especificado. A validação possui como objetivo propiciar essa garantia. Uma técnica de validação bastante utilizada é a injeção de falhas, que consiste na introdução controlada de falhas no sistema para observar seu comportamento. A técnica de injeção de falhas acelera a ocorrência de falhas em um sistema. Com isso, ao invés de esperar pela ocorrência espontânea das falhas, pode-se introduzi-las intencionalmente, controlando o tipo, a localização, o disparo e a duração das falhas. Injeção de falhas pode ser implementada por hardware, software ou simulação. Neste trabalho são enfocadas técnicas de injeção de falhas por software, desenvolvidas nos níveis da aplicação e do sistema operacional. O trabalho apresenta o problema da validação, através da injeção de falhas, de um protocolo de troca de pacotes. Enfoque especial é dado ao impacto resultante da inclusão de um módulo extra no protocolo, uma vez que o mesmo apresenta restrições temporais. O trabalho investiga alternativas de implementação de injetores de falhas por software que minimizem este impacto. Tais alternativas referem-se a localização do injetor de falhas no sistema, a forma de ativação das atividades do injetor de falhas e a operação de injeção de falhas em si. Um toolkit para experimentos de intrusão da injeção de falhas é apresentado. O alvo da injeção de falhas é um protocolo com característica tempo real. O toolkit desenvolvido, denominado INFIMO (INtrusiveless Fault Injector MOdule), visa a analisar, de forma experimental, a intrusão do injetor de falhas sobre o protocolo alvo. O INFIMO preocupa-se com protocolos com restrições temporais por esses constituírem um desafio sob o ponto de vista de injeção de falhas. O INFIMO suporta falhas de comunicação, as quais podem ocasionar a omissão de alguns pacotes. O INFIMO apresenta duas ferramentas de injeção de falhas: INFIMO_LIB, implementada no nível da aplicação e INFIMO_DBG implementada com auxílio de recursos do sistema operacional. Destacam-se ainda como contribuições do INFIMO a definição e a implementação do protocolo alvo para experimentos de injeção de falhas, o protocolo INFIMO_TAP. Além disso, o INFIMO apresenta métricas para avaliação da intrusão provocada pelo injetor de falhas no protocolo alvo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O leite é um dos mais importantes produtos agrícolas em todo o mundo. O mercado internacional de lácteos é dominado pela União Européia, Nova Zelândia, Estados Unidos e Austrália, mas alguns países em desenvolvimento como Brasil e México são também importantes importadores. Sustentação de preços, aquisições governamentais e restrições externas são instrumentos de políticas comuns neste setor. Na Rodada do Uruguai do GATT, em 1986, pela primeira vez os países membros resolveram eleger o comércio agrícola e as políticas domésticas como prioridade. Nesse sentido, ajustes devem ocorrer tanto no mercado internacional quanto nos mercados domésticos dos produtos lácteos visto que a relação entre políticas agrícolas domésticas e comércio mundial de produtos agrícolas é um fato. Neste estudo, o setor leiteiro é analisado da perspectiva das políticas, da produção e do comércio. Além disso, são discutidos também os efeitos da intervenção governamental no setor bem como os impactos da Rodada do Uruguai no mercado internacional e no setor leiteiro do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem matemática de problemas importantes e significativos da engenharia, física e ciências sociais pode ser formulada por um conjunto misto de equações diferenciais e algébricas (EADs). Este conjunto misto de equações deve ser previamente caracterizado quanto a resolubilidade, índice diferencial e condições iniciais, para que seja possível utilizar um código computacional para resolvê-lo numericamente. Sabendo-se que o índice diferencial é o parâmetro mais importante para caracterizar um sistema de EADs, neste trabalho aplica-se a redução de índice através da teoria de grafos, proposta por Pantelides (1988). Este processo de redução de índice é realizado numericamente através do algoritmo DAGRAFO, que transforma um sistema de índice superior para um sistema reduzido de índice 0 ou 1. Após esta etapa é necessário fornecer um conjunto de condições inicias consistentes para iniciar o código numérico de integração, DASSLC. No presente trabalho discute-se três técnicas para a inicialização consistente e integração numérica de sistemas de EADs de índice superior. A primeira técnica trabalha exclusivamente com o sistema reduzido, a segunda com o sistema reduzido e as restrições adicionais que surgem após a redução do índice introduzindo variáveis de restrição, e a terceira técnica trabalha com o sistema reduzido e as derivadas das variáveis de restrição. Após vários testes, conclui-se que a primeira e terceira técnica podem gerar um conjunto solução mesmo quando recebem condições iniciais inconsistentes. Para a primeira técnica, esta característica decorre do fato que no sistema reduzido algumas restrições, muitas vezes com significado físico importante, podem ser perdidas quando as equações algébricas são diferenciadas. Trabalhando com o sistema reduzido e as derivadas das variáveis de restrição, o erro da inicialização é absorvido pelas variáveis de restrição, mascarando a precisão do código numérico. A segunda técnica adotada não tem como absorver os erros da inicialização pelas variáveis de restrição, desta forma, quando as restrições adicionais não são satisfeitas, não é gerada solução alguma. Entretanto, ao aplicar condições iniciais consistentes para todas as técnicas, conclui-se que o sistema reduzido com as derivadas das variáveis restrição é o método mais conveniente, pois apresenta melhor desempenho computacional, inclusive quando a matriz jacobiana do sistema apresenta problema de mau condicionamento, e garante que todas as restrições que compõem o sistema original estejam presentes no sistema reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo geral desse estudo é analisar a aplicação da metodologia do fluxo de caixa descontado, comparando os resultados realizados em dois períodos (exercícios) com os resultados projetados. Nessa análise verifica-se que considerando a taxa do WACC de 14,5% e da perpetuidade de 2,5% como premissas para adoção da metodologia do fluxo de caixa descontado com a contabilidade a valores históricos, incluindo o ativo imobilizado acrescido de reavaliação e o registro de créditos tributários sobre prejuízos fiscais, as diferenças apuradas pelos dois critérios não são relevantes. A pesquisa sobre a utilidade do custo histórico como base de valor demonstrou que a principal vantagem na sua utilização está na sua objetividade de apuração dos valores e a principal desvantagem consiste em não considerar os efeitos da variação da moeda no tempo, na contabilidade. A utilização dos princípios de custo histórico corrigido e de valores de reposição (custo corrente) possibilita a identificação de informações gerenciais de alta qualidade, eliminando os efeitos da inflação, contudo a sua elaboração contém certo grau de complexidade e subjetividade que impõe cuidados adicionais e necessita de maiores recursos para manter-se atualizada. O tratamento quanto aos valores de saída/realização possui como principal restrição a subjetividade quanto a forma de sua apuração. O acompanhamento gerencial fornece um enriquecimento das informações, contudo a exemplo dos valores de custo corrente existem restrições quanto ao grau de complexidade necessária para sua apuração. Em empresas que tenham como principal ativo, os valores intangíveis, Iudícibus recomenda que sejam procedidas, pelo menos avaliações anuais dos intangíveis gerados. Os juros sobre o capital próprio deveriam ser tratados de maneira consistente, bem como correspondentes ao custo do capital próprio como forma de resolver a questão da falta de reconhecimento contábil do custo de oportunidade. As conclusões finais que podemos obter são de que o método do fluxo de caixa descontado representa uma tentativa de antecipar os resultados futuros a serem apurados de acordo com o princípio de custo histórico. Portanto, sua adoção não elimina a necessidade de manter-se a contabilidade que utiliza o custo como base de valor, bem como representa amelhor alternativa em termos de metodologia para apuração do valor da empresa, considerando uma empresa que pretende manter a continuidade de suas operações. Outra consideração é de que a empresa vale o seu valor líquido de realização na hipótese de uma venda ordenada ou o valor de seu fluxo de caixa futuro, dos dois o maior.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Acredita-se que no futuro as redes de telecomunicação e dados serão integradas em uma só rede, baseada na comutação de pacotes IP. Esta rede deverá oferecer serviços com qualidade (QoS) para as aplicações atuais e futuras. Uma das tecnologias que deverá ser adotada no núcleo desta nova rede é MPLS. MPLS introduz o conceito de switching (comutação) no ambiente IP e também permite que seja implementada a Engenharia de Tráfego, otimizando sua utilização através do roteamento baseado em restrições. Junto com MPLS outras arquiteturas para fornecimento de QoS, como Serviços Integrados e Serviços Diferenciados, serão utilizadas. Entretanto, como nenhuma delas atende a todos os requisitos para garantia de QoS fim a fim e levando-se em consideração o fato de a Internet ser uma rede heterogênea, surge a necessidade de um framework que permita a interoperabilidade das diferentes arquiteturas existentes. Neste trabalho é proposto um modelo de integração que fornece garantias de QoS fim a fim para redes que utilizam tanto Serviços Integrados como Serviços Diferenciados através do emprego de uma infra-estrutura baseada em MPLS e Serviços Diferenciados. A aplicabilidade do modelo foi testada no simulador ns2 e os resultados são apresentados neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na década de 90 foram produzidos estudos empíricos cuja amostragem envolvia praticamente toda a população existente, isto é, quase todas as nações do mundo. O objetivo declarado destes estudos era correlacionar determinadas variáveis econômicas com o nível de renda e de bem-estar social de cada nação. Naturalmente, sob o ponto de vista da economia, o conceito de bem-estar social deve refletir-se em dados concretos, passíveis de aferição objetiva, e não em critérios subjetivos, sejam estes de natureza cultural ou psicológica. Portanto, o bem-estar social, que é estatisticamente correlacionado com o nível de renda, traduz-se em indicadores como escolaridade, expectativa de vida, taxas de mortalidade, corrupção e pobreza humana, entre outros. Em complemento a estas evidências empíricas, o presente trabalho procura apresentar justificações teóricas que expliquem este desempenho mais eficiente de determinadas economias em relação a outras. Assim, transitando entre diferentes programas de pesquisa, a teoria desenvolvida tentará explicar as atividades de coordenação econômica, enfatizando a influência das restrições impostas aos agentes pelos custos, os incentivos representados pelos preços de mercado, e ainda a importância do arcabouço institucional vigente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A incorporação de restrições institucionais para a gestão da política fiscal pode explicar resultados sub-ótimos, como déficits fiscais elevados e a demora para o processo de ajustamento. Uma dessas restrições pode ser compreendida como o fato de que a política fiscal não é o resultado apenas das decisões de um formulador de política econômica. Quando se analisa o processo de decisão da política fiscal como o resultado de um processo de conflito de interesses entre agentes ou grupos, então resultados sub-ótimos podem ser explicados sem qualquer apelo a irracionalidade ou ao comportamento não benevolente de uma autoridade fiscal. A modelagem da política fiscal sob a hipótese de fragmentação de governo pode ser feita com mais de uma forma. Nesta tese, com o objetivo de analisar o caso brasileiro recente, primeiro utilizaram-se jogos dinâmicos – onde uma autoridade fiscal central joga com outros agentes que afetam o resultado da política fiscal e que têm funções utilidade distintas da primeira. Em jogos desse tipo pode-se demonstrar a eficiência de mecanismos de punição e incentivo para o cumprimento de uma determinada meta fiscal. Posteriormente, foram feitos testes para observar o padrão de ajustamento fiscal entre maio de 1992 e maio de 2002, no Brasil. Como a natureza do ajustamento fiscal, nos modelos com fragmentação de governo, é infrequente, a aplicação da metodologia de mudança de regime markoviano pareceu ser a mais apropriada. Os resultados obtidos indicaram um padrão de ajustamento esperado em relação às mudanças nos regimes do déficit primário, da dívida pública e ao impacto dos choques externos.