136 resultados para monitoração
Resumo:
Sistemas de visão artificial são cada vez mais usados para auxiliar seres humanos a realizar diferentes tarefas. Estes sistemas são capazes de reconhecer padrões em imagens complexas. Técnicas de visão computacional têm encontrado crescente aplicação em estudos e sistemas de controle e monitoração de tráfego de automóveis. Uma das áreas de pesquisa que tem sido objeto de estudo por diferentes grupos é a leitura automática de placas de matrículas como forma de detectar transgressores, encontrar carros roubados ou efetuar estudos de origem/destino [BAR99]. Com o constante crescimento do volume de tráfego de automóvel e a limitada capacidade dos sensores convencionais, especialistas da área recorrem a técnicas de identificação automática de veículos para obter dados relativos ao escoamento de tráfego. A identificação automática de veículos tem tido essencialmente duas abordagens distintas: a utilização de transponders e a utilização de técnicas de visão computacional [INI85] . Estas são essencialmente úteis em casos em que não é viável obrigar os motoristas a instalar transponders em seus automóveis. No entanto, essas técnicas são mais sensíveis às condições atmosféricas e de iluminação tais como nevoeiros, chuva intensa, luz noturna, reflexos em superfícies, etc. Este trabalho apresenta um estudo de diversas técnicas de processamento de imagem objetivando o aperfeiçoamento de um sistema de identificação automática de placas de veículos. Este aperfeiçoamento está relacionado com a diminuição do tempo de execução necessário à localização e reconhecimento dos caracteres contidos nas placas dos veículos bem como a melhorar a taxa de sucesso no seu reconhecimento. A primeira versão do sistema de identificação da placas de veículos descrito em [SOU2000], desenvolvido no CPG-EE da UFRGS, denominado SIAV 1.0, localiza e extrai 91,3% das placas corretamente mas apresenta uma taxa de reconhecimento das placas de 37,3%, assim como um tempo de processamento não satisfatório. Neste trabalho, cujo sistema desenvolvido é denominado SIAV 2.0, a imagem é previamente processada através da aplicação de técnicas de realce da imagem. O principal objetivo das técnicas de realce é processar a imagem de modo que o resultado seja mais apropriado para uma aplicação específica do que a imagem original [GON93]. O sistema busca melhorar a qualidade da imagem eliminando ou suavizando sombras e reflexos presentes na cena em virtude da iluminação não controlada. Visando um menor tempo de execução durante o tratamento e análise da imagem um estudo estatístico baseado na distribuição gaussiana foi realizado de maneira a restringir a área de análise a ser processada. O SIAV possui duas redes neurais como ferramentas de reconhecimento de caracteres. A partir da análise dos diferentes modelos de redes neurais empregados na atualidade, foi desenvolvida uma nova arquitetura de rede a ser utilizada pelo SIAV 2.0 que oferece uma taxa de reconhecimento superior a rede neural usada no SIAV 1.0. Visando um melhor tempo de execução, a implementação em hardware dedicado para este modelo é abordado. Os testes foram realizados com três bancos de imagens obtidas por câmeras diferentes, inclusive por dispositivo "pardal" comercial. Estes testes foram realizados para verificar a efetividade dos algoritmos aperfeiçoados.
Resumo:
As redes de computadores experimentam um grande crescimento não apenas em tamanho, mas também no número de serviços oferecidos e no número de protocolos de alto nível e aplicações que são executados sobre elas. Boa parte desses software (ex.: ICQ e Napster), em geral, não está diretamente ligada a aplicações críticas, mas o seu uso não controlado pode degradar o desempenho da rede. Para que se possa medir o impacto dos mesmos sobre a infra-estrutura, mecanismos de gerência ligados à contabilização e caracterização de tráfego são desejáveis. Por outro lado, alguns protocolos, serviços e aplicações (ex. servidores DNS e Web) suportam aplicações e precisam ser monitorados e gerenciados com maior atenção. Para essa classe de software de rede, a simples contabilização e caracterização de tráfego não é suficiente; tarefas de gerência como teste de serviços, detecção e manipulação de falhas, medição de desempenho e detecção de intrusão são importantes para garantir alta disponibilidade e eficiência da rede e aplicações. As ferramentas existentes para essa finalidade são, entre aspectos, (a) não integradas (necessidade de uma ferramenta para monitorar cada aplicação), (b) centralizadas (não oferecem suporte à distribuição de tarefas de gerenciamento) e (c) pouco flexíveis (dificuldade em gerenciar novos protocolos, serviços e aplicações). Nesse contexto, a tese propõe uma arquitetura, centrada na monitoração passiva em temporal do tráfego de rede, para gerenciamento distribuído de protocolos de alto nível, serviços e aplicações em rede. Baseada da MIB (Management Information Base) Script do IETF (Internet Engineering Task Force), a arquitetura Trace oferece mecanismos para a delegação de tarefas de gerenciamento a gerentes intermediários, que interagem com agentes de monitoração e agentes de ação para executá-las. A tese propõe também PTSL (Protocol Trace Specification Language), uma linguagem gráfica/textual criada para permitir que gerentes de rede especificam as interações de protocolos (traços) que lhes interessam monitorar. As especificações são usadas pelso gerentes intermediários para programar os agentes de monitoração. Uma vez programadas, esses agentes passam a monitorar a ocorrência dos traços.As informações obtidas são analisadas pelos agentes intermediários, que podem requisitar de ação a execução de procedimentos (ex: scripts Perl), possibilitando a automação de diversas tarefas de gerenciamento. A arquitetura proposta é validada por um protótipo: a plataforma de gerenciamento Trace.
Resumo:
O presente trabalho estuda a comunicação política governamental a partir do sistema de comunicação implantado pelo Governo Municipal de Porto Alegre, através da sua Coordenação de Comunicação Social, nas gestões 1989/92 e 1993/96, representantes de um projeto político denominado Administração Popular. Analisa a sua contribuição para a constituição de um novo modelo da referida comunicação e suas relações com o exercício de uma determinada cidadania. Utiliza o método histórico e documental. Apoia-se nos conceitos-chave de cidadania e democracia. Seu material empírico é constituído por documentos da Prefeitura Municipal, abrangendo formulações estratégicas, planos de governo, registros de seminários; documentos específicos sobre o setor de comunicação, abrangendo históricos, publicações, materiais gráficos e audiovisuais, planos de comunicação, campanhas publicitárias. Registra a ascensão ao governo municipal de uma frente política de esquerda, suas reeleições inéditas, sua projeção internacional sustentada, especialmente, por uma nova modalidade de administrar os investimentos públicos, denominada Orçamento Participativo. Descreve o perfil político-administrativo assumido pelos governos e a criação, a implantação, a centralização e as operações do setor de comunicação. Analisa a produção de ações estratégicas de comunicação e as decorrentes promoções da cidade, da cidadania e do modo de governar instaurado. Descreve as relações com a mídia, a monitoração sobre ela exercida, a utilização de meios próprios de comunicação e as medidas para a constituição de políticas públicas de comunicação.
Resumo:
A programação paralela é sem dúvida mais complexa do que a programação seqüencial. O controle de múltiplos processos e de suas interações são as principais razões para tal complexidade. Apesar da existência de algumas ferramentas que atendem à fase de desenvolvimento de programas paralelos, a complexidade é normalmente passada para as ferramentas paralelas, isto é, as ferramentas não são de fácil utilização. Assim, existe uma necessidade de ambientes e ferramentas realmente fáceis de usar no âmbito da programação paralela. Embora existam algumas ferramentas interessantes, inclusive algumas comerciais, seu uso permanece insuficiente, em parte devido à complexidade na utilização de algumas delas, em parte devido ao seu uso específico em determinadas plataformas. Portanto, existe ainda um grande campo de estudo no que diz respeito a melhorias de projeto sobre ferramentas existentes e desenvolvimento de ferramentas com um maior número de recursos. Provavelmente, a ferramenta paralela mais necessária aos programadores é o depurador paralelo. Por sua vez, ferramentas de depuração paralela estão entre as mais complexas de se desenvolver e talvez isso explique o motivo pelo qual poucas têm sido efetivamente utilizadas. Este trabalho descreve uma contribuição no campo da depuração paralela através da análise de interfaces de depuração paralela e da proposta de um modelo. A partir deste modelo, uma interface de depuração paralela – PADI (PArallel Debugger Interface) foi desenvolvida e seu principal objetivo é o de oferecer uma interface intuitiva e de fácil utilização. O modelo proposto e conseqüentemente a ferramenta PADI tratam da depuração paralela simbólica on-line. A depuração on-line trata do oferecimento de acesso aos símbolos do programa, como variáveis e registradores. A depuração on-line diferencia-se da off-line pelo tipo de interação com a execução do programa. A depuração on-line oferece interação direta com a aplicação, enquanto que a off-line interage com um arquivo de monitoração gravado durante a execução da aplicação paralela. A depuração on-line é similar à depuração seqüencial tradicional e, conseqüentemente, é de mais fácil utilização por parte da maioria dos programadores.
Resumo:
Este trabalho propõe a utilização da arquitetura Trace como um sistema de detecção de intrusão. A arquitetura Trace oferece suporte ao gerenciamento de protocolos de alto nível, serviços e aplicações através de uma abordagem baseada na observação passiva de interações de protocolos (traços) no tráfego de rede. Para descrever os cenários a serem monitorados, é utilizada uma linguagem baseada em máquinas de estado. Esta linguagem permite caracterizar aspectos observáveis do tráfego capturado com vistas a sua associação com formas de ataque. O trabalho mostra, através de exemplos, que esta linguagem é adequada para a modelagem de assinaturas de ataques e propõe extensões para permitir a especificação de um número maior de cenários ligados ao gerenciamento de segurançaa. Em seguida, é descrita a implementação do agente de monitoração, componente-chave da arquitetura Trace, e sua utilização para detectar intrusões. Esse agente (a) captura o tráfego da rede, (b) observa a ocorrência dos traços programados e (c) armazena estatísticas sobre a sua ocorrência em uma base de informações de gerenciamento (MIB { Management Information Base). O uso de SNMP permite a recuperação destas informações relativas µa ocorrências dos ataques. A solução apresentada mostrou ser apropriada para resolver duas classes de problemas dos sistemas de detecção de intrusão: o excesso de falsos positivos e a dificuldade em se modelar certos ataques.
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
This research has aimed to study the ethical patterns that guide the managers or owners of advertising agencies in Brazil and in other forty-two countries. Their knowledge or affinity to the concepts of ethics may indicate the degree of responsibility that they assume when dealing with the communication over products, services and ideas, in all of the different markets throughout the world. The comparative analysis of the opinions gathered in the research, in relation to several ethics parameters, has led to the observation that the codes of ethics do not seem to be sufficient to inform an advertising professional with respect to all of the situations and issues he deals with. A more profound knowledge of Ethics fundamental principles over nature and commercial life becomes mandatory, in order to reduce the uncertainties in a moral decision making process. Besides the questionnaires sent to professionals, data related to ads in national and foreign magazines were gathered in several institutions. The monitoring of ads in radio, television and outdoors allowed the evaluation of ongoing ethical parameters in Brazil as far as these communication means.
Resumo:
Trata o presente objeto de pesquisa da proposta de desenvolvimento de um modelo de ambiente de avaliação remota para Ensino à Distância, baseado no paradigma de Orientação a Objetos e elaborado com base na tecnologia de sistemas multiagentes. Para a validação do modelo, foi desenvolvido um protótipo denominado Javal, capaz de permitir a aplicação e monitoração da realização de avaliações e testes à distância. As soluções comerciais disponíveis no mercado, como Question Mark Perception, Aula Net e WebCT possuem código fechado e custo elevado, além de serem baseadas em soluções proprietárias (QML - Question Mark, ASP - Microsoft, etc.), necessitando de plataforma específica para instalação de servidores e clientes. Quanto ao aspecto funcional, estas ferramentas possuem a base de sua lógica de funcionamento em execução de scripts no servidor. Para cada item de uma avaliação a ser respondido, torna-se necessária a efetivação de uma nova conexão. O modelo proposto traz toda a funcionalidade do sistema para o ambiente do aluno, tornando necessária apenas uma conexão para a busca da avaliação e outra para o envio dos resultados, reduzindo o tráfego na rede. Quanto ao aspecto pedagógico, estas ferramentas limitam-se apenas a apresentar uma avaliação somativa do aluno, geração de graus e estatísticas, não se preocupando em monitorar seus aspectos comportamentais, capazes de apontar indícios de possíveis falhas no aprendizado ou na elaboração da avaliação. A proposta do modelo é da apresentação de um ambiente orientado a objetos, capaz de distribuir elementos representativos das avaliações existentes no modelo tradicional de ensino, incorporando recursos capazes de possibilitar a monitoração de aspectos comportamentais do aluno, pelo emprego de agentes monitores ou tutores, que podem acompanhar o aluno e auxiliá-lo em situações de dificuldade. O modelo proposto por este trabalho envolve as avaliações formativas e somativas, aplicadas de forma assíncrona e individual. Como sugestão para trabalhos futuros, o modelo propõe o desenvolvimento de classes capazes de implementar a aplicação de avaliações síncronas e em grupo. A validação do modelo proposto foi realizado através do desenvolvimento de um protótipo que, com base no desenvolvimento de uma API Javal específica, implementa os principais tipos de questões disponíveis no sistema de ensino tradicional, além de agentes tutores de avaliação.
Resumo:
Nas últimas décadas a operação de parte das rodovias brasileira foi transferida à iniciativa privada através de concessões. Seguindo tendências mundiais, o governo federal e os governos estaduais criaram as agências reguladoras, responsáveis pelo controle das concessões. Neste contexto, ganha importância a utilização de instrumentos que avaliem as condições gerais dos elementos físicos e dos serviços, essenciais ao desempenho das funções sociais e econômicas das rodovias. O objetivo desta dissertação é o desenvolvimento e aplicação de um modelo de avaliação de rodovias concedidas por parte de técnicos. A consulta ao estado da arte e da prática em avaliação rodoviária, a procedimentos de monitoração previstos em contratos de concessão e ao plano de fiscalização da Agência Nacional de Transportes Terrestres (ANTT) concorreram para a definição de um modelo teórico de avaliação técnica e subjetiva. Este modelo baseia-se em uma estrutura de itens que representam os vários elementos físicos e de serviços de uma concessão. Tal estrutura permite monitorar, de forma dinâmica, a qualidade rodoviária a partir dos seguintes níveis de agregação: itens, constructos (agrupamento de itens), trechos e concessão como um todo. A definição dos itens de avaliação, de suas ponderações (importâncias relativas) e de seus critérios de avaliação foi conduzida através da realização de grupos focados junto a técnicos de rodovias. Para a definição dos itens utilizou-se ainda a literatura como fonte de informação. A ponderação dos itens baseou-se na aplicação do Método de Análise Hierárquica em grupos focados. A aplicação do modelo de avaliação ocorreu através de dois estudos de caso: concessão 1 e concessão 2. Em relação à ponderação dos itens de avaliação, destacam-se itens dos constructos pavimento e sinalização, que representam aproximadamente 27% da importância da nota de uma concessão, cada. O item relacionado a panelas e buracos apresenta uma importância de aproximadamente 10% da nota. A análise da condição e da importância dos itens permitiu verificar os constructos mais críticos das concessões. A concessão 1 apresenta, como críticos, os constructos pavimento; sinalização; vegetação, limpeza, drenagem e visibilidade; e serviços prestados pela concessionária. A concessão 2 apresenta, como críticos, os constructos pavimento; acostamentos, refúgios e encostas; pontes, viadutos e túneis; sinalização; vegetação, limpeza, drenagem e visibilidade.
Resumo:
O objetivo deste trabalho é propor uma metodologia para medição e controle de uma estratégia pré-existente de manufatura, visando a preencher uma lacuna identificada nos processos de gestão estratégica – a falta de alinhamento automático das ações definidas nos processos de planejamento estratégico de manufatura com a medição do desempenho. Observada sob uma perspectiva sistêmica, a manufatura se relaciona com o meio pela importação de informação, energia e materiais, exportando produtos, informação e serviços. Através de mecanismos de realimentação, como a medição de desempenho e a monitoração de grandezas ambientais, a manufatura governa seus recursos de modo a atingir objetivos, geralmente estabelecidos no planejamento estratégico. Considerando a problemática de medição e controle, faz-se uma discussão sobre a perspectiva sistêmica da manufatura, sobre formas de estruturar objetos, muitas vezes intangíveis, que deverão ser medidos e sobre modelos já propostos de medição do desempenho organizacional, comparando-os e propondose uma classificação. Apoiado na revisão bibliográfica, por um método de pesquisa hipotético-dedutivo, propõe-se uma metodologia para estruturar um sistema de medição de uma estratégia existente, que permita o controle das ações sempre que os objetivos não estejam sendo alcançados e que possa se adaptar sempre que o cenário estratégico varie. Por um método de trabalho de aproximações parciais testa-se e refina-se a metodologia proposta. Inicia-se a fase experimental pela modelagem e avaliação da capacidade de competição de uma manufatura de equipamentos eletrônicos, dada uma estratégia existente. Passa-se então à modelagem de parâmetros de processo de manufatura, tais como o tempo de atravessamento, o inventário em processo e o desempenho, necessários para medições internas, testada em uma manufatura calçadista. Agrega-se então ao conhecimento já testado uma técnica de otimização de cursos de ação estratégica e testa-se a metodologia como um todo em uma estratégia existente de manufatura mecânica. Ao fim, discute-se o caso e comparam-se os resultados com outras fontes, encaminhando-se a continuidade de pesquisas.
Resumo:
O gerenciamento de redes exige dos administradores a disponibilidade de uma grande quantidade de informações sobre os seus equipamentos, as tecnologias envolvidas e os problemas associados a elas. Nesse cenário, administradores de redes devem, cada vez mais, aprofundar o seu conhecimento através de constante treinamento, até que estejam aptos a administrar uma rede de maneira mais eficiente e confiável. Alguns estudos têm sido feitos buscando integrar tecnologias de Inteligência Artificial na área de gerenciamento de redes. Abordagens utilizando sistemas multiagentes, agentes de interface e sistemas especialistas já foram utilizadas com o objetivo de facilitar a tarefa de gerenciamento de rede aos olhos do usuário. Os chatterbots representam um grande potencial para a tarefa de treinamento e gerenciamento de redes já que utilizam linguagem natural e são capazes de ser facilmente integrados em ambientes mais complexos. O principal objetivo deste trabalho é investigar o uso de chatterbots como uma ferramenta de gerenciamento utilizada por administradores menos treinados. O trabalho envolveu a adaptação do chatterbot ALICE para permitir o treinamento e a gerência de redes através da inclusão de módulos que permitem a monitoração de equipamentos de uma rede (através do protocolo SNMP) e módulos que permitam consultar e armazenar histórico de informações da mesma. Desta forma, a grande contribuição da arquitetura proposta é a de prover uma comunicação mais efetiva entre o administrador menos experiente e a rede, através do chatterbot assistente, que recebe consultas em linguagem natural, interpreta os dados coletados e expõe os conceitos envolvidos no processo de gerenciamento.
Resumo:
A literatura de Recursos Humanos sugere a seus profissionais que, ao buscar aprovação para investimentos em projetos e programas de RH, enfatizem a contribuição que eles podem dar ao atingimento dos objetivos de negócios de suas organizações. As empresas, impelidas pela competição cada dia mais acirrada, esperam que seus profissionais de RH justifiquem os investimentos em linguagem que demonstre de maneira clara os benefícios que possam adicionar na busca de tais objetivos - esta linguagem necessariamente se relaciona ao resultado financeiro e econômico das empresas. Se é reduzida a influência das áreas de RH ou baixa a prioridade dada à implementação de seus programas, esta situação pode não ser nada mais nada menos do que uma resposta racional da direção das empresas, que apesar de “conhecer” intuitivamente os benefícios da atividade, não dispõe de uma medida objetiva sobre eles. Na falta de tal medida, a organização não consegue priorizar adequadamente os programas de RH em seu plano de investimentos. A Análise da Utilidade oferece uma resposta a este problema. Ela consiste em uma família de teorias e medidas desenhadas para descrever, predizer e/ou explicar quão úteis e desejáveis são as opções de decisão relativas aos diversos programas da Gestão de RH – seleção, treinamento, avaliação de desempenho, remuneração, etc., e pode ser considerada como uma análise de custos e benefícios: os custos reduzem a utilidade e os benefícios a aumentam. A Análise da Utilidade é um instrumento adequado ao ambiente de negócios porque insiste em que tanto os custos como as conseqüências das decisões sejam sempre considerados de antemão. O mérito de sua abordagem é que ela resulta em decisões fundamentadas em raciocínio robusto, racional e consciente, através da linguagem mais utilizada no mundo dos negócios da atualidade – custos, benefícios, retornos de investimentos, e seus impactos sobre os resultados finais, financeiros e econômicos. Neste trabalho aplicamos a metodologia definida por Sturman et al. (2003), destinada ao uso da Análise da Utilidade na avaliação do valor econômico de diferentes políticas de remuneração, ao caso de uma grande empresa do setor financeiro no Brasil. Nossas conclusões demonstram o valor do uso da Análise da Utilidade na justificação de políticas de remuneração de alto valor. Esta justificação se baseia nas estimativas de valor incremental dos recursos humanos que tais políticas ajudam a reter, contrabalançado pelos riscos de sua implementação. Tais políticas, se julgadas pelos padrões tradicionais de custo, seriam descartadas. Demonstramos que a Análise da Utilidade viabiliza uma linguagem comum entre a área de RH, a alta direção e demais áreas da empresa – contribuição aos objetivos do negócio. Isto deve facilitar a comunicação e divulgação dos benefícios, implantação e monitoração dos programas de RH.
Resumo:
A alta gerência do banco de varejo (PRINCIPAL) necessita delegar autoridade a gerentes de níveis inferiores (AGENTES) sob a existência de interesses conflitantes, informações assimétricas e a impossibilidade de monitoração completa. Um sistema de metas e incentivos é adotado de modo a induzir estes agentes na direção dos interesses do principal. O objetivo deste trabalho é avaliar a relação causal existente entre o chamado “contrato de salário variável garantido” e o desempenho dos agentes. Isto é, investigar de que forma a aplicação deste contrato implícito, que promove uma substancial mudança no sistema de incentivos diretos, afeta o desempenho destes agentes. Analisamos econometricamente dados de jan.2007 a jun.2009 obtidos junto a um grande banco de varejo nacional através de um estimador de efeitos fixos para um painel de dados não balanceado. Os resultados indicam que os agentes sujeitos ao contrato de salário variável garantido têm um desempenho inferior aos agentes sujeitos a remuneração variável. Concluímos que não podemos descartar existência do problema de risco moral no comportamento dos agentes sujeitos a este contrato.
Resumo:
O presente trabalho apresenta um estudo detalhado da monitoração de energia durante a cravação do amostrador no ensaio SPT, bem como da identificação dos fatores que influenciam estas medidas. Para tanto foi desenvolvido um equipamento para a aquisição dos sinais de força e de aceleração que consta de uma célula de carga, amplificadores e condicionadores de sinais de força e aceleração, sistema de aquisição de sinal e tratamento numérico dos registros. Paralelamente foi implementado um programa embasado na técnica de diferenças finitas que simula numericamente o ensaio, inclusive o balanço das distintas energias ao longo do processo. De posse dessas ferramentas e tecnologia efetuou-se uma extensa campanha de ensaios totalmente controlados. Os resultados da campanha experimental, associados aos fundamentados e princípios básicos da física, permitiram o entendimento do processo de cravação do amostrador no solo com a determinação das perdas (eficiências) ocorridas ao longo do processo e a proposição de uma nova abordagem de interpretação fundamentada no trabalho efetivamente consumido na cravação do amostrador no solo. O conhecimento deste trabalho abre uma gama de alternativas para a estimativa de propriedades de comportamento de solos com base em resultados de medidas de SPT. Exemplos da aplicação destas alternativas são apresentados Ao longo do trabalho verificou-se que: O intervalo de integração utilizado na apropriação da energia deve ser tal que leva em consideração os golpes subseqüentes mesmo em se tratando de hastes longas; A energia assim determinada é dependente da resistência do solo; Existem perdas de energia ao longo das hastes; Estas perdas são diretamente proporcionais ao comprimento das hastes; O ensaio é um fenômeno de grandes deslocamentos e, portanto, deve ser interpretado com a adoção de um referencial fixo e fora do sistema; A variação da energia potencial das hastes deve ser considerada no computo da energia consumida na cravação do amostrador no solo e esta variação da energia é diretamente proporcional à massa das hastes.