875 resultados para Absentismo e escala
Resumo:
Uma etapa fundamental no desenvolvimento de sistemas tolerantes a falhas é a fase de validação, onde é verificado se o sistema está reagindo de maneira correta à ocorrência de falhas. Uma das técnicas usadas para validar experimentalmente um sistema é injeção de falhas. O recente uso de sistemas largamente distribuídos para execução dos mais diversos tipos de aplicações, faz com que novas técnicas para validação de mecanismos de tolerância a falhas sejam desenvolvidas considerando este novo cenário. Injeção de falhas no sistema de comunicação do nodo é uma técnica tradicional para a validação de aplicações distribuídas, para forçar a ativação dos mecanismos de detecção e recuperação de erros relacionados à troca de mensagens. A condução de experimentos com injetores de comunicação tradicionais é feita pelo uso do injetor em uma máquina do sistema distribuído. Se o cenário desejado é de múltiplas falhas, o injetor deve ser instanciado independentemente nas n máquinas que as falhas serão injetadas. O controle de cada injetor é individual, o que dificulta a realização do experimento. Esta dificuldade aumenta significativamente se o cenário for um sistema distribuído de larga escala. Outro problema a considerar é a ausência de ferramentas apropriadas para a emulação de determinados cenários de falhas. Em aplicações distribuídas de larga escala, um tipo comum de falha é o particionamento de rede. Não há ferramentas que permitam diretamente a validação ou a verificação do processo de defeito de aplicações distribuídas quando ocorre um particionamento de rede Este trabalho apresenta o estudo de uma abordagem para injeção de falhas que permita o teste de atributos de dependabilidade de aplicações distribuídas de pequena e larga escala implementadas em Java. A abordagem considera a não obrigatoriedade da alteração do código da aplicação sob teste; a emulação de um cenário de falhas múltiplas que ocorrem em diferentes nodos, permitindo o controle centralizado do experimento; a validação de aplicações que executem em sistemas distribuídos de larga escala e consideram um modelo de falhas realista deste tipo de ambiente, incluindo particionamentos de rede. A viabilidade da abordagem proposta é mostrada através do desenvolvimento do protótipo chamado FIONA (Fault Injector Oriented to Network Applications), o qual atualmente injeta falhas em aplicações desenvolvidas sob o protocolo UDP.
Resumo:
Este artigo avalia os efeitos das variáveis de escala na oferta de serviços públicos de saúde dos municípios paulistas, com o objetivo de investigar os possíveis efeitos do processo de descentralização dos serviços de saúde a partir da consolidação do Sistema Único de Saúde (SUS). Foram construídos indicadores de eficiência dos gastos municipais em saúde pela técnica de Free Disposable Hull, tendo sido estimados os efeitos das variáveis de escala não só sobre a eficiência, mas também diretamente sobre os indicadores de desempenho e sobre os gastos per capita. Conclui-se que os municípios menores, além de terem maior gasto per capita em saúde, oferecem piores condições de acesso ao sistema. Além disso, pequenos municípios não oferecem melhores serviços de prevenção de doenças infecciosas, apesar de terem, a princípio, melhores condições de conhecer as necessidades dos cidadãos. Em consonância com o trabalho de Sampaio de Souza et alii (2005), conclui-se que a excessiva descentralização na gestão pode levar à perda de eficiência, aumentando gastos sem necessariamente melhorar a qualidade.
Resumo:
Esta dissertação objetiva avaliar como as empresas organizam sua estratégia para gestão do conhecimento. Basicamente dois modelos estratégicos são apresentados na literatura: a codificação e a personalização. No entanto, há uma questão que se apresenta na literatura que se refere à importância do foco prioritário em apenas um dos modelos estratégicos citados. Como objetivo principal, pretende-se apresentar uma escala que possa analisar se uma empresa líder em seu segmento realmente possui um foco estratégico com relação à gestão do conhecimento. Durante o desenvolvimento deste trabalho, será percorrido um referencial teórico que busca explicar como a gestão do conhecimento se tomou importante para a estratégia das empresas, tocando em pontos como características da Era da Informação e conceitos básicos da gestão do conhecimento, englobando modelos teóricos que buscam explicar como o conhecimento é criado e transferido dentro das empresas. Um modelo para mensuração do foco estratégico de uma empresa será proposto. Este modelo será composto de indicadores estruturados em forma de um questionário. Para cada indicador haverá uma escala de avaliação e o conjunto do questionário buscará traduzir o foco estratégico citado. Por fim, o questionário será testado em uma empresa de Propriedade Intelectual e serão feitas análises estatísticas para avaliação do mesmo. Para isto será utilizado o procedimento da análise fatorial do tipo confirmatória. Trata-se de uma ferramenta estatística que possibilita uma avaliação tanto do modelo de análise, quanto do modelo estrutural.
Resumo:
As métricas de valor da marca baseadas no cliente levam em conta sua conscientização, conhecimento e o relacionamento dele com a marca. O valor da marca baseado no cliente, ou Brand Equity, consiste no efeito diferencial que o conhecimento da marca tem sobre as respostas do cliente a ela. O cliente cria uma imagem baseado no modo que avalia e retém as suas experiências, sempre que procura, compra, e consome um produto (bem e/ou serviço). Nestas situações está exposto a vários estímulos associados à marca (por exemplo, cores, formas, elementos de design, slogans, mascotes e caracteres), que aparecem como parte de sua identidade visual (por exemplo, nome, logo), embalagens, comunicações (por exemplo, anúncios, websites) e nos ambientes onde a marca é divulgada e vendida (eventos, lojas, sites, etc.). As respostas a estes estímulos formam a Experiência com a Marca (BRAKUS;SCHIMITT;ZARATONELLO, 2009). A abordagem mais comum das métricas de valor da marca baseado no cliente é mensurar as percepções, o conhecimento e o entendimento da marca, e rastrear suas mudanças no decorrer do tempo. Estas mudanças estão associadas às atividades de marketing conduzidas em nome da marca. Além disto, as abordagens que seguem este caminho têm três pilares: 1) o valor é resultado de observações, exposições e outras experiências desenvolvidas e comunicadas pela empresa, podendo a organização impactar diretamente (com atividades de marketing), o nível, o tipo e a forca desta criação de valor; (2) o valor gerado resulta em comportamentos e reações positivas (como compra, recompra e satisfação); (3) as atividades de marketing podem ser relacionadas à variação do valor da marca e ter seu impacto avaliado. Nesta dissertação, a Experiência com a Marca é tratada como métrica de valor da marca baseada no cliente. As atividades de marketing que antecedem o valor da marca foram analisadas à luz da literatura de marketing experiencial. Primeiramente foram exploradas as evidências de que, na Experiência com a Marca, o valor é resultado de observações, exposições e outras experiências desenvolvidas e comunicadas pela empresa, e como o conhecimento gerado pelas pesquisas em marketing pode ser aplicado para impactar diretamente o nível, o tipo e a forca desta criação de valor. Brakus, Schimitt e Zaratonello (2009) desenvolveram uma escala de Experiência com a Marca que foi replicada no contexto brasileiro, confirmando as principais dimensões desta experiência no Brasil e procurando comparar os resultados com a escala proposta e validada pelos autores nos Estados Unidos. No que diz respeito às conseqüências da Experiência com a Marca, foram avaliadas as bases teóricas que evidenciam que o valor gerado resulta em comportamentos positivos, e mostrado o impacto da Experiência com a Marca na Personalidade da Marca. Como parte da conclusão deste projeto, foram apontadas oportunidades de pesquisa da Experiência com a Marca com foco nos seus antecedentes, e nas suas conseqüências a longo prazo.
Resumo:
Na América do Sul há uma forte incidência de Sistemas Convectivos de Mesoescala (SCM), que na maioria das vezes, estão associados a desastres naturais. Estes causam impactos não só do ponto de vista meteorológico, mas também social e econômico. Neste trabalho analisa-se 49 Sistemas Convectivos de Meso-α, que atuam na América do Sul, durante os anos de 1999, 2000 e 2001. Com o auxílio de imagens do satélite GOES-8(canal IR, 10,4μm), identifica-se padrões comportamentais ao longo da vida dos SCM. Para a caracterização da evolução temporal e espacial, faz-se uma divisão da análise em duas partes: temporal e espacial. Na análise temporal, observam-se as variações rítmicas na intensificação da atividade convectiva. Na análise espacial, são observadas características como: tamanho e tempo de vida dos SCM e de seus respectivos núcleos distâncias entre os núcleos, trajetórias dos SCM entre outras características comportamentais dos núcleos convectivos que constituem o sistema. A análise dos dados mostra que mais da metade dos casos analisados sofrem dois tipos de variações na atividade convectiva, uma com período de 12 horas, e outra com menor periodicidade, 5,1 horas. Mostra-se que a evolução espacial dos SCM dá-se em média na direção das latitudes mais baixas, de forma discreta com o aparecimento de novos núcleos, na direção noroeste em relação ao núcleo antigo.
Resumo:
Uma das mais importantes diretrizes do Sistema Único de Saúde (SUS) é a descentralização da gestão dos serviços de saúde, visando uma maior proximidade dos agentes tomadores de decisão com a população local. Contudo, um dos argumentos contrários à descentralização é de que esta pode implicar em consideráveis perdas de escala. Este trabalho tem como objetivo investigar a existência de economias de escala no setor de saúde pública no Brasil. Alguns estudos empíricos nacionais já encontraram evidências de economias de escala na provisão de serviços públicos em geral, incluindo o caso específico do setor de saúde, como os trabalhos de Souza, Cribari-Neto e Stosic (2005) e Mattos et al. (2009). Este estudo busca acrescentar novas evidências a esse tema, a partir de uma nova investigação que difere das anteriores em metodologia. Inicialmente é calculado um score de eficiência (através do método DEA - Data envelopment analysis) com base em três variáveis de insumo (gastos em saúde, cobertura de esgoto e de abastecimento de água encanada) e três variáveis de produto (mortalidade infantil, internação por doenças infecciosas e taxa de acesso ao sistema de saúde). Após o cálculo deste score, analisa-se a relação entre tamanho da população e outras variáveis demográficas e a eficiência dos municípios na provisão de saúde. Para isso foi feita uma regressão usando dados de painel que inclui 537 dos 645 municípios do Estado de São Paulo ao longo do período 2002-2007, o que permite o controle do efeito fixo dos municípios, além do controle de características como renda per capita, violência, educação, entre outros. Os resultados confirmam aqueles já encontrados por outros pesquisadores a partir de outras metodologias, revelando que o tamanho do município é um importante determinante de sua eficiência na área de saúde. Assim sendo, por fim, investigam-se possíveis explicações para o forte impacto da escala na eficiência de gastos em saúde. A questão que surge é a identificação dos fatores que determinam essas economias de escala, que podem vir, por exemplo, dos gastos em infra-estrutura – como quantidade de leitos e estabelecimentos – ou de gastos com recursos humanos, equipamentos, materiais ou remédios. Parte desta questão é analisada ao se estimar um modelo de regressões aparentemente não correlacionadas, no qual se identificam diferenças relevantes na intensidade de utilização de diferentes categorias de insumos de acordo com o tamanho da população.
Resumo:
Devido crescente importância assumida pelos estudos de viabilidade economico-finariceiros, tem-se observado nos últimos anos, principalmente no Brasil, um interesse relevante pela matéria, muito particularmente pelos estudos de viabilidade de projetos de transporte, destinados a captarem recursos das diversas entidades internacionais de financianento. O desenvolvimento do presente estudo visa, não apenas apresentar as técnicas usuais de análise, como também criticá-las e oferecer alternativas para sua reformulação. O trabalho resultou da experiência adquirida durante elaboração do Plano diretor de Transportes pelo GEIPCT, sendo maioria dos exemplos numéricos elaborados com base nas diversas Diretrizes emitidas nas duas fases de pesquisa. Muito embora se observe um aparente conflito entre alguns itens, tal resulta em grande parte, por estarem as novas técnicas de análise ainda em fase de pesquisa comprovação para serem utilizadas na revisão do Plano Diretor, sendo tais conflitos aparentes considerados portanto, bastante naturais em se tratando de um trabalho de reformulação.
Resumo:
O processamento de imagens tem sido amplamente utilizado para duas tarefas. Uma delas é o realce de imagens para a posterior visualização e a outra tarefa é a extração de informações para análise de imagens. Este trabalho apresenta um estudo sobre duas teorias multi-escalas chamadas de espaço de escala e transformada wavelet, que são utilizadas para a extração de informações de imagens. Um dos aspectos do espaço de escalas que tem sido amplamente discutido por diversos autores é a sua base (originalmente a gaussiana). Tem se buscado saber se a base gaussiana é a melhor, ou para quais casos ela é a melhor. Além disto, os autores têm procurado desenvolver novas bases, com características diferentes das pertencentes à gaussiana. De posse destas novas bases, pode-se compará-las com a base gaussiana e verificar onde cada base apresenta melhor desempenho. Neste trabalho, foi usada (i) a teoria do espaço de escalas, (ii) a teoria da transformada wavelet e (iii) as relações entre elas, a fim de gerar um método para criar novas bases para o espaço de escalas a partir de funções wavelets. O espaço de escala é um caso particular da transformada wavelet quando se usam as derivadas da gaussiana para gerar os operadores do espaço de escala. É com base nesta característica que se propôs o novo método apresentado. Além disto, o método proposto usa a resposta em freqüência das funções analisadas. As funções bases do espaço de escala possuem resposta em freqüência do tipo passa baixas. As funções wavelets, por sua vez, possuem resposta do tipo passa faixas Para obter as funções bases a partir das wavelets faz-se a integração numérica destas funções até que sua resposta em freqüência seja do tipo passa baixas. Algumas das funções wavelets estudadas não possuem definição para o caso bi-dimensional, por isso foram estudadas três formas de gerar funções bi-dimensionais a partir de funções unidimensionais. Com o uso deste método foi possível gerar dez novas bases para o espaço de escala. Algumas dessas novas bases apresentaram comportamento semelhante ao apresentado pela base gaussiana, outras não. Para as funções que não apresentaram o comportamento esperado, quando usadas com as definições originais dos operadores do espaço de escala, foram propostas novas definições para tais operadores (detectores de borda e bolha). Também foram geradas duas aplicações com o espaço de escala, sendo elas um algoritmo para a segmentação de cavidades cardíacas e um algoritmo para segmentação e contagem de células sanguíneas.
Resumo:
O objetivo deste trabalho foi a construção de um instrumento para medir o nível de ambiguidade expresso pelos indivíduos em situações simples do cotidiano. Definiu-se como nível de ambiguidade, a capacidade do indivíduo para criar ambiguidade diante de determinadas situações sociais. Este trabalho vem como consequência da tese de doutorado "Anomia e Desorganização: estudo psicológico em contexto brasileiro", elaborada em 1981 e cujos resultados, confrontados com a realidade cotidiana, fizeram ressaltar o modelo ambíguo característico de nossa sociedade, que se afigura sob a forma de variadas contradições nas atitudes dos indivíduos. A ambiguidade parece ser encontrada no sistema como resultante da interpretação que o indivíduo dá a padrões, leis, normas e valores ambíguos ou ainda como consequência da própria violação ou desinformação a respeito das regras, das constantes reformulações, da desconfiança, da adaptação social de um modo geral. O enfoque teórico se baseou fundamentalmente em teorias antropológicas e sociais que propõem a realidade como algo construído pelo indivíduo e onde apareceria o comportamento ambíguo como resultante da interrelação entre o indivíduo e o meio social no qual ele se desenvolve. Para a fundamentação da escala foram isolados dois fatores a saber: (1) a ambiguidade como fator social e (2) a ambiguidade como fator psicológico.
Resumo:
o presente estudo analisa os custos da escola rização de uma amostra de escolas do município do Rio de Janeiro e de outra do Distrito Federal, com o objetivo de determinar sua escala ótima de operação e analisar sua eficiência na utilização dos seus recursos físicos e humanos. A escala ótima, como o trabalho demonstra, e determinadÇl. pe;Lo pontQ de minimo . .das curvas de -custo, estimando o tamanho ideal para o funcionamento das escolas, de sorte a obter o máximo de eficiência e produtividade. A eficiência é analisada em termos da intensidade de uso da capacidade física instalada e da alocação adequada.dos recursos humanos, em função da natureza dos serviços escolares e do número de alunos nela matriculados. Espera-se demonstrar que o planejamento edu cacional pode aumentar a eficiência do sistema tirando proveito do que propoe a teoria microeconômica ao abordar as questões relati vas à função de produção e aos seus custos. E que, ao final, a cor reta utilização desses conceitos pode ser muito útil para ajudar a superar a desnecessária, mas muitas vezes real - dicotomia entre quantidade e qualidade. Planejamento economicamente correto pode permitir oferecer e~sino de qualidade a uma grande quantidade de crianças, adolescentes e jovens. A quantidade, antes de ser obstá culo, pode até favorecer a oferta de um ensino de boa qualidade. Evidentemente, é necessár~o competência técnica e científica para fazê-lo, secundando uma firme vontade política de fazê-lo.
Resumo:
Este trabalho consiste na construção de uma escala de escores centróides para o "Questionário de 16 Fatores de Personalidade, (16 PF)" de Raymond B. Cattell e Herbert W. Eber. A escolha desse questionário recaiu no fato de ser um instrumento de avaliação objetiva da personalidade de grande utilização na Orientação Vocacional. Optamos pela transformação dos escores brutos em centróides, considerando que estes pressupõem uma escala bipolar que por sua natureza permite a determinação de um índice de adaptação do indivíduo ao grupo. Sendo o 16 PF, um teste que fornece dados para que os indivíduos possam ser encaminhados para grupos ocupacionais adequados aos fatores de sua personalidade, esperamos que essa nova escala de avaliação venha facilitar o trabalho daqueles que lidam com Orientação Vocacional.