187 resultados para maneira


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visou a utilização direta da análise modal adjunta em sistemas não-clásicos de natureza concentrada e distribuída, explorando o conceitos de biortogonalidade modal e da resposta impulso evolutiva e estacionária. Discutiu-se a natureza do espectro para diversas classes de sistemas, em particular para sistemas com efeitos giroscópicos e com atrito interno. A teoria foi desenvolvida de maneira paralela para sistemas de primeira ordem e de segunda ordem, porém é apresentada de maneira independente, ou seja, para os sistemas de segunda ordem não é utilizada a formulação de espaço de estado, a qual reduz o sistema para primeira ordem. Assim, as relações de biortogonalidade para sistemas de segunda ordem são apresentadas e utilizadas de maneira direta na expansão modal da resposta dos sistemas. A forma dos modos de vibração em variadas aplicações é determinada de maneira exata com o uso da base dinâmica gerada pela resposta impulso espacial. No cálculo dos autovalores foi introduzida uma aproximação polinomial para a resposta impulso espacial Os coeficientes dessa aproximação foram obtidos por recursão, a partir de uma equação em diferenças associada à equação característica do problema modal. Simulações numéricas foram realizadas para obter a resposta impulso evolutiva, respostas forçadas e modos de vibração de sistemas não-clássicos concentrados, formulados através de modelos ou aproximações, e sistemas distribuídos, formulados através de modelos ou incluindo distúrbios e acoplamento através das condições decontorno. Os resultados deste estudo permitiram concluir, através das simulações numéricas realizadas, a importância da base dinâmica no sentido de simplificar os cálculos para obtenção dos autovalores, dos modos de vibração e, consequentemente, da resposta do sistema, seja concentrado, distribuído com ou sem acoplamento das condições de contorno. A utilização da análise modal adjunta, desde que ocorra uma ordenação adequada dos autovalores e modos, mostrou-se um método eficiente na obtenção direta da resposta de sistemas não-clássicos de segunda ordem, ou seja, sem redução ao espaço de estado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a pesquisa e o desenvolvimento da ferramenta para geração automática de leiautes WTROPIC. O WTROPIC é uma ferramenta para a geração remota, acessível via WWW, de leiautes para circuitos CMOS adequada ao projeto FUCAS e ao ambiente CAVE. O WTROPIC foi concebido a partir de otimizações realizadas na versão 3 da ferramenta TROPIC. É mostrado também, como as otimizações no leiaute do TROPIC foram implementadas e como essas otimizações permitem ao WTROPIC cerca de 10% de redução da largura dos circuitos gerados em comparação ao TROPIC. Como o TROPIC, o WTROPIC é um gerador de macro células CMOS independente de biblioteca. Apresenta-se também, como a ferramenta WTROPIC foi integrada ao ambiente de concepção de circuitos CAVE, as mudanças propostas para metodologia de integração de ferramentas do CAVE que conduzem a uma melhora na qualidade de integração e a padronização das interfaces de usuário e como a síntese física de um leiaute pode ser então realizada remotamente. Dessa maneira, obteve-se uma ferramenta para a concepção de leiautes disponível a qualquer usuário com acesso a internet, mesmo que esse usuário não disponha de uma máquina com elevada capacidade de processamento, normalmente exigido por ferramentas de CAD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A grande quantidade de dados eletrônicos disponível atualmente nem sempre pode ser representada com modelos tradicionais, principalmente devido à ausência de esquema no momento da criação destes dados. Neste sentido, modelos semi-estruturados têm sido propostos; uma das abordagens utilizadas é XML, uma linguagem para troca e representação deste tipo de informação. Entretanto, consultar dados semi-estruturados pode demandar processos de extração com alto custo. Uma das alternativas para solucionar este problema é a definição de visões sobre estes dados, e a posterior materialização destas informações. O uso de visões materializadas para dados XML ainda é pouco explorado. Uma das abordagens que podem ser utilizadas é o uso de sistemas de gerenciamento de bancos de dados relacionais para o armazenamento das visões. Desse modo, informação semanticamente relacionada (informação acerca de um mesmo domínio, possivelmente representada em formatos diferentes) pode ser agrupada em uma única unidade lógica, facilitando o acesso a estes dados por parte do usuário, e introduzindo alguma estrutura nos dados semiestruturados. Dessa maneira, o usuário final submete consultas diretamente sobre a visão materializada, evitando extrações contínuas de dados nas fontes XML. A materialização de dados XML exige a definição de um repositório de dados para o armazenamento destas instâncias. Utilizando-se a abordagem relacional, é necessário definir um mecanismo para a geração do esquema lógico do banco de dados. Consultar os dados nas fontes XML exige a integração destas instâncias. Neste contexto, integrá-las significa identificar quais instâncias de dados representam o mesmo objeto do mundo real, bem como resolver ambigüidades de representação deste objeto. O problema de identificação de entidades em XML é mais complexo que em bases de dados estruturadas. Dados XML, como propostos originalmente, não carregam necessariamente a noção de chave primária ou identificador de objeto. Assim, é necessária a adoção de um mecanismo que faça a identificação das instâncias na integração destes dados. Além disso, à medida que as fontes de dados XML sofrem alterações, a visão materializada deve ser atualizada, a fim de manter-se consistente com as fontes de dados. A manutenção deve propagar as alterações feitas nos dados XML para a visão materializada. Reprocessar todo o conteúdo da visão materializada é, na maioria das vezes, muito caro. Assim, é desejável propagar as mudanças incrementalmente, ou seja, processar apenas as alterações necessárias. Neste sentido, o presente trabalho apresenta uma proposta de técnica para armazenamento de dados XML em um banco de dados relacional. A proposta utiliza ontologias para a geração do esquema lógico do banco de dados. O problema de integração de dados é mostrado. O foco principal do trabalho está na proposta de uma técnica de atribuição de identificadores a instâncias XML, baseada no uso de funções Skolem e no padrão XPath, proposto pelo W3C. Também é proposto um mecanismo para manutenção incremental deste banco, à medida que as fontes XML sofrem atualizações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata da satisfação do consumidor, um tema cada vez mais relevante, tanto no âmbito acadêmico, quanto no empresarial. A pesquisa de satisfação do consumidor é um sistema de análise de informações que capta a opinião do cliente através da avaliação do desempenho da organização ou, especificamente, de seus produtos e serviços a partir do ponto de vista do cliente. O trabalho aqui descrito foi desenvolvido junto ao setor supermercadista, restringindo-se ao mercado de Porto Alegre. O principal objetivo desse estudo foi medir o nível de satisfação dos consumidores desse setor, considerando-se o mercado de Porto Alegre. Para a realização dos objetivos foi utilizado um método em duas etapas: primeiramente uma pesquisa exploratória e após, uma pesquisa descritiva. A pesquisa exploratória procurou identificar os atributos utilizados para a avaliação do setor supermercadista através da realização de entrevistas de profundidade com 15 consumidores do setor. Essas entrevistas geraram 48 atributos divididos em três dimensões – Conforto e Conveniência, Organização e Infraestrutura e Serviços – que constituíram o instrumento de coleta de dados (questionário) aplicado na pesquisa descritiva. A pesquisa descritiva levou em consideração, para a formação da amostra, a população de supermercados de Porto Alegre, que foi classificada em três portes – pequeno, médio e grande – conforme sua área de vendas (m2). Dessa forma, a amostra de 400 consumidores foi dividida a partir da representatividade da área de 14 vendas de cada categoria de supermercados, sendo que o questionário foi aplicado através de entrevistas pessoais. Essas entrevistas foram realizadas no interior de 22 estabelecimentos supermercadistas. De forma geral, os resultados obtidos nesse estudo demonstraram que o nível de satisfação dos consumidores com os aspectos de Conforto e Conveniência e Organização e Infra-estrutura dos supermercados é mais alto do que o obtido pela dimensão de Serviços. Analisando-se os atributos considerados mais importantes pelos consumidores, e seus respectivos níveis de satisfação, conclui-se que existem algumas áreas dentro do supermercado cujos investimentos devem ser priorizados de uma maneira geral. Essas áreas compreendem os serviços prestados, a tecnologia utilizada, o mix de produtos, o layout da loja e a segmentação adotada pelo estabelecimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A adoção da Internet como solução para o desenvolvimento de negócios tem estado entre as principais preocupações de empresas que desejam explorar novas tecnologias. Na rede, as oportunidades para a condução de negócios aumentam substancialmente, provocando a necessidade das empresas acompanharem as alterações em seu ambiente de negócios, atuando de forma a obter vantagem competitiva. Com a presença na Internet através de sites, elas buscam alternativas que implementem soluções para esta nova realidade. Para explorar estas novas oportunidades, é fundamental a identificação de aspectos que permitam o direcionamento de esforços e recursos, seja em caráter estrutural, organizacional ou técnico. Neste contexto, esta pesquisa procura contribuir sobre a compreensão da Internet e suas diversas formas de aplicação. Trata-se de uma pesquisa exploratória realizada em duas empresas através do método de estudo de casos em campo, a qual procurou investigar a influência da Internet em negócios empresariais através da identificação e caracterização de elementos para análise de sites, permitindo analisar a maneira como as empresas podem utilizar-se desta tecnologia para a condução de seus negócios. A caracterização dos elementos deu-se a partir das técnicas de análise léxica e análise de conteúdo dos dados obtidos a partir de entrevistas nas empresas. As categorias geradas através da análise qualitativa permitiram a operacionalização da grade de análise, a qual oferece uma solução para tornar uniforme o procedimento geral de observação de empresas na Internet a partir de seus sites, apresentando elementos e dimensões que permitem operacionalizar alguns dos aspectos a serem observados para a adoção da Internet por empresas. Os resultados gerados permitem concluir que a Internet influencia as atividades das empresas, permitindo-as atuar de forma competitiva em seu ambiente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo investiga como os gerentes de supermercados no Norte do Estado do Rio Grande do Sul usam as informações de mercado para apoiar suas decisões de marketing. Os dados foram coletados a partir de entrevistas pessoais através de um questionário aplicado em uma amostra de quarenta gerentes correspondendo a 71,4% da população estudada. Este estudo oferece uma estrutura de variáveis que contribuem para a análise dos processos de coleta, utilização e difusão das informações de mercado. Verifica também a percepção do decisor quanto à importância das informações de mercado e ao uso dos instrumentos para sua coleta. Geralmente, os gerentes coletam e utilizam muitas informações com o objetivo de apoiar suas decisões diárias. Os resultados revelam que eles coletam com bastante freqüência informações a partir de fontes externas, tais como comentários informais, conversas informais, jornais, revistas especializadas, telejornais e consumidores. E, ainda, utilizam bancos de dados internos e funcionários como as principais fontes internas de informação. Todavia, muitas fontes relevantes não são utilizadas, caracterizando um processo em que os gerentes coletam poucas informações de mercado e, quando o fazem, tendem a utilizar fontes informais de acesso. A utilização das informações é um dos processos de maior atenção dos gerentes, seja do uso interno ou externo. As informações externas mais utilizadas referem-se aos concorrentes e aos setores econômico, político, tecnológico e sociocultural. Por outro lado, percebe-se a baixa utilização de informações dos consumidores, revelando uma posição despreocupante em relação às tendências de customização de clientes. Por sua vez, as informações internas possuem uma elevada freqüência de uso, uma vez que são de fácil acesso e disponibilidade. Um aspecto evidenciado é que os gerentes utilizam muita informação conceitual e muito pouca informação instrumental, o que revela um elevado uso indireto das mesmas em ações relacionadas à estratégia e, em contrapartida, muito poucas são utilizadas diretamente para decisões de maior escopo. Os gerentes disseminam muito pouco as informações de mercado, tanto interna quanto externamente, embora suas percepções quanto à importância e necessidade dessas informações sejam elevadas. Evidencia-se, portanto, que os gerentes usam informações de maneira empírica, dispersa e assistemática, sem instrumentos formais de coleta, fundamentadas em relações informais, pessoais e impessoais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho discorre sobre a aplicação de uma proposta de método de resolução de problemas utilizando a Teoria das Restrições (TOC). No desenvolvimento desta proposta procurou-se aliar a focalização dos problemas e os conceitos financeiros protagonizados pela TOC. Para que uma solução urgente de problemas possa ser conduzida de uma forma coerente, precisa e rápida, não é necessário que seja executada de maneira que os gastos ultrapassem os benefícios. Além disso, o todo que compõe o sistema analisado deve poder ser vislumbrado claramente. Esta proposta foi aplicada a uma corporação que fabrica autopeças. Ela está localizada nos Estados Unidos da América. Os resultados da aplicação do método aqui apresentado permitiram chegar às conclusões apontadas no capítulo final deste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo enfoca as implicações do ambiente e recursos para a estratégia e a performance, bem como as implicações da estratégia para a performance de empresas industriais em operação em sete estados brasileiros, e analisa a perspectiva determinista e a perspectiva voluntarista na busca de explicações a respeito da associação das variáveis estudadas. Além de uma extensa revisão bibliográfica, o estudo utiliza métodos estatísticos multivariados para reduzir e aferir o grau de associação entre as variáveis selecionadas. A estratégia das empresas é analisada com base na tipologia de Miles e Snow (1978). A performance das empresas é avaliada com base em seis indicadores financeiros e operacionais de ampla utilização em pesquisa sobre administração estratégica [Retorno Sobre Os Investimentos (ROI), Retorno Sobre os Ativos (ROA), Retorno Sobre as Vendas (ROS), Retorno Sobre o Patrimônio Líquido (ROE), Participação de Mercado (PME) e Crescimento das Vendas (CTV)]. Uma moldura conceitual integrando ambiente, recursos, estratégia e performance é proposta e testada por meio de análise de regressão, e seus resultados mostram que estrutura industrial, demografia e internacional são os principais determinantes da estratégia. Estrutura industrial, ambiente nacional, demografia e internacional são os principais determinantes da performance financeira, ao passo que estrutura industrial, demografia, recursos estruturais e recursos primários são os principais determinantes da performance operacional. Por sua vez, a estratégia não apresentou associação com a performance financeira nem com a performance operacional. Os resultados do estudo negam a existência de efeito de mediação da estratégia sobre a relação entre o ambiente e recursos e a performance, tanto financeira como operacional, apesar de existir um forte potencial mediacional. Por outro lado, os resultados confirmam a existência de efeito moderador da estratégia sobre a relação entre o ambiente e recursos com a performance financeira e operacional em relação ao modelo geral e aos recursos primários de maneira especial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recentes avanços nas tecnologias e métodos de produção e seu impacto sobre a competitividade das empresas têm atraído a atenção daqueles ligados às atividades empresarial e acadêmica. Aumentam as alternativas e as implicações quando tomam-se decisões que influenciam a maneira com que empresas competem no mercado. É necessário coerência entre as atividades das diversas áreas funcionais de forma a propiciar ações coordenadas e alinhadas aos objetivos das organizações. Este estudo aborda, a partir da perspectiva de produção, a relação entre produção e marketing. Analisa-se informações coletadas em duas empresas confrontado-as com uma revisão bibliográfica realizada sobre o assunto. Diferentes realidades foram encontradas nas empresas estudadas. Em uma delas tem-se a integração entre as áreas, enquanto na outra ocorrem conflitos com impactos negativos sobre seu desempenho. Através do entendimento das áreas de produção e marketing, evidencia-se a importância de seu bom relacionamento. Verificam-se pontos de conflito e suas causas, mecanismos que proporcionam integração e as implicações para as empresas. Finalmente, conclui-se que, apesar da grande importância da relação entre produção e marketing, o assunto não é dominado. Faltam conceitos, raciocínio e linguagem desenvolvidos. Além disto, em ambos os casos, a área de produção tende a se concentrar em aspectos operacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo teve por objetivo investigar,em uma fábrica de calçados destinados ao mercado de exportação, a influência de fatores psico-organizacionais, em especial o "estilo de liderança" na gênese dos Distúrbios Osteomusculares Relacionados ao Trabalho (DORT). O trabalho buscou, ainda, a identificação das prevalências dos DORT na referida empresa. A amostra foi constituída por 111 funcionários voluntários de ambos os sexos, selecionados de maneira aleatória, restringindo-se aos que tinham tempo mínimo de dois anos de atuação na empresa. Para a realização do estudo foram aplicados questionários com base em ferramenta de investigação de DORT do National Institute for Occupational Safety and Health (NIOSH) adaptada às condições da empresa. Os resultados observados mostraram que o estilo de liderança autocrático é significativo na gênese dos DORT, e que o Odds Ratio é 6,39 vezes maior que os não expostos a esse fator. Verificou-se ainda que a prevalência geral de DORT na empresa é de 35%, atingindo em 94,9% os trabalhadores do sexo feminino. A patologia específica mais encontrada foi a Síndrome do Túnel do Carpa (STe) em 20,5% dos casos. O índice de absenteísmo constatado foi 2,47 vezes maior entre os portadores de DORT. Como conclusão o estudo aponta para a necessidade de tomada de medidas mais adequadas do ponto de vista ergonômico no processo produtivo bem como na capacitação dos chefes, supervisores e gerentes no que conceme às relações interpessoais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho, inserido na área de Planejamento, Programação e Controle da Engenharia de Produção, aborda especificamente as questões ligadas à gestão da capacidade produtiva, desenvolvendo um modelo sistêmico voltado a unidades de tratamento manual de objetos postais, os chamados Centros de Triagem. A partir do levantamento de um arcabouço teórico que fundamenta a proposta e da realização de estudos e trabalhos práticos efetuados pelo autor no Centro de Triagem de Porto Alegre, Rio Grande do Sul, os diversos níveis de planejamento, programação e controle de capacidade produtiva são discutidos e encadeados em uma seqüência lógica de entradas e saídas de informações fundamentais para a gestão dessas unidades operacionais. Dessa maneira, uma série de conceitos tradicionais de Engenharia de Produção foram adaptados à realidade de sistemas postais, desenvolvendo, dessa maneira, um método de gestão de capacidade produtiva customizada ao escopo do estudo. Embora o resultado prático do trabalho seja de utilidade específica para a gestão de Centros de Triagem manuais de carga postal, os conceitos discutidos e mesmo o modelo desenvolvido podem ser facilmente adaptados a outras unidades operacionais de correios e de outras indústrias, em especial as de operações de serviços.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata dos critérios para a elaboração de projetos para edificações escolares, em especial destinadas para a educação infantil e ensino fundamental, considerando a sua inserção no contexto ambiental, constituindo, assim, uma concepção arquitetônica bioclimática. Nessa perspectiva a implantação, a geometria, a organização espacial e os parâmetros construtivos do edifício contribuem na materialização de espaços adequados aos requisitos didático-pedagógicos e funcionais e, em especial, às exigências de conforto ambiental dos usuários, de maneira que a escola, na sua configuração física, se constitua em um elemento promotor do desenvolvimento intelectual, social e afetivo da criança. A partir da concepção global baseada nos princípios da bioclimatologia, o trabalho estabelece as necessidades para condicionamento ambiental determinadas pela caracterização climática de Passo Fundo – RS (clima subtropical úmido de altitude), explorando as estratégias solares passivas que utilizam a própria envoltória da edificação na seleção daqueles elementos ambientais externos favoráveis ao aquecimento, resfriamento, ventilação, proteção à radiação solar e iluminação, a fim de agregar aos critérios funcionais de projeto para escolas a maximização do uso desses fatores naturais e a racionalização do uso de energias não-renováveis, tendo como objetivo contribuir para um gradual desenvolvimento sustentável O trabalho aborda a legislação existente pertinente às edificações escolares, bem como apresenta exemplos de escolas solares passivas, com a aplicação de estratégias válidas para as condições locais, confrontadas com estudo de caso simplificado, a fim de que a implementação das sugestões apontadas demostre a sua viabilidade de aplicação.