526 resultados para Sobrecarga
Resumo:
Neste trabalho apresenta-se um método de desenvolvimento integrado baseado no paradigma de orientação a objetos, que visa abordar todo o ciclo de desenvolvimento de uma aplicação tempo real. Na fase de especificação o método proposto baseia-se no uso de restrições temporais padronizadas pelo perfil da UML-TR, sendo que uma alternativa de mapeamento destas restrições para o nível de programação é apresentada. Este mapeamento serve para guiar a fase de projeto, onde utilizou-se como alvo a interface de programação orientada a objetos denominada TAFT-API, a qual foi projetada para atuar junto ao ambiente de execução desenvolvido no âmbito desta tese. Esta API é baseada na especificação padronizada para o Java-TR. Este trabalho também discute o ambiente de execução para aplicações tempo real desenvolvido. Este ambiente faz uso da política de escalonamento tolerante a falhas denominada TAFT (Time-Aware Fault- Tolerant). O presente trabalho apresenta uma estratégia eficiente para a implementação dos conceitos presentes no escalonador TAFT, que garante o atendimento a todos os deadlines mesmo em situações de sobrecarga transiente. A estratégia elaborada combina algoritmos baseados no Earliest Deadline, sendo que um escalonador de dois níveis é utilizado para suportar o escalonamento combinado das entidades envolvidas. Adicionalmente, também se apresenta uma alternativa de validação dos requisitos temporais especificados. Esta alternativa sugere o uso de uma ferramenta que permite uma análise qualitativa dos dados a partir de informações obtidas através de monitoração da aplicação. Um estudo de caso baseado em uma aplicação real é usado para demonstrar o uso da metodologia proposta.
Resumo:
Este trabalho realiza um estudo sobre a avaliação no processo de ensino-aprendizagem, aplicados pelos ambientes de educação a distância na Web. Foram analisados ambientes disponíveis no mercado e buscado subsídios em pesquisas já formuladas. Alguns ambientes são exclusivamente direcionados para a avaliação enquanto outros abrangem todo o processo de ensino-aprendizagem. Com base nestas análises foi proposto um modelo de monitoramento sobre os documentos dispostos em um ambiente de ensino-aprendizagem na Web. Para viabilizar a proposta foi implementado a integração e adaptação de ambientes de ensino-aprendizagem e avaliação, para que através deste ambiente final fosse possível avaliar o modelo proposto. A ênfase do processo de acompanhamento do aluno foi sobre o conteúdo que as ferramentas de avaliação formal e informal dispõem no ambiente. Para detectar possíveis problemas no processo de ensino-aprendizagem é necessário monitorar uma grande quantidade de dados. A análise dos dados para a avaliação exige um considerado esforço, para reunião e consolidação desses dados. Neste processo nota-se uma grande sobrecarga de trabalho para os professores, devido a grande quantidade de dados a serem acompanhados. Este fato é um dos grandes problemas do processo de avaliação em ambientes de ensino, seja presencial ou à distância. Este trabalho visa minimizar e flexibilizar este problema.
Resumo:
Num país onde se discute a crise do Poder Judiciário, calcada na morosidade da tramitação dos processos em dissintonia do direito com a realidade social, à vista da sobrecarga de serviços pelos juízes, vislumbra-se na atividade conciliatória paralela a atividade jurisdicional um meio de evitar o abarrotamento de processos nos Tribunais. Trata-se de instituto largamente utilizado nos Juizados Especiais Cíveis, mas ainda pouco difundido na justiça comum. Por isto, aposta-se que a conciliação no processo civil, se bem conduzida, pode alcançar resultados ainda não atingidos pela falkta de estruturação do mecanismo e adoção de suas técnicas no processo judicial. Com o aperfeiçoamento da técnica conciliatória mediante sua aplicação em momento processual adequado e através de profissional tecnicamente qualificado para o desempenho da atividade em sua essência, a conciliação há de se tornar um meio alternativo relevante na finalização das ações judiciais envolvendo direito disponível. A criação de Câmaras de Conciliação auxiliares às varas cíveis da Justiça comum Estadual, com vistas à realização concentrada da atividade conciliatória no processo judicial inicialmente distribuído, constitui uma grande aliada contra a morosidade do Poder Judiciário e, sua prática contínua, mediante instrumentos de gestão, certamente contribuirá para a deflação processual. A finalidade precípua da proposta é porporcionar, por meio dos fundamentos legais e administrativos existentes, a melhor utilização do instituto da conciliação, com objetivo de se alcançar agilidade e efetividade na prestação jurisdicional, buscando a resolução de conflitos em todas as suas proporções e amplitude, por vezes não alcançada com a sentença. Com vistas ao efetivo funcionamento deste departamento administrativo nas Comarcas da Justiça Estadual, as Câmaras de Conciliação requerem uma estrutura organizacional apropriada, infra-estrutura que proporcione o desenvolvimento dos trabalhos, rotinas, equipe, indicadores de desempenho, estabelecimento de metas e objetivos, tudo sob o enfoque do sistema gerencial de processos de trabalho.
Resumo:
A recuperação por retorno baseada em checkpointing é largamente usada como técnica de tolerância a falhas. O modelo complexo de sistemas distribuídos tem motivado o desenvolvimento de diversos algoritmos na tentativa de encontrar soluções mais simples e eficientes. Os processos que formam o sistema distribuído podem coordenar suas operações para garantir que o conjunto de checkpoints locais componha um estado global consistente (linha de recuperação). A partir desse estado, no caso de ocorrência de falhas, o sistema pode ser recuperado e a computação retomada a partir de um momento anterior ao da manifestação da falha, evitando o retrocesso para o estado inicial da computação e prevenindo a ocorrência de prejuízos com a perda de todo processamento até então realizado. No Grupo de Tolerância a Falhas da UFRGS foi proposto recentemente um algoritmo que é voltado para aplicações que executam em sistemas distribuídos assíncronos que se comunicam exclusivamente pela troca de mensagens. Ele opera com salvamento coordenado de checkpoints (não bloqueando as aplicações) e prevê o tratamento de mensagens órfãs e perdidas. Os mecanismos do algoritmo sugerem que nenhuma alteração deveria ser realizada no código das aplicações, criando a possibilidade de implementação transparente sob o ponto de vista dos usuários e dos programadores das aplicações. Como o algoritmo não requer o bloqueio das aplicações, a sobrecarga imposta pelos mecanismos à execução livre de falhas é pequena. Além disso, o processo de recuperação tende a ser efetuado rapidamente, uma vez que é garantida a existência de uma linha de recuperação consistente, facilmente identificada Este trabalho apresenta as decisões de projeto, a implementação, os resultados e a avaliação de desempenho desse algoritmo. A avaliação das alternativas de implementação resultou na decisão de uma implementação então realizada diretamente sobre o sistema operacional Linux, sem recorrer a protocolos auxiliares para garantir a execução dos serviços e sem a necessidade de adaptações no código das aplicações nem no código do sistema operacional. Adicionalmente, os resultados comprovaram a expectativa inicial de que o algoritmo causaria pouca sobrecarga no sistema (menos de 2%), embora ele ainda apresente alta dependência do tamanho dos checkpoints salvos.
Resumo:
Esta dissertação tem objetivos focados na análise da utilização da Internet como fonte de informação durante o processo de decisão de compras do consumidor. O primeiro objetivo é o de rever o processo de decisão de compras e apresentar suas fases de modo a identificar um referencial conceitual que sustente o desenvolvimento do tema proposto. O segundo objetivo é o i de apresentar o conceito de sobrecarga de informação e seus efeitos sobre o consumidor. O terceiro objetivo visa discutir conceitualmente a Internet como mídia e fonte de Informação. No quarto objetivo busca-se evidências de que a Internet contribui para o aumento da sobrecarga de informações. O quinto objetivo visa identificar os mecanismos e ferramentas criados para disponibilizar, acessar e facilitar a busca de informações na Internet. Finalmente, com o sexto objetivo, buscou-se identificar um referencial conceitual que ajude a fornecer uma base para o estudo sobre a busca de informações de compras na Internet, evidenciando a utilização das ferramentas e mecanismos identificados, durante o processo de decisão de compras, destacando os que possam minimizar a sobrecarga de informação durante esse processo
Resumo:
O estudo a seguir apresenta um levantamento bibliográfico e exploratório sobre o estresse do profissional que cursa o MBA (Master in Business Administration) devido à sobrecarga de informações a que é exposto. Após examinar o estilo de vida desse profissional durante a fase em que está em contato com novas informações, de diversas áreas e em grande volume, este documento passa a analisar o estresse em relação à motivação, e à luz de várias teorias. O levantamento exploratório sobre o modo de vida do profissional em estudo, sugere que esse profissional está exposto a diversos fatores estressores, que demonstram forte probabilidade desse profissional vir a apresentar sintomas de estresse durante, ou mesmo, logo após o curso do MBA. Finalmente, este estudo apresenta algumas idéias de como esse profissional e o próprio meio acadêmico podem evitar, ou minimizar a vulnerabilidade dele ao estresse, devido à presença de fatores estressores
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
O trabalho em hospital abrange, atualmente no Brasil, um contigente superior a um milhão de trabalhadores. Estes estão sujeitos a riscos e a uma carga de trabalho intensa e diversificada. No que concerne ao setor de Unidade de Terapia Intensiva Adulto (UTI), o ambiente de trabalho é ainda mais peculiar, dotado de problemas técnicos e organizacionis, fisiológicos-posturais e psicossociais. Neste contexto, o estudo contemplou a análise da organização e das condições de trabalho da equipe de enfermagem da UTI de um hospital público. Como metodologia foi utilizada uma abordagem macroergonômica, onde os instrumentos de coleta de dados foram: observações sistemáticas (de tarefas, atividades e verbalizações) e um questionário estruturado. A equipe observada contou com vinte e sete funcionários: enfermeiros, técnicos e auxiliares de enfermagem; destes, cinco do sexo masculino e vinte e dois do sexo feminino. Os resultados indicaram a existência de tarefas penosas como: reanimação, troca de fraldas, aspiração e banho. Ainda foram identificadas correlações entre: dificuldade de deslocamento dentro da unidade e ao redor do paciente; vontade de ir ao trabalho e o seu turno de trabalho, entre outras. Como conclusão, pode-se afirmar que a equipe de enfermagem é submetida a uma sobrecarga de trabalho constante, onde se relacionam a variabilidade, simultaneidade das tarefas e a responsabilidade nos cuidados prestados aos pacientes. A realização das tarefas também depende da colaboração entre colegas que influi diretamente no relacionamento intra-equipe.
Resumo:
Este estudo buscou descrever as características dos idosos com doença de Alzheimer e seus cuidadores, além de avaliar o grau de dependência dos idosos e sobrecarga dos cuidadores em um serviço de Neurogeriatria de um Hospital Universitário de Porto Alegre. Foi utilizado o método exploratório descritivo do tipo série de casos. Participaram desta investigação 36 pares de idosos – cuidadores, no período de agosto a novembro de 2004. Os resultados mostraram que os idosos com doença de Alzheimer eram em sua maioria do sexo feminino 24 (66,7%), casados 18 (50%), com média de idade de 75,19 6,14 anos, com mais de quatro anos de estudo 20 (55,6%). A maior parte dos idosos apresentava dependência importante 20 (55,6%) e 8 (22,2%), dependência parcial para as atividades básicas da vida diária. Os cuidadores eram do sexo feminino 30 (83,3%), casados 25 (69,4%), em sua maioria filhas 16 (44,4%) e esposas 11 (30,6%), com média de idade de 59,33 12,29 anos, com oito anos ou menos de estudo 19 (52,8%). Os cuidadores investigados apresentaram média de sobrecarga – efeitos psicossociais da doença de 34,08 12,34. A maioria dos cuidadores apresentou sobrecarga moderada 20 (55,6%) e 9 (25%) sobrecarga moderada a severa. A sobrecarga produzida pelas demandas de cuidados ao idoso com doença de Alzheimer pode ser minimizada, pela adoção de estratégias e de políticas públicas eficazes que viabilizem as ações em saúde, representando melhor qualidade de vida para o idoso e seu cuidador.
Resumo:
O objeto desta investigação é o trabalho em equipe desenvolvido no âmbito do Programa Saúde da Família (PSF) na perspectiva de enfermeiras. Têm-se como objetivos conhecer a concepção de enfermeiras que atuam no PSF sobre o desenvolvimento do trabalho em equipe, no que se refere à articulação entre as ações realizadas pelos diferentes profissionais e à interação entre eles, bem como identificar as dificuldades e facilidades encontradas pelas enfermeiras no cotidiano do trabalho coletivo. Caracteriza-se como um estudo descritivo de abordagem qualitativa. A coleta de dados deu-se por meio de entrevistas semi-estruturadas com 23 enfermeiras. A análise dos dados foi realizada com base na análise temática e resultou em três categorias: concepções das enfermeiras sobre o trabalho em equipe; articulação das ações dos profissionais no trabalho em equipe; e interação da equipe. Identificou-se que as enfermeiras têm uma concepção idealizada do trabalho em equipe, caracterizando-o como um processo dinâmico e interativo no qual deve haver a participação de todos os profissionais desde o planejamento até a execução das ações de saúde, assim como a integração da equipe em função de objetivos comuns. Porém, as enfermeiras encontram inúmeras dificuldades que interferem no desenvolvimento do trabalho em equipe e as impedem, muitas vezes, de vivenciar esse ideal na sua prática cotidiana. Tais dificuldades estão relacionadas à alta rotatividade de profissionais no PSF, à falta de pessoal, a condições de trabalho inadequadas e à falta de capacitação dos agentes comunitários de saúde. A articulação das ações ocorre principalmente com os agentes comunitários de saúde e os auxiliares de enfermagem, devido à supervisão que a enfermeira realiza junto aos mesmos. A interação da equipe fica prejudicada pelas dificuldades de comunicação e por conflitos interpessoais, fatores estes causadores de insatisfação dos profissionais com seu trabalho. Foi possível identificar que tanto a articulação das ações quanto a interação da equipe ficam prejudicadas pela excessiva demanda de usuários pelo serviço, o que ocasiona sobrecarga de trabalho e falta de tempo para os profissionais. Dessa forma, as enfermeiras evidenciam limitações para realizarem conexões entre os diversos trabalhos e interagir, referindo que isso fica restrito basicamente aos momentos de reunião de equipe. Com base nos depoimentos das enfermeiras, verificamos que o trabalho em equipe no PSF tem um caráter ativo e dinâmico, e apresenta momentos de integração na equipe, mas também situações em que os profissionais atuam de maneira independente e isolada. No entanto, são evidentes as dificuldades que as equipes encontram em realizar um trabalho efetivamente integrado. Essa realidade, certamente, compromete a qualidade da assistência prestada aos usuários. Sugere-se repensar as condições de trabalho propiciadas aos profissionais que atuam no PSF, as quais necessitam de maiores investimentos e atenção. Além disso, a formação acadêmica deve ser capaz de fornecer subsídios aos profissionais, preparando-os para uma atuação multidisciplinar.
Resumo:
Introdução: A anfotericina B é a droga de escolha para o tratamento de doenças fúngicas severas, estando associada, no entanto, a alta incidência de nefrotoxicidade. O uso de anfotericinas modificadas está associado a elevado custo. Em grupos de baixo risco o uso de sobrecarga hidrossalina pode ser suficiente para evitar perda severa de função renal. Métodos: Foram estudados prospectivamente pacientes internados em hospital universitário, com idade superior a 12 anos, e que estavam dentro das primeiras 24 horas de uso de anfotericina B. Foram excluídos pacientes em centros de terapia intensiva e que estivessem em uso de drogas vasoativas. Solução salina 0,9% (500 ml) foi infundida antes e após a anfotericina B. Foram coletados exames na inclusão e no término do tratamento. A dosagem de creatinina sérica foi repetida após 30 dias do término do tratamento. Resultados: Foram estudados 48 pacientes. A média de elevação da creatinina sérica foi de 0,3 (0,18-0,41) mg/dl., representando um decréscimo médio de 25 (12,8-36,9) ml/min na depuração de creatinina endógena (DCE). Insuficiência renal aguda (IRA), definida pela elevação maior do que 50% da creatinina basal, ocorreu em 15 pacientes (31,3%). Pacientes que utilizaram antibióticos e aqueles em status pós-quimioterapia ou submetidos a transplante de medula óssea foram os que apresentaram maior risco de desenvolverem IRA. A creatinina e a DCE após 30 dias do término do tratamento não diferiram de seus valores basais. Conclusão: Em pacientes de baixo risco, o uso de anfotericina B com adminstração profilática de solução fisiológica foi associado à alteração pequena e reversível da função renal. Devido ao alto custo, o uso de métodos mais dispendiosos nestes pacientes não parece justificado no momento. Ensaios clínicos randomizados são necessários nesta população.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
Dentro da literatura de Comportamento do Consumidor e Teoria da Decisão existe considerável corpo teórico que analisa sentimentos negativos e reações adversas no processo decisório de compras de produtos de alto e baixo envolvimento. Vários fenômenos são identificados como negativos no processo, principalmente a Confusão do Consumidor, que compreende três dimensões: i) muitas informações similares sobre produtos, ii) muitas informações sobre diferentes produtos e iii) informações falsas e ambíguas. Tal fenômeno, no entanto, parece ser moderado por um conjunto de variáveis, como o Envolvimento, a Experiência e a Restrição de Tempo (moderadoras da relação entre Confusão do Consumidor e Intenção de Compra). Este fato foi identificado através de entrevistas em profundidade. Os resultados das entrevistas permitiram identificar as variáveis moderadoras, assim como a existência do fenômeno e sua relação com a decisão final de compra. Na segunda fase da pesquisa, supõe-se que indivíduos com baixo Envolvimento e Restrição de Tempo possuam uma propensão maior à confusão. No Estudo 2 foram utilizados como moderadores o Envolvimento e a Restrição de Tempo, ambos manipulados por instrução, sendo as variáveis dependentes a Intenção de Compra e a Confusão do Consumidor. Os resultados do Estudo 2 permitiram inferir que existem diferenças significativas entre os grupos, quando analisada a variável Confusão do Consumidor, mas, em alguns grupos, a Intenção de Compra não era significativamente diferente. No Estudo 3 foram manipuladas a Experiência (forte e fraca) e a Confusão do Consumidor, sendo a variável dependente a Intenção de Compra. Os resultados do Estudo 3 também permitiram inferir que existem diferenças significativas entre os grupos na Intenção de compra, quando consideradas baixa ou alta confusão, assim como Experiência forte ou fraca. Na última fase da pesquisa foram destacadas as estratégias dos consumidores para lidar com o fenômeno Confusão do Consumidor. Tais estratégias, muitas vezes, são mediadoras de comportamentos posteriores, como a compra do produto. No Estudo 4 manipulou-se a Confusão do Consumidor em duas de suas dimensões. Foi possível destacar a preponderância da estratégia por busca de informações e postergação da decisão, quando o consumidor se depara com situações confusas.
Resumo:
Através desta pesquisa, analisa-se a lei 9.957/2000, que instituiu o procedimento sumaríssimo no processo do trabalho. Procura-se identificar os modelos de procedimentos utilizados na tramitação do processo trabalhista, notadamente o procedimento sumaríssimo e sua eficácia, dentro da estrutura organizacional da Justiça do Trabalho. Busca-se demonstrar a necessidade do cumprimento da lei n. 9.957/2000, como instrumento viável para uma efetiva prestação jurisdicional da Justiça do Trabalho, nas ações de valor abaixo de quarenta salários mínimos. Para atingir tais propósitos, abordam-se, inicialmente, aspectos teóricos fundamentais relacionados ao acesso à justiça, aos princípios constitucionais da duração razoável do processo e da segurança jurídica e, ainda, a interpretação e integração da legislação trabalhista. Em um segundo momento, demonstra-se a necessidade de reforma na estrutura organizacional da Justiça do Trabalho para uma integral aplicabilidade do procedimento sumaríssimo, em face da sobrecarga de processos em tramitação nas varas do trabalho. Analisa-se, também, a visão dos operadores do Direito do Trabalho, jurisdicionados e serventuários da Justiça do Trabalho sobre o procedimento sumaríssimo, na qualidade de instrumento eficaz na busca de uma prestação jurisdicional célere e, por isso, efetiva. Por fim, expõe-se a proposta de criação de varas do trabalho específicas para julgamento de processos tramitados pelo procedimento sumaríssimo, como instrumento de celeridade da atividade jurisdicional e de redução do tempo de duração do processo trabalhista.
Resumo:
With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.