683 resultados para Depuracao paralela
Resumo:
Este estudo visou a utilização direta da análise modal adjunta em sistemas não-clásicos de natureza concentrada e distribuída, explorando o conceitos de biortogonalidade modal e da resposta impulso evolutiva e estacionária. Discutiu-se a natureza do espectro para diversas classes de sistemas, em particular para sistemas com efeitos giroscópicos e com atrito interno. A teoria foi desenvolvida de maneira paralela para sistemas de primeira ordem e de segunda ordem, porém é apresentada de maneira independente, ou seja, para os sistemas de segunda ordem não é utilizada a formulação de espaço de estado, a qual reduz o sistema para primeira ordem. Assim, as relações de biortogonalidade para sistemas de segunda ordem são apresentadas e utilizadas de maneira direta na expansão modal da resposta dos sistemas. A forma dos modos de vibração em variadas aplicações é determinada de maneira exata com o uso da base dinâmica gerada pela resposta impulso espacial. No cálculo dos autovalores foi introduzida uma aproximação polinomial para a resposta impulso espacial Os coeficientes dessa aproximação foram obtidos por recursão, a partir de uma equação em diferenças associada à equação característica do problema modal. Simulações numéricas foram realizadas para obter a resposta impulso evolutiva, respostas forçadas e modos de vibração de sistemas não-clássicos concentrados, formulados através de modelos ou aproximações, e sistemas distribuídos, formulados através de modelos ou incluindo distúrbios e acoplamento através das condições decontorno. Os resultados deste estudo permitiram concluir, através das simulações numéricas realizadas, a importância da base dinâmica no sentido de simplificar os cálculos para obtenção dos autovalores, dos modos de vibração e, consequentemente, da resposta do sistema, seja concentrado, distribuído com ou sem acoplamento das condições de contorno. A utilização da análise modal adjunta, desde que ocorra uma ordenação adequada dos autovalores e modos, mostrou-se um método eficiente na obtenção direta da resposta de sistemas não-clássicos de segunda ordem, ou seja, sem redução ao espaço de estado.
Resumo:
O solo residual de gnaisse estudado nesta dissertação ocupa uma grande área da cidade de Porto Alegre/RS e região metropolitana. Na região onde foi amostrado, encontrase hoje uma estrutura de contenção em solo grampeado. Rupturas durante a escavação ocasionaram a necessidade de redimensionamento da estrutura, o que na época foi realizado através de retro-análises de rupturas induzidas. Na ocasião a empresa responsável pela execução da obra retirou blocos indeformados de campo, para que posteriormente fossem determinadas as propriedades geomecânicas deste solo residual. O programa experimental desta dissertação envolveu: (a) ensaios de caracterização; (b) caracterização mineralógica através de difratometria de Raio-X, microscopia ótica e microscopia eletrônica;(c) determinação de parâmetros de resistência ao cisalhamento através de ensaios de cisalhamento direto e (d) determinação de parâmetros de resistência ao cisalhamento residual através de ensaios ring shear. Através dos ensaios de cisalhamento direto foi verificado que o intemperismo no local praticamente não apresenta influência nos parâmetros de resistência ao cisalhamento deste solo, pois ambas as profundidades de amostragem mantém a estrutura da rocha de origem. A resistência ao cisalhamento deste material é em grande parte comandada pela sua micro-estrutura, e principalmente pelo bandamento micáceo Em ambas profundidades foi verificada anisotropia de resistência ao cisalhamento, através de ensaios com a orientação de planos de xistosidade paralela e perpendicular à superfície de ruptura imposta pelo ensaio. Este comportamento demonstra a influência que a macro-estrutura herdada da rocha mãe tem sobre a resistência deste material. Os ensaios ring shear realizados neste material apresentaram ângulos de atrito interno residual baixos em relação ao que se espera de materiais predominantemente granulares como é o caso deste solo. Porém estes valores baixos podem ser atribuídos ao alto teor de mica existente.
Resumo:
A tarefa de estimação de movimento, utilizada na compressão de vídeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão de vídeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.
Resumo:
Nos últimos 70 anos têm sido apresentadas várias propostas para caracteriza ção da noção intuitiva de computabilidade. O modelo de Computação mais conhecido para expressar a noção intuitiva de algoritmo é a Máquina de Turing. Esse trabalho apresenta máquinas abstratas que representam diferentes formas de comportamento computacional, sendo possível abordar a diversidade entre a Teoria da Computação Clássica (Máquina de Turing) e a Teoria da Computa- ção Interativa (Máquina de Turing Persistente). Com a evolução dos sistemas de computação, surgiu a necessidade de estender a de nição de Máquina de Turing para tratar uma diversidade de novas situações, esses problemas conduziram a uma mudança de paradigma. Neste contexto foi desenvolvido a Máquina de Turing Persistente, que é capaz de fundamentar a Teoria da Computação Interativa. Máquinas de Turing Persistentes (PeTM) são modelos que expressam comportamento interativo, esse modelo é uma extensão da Máquina de Turing. O presente trabalho tem como objetivo explorar paralelismo na Máquina de Turing Persistente, através da formalização de uma extensão paralela da PeTM e o estudo dos efeitos sobre essa extensão, variando o número de tas de trabalho. Contribui- ções desse trabalho incluem a de nição de uma máquina de Turing Persistente Paralela para modelar computação interativa e uma exposição de conceitos fundamentais e necessários para o entendimento desse novo paradigma. Os métodos e conceitos apresentados para formalização da computação na Máquina de Turing Persistente Paralela desenvolvidos nessa dissertação, podem servir como base para uma melhor compreensão da Teoria da Computação Interativa e da forma como o paralelismo pode ser especi cado em modelos teóricos.
Resumo:
Em vista da maior complexidade da programação paralela e distribuída em relação à programação de ambientes centralizados, novas ferramentas vêm sendo construídas com o objetivo de auxiliar o programador desses ambientes a desempenhar sua tarefa de formas mais eficazes e produtivas. Uma das ferramentas que há algum tempo tem sido usada na programação centralizada e aos poucos está sendo empregada também na programação concorrente é a programação visual. A programação visual se vale da presença de elementos visuais na especificação dos programas como peças chaves do processo de desenvolvimento de software. No caso específico da programação concorrente, a programação visual é especialmente útil pela capacidade que os gráficos têm de representar de forma mais adequada estruturas bidimensionais. Um programa concorrente, por relacionar no espaço diversos elementos com seus próprios fluxos de execução, faz surgir duas dimensões de análise que são mais difíceis de serem observadas através de programas textuais. Atualmente existem ferramentas de programação visual paralela e distribuída, mas a ênfase é dada na programação paralela, sem muita atenção a aplicações de sistemas abertos ou cliente-servidor. Além disso, tais ferramentas sofrem da falta de apoio à engenharia do software. Considerando essas deficiências, este trabalho apresenta uma ferramenta de programação visual para o desenvolvimento de aplicações compostas por objetos distribuídos que ofereça também a possibilidade de aplicar os principais conceitos da engenharia de software, como reutilização e orientação a objeto. Nesta ferramenta, o programador especifica de maneira visual a estrutura do seu programa, insere o código textual para a lógica da aplicação e o ambiente se encarrega do tratamento da distribuição e da comunicação de mais baixo nível. A aplicação é representada como um grafo dirigido, onde os nodos representam os objetos distribuídos e os arcos indicam os relacionamentos existentes entre esses objetos. A especificação dos programas é modular, baseando-se na reunião de componentes reutilizáveis, o que torna o sistema altamente configurável e extensível. Tanto a implementação da ferramenta quanto o código das aplicações geradas usam a linguagem de programação Java. A linguagem de programação visual projetada não especifica detalhes a respeito de como irá funcionar a comunicação e distribuição dos objetos. Portanto, foram implementados componentes para comunicação e outros recursos de programação distribuída, como locks e dados globais para serem usados nas aplicações. Para validar os principais objetivos da ferramenta, foram implementados alguns exemplos de aplicações distribuídas, como um pequeno sistema de bate-papo.
Resumo:
Propriedades de equilíbrio e espectroscópicas são determinadas para a mistura líquida CS2/C6H6 na temperatura de 298K e nas frações molares de benzeno iguais a 0,25, 0,50 e 0,75, usando simulação computacional por Dinâmica Molecular. As interações intermoleculares são descritas em relaçãao a todos os átomos por um potencial Lennard-Jones (12/6), com as interações eletrostáticas representadas por quadrupolos pontuais, localizados nos centros de massa das mol´eculas. Um segundo potencial também é considerado, onde a distribuição de cargas na molécula é usada para descrever as interações eletrostáticas. Dados termodinâmicos e propriedades estruturais, descritas através de funções de distribuição radial e de correlação angular, são calculados. Os resultados obtidos com os dois potenciais mostram boa concordância com os dados experimentais. A análise das frações molares locais e das energias internas indica que a mistura líquida CS2/C6H6 apresenta comportamento aproximadamente ideal. As funções de distribuição radial e de correlação angular evidenciam uma configuração preferencialmente paralela entre as moléculas de CS2 e C6H6 a distâncias menores em relação a distância do máximo da função de distribução , correspondente a primeira camada de coordenação . Nesta região, a configuração perpendicularé fracamente favorecida em relação as demais orientações. Funções de correlação temporal da polarizabilidade coletiva e da polarizabilidade molecular, correspondentes aos espalhamentos Rayleigh e Raman, respectivamente, são calculadas a partir do modelo de interação dipolo induzido por dipolo de 1a ordem. As funções de correlação são divididas nas contribuições orientacional, induzida por colisão e cruzada, e nas contribuições dos componentes. Propriedades de equilíbrio como anisotropia efetiva e intensidades integradas são determinadas para as misturas e líquidos puros. Os resultados indicam que a correlação orientacional entre as moléculas de CS2 é a maior responsável pelos espectros Rayleigh e espectros Raman deste componente. A maior participação do benzeno ocorre no espalhamento Raman com uma maior correlação na contribuição induzida por colisão. A separação na escala temporal entre a dinâmica reorientacional e induzida por colisão determinada na simulação é menor em relação ao experimento. Tempos de correlação da contribuição induzida por colisão são maiores nas misturas em relação aos líquidos puros no espalhamento Rayleigh, conforme o experimento, e estão relacionados a contribuições significativas das funções de correlação entre os componentes CS2 e benzeno a tempo longo. Funções de correlação temporal do momento dipolar coletivo são determinadas a partir do modelo dipolo induzido por quadrupolo e analisadas em termos de contribuições isotrópicas, anisotrópicas e cruzadas, como também de contribuições dos componentes. A relação entre estes termos é concordante com os parâmetros moleculares de anisotropia e quadrupolo dos componentes. Os resultados da simulação indicam absorbância de excesso para as misturas em uma ordem semelhante a do experimento. O tempo de correlação maior na mistura de fração molar de benzeno igual a 0,25, também encontrado no experimento, está relacionado a elevada contribuição a tempo longo da função de correlação entre dipolos induzidos em moléculas de CS2 por moléculas de C6H6. Os espectros calculados na simulação e os espectros experimentais do espalhamento de luz despolarizado Rayleigh apresentam boa concordância, validando os modelos de potenciais de interação e de indução usados. No entanto, diferenças são encontradas no infravermelho longínquo. Modi cações no modelo simplificado de indução são propostas.
Resumo:
Esta pesquisa visa a modelagem de clusters de computadores, utilizando um modelo analítico simples que é representado por um grafo valorado denominado grafo da arquitetura. Para ilustrar tal metodologia, exemplificou-se a modelagem do cluster Myrinet/SCI do Instituto de Informática da UFRGS, que é do tipo heterogêneo e multiprocessado. A pesquisa visa também o estudo de métodos e tecnologias de software para o particionamento de grafos de aplicações e seu respectivo mapeamento sobre grafos de arquiteturas. Encontrar boas partições de grafos pode contribuir com a redução da comunicação entre processadores em uma máquina paralela. Para tal, utilizou-se o grafo da aplicação HIDRA, um dos trabalhos do GMCPAD, que modela o transporte de substâncias no Lago Guaíba. Um fator importante é o crescente avanço da oferta de recursos de alto desempenho como os clusters de computadores. Os clusters podem ser homogêneos, quando possuem um arquitetura com nós de mesma característica como: velocidade de processamento, quantidade de memória RAM e possuem a mesma rede de interconexão interligando-os. Eles também podem ser heterogêneos, quando alguns dos componentes dos nós diferem em capacidade ou tecnologia. A tendência é de clusters homogêneos se tornarem em clusters heterogêneos, como conseqüência das expansões e atualizações. Efetuar um particionamento que distribua a carga em clusters heterogêneos de acordo com o poder computacional de cada nó não é uma tarefa fácil, pois nenhum processador deve ficar ocioso e, tampouco, outros devem ficar sobrecarregados Vários métodos de particionamento e mapeamento de grafos foram estudados e três ferramentas (Chaco, Jostle e o Scotch) foram testadas com a aplicação e com a arquitetura modeladas. Foram realizados, ainda, vários experimentos modificando parâmetros de entrada das ferramentas e os resultados foram analisados. Foram considerados melhores resultados aqueles que apresentaram o menor número de corte de arestas, uma vez que esse parâmetro pode representar a comunicação entre os processadores de uma máquina paralela, e executaram o particionamento/mapeamento no menor tempo. O software Chaco e o software Jostle foram eficientes no balanceamento de carga por gerarem partições com praticamente o mesmo tamanho, sendo os resultados adequados para arquiteturas homogêneas. O software Scotch foi o único que permitiu o mapeamento do grafo da aplicação sobre o grafo da arquitetura com fidelidade, destacando-se também por executar particionamento com melhor qualidade e pela execução dos experimentos em um tempo significativamente menor que as outras ferramentas pesquisadas.
Resumo:
Este estudo busca propor uma teoria da fragmentação de políticas públicas, assim como aplicá-la na análise de três casos de política de gestão pública no período compreendido entre 1995 e 2002. A suposição central deste estudo é de que existe um fenômeno de fragmentação subjacente aos casos analisados, e esse fenômeno constitui uma explicação plausível para a descontinuidade e a baixa implementação das políticas de gestão pública no período. Uma vez caracterizada, a fragmentação de políticas de gestão no período pode ser explicada de diversas formas. A hipótese secundária deste estudo, a partir da teoria desenvolvida, é de que o fenômeno da fragmentação se deve à existência de uma combinação disfuncional de fatores estruturais de integração subjacentes às dinâmicas constitutivas dos casos. O texto está estruturado em três segmentos: a) desenvolvimento teórico; b) construção dos casos e caracterização da fragmentação subjacente; e c) análise dos fatores de fragmentação. O primeiro segmento elabora um modelo conceitual de análise de políticas com a finalidade de caracterizar os processos constitutivos dos casos analisados, a partir de elementos presentes nas principais perspectivas analíticas sobre políticas públicas (sistêmico-heurística, institucional-racionalista e seleção temporal aleatória). O primeiro segmento também elabora a teoria da fragmentação de políticas públicas, seus fundamentos epistemológicos e metodológicos, suas definições de partida, proposições centrais e um modelo analítico. A Teoria da Fragmentação de Políticas propõe que a fragmentação, definida como a perda de coerência, consistência e coordenação nas políticas de um mesmo subsistema e entre diversos subsistemas, é um resultado indesejado associado a elementos estruturais dos processos de formulação e implementação de políticas, tais como liderança executiva, estratégia, ajustamento mútuo, estrutura formal de coordenação, 5 processos e valores. Trata-se de uma teoria de médio alcance elaborada de forma modular: a) permite a formulação de hipóteses retrospectivas baseadas em mecanismos causais que relacionam fatores a uma conseqüência-objeto; b) possibilita o aproveitamento de métodos qualitativos, tais como a narrativa analítica, para elucidar essas correlações; e c) permite o estabelecimento um diálogo entre a observação empírica e a dedução teórica. O segundo segmento delimita, contextualiza e caracteriza os três casos analisados em profundidade: Plano Diretor, Gestão Pública Empreendedora I e Gestão Pública Empreendedora II. Inicialmente, elabora-se um mapeamento do período, pelo qual são identificadas seis trajetórias de políticas de gestão pública no período analisado. Os três casos analisados em profundidade correspondem à primeira trajetória. Sucede-se uma narrativa da dinâmica de formulação e implementação desses casos em três frentes de ação que os perpassam: reestruturação do núcleo estratégico e melhoria de gestão, Organizações Sociais e Agências Executivas. Em seguida, elabora-se uma análise genealógica em que são identificados seus elementos constitutivos (o empreendedor, a construção do domínio da política pública, a visão do problema e da solução e a coalizão política) e sinais de fragmentação, decorrentes das incoerências, inconsistências e descoordenação entre os casos e entre esses e os demais, identificados no mapeamento do período. O terceiro segmento apresenta uma análise dos fatores de fragmentação. Busca-se elaborar, para cada fator, uma análise comparativa no sentido horizontal (entre os casos analisados) e vertical (entre esses e outros que ocorreram de forma paralela no universo das políticas de gestão mapeadas). A análise dos fatores de fragmentação indica, conforme se supunha, que há uma combinação disfuncional de fatores estruturais fragmentadores subjacentes às experiências estudadas. Conclui-se que essa constatação contribui para explicar a fragmentação e valida a teoria da fragmentação de políticas, dentro de sua proposta 6 metodológica modular de campo médio. Apontam-se, também, direções nas quais a teoria poderia ser expandida, testada e aplicada.
Resumo:
A proposta deste trabalho é descrever o sistema de franquia no seu aspecto geral, dentro do contexto da presente conjuntura econômica brasileira, onde cortes nos gastos governamentais e implementação dos processos - de privatização. e licitação estão sendo - utilizados como fatores fundamentais para a competição e a atualização da indústria e dos serviços públicos no âmbito da globalização. Buscou-se fazer uma revisão da parte conceitual do sistema de franquia e das organizações públicas. A ECT - Empresa Brasileira de Correios e Telégrafos é um estudo de caso concreto de uma empresa pública utilizando o sistema de franquia em larga escala e com sucesso. Paralela a esta apresentação, buscou-se demonstrar outras modalidades de parceria entre a iniciativa privada e a organização pública, através da licitação, privatização e terceirização, de forma a fornecer serviços e produtos ao consumidor com maior qualidade e menores investimentos para o governo.
Resumo:
This dissertation aims at examining empirical evidences obtained in the light of taxonomies and strategies for measuring firms technological capabilities and innovation in the context of developing countries, motivated by the fact that debates and studies directed to innovation has been intensified, for the last thirty years, by the recognition of its vital and growing importance to the technological, economic, competitive and industrial development of firms and countries. Two main tendencies can be identified on this debate. At one side, it¿s the literature related to the developed countries logic, whose companies are, in majority, positioned at the technological frontier, characterized by the domain of innovative advanced capabilities, directed to its sustaining, deepening and renewal. At the other side, there are the perspectives directed to the developing countries reality, where there is a prevalence of companies with deficiency of resources, still in process of accumulating basic and intermediate technological capabilities, with characteristics and technological development trajectories distinct or even reverse from those of developing countries. From this last tradition of studies, the measuring approaches based in C&T indicators and in types and levels of technological capabilities stand out. The first offers a macro level, aggregated perspective, through the analysis of a representative sample of firms, seeking to the generation of internationally comparable data, without addressing the intraorganizational specificities and nuances of the paths of technological accumulation developed by the firms, using, mostly, R&D statistics, patents, individual qualifications, indicators that carry their own limitations. On the other hand, studies that examine types and levels of technological capabilities are scarce, usually directed to a small sample of firms and/or industrial sectors. Therefore, in the light of the focus and potentialities of each of the perspectives, this scenario exposes a lack of studies that examine, in a parallel and complementary way, both types of strategies, seeking to offer more realistic, consistent and concrete information about the technological reality of developing countries. In order to close this gap, this dissertation examines (i) strategies of innovation measurement in the contexts of developing countries based on traditional approaches and C&T indicators, represented by four innovation surveys - ECIB, PINTEC, PAEP and EAI, and, (ii) from the perspective of technological capabilities as an intrinsic resource of the firm, the development of which occurs in a cumulative way and based on learning, presents and extracts generalizations of empirical applications of a metric that identifies types and levels of technological capabilities, through a dynamic and intra-firm perspective. The exam of the empirical evidences of the two approaches showed what each one of the metrics are capable to offer and the way they can contribute to the generation of information that reflect the technological development of specific industrial sectors in developing countries. In spite of the fact that the focus, objective, perspective, inclusion, scope and lens used are substantially distinct, generating, on a side, an aggregated view, and of other, an intra-sector, intra-organizational and specific view, the results suggest that the use of one doesn't implicate discarding or abdicating the other. On the contrary, using both in a complementary way means the generation of more complete, rich and relevant evidences and analysis that offer a realistic notion of the industrial development and contribute in a more direct way to the design of corporate strategies and government policies, including those directed to the macro level aspects just as those more specific and focused, designed to increment and foment firms in-house innovative efforts.
Resumo:
Num país onde se discute a crise do Poder Judiciário, calcada na morosidade da tramitação dos processos em dissintonia do direito com a realidade social, à vista da sobrecarga de serviços pelos juízes, vislumbra-se na atividade conciliatória paralela a atividade jurisdicional um meio de evitar o abarrotamento de processos nos Tribunais. Trata-se de instituto largamente utilizado nos Juizados Especiais Cíveis, mas ainda pouco difundido na justiça comum. Por isto, aposta-se que a conciliação no processo civil, se bem conduzida, pode alcançar resultados ainda não atingidos pela falkta de estruturação do mecanismo e adoção de suas técnicas no processo judicial. Com o aperfeiçoamento da técnica conciliatória mediante sua aplicação em momento processual adequado e através de profissional tecnicamente qualificado para o desempenho da atividade em sua essência, a conciliação há de se tornar um meio alternativo relevante na finalização das ações judiciais envolvendo direito disponível. A criação de Câmaras de Conciliação auxiliares às varas cíveis da Justiça comum Estadual, com vistas à realização concentrada da atividade conciliatória no processo judicial inicialmente distribuído, constitui uma grande aliada contra a morosidade do Poder Judiciário e, sua prática contínua, mediante instrumentos de gestão, certamente contribuirá para a deflação processual. A finalidade precípua da proposta é porporcionar, por meio dos fundamentos legais e administrativos existentes, a melhor utilização do instituto da conciliação, com objetivo de se alcançar agilidade e efetividade na prestação jurisdicional, buscando a resolução de conflitos em todas as suas proporções e amplitude, por vezes não alcançada com a sentença. Com vistas ao efetivo funcionamento deste departamento administrativo nas Comarcas da Justiça Estadual, as Câmaras de Conciliação requerem uma estrutura organizacional apropriada, infra-estrutura que proporcione o desenvolvimento dos trabalhos, rotinas, equipe, indicadores de desempenho, estabelecimento de metas e objetivos, tudo sob o enfoque do sistema gerencial de processos de trabalho.
Resumo:
Considerando a lavagem das mãos como uma importante medida de controle de infecção hospitalar, objetivou-se investigar as razões que impulsionam os trabalhadores de enfermagem a lavar ou não as mãos. Optou-se pela pesquisa qualitativa e pela técnica de grupo focal para a coleta dos dados. O grupo consolidou-se com seis sujeitos (três enfermeiros e três técnicos de enfermagem), selecionados através dos critérios de voluntariedade e interesse pela temática. A coleta de dados transcorreu em cinco encontros semanais, estendendo-se pelos meses de novembro e dezembro de 2002. Utilizando a análise de enunciação, verificou-se que os profissionais mostram conhecimento teórico sobre o tema, entretanto percebeu-se que a prática da lavagem das mãos é influenciada pelas diferentes situações, como de surtos, emergências e isolamentos. As dificuldades como a superlotação do hospital, distância das pias, recursos (in)disponíveis e/ou (in)adequados, entre outros, interferem na execução desse procedimento, mas não o determinam. Essas condições, associadas à forma como o trabalho é organizado e à cultura que privilegia a cura em detrimento da prevenção, levam à negligência com a lavagem das mãos, que acaba por ser considerada uma prática paralela e secundária ao trabalho da enfermagem. Outras questões foram consideradas para analisar a lavagem das mãos, como sua relação com o uso de luvas, que evidenciou ambos como procedimento/equipamento de proteção individual, e com a fricção higiênica das mãos, que se mostrou pouco aceita pelos sujeitos. Sinaliza-se a necessidade de se trabalhar esse tema junto aos profissionais da saúde para que se possa efetivar a lavagem das mãos como medida preventiva de infecções hospitalares.
Desenvolvimento e implementação de uma interface de comunicação para controlador robótico industrial
Resumo:
O presente trabalho trata do desenvolvimento de um sistema para comunicação bidirecional entre um robô ABB IRB 1400, originalmente desprovido de uma interface de comunicação de dados, e um microcomputador PC padrão. Para a implementação utilizou-se a porta paralela do PC e uma Placa E/S Digital para sinais discretos disponível no controlador do robô. Devido à diferença de caracterìsticas elétricas entre as interfaces utilizadas, foi necessáio projetar um dispositivo que permitisse o ajuste dos niveis de tensão entre os sinais. Osistema foi elaborado visando sua utilização por programas desenvolvidos pelos usuários em ambiente Windows, sendo disponibilizadas rotinas para envio e recebimento de dados através de um protocolo próprio. Na plataforma PC as rotinas estão encapsuladas em um arquivo compilado no formato DDL (Dynamic Link Library). No controlador do robô as rotinas foram criadas em linguagem ABB RAPID. O programa desenvolvido pelo usuário é responsável por todo o processamento das informações, que são então enviadas através do sistema de comunicação a um outro programa específico sendo executado no controlador do robô, o qual interpreta os dados e ativa as tarefas correspondentes. Os resultados obtidos foram satisfatórios, sendo a velocidade de transmissão limitada pela velocidade da Placa E/S do robô. Utilizando-se uma placa ABB DSQC 223, atingiram taxas de transmissão da ordem de 12,5 bytes/s para envio e 6,1 bytes/s para o recbimento de informaçãoes a partir do PC. O sistema demonstrou ser uma alternativa viável para o controle do robô através de um microcomputador PC, apresentando boa confiabilidade, baixo custo e faciliadade de implementação.
Resumo:
Esta pesquisa aborda os cenários sexuais e algumas dinâmicas associadas a três cinemas e duas vídeo-locadoras pornôs localizadas no centro de Porto Alegre, Rio Grande do Sul, Brasil. A etnografia destes espaços serve de pano de fundo para abordar uma dimensão pouco referida nos estudos sobre a sexualidade humana, as práticas sexuais de homens mais velhos que buscam satisfazer desejos em relações homossexuais. O envelhecimento, fenômeno amplamente estudado por disciplinas como a gerontologia – e também um tema antigo nos quadros da Antropologia Social, disciplina na qual inserem-se os esforços deste trabalho –, normalmente é analisado a partir de sexualidades heterocêntricas. Chama a atenção a invisibilidade da orientação sexual nos estudos sobre envelhecimento, assim como a paralela marginalidade das questões do envelhecimento nos estudos sobre homossexualidades. Assim, entre salas e corredores, cabines coletivas e peep shows individuais, dinâmicas associadas à satisfação de desejos homoeróticos de homens mais velhos foram observadas e etnografadas nos anos de 2002 e, principalmente, 2003. É respaldado neste esforço etnográfico que se torna patente referir nestes espaços uma valorização de outros corpos que não apenas os atléticos, e fases da vida que não apenas a juventude. Este resultado sugere que corpos envelhecidos e proporções não apolíneas também configuram objetos de desejos, o que remete a províncias de significados configuradas de formas distintas daquelas que valorizam o jovem e as proporções hercúleas como as únicas formas e caminhos dos desejos. Outro resultado remete à possível influência da história destes espaços na própria forma como se organizam as dinâmicas e as valorizações dos corpos.
Resumo:
O ICTM (Interval Categorizer Tesselation Model), objeto da presente tese, é um modelo geral para análise de espaços de natureza geométrica, baseado em tesselaçoes, que é capaz de produzir uma categorização confiável de conjunto de pontos de um dado espaço, de acordo com múltiplas características dos pontos, cada característica correspondendo a uma camada do modelo. Por exemplo, na análise de terrenos geográficos, uma região geográfica pode ser analisada de acordo com a sua topografia, vegetaçao, demografia, dados econômicos etc, cada uma gerando uma subdivisão diferente da região. O modelo geral baseado em tesselações não está restrito, porém, a análise de espaços bi-dimensionais. O conjunto dos pontos analisados pode pertencer a um espaço multidimensional, determinando a característica multi-dimensional de cada camada. Um procedimento de projeção das categorizações obtidas em cada camada sobre uma camada básica leva a uma categorização confiavel mais significante, que combina em uma só classificação as análises obtidas para cada característica. Isto permite muitas análises interessantes no que tange a dependência mútua das características. A dimensão da tesselação pode ser arbitrária ou escolhida de acordo com algum critério específico estabelecido pela aplicação. Neste caso, a categorização obtida pode ser refinada, ou pela re-definição da dimensão da tesselação ou tomando cada sub-região resultante para ser analisada separadamente A formalização nos registradores pode ser facilmente recuperada apenas pela indexação dos elementos das matrizes, em qualquer momento da execução. A implementação do modelo é naturalmente paralela, uma vez que a análise é feita basicamente por regras locais. Como os dados de entrada numéricos são usualmente suscetíveis a erros, o modelo utiliza a aritmética intervalar para se ter um controle automático de erros. O modelo ICTM também suporta a extração de fatos sobre as regiões de modo qualitativo, por sentenças lógicas, ou quantitativamente, pela análise de probabilidade. Este trabalho recebe apoio nanceiro do CNPq/CTPETRO e FAPERGS.