18 resultados para Análise de tempos perdidos

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

90.00% 90.00%

Publicador:

Resumo:

A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O avanço tecnológico no projeto de microprocessadores, nos recentes anos, tem seguido duas tendências principais. A primeira tenta aumentar a freqüência do relógio dos mesmos usando componentes digitais e técnicas VLSI mais eficientes. A segunda tenta explorar paralelismo no nível de instrução através da reorganização dos seus componentes internos. Dentro desta segunda abordagem estão as arquiteturas multi-tarefas simultâneas, que são capazes de extrair o paralelismo existente entre e dentro de diferentes tarefas das aplicações, executando instruções de vários fluxos simultaneamente e maximizando assim a utilização do hardware. Apesar do alto custo da implementação em hardware, acredita-se no potencial destas arquiteturas para o futuro próximo, pois é previsto que em breve haverá a disponibilidade de bilhões de transistores para o desenvolvimento de circuitos integrados. Assim, a questão principal a ser encarada talvez seja: como prover instruções paralelas para uma arquitetura deste tipo? Sabe-se que a maioria das aplicações é seqüencial pois os problemas nem sempre possuem uma solução paralela e quando a solução existe os programadores nem sempre têm habilidade para ver a solução paralela. Pensando nestas questões a arquitetura SEMPRE foi projetada. Esta arquitetura executa múltiplos processos, ao invés de múltiplas tarefas, aproveitando assim o paralelismo existente entre diferentes aplicações. Este paralelismo é mais expressivo do que aquele que existe entre tarefas dentro de uma mesma aplicação devido a não existência de sincronismo ou comunicação entre elas. Portanto, a arquitetura SEMPRE aproveita a grande quantidade de processos existentes nas estações de trabalho compartilhadas e servidores de rede. Além disso, esta arquitetura provê suporte de hardware para o escalonamento de processos e instruções especiais para o sistema operacional gerenciar processos com mínimo esforço. Assim, os tempos perdidos com o escalonamento de processos e as trocas de contextos são insignificantes nesta arquitetura, provendo ainda maior desempenho durante a execução das aplicações. Outra característica inovadora desta arquitetura é a existência de um mecanismo de prébusca de processos que, trabalhando em cooperação com o escalonamento de processos, permite reduzir faltas na cache de instruções. Também, devido a essa rápida troca de contexto, a arquitetura permite a definição de uma fatia de tempo (fatia de tempo) menor do que aquela praticada pelo sistema operacional, provendo maior dinâmica na execução das aplicações. A arquitetura SEMPRE foi analisada e avaliada usando modelagem analítica e simulação dirigida por execução de programas do SPEC95. A modelagem mostrou que o escalonamento por hardware reduz os efeitos colaterais causados pela presença de processos na cache de instruções e a simulação comprovou que as diferentes características desta arquitetura podem, juntas, prover ganho de desempenho razoável sobre outras arquiteturas multi-tarefas simultâneas equivalentes, com um pequeno acréscimo de hardware, melhor aproveitando as fatias de tempo atribuídas aos processos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Desenvolvimentos recentes na tecnologia de informação têm proporcionado grandes avanços no gerenciamento dos sistemas de transportes. No mundo já existem várias tecnologias testadas e em funcionamento que estão auxiliando na tarefa de controle da operação do transporte público por ônibus. Esses sistemas geram informações úteis para o planejamento e operação dos sistemas de transportes. No Brasil, os investimentos em tecnologias avançadas ainda são muito modestos e estão focados em equipamentos que auxiliam no controle da evasão da receita. No entanto, percebe-se um crescente interesse, por parte dos órgão gestores e operadores, em implementar sistemas automatizados para auxiliar na melhoria da qualidade dos sistemas de transportes e como forma de aumentar a produtividade do setor. Esse trabalho traz à discussão os sistemas avançados desenvolvidos para o transporte público coletivo, com o objetivo de definir o perfil da tecnologia avançada que está de acordo com as necessidades dos gestores e operadores brasileiros. Na realização do trabalho foi empregada uma ferramenta de planejamento denominada Desdobramento da Função Qualidade – QFD (Quality Function Deployment), bastante utilizada para direcionar os processos de manufatura e produto, e para hierarquizar os atributos considerados importantes para o gerenciamento do transporte público urbano no Brasil. O resultado do trabalho indica um grande interesse em implantar tecnologia avançada para auxiliar no monitoramento dos tempos de viagem e tempos perdidos durante a operação do transporte público. Essa tecnologia também é tida como capaz de melhorar o desempenho das linhas, através da manutenção da regularidade e pontualidade. Ainda, sistemas inteligentes que propiciam informações precisas aos usuários contribuem para melhorar a imagem do modal ônibus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objetivos: Descrever o perfil e as complicações agudas mais importantes das crianças que receberam transplante de medula óssea (TMO) em nosso Serviço. Casuística e métodos: Análise retrospectiva de 41 pacientes menores de 21 anos transplantados entre Agosto de 1997 até Junho de 2002. Deste total 20 receberam transplante alogênico e 21 receberam transplante autogênico. Resultados: No TMO alogênico a média de idade foi de 8,9 + 5,4 anos, sendo 12 pacientes do sexo masculino. As fontes de células foram: medula óssea (MO) 12, sangue periférico (SP) 5, sangue de cordão umbilical não aparentado (SCU) 3. As doenças tratadas foram leucemia linfóide aguda (LLA) 7 pacientes, leucemia linfóide crônica (LMC) 2; leucemia mielóide aguda (LMA) 4; Síndrome mielodisplásica 2; Linfoma de Burkitt 1, Anemia aplástica grave 1; Anemia de Fanconi 1; Síndrome Chediak Higashi 1; Imunodeficiência congênita combinada grave 1. Um paciente desenvolveu doença do enxerto contra hospedeiro (DECH) aguda grau 2 e três DECH grau 4. Três pacientes desenvolveram DECH crônica. Todos haviam recebido SP como fonte de células. A sobrevida global foi de 70,0 + 10,3%. A principal causa do óbito foi DECH em 3 pacientes e sépse em outros 3. Todos os óbitos ocorreram antes do dia 100. Um dos pacientes que recebeu SCU está vivo em bom estado e sem uso de medicações 3 anos e 6 meses pós TMO. No TMO autogênico, a média de idade foi de 8,7 + 4,3 anos, sendo 11 pacientes do sexo masculino. As fontes de células foram SP 16, MO 3, SP + MO 2. As doenças tratadas foram: tumor de Wilms 5; tumores da família do sarcoma de Ewing 4; neuroblastomas 3; linfomas de Hodgkin 3; rabdomiossarcomas 2, tumor neuroectodérmico primitivo do SNC 2; Linfoma não Hodgkin 1; LMA 1. A sobrevida global está em 59,4 + 11,7 %. Cinco óbitos tiveram como causa a progressão da doença de base, um óbito ocorreu devido à infecção 20 meses pós TMO e dois óbitos foram precoces por sépse. As toxicidades mais comuns em ambos os grupos foram vômitos, mucosite, diarréia e dor abdominal. Infecções foram documentadas em 58,5% dos pacientes e 46,9% tiveram no mínimo um agente isolado na hemocultura. Os tempos de enxertia de neutrófilos e plaquetas correlacionaram-se com o número de células progenitoras infundidas. Conclusão: A sobrevida de nossos pacientes é semelhante à encontrada na literatura de outros serviços nacionais e internacionais. Não encontramos diferença entre os dois tipos de transplante com relação às toxicidades agudas e ás infecções.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A concorrência nos mercados locais e internacionais tem levado as empresas a tomarem-se cada vez mais competitivas e atentas as mud3nças no mercado, possibilitando-Ihes melhorias em seus processos produtivos. Este trabalho apresenta a modelagem e análise de melhorias no processo produtivo de uma empresa de montagem de câmaras de bronzeamento. A simulação computacional foi utilizada como ferramenta de análise das possíveis oportunidades de melhorias a serem introduzidas no processo produtivo. O processo original foi modelado com o objetivo de identificar e caracterizar a distribuição de tempos e utilização dos equipamentos e rerorsos presentes no processo produtivo da empresa. Diferentes propostas de melhorias foram investigadas e uma nova modelagem do processo foi sugerida, considerando exigências do mercado e características do processo produtivo empresarial. Comparações matemáticas entre os resultados foram elaboradas e as conclusões sobre o estudo são apresentadas ao final do trabalho. Os resultados da simulação estão sendo usados para avaliar possíveis alterações no processo produtivo da empresa, bem como para gerar documentos que registram conhecimento corporativo sobre possíveis arranjos na produção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação discute a resistência à mudança em tempos de reestruturação produtiva do trabalho, desde a perspectiva de trabalhadores que ocupam postos ditos de gestão e de execução. Trata-se de um estudo de caso realizado em uma empresa de médio porte considerada de terceira geração do setor plástico, situada em Caxias do Sul/Rio Grande do Sul. Os sujeitos da pesquisa foram dez trabalhadores da linha de produção e dois gestores. A coleta de dados deu-se através de entrevistas semiestruturadas, fontes documentais e iconográficas, e observação assistemática do cotidiano do trabalho dos trabalhadores. A análise dos dados priorizou o entendimento qualitativo da realidade apresentada à luz do referencial teórico pertinente e discutiu três eixos centrais, assim apresentados: as facetas da reestruturação produtiva do trabalho na empresa A; os modos de resistência à mudança provenientes da reestruturação produtiva do trabalho desde a perspectiva dos gestores e os modos de resistência à mudança provenientes da reestruturação produtiva do trabalho desde a perspectiva dos trabalhadores que ocupam postos ditos de execução. Os resultados da pesquisa evidenciaram que a resistência à mudança é um comportamento que se faz notar tanto nos trabalhadores que ocupam postos ditos de execução quanto nos gestores que são incubidos de implementar as mudanças. A resistência aparece como um enigma central no cotidiano do trabalho da empresa A, atingindo os modos de ser e de viver dos trabalhadores. A resistência inserida no contexto de reestruturação produtiva do trabalho na empresa A se mostra de forma sutil, diferentemente da forma visível e de oposição comumente encontrada na literatura clássica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A presente dissertação discute o Programa de Apoio à Demissão Voluntária – PADV – como uma ferramenta central da gestão de pessoas, em tempos de reestruturação produtiva do trabalho bancário. Trata-se de um estudo de caso que contou com um total de cento e doze sujeitos, assim distribuídos: cento e quatro sujeitos dos estados do Rio Grande do Sul e Santa Catarina, que aderiram à terceira edição do referido programa, cinco gestores desses sujeitos e três funcionários da área de recursos humanos da empresa. A coleta de dados deu-se através de questionário, entrevistas individuais semi-estruturadas e fontes documentais. Analisaram-se os dados quantitativos com uso do software Sphinx e os dados qualitativos por meio da análise de conteúdo à luz do referencial teórico de autores como Pelbart em relação a aspectos da subjetividade; Chanlat e Enriquez em relação à gestão; e Dejours em relação ao sofrimento e prazer no trabalho. Os resultados da pesquisa indicam que, por ocasião do PADV, ocorre uma intensa atuação da empresa no sentido de desfazer a expectativa cultural e socialmente construída de um emprego que proporciona aos sujeitos boas condições financeiras e vínculo empregatício estável através dos tempos. A construção da adesão ao PADV, se dá pela forma como o mesmo é divulgado para o grupo de funcionários e pela utilização de estratégias por parte da empresa e dos gestores, visando levar os sujeitos à adesão. As estratégias empresariais referem-se ao valor da Vantagem Financeira Extra – VFE, ao decréscimo diário da VFE, à disseminação de boatos que apontam para a diminuição dos valores pagos a título de VFE, aos escritos apresentados no manual de divulgação do PADV; e as estratégias individuais utilizadas pelos gestores referem-se à realização de reunião com os funcionários e divulgação do número de pessoas e cargos a serem reduzidos na unidade, à retirada de cargo em comissão, à não delegação de atividades para o sujeito e à supressão do horário para estudo. A adesão imediata ao PADV é apresentada aos funcionários como uma oportunidade de garantia de benefícios que se tornam cada vez mais escassos a cada nova edição, instalando um sentimento generalizado de medo da adesão sob pressão. A adesão é compreendida pelos funcionários como uma oportunidade de abandonar um ambiente de trabalho gerador de pressão e estresse. O PADV caracteriza-se como uma ferramenta central da gestão de pessoas que as trata como números, reduz custos através da diminuição do número de funcionários e marca a passagem de uma cultura de estabilidade e segurança para uma cultura de instabilidade e insegurança. Os processos de reestruturação produtiva do trabalho caracterizam-se como construtores de modos de subjetivação e como cenário fecundo para a implantação dos PADVs, como alternativa para aqueles sujeitos que passam a um consumo de subjetividade via processo de singularização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho apresenta o desenvolvimento de um estudo da extração de óleo vegetal em instalações industriais do tipo Rotocell. O extrator tem forma cilíndrica e possui um eixo principal no qual estão fixos vagões que transportam os sólidos através do extrator, e, abaixo desses existem reservatórios responsáveis pelo recebimento da micela. Acima dos vagões há seções de distribuição de micela que é despejada sobre os sólidos dos vagões, que extrai o óleo. Possui também seções de carregamento e drenagem. Um modelo físico-matemático e um programa para simular a operação do extrator foram desenvolvidos considerando os seguintes fenômenos: difusão de óleo pela micela; transferência de óleo entre as fases bulk e poro; variação da massa específica e viscosidade da micela; os processos nas seções de drenagem e de carregamento. Na forma final, o modelo acoplado apresenta-se em termos de redes neurais artificiais, que possibilita operar com tempos discretos e contínuos, permitindo a simulação numérica deste extrator industrial, o treinamento favorável da rede, sua identificação, e o acompanhamento em tempo real. Foram determinadas características da matéria-prima através de um trabalho experimental em laboratório. Através dos resultados obteve-se a validação do modelo por meios teóricos e experimentais Os resultados teóricos foram comparados com os dados experimentais e com cálculos feitos através do método de estágios ideais. As simulações numéricas revelam propriedades do campo de extração para o regime transiente com distribuição uniforme e regime transiente industrial, onde verifica-se que o modelo descreve corretamente o comportamento real do campo de percolação do extrator. Também foram realizadas simulações numéricas com o objetivo de avaliar as principais características do extrator em função da sua geometria e características da matéria-prima, variando a altura e o número de vagões do extrator verificou-se que é possível simular o comportamento do extrator para diferentes formas e tipo de qualidades da matéria-prima. Foram feitas simulações utilizando um solvente alternativo(álcool) e mudando parâmetros do extrator, onde observou-se que o solvente exige alterações na dimensão do extrator.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Empresas de manufatura alocam uma grande quantidade de recursos no projeto de produtos confiáveis. Quando adequadamente projetados, tais produtos apresentam um número mínimo de falhas operacionais durante seu período de garantia e, de forma geral, durante sua vida útil. Falhas incorridas durante o período de garantia do produto implicam em custos indesejáveis. Assim, a incidência dessas falhas, bem como sua natureza, são normalmente registradas pelas empresas, na busca de informações que permitam aprimorar o projeto de produtos. Modelos de confiabilidade apropriados para estudos de engenharia são freqüentemente desenvolvidos a partir da análise de informações de desempenho em campo dos produtos de interesse. Esta dissertação propõe e exemplifica uma metodologia de análise de confiabilidade de produtos manufaturados, utilizando as informações disponíveis de volume produzido em um período de tempo e dados de tempos-até-falha obtidos da utilização da garantia do produto analisado. Como aplicação, foi realizada a modelagem da distribuição de confiabilidade de um modelo de aparelho condicionador de ar individual. Além da definição do modelo de distribuição da confiabilidade do produto e seus parâmetros, foram identificados os componentes críticos do sistema, os quais apresentam maior impacto sobre a confiabilidade do produto, quando ocorre melhoria de suas distribuições individuais de confiabilidade O trabalho apresenta, também, uma introdução sobre a teoria e princípio de funcionamento de unidades condicionadoras de ar, bem como uma revisão sobre os conceitos teóricos de confiabilidade, estimativas de parâmetros de modelos de distribuições, métodos de modelagens de distribuições e avaliação de confiabilidade utilizados na metodologia proposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Leitura de Sistema do Imperfeito & Outros Poemas, livro de Guilhermino Cesar publicado em 1977. O perfil múltiplo do autor – professor, tradutor, historiador, jornalista, economista, escritor e pesquisador em diversas áreas do conhecimento – resulta numa poesia plurirrefencial, tocada por temas de sua época. Constatamos em Sistema do Imperfeito & Outros Poemas o privilégio de determinadas temáticas relacionadas com a tecnologia, a velocidade, a fragmentação, a sociedade massificada, o impacto (especialmente no que diz respeito ao Brasil) do caos urbano. Essa problemática fica mais evidente a partir da segunda metade do século XX: no Brasil, por um processo de intensa modernização urbana; em âmbito mundial, por uma espantosa difusão da influência dos meios de comunicação de massa. Esta leitura, articulada a partir de autores que pensaram as transformações sociais e culturais do século XX, volta-se para o Sistema do Imperfeito & Outros Poemas examinando a estrutura do livro e o conjunto de referências culturais e históricas mobilizadas pelo autor, pondo em relevo os recursos formais e a linguagem construída por Guilhermino Cesar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A durabilidade das estruturas de concreto armado tem sido motivo de grande interesse nas pesquisas em construção civil, nos últimos anos. Dentre os problemas que mais afetam a durabilidade dessas estruturas, está a corrosão de armaduras. O concreto que envolve o aço, proporciona-lhe uma barreira física, através do cobrimento, e uma proteção química, gerada pela elevada alcalinidade do concreto, formando uma película passivadora em torno do aço. Uma das formas de romper essa película passivadora, é através da diminuição da alcalinidade do concreto, por reações físico-químicas entre o dióxido de carbono (CO2) da atmosfera, com os produtos da hidratação do cimento, caracterizando a carbonatação. Esse fenômeno em si, não é prejudicial ao concreto armado, mas propicia condições para a corrosão da armadura. Em função do tempo que as estruturas levam para carbonatarem naturalmente, são utilizados ensaios acelerados para conhecer seu comportamento. Esses ensaios não são padronizados, o que muitas vezes dificulta, e até mesmo impede a comparação entre as diversas pesquisas. Nesse sentido, esse trabalho faz uma análise comparativa de alguns procedimentos e fatores envolvidos nos ensaios de carbonatação acelerada. Para tanto, foram empregadas argamassas, que foram preparadas com dois tempos de cura submersa (7 e 28 dias), dois tipos de cimento (CPI-S e CPIV), três relações água/cimento (0,40, 0,55 e 0,70), dois tipos de secagem (em sala climatizada e em estufa, pelas recomendações da RILEM), dois tempos de secagem (o mesmo período para todas as amostras, e diferentes períodos para cada traço) e, dois percentuais de dióxido de carbono (6% e câmara saturada de CO2). Os resultados da análise estatística, indicaram que os fatores mais significativos foram o percentual de CO2 e a relação água/cimento As amostras carbonatadas em câmara saturada de CO2 apresentaram um comportamento distinto daquelas carbonatadas a 6%, além de atingirem profundidades de carbonatação inferiores. A secagem que segue as recomendações da RILEM, propiciou condições para profundidades de carbonatação maiores. O tipo de cimento e o tipo de secagem apresentaram uma significância intermediária na profundidade de carbonatação, quando comparados aos demais fatores. O tempo de cura submersa e o tempo de secagem, influenciaram muito pouco na carbonatação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As problematizações que me levaram a realização desse estudo vinculam-se a minha formação como bióloga e professora de Biologia. A partir de aproximações com leituras do campo dos Estudos Culturais, dos Estudos Culturais da Ciência e de estudos com inspiração foucaultiana, passei a questionar tanto a formação acadêmica que me constituiu, quanto o lugar que os objetos, as classificações e as explicações ligados ao corpo no campo da Biologia adquiriam nas práticas escolares. Nesse estudo, tomo o corpo como produção de práticas sociais; inscrito por discursos e práticas de diferentes instâncias culturais que se articulam e se confrontam, constituindo corpos múltiplos, sujeitos particulares. Com esses entendimentos e questionamentos, busquei, nessa dissertação, conhecer e problematizar o corpo nas práticas escolares, ou melhor, como a escola lida com os corpos nas suas práticas cotidianas e naquelas relacionadas ao campo da Biologia, assim como alguns efeitos nos corpos dos estudantes. Realizei esta pesquisa numa escola da rede pública estadual de Porto Alegre. Para tanto, freqüentei o espaço escolar e as aulas de duas turmas do segundo ano do Ensino Médio, por aproximadamente dois meses, e também uma atividade “extra-muros”, um passeio à 4ª Bienal de Arte do Mercosul, com a turma da manhã. Para a realização da pesquisa na escola, utilizei ferramentas de cunho etnográfico e realizei entrevistas com alguns estudantes. Nas análises, fui fazendo relações com autores dos estudos anteriormente citados, conforme as questões que emergiam nessa trajetória. Ao integrar as atividades escolares cotidianas, passei a observar e analisar questões relativas aos efeitos de estratégias disciplinares, direcionadas à fabricação de corpos escolares; ao mesmo tempo, busquei apontar alguns movimentos de resistência e diferentes formas, que estudantes e professores, encontraram para lidar com tais estratégias Procurei mostrar como, nessas relações configuram-se uma pluralidade de sujeitos e práticas que significam o espaço escolar. Da imersão que empreendi na sala de aula, foram criadas questões relativas ao corpo no campo de saberes. Nessa discussão, o corpo associado aos discursos da disciplina biológica foi trazido para a sala de aula vinculado a explicações da área científica, tais como a Embriologia e a Genética, sendo que esse modo de tratar o corpo não articulou-se, muitas vezes, às experiências e problematizações dos estudantes. Por último, analisei uma aula específica, que tratou da temática do aborto numa gestação de um feto com uma patologia grave, sem perspectivas de vida. Essa aula foi uma encenação dos estudantes de um julgamento, em que a mãe pediu autorização na justiça para a interrupção da gravidez. Nesse momento, as problematizações que fiz disseram respeito ao posicionamento de sujeitos — mulher, homem, mãe, pai, filhos, experts, monstros e outros — em nossa sociedade, por diferentes discursos — médicos, biológicos, políticos, religiosos, morais, éticos, etc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem de um depósito mineral é realizada por meio da combinação de diversas fontes de informações. Dentre estas fontes pode-se citar a sísmica de reflexão. A sísmica de reflexão fornece dados de tempos de propagação de ondas sísmicas até essas serem refletidas pelas estruturas dos depósitos minerais. As profundidades dessas estruturas podem ser obtidas multiplicando-se os tempos pelas velocidades de propagação das ondas sísmicas. Normalmente, a velocidade de uma onda sísmica é determinada indiretamente por meio do processamento dos próprios dados sísmicos, o que pode gerar erros na interpretação de seções geológicas. A perfilagem geofísica é uma alternativa na determinação dessa velocidade, uma vez que a velocidade de onda acústica é obtida ao longo do furo perfilado e a velocidade de onda acústica pode ser relacionada com a velocidade de onda sísmica. As estimativas de valores de velocidade na região entre os furos perfilados permite as estimativas de valores de profundidade nessa região. Neste estudo, foram analisadas possibilidades de se estimar, em um grid, valores de velocidade e incertezas associadas a esses valores, utilizando-se ferramentas geoestatísticas. A simulação seqüencial Gaussiana, dentre as ferramentas analisadas, pareceu ser a mais adequada para obtenção de velocidades e incerteza dos valores estimados em cada nó do grid considerado. Para o caso abordado, alguns valores de profundidade da estrutura de interesse apresentaram variações significativas em função da incerteza de velocidade. Essas variações são muito importantes na execução de certos métodos de lavra subterrânea, o que enfatiza a importância da determinação da incerteza das velocidades estimadas. A metodologia é apresentada e ilustrada em um importante depósito de carvão em Queensland, Austrália.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.