123 resultados para Mapeamento de processos
Resumo:
O estudo tem por objetivo identificar e analisar os motivos pelos quais os usuários utilizam o pronto atendimento de um Centro de Saúde e analisar a organização do trabalho nesse serviço, identificando como se dão o acesso, o acolhimento e o vínculo de usuários ao Sistema de Saúde. Trata-se de um estudo de caso, com abordagem qualitativa. A coleta de dados foi realizada por meio da observação livre, por amostragem de tempo. O foco de observação foi a organização do processo de trabalho e o atendimento prestado aos usuários que obtiveram algum tipo de atendimento no Serviço de Pronto Atendimento, no período de agosto, outubro, novembro e dezembro de 2003. A análise dos dados teve uma abordagem dialética. Os dados obtidos foram classificados em estruturas de relevância e, posteriormente, agrupados em dois núcleos: as demandas do pronto atendimento; organização do trabalho e a utilização de tecnologias leves. O processo de trabalho no pronto atendimento está organizado para atender a algumas das necessidades de saúde da população, respondendo, dentro de limites, à finalidade de tratar a queixa principal, encaminhando os usuários, quando necessário, para as referências nos diferentes níveis de complexidade, normatizados na hierarquização do Sistema de Saúde. O acolhimento está presente nas ações dos profissionais, mas ainda é pouco explorado como estratégia de ampliação de acesso e vínculo com o Sistema. Os principais motivos pelos quais os usuários procuraram o serviço foram: situações graves e de risco, queixas agudas que envolviam desconforto físico e emocional, necessidades pontuais caracterizadas como não urgentes, atendimento complementar ao recebido em outros serviços de saúde e vínculo com o próprio serviço. Ficou evidenciado que para os usuários a procura por um serviço de saúde é diferente daquela identificada pelo trabalhador. O usuário busca o pronto atendimento para resolução de necessidades que lhe trazem dificuldade e desconforto; para os trabalhadores, as necessidades do usuário são definidas com base no modelo biológico e na organização do Sistema.
Resumo:
O mundo globalizado de hoje conduz as organizações a buscarem, cada vez mais, a Reengenharia de Processos de Negócio ou BPR – Business Process Reengineering como uma solução para se manterem competitivas em seus respectivos mercados. Uma das tecnologias de informação que aparece como habilitadora da BPR é a tecnologia de Workflow (fluxos de trabalho), onde os WfMS – Workflow Management Systems ou Sistemas de Gerenciamento de Workflow, através de metodologias e software, facilitam a transformação que está sendo exigida às empresas para se manterem competitivas. Existem, atualmente, muitos estudos sobre WfMS, o que evidência esta como sendo uma área bastante próspera e em desenvolvimento. Apesar de existirem diversos WfMS comerciais com ferramentas para dar suporte à modelagem e, posterior, reengenharia dos processos de negócio, os recursos fornecidos para a reengenharia de processos que são voltados para a análise, teste e monitoramento de workflow, não levam em consideração os mecanismos de coordenação de atividades, inerentes à estrutura organizacional existente. Busca-se, através deste trabalho, estudar o problema do processo de reengenharia e da otimização de processos, a partir da análise de (sub)processos de WfMS, considerando alguns aspetos estruturais das organizações. Neste contexto, o objetivo deste trabalho é identificar e descrever, de forma sistemática, o relacionamento existente entre (sub)processos de workflow e mecanismos de coordenação de atividades. Com isso, pretende-se que com os resultados obtidos possam ser utilizados como ponto de partida para o desenvolvimento de um sistema automatizado para auxiliar na reengenharia de processos com base em WfMS.
Resumo:
Resumo não disponível.
Resumo:
A crescente necessidade de padronização, eficácia e gerenciamento de processos têm aumentado o interesse das mais diferentes organizações pela tecnologia de workflow. Entretanto, a rápida propagação da tecnologia de workflow, ocorrida na última década, fez com que muitos sistemas desenvolvidos nesta área fossem disponibilizados e difundidos sem uma padronização clara. Analisando-se especificamente a fase de construção do workflow, nota-se que há muitas divergências. Conceitualmente, ainda não há modelos nem metodologias de modelagem amplamente aceitos e consolidados. Quanto às implementações, ainda não existe uma especificação clara e detalhada das ferramentas de definição. A conseqüência deste panorama é a baixa interoperabilidade e a baixa padronização dos conceitos, funcionalidades e interações das ferramentas de definição. Contudo, muitos esforços estão sendo feitos para solucionar o problema da interoperabilidade e padronização. A área de workflow como um todo já começa a apontar fortes tendências de padronização dos conceitos, funcionalidades e interações de seus sistemas. Detectar e avaliar tais tendências são os focos de estudos desta dissertação. Mais precisamente, o objetivo desta dissertação é fornecer informações e métodos que possam ajudar desenvolvedores e usuários de ferramentas de definição a: compreender, descrever e avaliar os conceitos, funcionalidades e interações deste tipo de ferramenta. Para tanto, é mostrado um método de descrição de modelos conceituais de ferramentas de definição. O referido método é resultado de uma pesquisa sobre o modelo conceitual deste tipo de ferramenta. Com base nas informações pesquisadas, foi desenvolvido o modelo conceitual de uma ferramenta de definição chamada de Amaya Workflow (AW). Para mostrar a viabilidade de implementação do modelo conceitual AW e concretizar em um software os estudos desenvolvidos durante esta dissertação, foi implementado o protótipo Amaya Workflow. Por fim, é mostrado um panorama geral das funcionalidades, conceitos e interações das principais ferramentas de definição existentes. Com base neste panorama e nos estudos anteriores, é descrito um método de avaliação de modelos conceituais de ferramentas de definição.
Resumo:
O presente trabalho tem por objetivo o estudo dos tratamentos termoquímicos comuns na indústria metalúrgica denominados: nitretação, nitrocarburação e carbonitretação com o auxílio da ferramenta conhecida como ‘termodinâmica computacional’. Com o uso de um aplicativo computacional e de um banco de dados compacto procurou-se primeiramente o perfeito entendimento dos processos, por exemplo, através da análise do efeito de variáveis como temperatura, pressão e composição das fases gasosa e condensada. A partir deste entendimento procurouse simular os tratamentos termoquímicos dentro de parâmetros conhecidos da prática industrial e, finalmente, procurou-se sugerir algumas outras atmosferas possíveis de serem aplicadas, que se mostraram apropriadas aos objetivos de tais tratamentos. Durante a simulação, constatou-se que alguns resultados mostraram-se algo diferente dos existentes na literatura, provavelmente por diferenças nos dados termodinâmicos utilizados. Este fato, contudo, não invalida as simulações. Sugere-se apenas, para o futuro, a utilização de bancos de dados ainda mais compatíveis com os resultados obtidos na prática industrial.
Resumo:
Neste trabalho de tese investigamos o papel de dinâmica perturbativa e não-perturbativa da Cromodinâmica Quântica, a teoria das interações fortes, em processos de produção de quarks pesados e de quarkonium-estados ligados de um par de quarks pesados. Um aspecto importante na produção de quarks pesados consiste no tratamento de ordens mais altas em QCD perturbativa, que abordamos por meio de elementos de matriz QCD em segunda ordem dominante (NLO) e através de um gerador de eventos Monte Carlo, mais útil fenomenologicamente, onde a produção perturbativa de pares Q Q e obtida utilizando elementos de matriz em ordem dominante e a aproximação de chuveiros partônicos de processos em ordens mais altas. Os processos suaves formando estados ligados de quarkonium são descritos em termos do modelo de evaporação de cor (CEM), ou alternativamente através do modelo de interações suaves de cor (SCI) e do modelo da lei das áreas generalizado (GAL). Neste trabalho, calculamos as distribuições em xF e p? para o J= e 0 em hadroprodução em alvo xo e no colisionador p p do Tevatron. Outros observáveis como a seção de choque total para J= , 0 e charme aberto tamb em são reproduzidos. Além disso, extrapolamos os modelos para descrever a produção de J= e no futuro colisionador LHC, onde as taxas de produção de J= estão at e uma ordem de magnitude acima de outra predição da literatura, o qual pode implicar em J= ser um ru do não negligenciável para estudos de violação da simetria CP no LHC. Além disso, com o objetivo de descrever as taxas de produção relativas entre os vários estados de charmonium, desenvolvemos um modelo para o mapeamento do espectro contínuo de massas do par c c produzido perturbativamente, nas ressonâncias de charmonium, onde introduzimos uma correlação entre a massa invariante do par produzido perturbativamente e a massa física do estado de charmonium. Outra abordagem importante ao estudo dos aspectos perturbativos e não-perturbativos da QCD na produção de quarks pesados e o formalismo de fatorização k?, o qual investigamos em processos de fotoprodução de charme e bottom, com ênfase em resultados de um modelo de saturação. Efeitos de evolução DGLAP tamb em são estudados, considerando a derivada da distribuição de glíuons. Analisamos em detalhe seções de choque totais e distribuições em pT , mostrando as regiões de validade de cada descrição. Através do estudo de vários aspectos perturbativos e não-perturbativos da QCD, este trabalho de tese contribui para um melhor entendimento da conexão entre essas duas dinâmicas.
Resumo:
O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.
Supressão de J/[psi] em processos próton-núcleo e núcleo-núcleo devido aos efeitos de alta densidade
Resumo:
A supressão da produção do méson J/Ψ em colisões de íons pesados tem sido apontada como um sinal da formação de um estado desconfinado da matéria - o Plasma de Quarks e Glúons. Este sinal, por em, não e inequívoco e muitos modelos, que não assumem a formação do plasma, podem descrever igualmente bem os resultados da colaboração NA50, no CERN, que apontou uma supressão anômala, não explicada pela absorção nuclear, nas colisões mais centrais entre íons de chumbo. De modo geral, estes modelos, considerando ou não a formação do plasma, procuram explicar os resultados experimentais através de mecanismos que causam a supressão no estado final da colisão, isto e, mecanismos que agem sobre as partículas produzidas na colisão. Por outro lado, para núcleos pesados e em processos envolvendo altas energias, as distribuições partônicas nucleares são alteradas em relação as distribuições para nucleons livres. Estas alterações ocorrem devido ao fato das dimensões do nucleon serem um limite geométrico para o crescimento das distribuições - seu vínculo de unitariedade - pois o meio nuclear, em altas energias, apresenta uma alta densidade partônica. A existência deste vínculo de unitariedade requer modificações das distribuições partônicas, o que deve ser considerado nos cálculos das seções de choque nucleares. Tais modificações afetam a produção de hádrons no estado final, diminuindo sua taxa de produção. Nesse trabalho, investigamos a inclusão dos efeitos de alta densidade nas distribuições partônicas para o tratamento da supressão de J/Ψ em colisões envolvendo alvos nucleares. Estes efeitos são decorrentes do aumento da distribuição de glúions na região de pequeno x (altas energias). A evolução DGLAP, que considera apenas a emissão de pártons, prevê um crescimento ilimitado da distribuição de glúons nesta região, quebrando assim o vínculo da unitariedade. Por isso, o mecanismo de recombinação partônica passa a contribuir para restaurar a unitariedade. Estes efeitos de recombinação, basicamente, são tratados como os efeitos de alta densidade referidos nesse trabalho, alterando as distribuições partônicas nucleares. Utilizamos processos próton-núcleo para estimar a magnitude destes efeitos, uma vez que estes processos não apresentam um meio nuclear tão denso quanto o proporcionado por colisões núcleo-núcleo. Esta premissa torna os processos próton-núcleo testes mais confiaveis para a investigação dos efeitos de alta densidade. Analisamos em especial a razão entre as taxas de produção do méson J/Ψ e do par de léptons, via processo Drell- Yan, uma vez que este observável e utilizado para apontar a supressão na produção de J/Ψ . Estendemos esta análise para processos núcleo-núcleo, onde novos mecanismos de supressão, entre eles a formação do Plasma de Quarks e Glúons são esperados. Os resultados aqui apresentados mostram que a inclusão dos efeitos de alta densidade introduz uma supressão adicional na produção de J/Ψ , que se torna mais significativa com o aumento da energia do processo. Nossa conclusão e, portanto, que estes efeitos devem ser incorporados na análise deste sinal em experimentos realizados em RHIC e LHC.
Resumo:
O setor do couro é de grande interesse para a economia do País, pois a produção mundial de couros é de 329,75 milhões e a do Brasil é de 35,50 milhões, com uma participação mundial de 10,77%, da qual grande parte é para exportação. O processamento de peles em couro consiste em diversas etapas, com adições seqüenciais de produtos químicos em meio aquoso, intercaladas por lavagens e processos mecânicos. Sabe-se que os mais diversos impactos ambientais são gerados nesta indústria, tornando o presente trabalho importante por analisar quantidades adicionadas de água, pele e insumos químicos, também por avaliar a produção, e respectivas quantidades geradas de couro, de resíduos sólidos, de efluentes líquidos, assim como de suas concentrações. Este trabalho teve por objetivo a caracterização das peles e dos banhos residuais, de ribeira e curtimento, através de análises químicas, para efetuar o balanço de massa destas operações. Para a realização desse balanço, foram definidos critérios para o monitoramento dos processos e foram estabelecidos e/ou adaptados os métodos analíticos adequados para quantificar as correntes de entrada e as concentrações das correntes de saída, através de amostragens de águas residuais e de peles, em cada etapa dos processos de ribeira e de curtimento. Foi feito o balanço global e por componentes em escalas piloto e industrial. Através da caracterização das peles por meio das análises químicas, foi mostrado que o processo piloto é representativo para o processo industrial A pesquisa demonstrou a importância do balanço de massa, pois somente através da análise do aproveitamento e das perdas nas diferentes etapas de transformação da matéria-prima pele em wet-blue, é possível otimizar a relação entre os materiais empregados no processo. Os dados obtidos podem ser utilizados como ferramenta para a implementação da gestão e gerenciamento de melhorias no processo produtivo em curtumes, onde se busca manter a qualidade do produto final e diminuir o impacto ambiental e econômico.
Resumo:
A presente dissertação tem como objetivo principal o desenvolvimento de uma metodologia de estabilização de processos voltada às empresas de manufatura, utilizando ferramentas de controle da qualidade. A metodologia proposta, chamada de “Estabilização de Processos”, propõe-se a garantir a previsibilidade dos resultados dos processos operacionais através da identificação dos processos críticos, de seus indicadores, de suas metas-padrão e da manutenção do seu resultado numa faixa de domínio que atenda às necessidades dos clientes. O método de trabalho utilizado envolveu as etapas de revisão da literatura existente sobre o assunto, apresenta as etapas do modelo conceitual proposto e as ferramentas de engenharia da qualidade eficientes no cumprimento destas etapas. Por fim, é apresentado e discutido um estudo de caso em uma indústria de pisos e blocos de concreto, que contribuiu para a validação do método proposto.
Resumo:
Esta tese analisa os efeitos na aprendizagem, a partir de uma proposta pedagógica que integra uma metodologia de intervenção apoiada por recursos tecnológicos. A proposta pedagógica é implementada em ambiente virtual de aprendizagem e se destina à realização de estudos complementares, para alunos reprovados em disciplinas iniciais de matemática em cursos de graduação. A metodologia de intervenção é inspirada no método clínico de Jean Piaget e visa identificar noções já construídas, propor desafios, possibilitar a exploração dos significados e incentivar a argumentação lógica dos estudantes. O ambiente de interação é constituído por ferramentas tecnológicas capazes de sustentar interações escritas, numéricas, algébricas e geométricas. A Teoria da Equilibração de Piaget possibilita a análise de ações e reflexões dos estudantes diante dos desafios propostos. São identificados desequilíbrios cognitivos e processos de reequilibração advindos das interações com os objetos matemáticos. A transformação de um saber-fazer para um saber-explicar é considerada indicativo de aprendizagem das noções pesquisadas e decorre de um desenvolvimento das estruturas de pensamento. Além da análise de processos de reequilibração cognitiva, analisou-se o aproveitamento dos estudantes, considerando os graus de aprendizagem definidos nos critérios de certificação dos desempenhos. Os resultados indicam que as interações promovidas com a estratégia pedagógica proposta colaboraram para a aprendizagem de noções e conceitos matemáticos envolvidos nas atividades de estudo. A análise do processo de equilibração permite identificar a aprendizagem como decorrência do desenvolvimento de estruturas cognitivas. O movimento das aprendizagens revelou processos progressivos de aquisição de sentido dos objetos matemáticos, com graus que expressaram condutas de regulação. Estas permitiram ultrapassar um fazer instrumental, por aplicação de fórmulas ou regras, e avançar por um fazer reflexivo sobre os significados dos conceitos envolvidos. A pesquisa sugere a implementação da proposta como estratégia pedagógica na proposição de ambientes de aprendizagem para a educação matemática a distância e como apoio ao ambiente presencial.
Resumo:
Esse estudo enfatiza as implicações do método de gestão da Qualidade Total em sua implantação em órgãos públicos. O principal enfoque é a investigação dos modos de subjetivação dos servidores públicos de uma instância federal do Poder Judiciário que implantou o programa da Qualidade Total. A pesquisa tem natureza qualitativa e os dados foram coletados através de entrevistas semi-estruturadas, observação do local de trabalho e análise de documentos e materiais informativos. Participaram da pesquisa servidores da instituição, bem como magistrados e pessoas externas à instituição, mas que apresentavam vínculo com a temática da Qualidade Total em órgãos públicos. Os resultados da pesquisa enfatizam a inadequação desse modelo de gestão na forma como está implantada na instituição pesquisada, bem como salienta o processo de precarização do trabalho no setor público, especialmente no judiciário. Conclui-se, dessa forma, que a gestão da Qualidade Total fortalece o modo-indivíduo em prejuízo das estratégias coletivas de organização do trabalho, visto que salientam características já constatadas em empresas privadas. Essas características passam a se verificar presentes também em órgãos públicos, tais como: a busca incessante pela satisfação do ‘cliente’, a necessidade do ‘lucro’, a importância da competitividade, sempre visando ao aumento da produtividade.
Resumo:
Os produtos de sensoriamento remoto gerados pelos novos sensores orbitais, aliados ao desenvolvimento de sistemas computacionais e de técnicas de processamento de imagens possibilitam a manipulação numérica das imagens, visando o realce de informações de interesse para a interpretação visual ou automática. O uso dessas técnicas traz boas perspectivas no mapeamento geológico básico, pois possibilita uma visão sinóptica de amplas áreas e a integração de dados litológicos e estruturais de várias fontes. Este trabalho selecionou as imagens do sensor ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer) devido as características de suas resoluções espectral e espacial, como as mais promissoras para identificação dos diferentes litotipos da área do Platô da Ramada, em especial as unidades vulcânicas e hipabissais relacionadas e sedimentares subjacentes. O Platô da Ramada, região de Vila Nova do Sul (RS) constitui uma feição geomorfológica de destaque na área, facilmente identificável nas imagens orbitais, sendo formado por uma seqüência vulcânica caracterizada por depósitos efusivos e piroclásticos, de composição dominantemente ácida. Representa uma fração significativa do magmatismo alcalino sódico neoproterozóico no Escudo Sul-rio-grandense e marca um dos ciclos vulcânicos do período pós-colisional do Ciclo Brasiliano Este estudo testou e avaliou diversos processamentos das imagens multiespectrais para diferenciação litológica, a identificação de alvos e a definição de morfoestruturas da área do Platô da Ramada. A integração de dados geológicos existentes com os produtos obtidos neste estudo possibilitou novas informações anexadas ao mapa geológico utilizado como verdade terrestre. O processamento utilizando a técnica de Transformação por Componentes Principais Seletivas proporcionou os melhores resultados realçando diferenças espectrais existentes entre as rochas vulcânicas e hipabissais e as rochas sedimentares. A partir dessa técnica, selecionou-se as imagens CP2 dos pares das bandas 4-5 (R), 3-4 (G) e 8-9 (B) na geração de uma composição colorida. Esta imagem permitiu a diferenciação espectral entre as rochas vulcânicas do Platô da Ramada e as rochas sedimentares do Grupo Maricá, bem como a individualização, no Grupo Maricá, de duas subunidades, levando-se em conta a densidade de intrusões de diques riolíticos ao norte da área. Identificou-se, ainda, um corpo diorítico com forma elíptica na borda SW do Platô da Ramada, não registrado anteriormente.