943 resultados para Metodologias de Custeio
Resumo:
A minha longa vivência esportiva como atleta, técnico e professor me trouxe importantes reflexões. Esta vida dedicada ao esporte e seu ensino tem me proporcionado muitas interrogações sobre o tema da Iniciação Esportiva, especialmente no que se refere aos princípios pedagógicos dos professores. Deste modo, procurando aprofundar meus conhecimentos, investigamos as Intervenções Pedagógicas em Programas de Iniciação ao Futsal na sua prática de ensino. O objetivo geral deste estudo foi o de verificar, analisar e interpretar as intervenções pedagógicas utilizadas pelo professor nos Programas de Iniciação ao Futsal. Este objetivo geral veio se decompor em outros objetivos de caráter mais específicos como: identificar o perfil do professor que atua no Programas de Iniciação ao Futsal; identificar o modelo de desporto adotado dentro das diferentes instituições; identificar os conteúdos desenvolvidos durante as aulas e analisar os componentes afetivos que são manifestados pelos professores. Nosso estudo é do tipo qualitativo e se caracteriza por uma pesquisa descritiva exploratória. Foram utilizados para a coleta de dados três locais previamente definidos: um Clube Social; um Projeto de Extensão e uma Escolinha Particular. A escolha destes locais justificouse por abranger o universo diversificado de situações referentes ao local que estão acontecendo bem como aos fins propostos em cada programa de iniciação. Todos locais dispunham de boas condições físicas e materiais. O pesquisador escolheu os professores de forma intencional, de acordo com suas disponibilidades de tempo e com seus interesses em fornecer subsídios para este trabalho. As sessões de aula observadas abrangeram a faixa etária dos sete aos doze anos, independente do sexo. Os instrumentos utilizados em nossa pesquisa constaram de uma entrevista semi-estruturada e de observações feitas através de filmagens que foram registradas e, posteriormente, analisadas. Os resultados das nossas investigações nos indicam a existência de uma pedagogia que privilegia um modelo de ensino tradicional, que promove o esporte através do treinamento dos alunos, transformando-o em trabalho e não lazer, tendo em vista o mais alto grau de desempenho. Para finalizar, esperamos que o nosso estudo venha contribuir como fonte de discussão e esclarecimento de alguns dogmas que ainda persistem em nossa educação atual. Acima de tudo, esperamos que nossa investigação proporcione novas perspectivas aos profissionais da área e que os incentive a realizar mais pesquisas, visando a busca de metodologias alternativas que satisfaçam às necessidades e os interesses reais das crianças.
Resumo:
Perícia é a capacidade de aplicar habilidades intelectuais para resolver problemas em domínios estratégicos, com um desempenho e qualidade de solução superior à média dos profissionais da área. Ampliar a compreensão do que é a perícia fornece suporte e justificativas para a proposição de novos recursos para aquisição e modelagem de conhecimento na área da Engenharia de Conhecimento. Esta tese apresenta os resultados de um estudo sobre a perícia em Geologia, em especial numa aplicação em Petrografia Sedimentar. A tarefa em questão é especialmente significativa porque, ao contrário das tarefas típicas, cujo estudo tem levado ao desenvolvimento de diversas metodologias de aquisição de conhecimento, essa tarefa aplica primariamente raciocínio baseado na análise de imagens e, secundariamente, busca e métodos analíticos para interpretar os objetos da perícia (no caso, rochas-reservatório de petróleo). O objetivo deste projeto de tese é a identificação dos recursos cognitivos aplicados por especialistas na solução de problemas, que são essencialmente de reconhecimento visual e a representação do que é reconhecido. A interpretação dessas habilidades fornece fundamentos para a proposta de novos recursos para aquisição e modelagem, e posterior desenvolvimento de sistemas especialistas para interpretação de rochas. Também contribuem para o tratamento da perícia em outros campos que possuam o mesmo caráter de reconhecimento visual tal como a interpretação de rochas. O estudo foi desenvolvido em duas fases. Na primeira, o conhecimento foi eliciado de um especialista em Petrografia Sedimentar e estruturado, utilizando técnicas tradicionais de aquisição de conhecimento. A segunda fase envolveu o desenvolvimento de um experimento com dezenove geólogos com diferentes níveis de perícia, para identificar os tipos de conhecimentos que suportam a perícia e quais os métodos de solução que são aplicados nos altos níveis da perícia. O estudo das habilidades cognitivas demonstrou que especialistas em Petrografia sedimentar desenvolvem uma grande variedade de formas mentais e hierarquias que diferem daquelas normalmente descritas na literatura da área. Especialistas retém ainda um grande conjunto de abstrações simbólicas de imagens, denominados aqui de pacotes visuais. Os pacotes visuais possuem importante papel na indexação das estruturas mentais e na condução do processo de inferência. As representações são tipicamente associadas com seus próprios métodos de solução de problemas adequados à complexidade da tarefa de caracterização de reservatórios. A aplicação desses recursos faz parte do conjunto de conhecimentos tácitos dos especialistas. A associação de grafos de conhecimento e a análise de casos mostrou-se, neste trabalho, um método adequado para a externalizar e adquirir o conhecimento declarativo e as relações causais, as quais não são evidenciadas com as técnicas de aquisição de conhecimento tradicionais. Métodos de solução de problemas, por sua vez, foram eliciados com o auxílio das bibliotecas de solução de problemas disponíveis na literatura e grafos de conhecimento. O modelo de representação, aqui proposto, expressa o conhecimento em dois níveis: o nível da externalização, compatível com o conhecimento de um intermediário em Petrografia Sedimentar, e o nível da inferência, que modela o conhecimento tácito do especialista. Esta tese apresenta de forma inédita o conceito de pacote visual como uma primitiva de representação e um conjunto de métodos de solução de problemas adequados à interpretação de rochas.
Resumo:
A identificação e o monitoramento de microorganismos aquáticos, como bactérias e microalgas, tem sido uma tarefa árdua e morosa. Técnicas convencionais, com uso de microscópios e corantes, são complexas, exigindo um grande esforço por parte dos técnicos e pesquisadores. Uma das maiores dificuldades nos processos convencionais de identificação via microscopia é o elevado número de diferentes espécies e variantes existentes nos ambientes aquáticos, muitas com semelhança de forma e textura. O presente trabalho tem por objetivo o desenvolvimento de uma metodologia para a caracterização e classificação de microorganismos aquáticos (bactérias e microalgas), bem como a determinação de características cinemáticas, através do estudo da mobilidade de microalgas que possuem estruturas que permitem a natação (flagelos). Para caracterização e reconhecimento de padrões as metodologias empregadas foram: o processamento digital de imagens e redes neurais artificiais (RNA). Para a determinação da mobilidade dos microorganismos foram empregadas técnicas de velocimetria por processamento de imagens de partículas em movimento (Particle Tracking Velocimetry - PTV). O trabalho está dividido em duas partes: 1) caracterização e contagem de microalgas e bactérias aquáticas em amostras e 2) medição da velocidade de movimentação das microalgas em lâminas de microscópio. A primeira parte envolve a aquisição e processamento digital de imagens de microalgas, a partir de um microscópio ótico, sua caracterização e determinação da densidade de cada espécie contida em amostras. Por meio de um microscópio epifluorescente, foi possível, ainda, acompanhar o crescimento de bactérias aquáticas e efetuar a sua medição por operadores morfológicos. A segunda parte constitui-se na medição da velocidade de movimentação de microalgas, cujo parâmetro pode ser utilizado como um indicador para se avaliar o efeito de substâncias tóxicas ou fatores de estresse sobre as microalgas. O trabalho em desenvolvimento contribuirá para o projeto "Produção do Camarão Marinho Penaeus Paulensis no Sul do Brasil: Cultivo em estruturas Alternativas" em andamento na Estação Marinha de Aquacultura - EMA e para pesquisas no Laboratório de Ecologia do Fitoplâncton e de Microorganismos Marinhos do Departamento de Oceanografia da FURG. O trabalho propõe a utilização dos níveis de intensidade da imagem em padrão RGB e oito grandezas geométricas como características para reconhecimento de padrões das microalgas O conjunto proposto de características das microalgas, do ponto de vista de grandezas geométricas e da cor (nível de intensidade da imagem e transformadas Fourier e Radon), levou à geração de indicadores que permitiram o reconhecimento de padrões. As redes neurais artificiais desenvolvidas com topologia de rede multinível totalmente conectada, supervisionada, e com algoritmo de retropropagação, atingiram as metas de erro máximo estipuladas entre os neurônios de saída desejados e os obtidos, permitindo a caracterização das microalgas.
Resumo:
As estratégias de desenvolvimento utilizadas, nas últimas décadas, com o enfoque da Revolução Verde, afetaram de forma significava a capacidade de modificação dos ecossistemas pelo homem. A agricultura, sendo a principal forma de intervenção nos processos naturais, incorporou inovações tecnológicas que possibilitaram o aumento do rendimento de cultivos e criações. Ao mesmo tempo, estas inovações provocaram efeitos negativos, não previstos, no meio ambiente e nas condições sociais dos seres humanos. A emergência da expressão “Desenvolvimento Sustentável” é uma tentativa de conciliar o crescimento econômico, proporcionado pelo progresso técnico, com a justiça social e a preservação dos recursos naturais. Em virtude deste contexto, um novo desafio apresenta-se para os formuladores de políticas públicas e agentes que interferem nos processos de desenvolvimento: avaliar a sustentabilidade, ou seja, quantificar o que é mais ou menos sustentável em sistemas de produção agrícola. Esta investigação representa um esforço para definir uma metodologia capaz de orientar na seleção de indicadores de sustentabilidade, bem como de permitir a obtenção de índices de sustentabilidade em sistemas de produção. O objetivo central é propor uma metodologia que permita avaliar a sustentabilidade em sistemas de produção para facilitar a comunicação entre atores envolvidos em processos de desenvolvimento, no sentido de conduzir as intervenções dos mesmos para contextos de maior sustentabilidade nas dimensões social, econômica e ambiental. Para isto buscou-se uma metodologia com cálculos e operações simples, permitindo a obtenção de informações com recursos locais, sem a necessidade de avançados conhecimentos estatísticos de parte dos usuários, mas adaptadas à complexidade e às particularidades locais dos processos envolvidos nos sistemas de produção da agricultura familiar. Os resultados obtidos, quando comparados com outras metodologias, demonstram a viabilidade do uso do método proposto para a identificação de aspectos que conduzem os sistemas de produção estudados a contextos de maior ou menor sustentabilidade relativa.
Resumo:
A crescente complexidade das aplicações, a contínua evolução tecnológica e o uso cada vez mais disseminado de redes de computadores têm impulsionado os estudos referentes ao desenvolvimento de sistemas distribuídos. Como estes sistemas não podem ser facilmente desenvolvidos com tecnologias de software tradicionais por causa dos limites destas em lidar com aspectos relacionados, por exemplo, à distribuição e interoperabilidade, a tecnologia baseada em agentes parece ser uma resposta promissora para facilitar o desenvolvimento desses sistemas, pois ela foi planejada para suportar estes aspectos, dentre outros. Portanto, é necessário também que a arquitetura dos ambientes de desenvolvimento de software (ADS) evolua para suportar novas metodologias de desenvolvimento que ofereçam o suporte necessário à construção de softwares complexos, podendo também estar integrada a outras tecnologias como a de agentes. Baseada nesse contexto, essa dissertação tem por objetivo apresentar a especificação de uma arquitetura de um ADS distribuído baseada em agentes (DiSEN – Distributed Software Engineering Environment). Esse ambiente deverá fornecer suporte ao desenvolvimento de software distribuído, podendo estar em locais geograficamente distintos e também os desenvolvedores envolvidos poderão estar trabalhando de forma cooperativa. Na arquitetura proposta podem ser identificadas as seguintes camadas: dinâmica, que será responsável pelo gerenciamento da (re)configuração do ambiente em tempo de execução; aplicação, que terá, entre os elementos constituintes, a MDSODI (Metodologia para Desenvolvimento de Software Distribuído), que leva em consideração algumas características identificadas em sistemas distribuídos, já nas fases iniciais do projeto e o repositório para armazenamento dos dados necessários ao ambiente; e, infra-estrutura, que proverá suporte às tarefas de nomeação, persistência e concorrência e incorporará o canal de comunicação. Para validar o ambiente será realizada uma simulação da comunicação que pode ser necessária entre as partes constituintes do DiSEN, por meio da elaboração de diagramas de use case e de seqüência, conforme a notação MDSODI. Assim, as principais contribuições desse trabalho são: (i) especificação da arquitetura de um ADS distribuído que poderá estar distribuído geograficamente; incorporará a MDSODI; proporcionará desenvolvimento distribuído; possuirá atividades executadas por agentes; (ii) os agentes identificados para o DiSEN deverão ser desenvolvidos obedecendo ao padrão FIPA (Foundation for Intelligent Physical Agents); (iii) a identificação de um elemento que irá oferecer apoio ao trabalho cooperativo, permitindo a integração de profissionais, agentes e artefatos.
Resumo:
O uso da mecânica de fluidos computacional no estudo de processos envolvendo o escoamento de fluidos poliméricos está cada vez mais presente nas indústrias de transformação de polímeros. Um código computacional voltado a esta função, para que possa ser aplicado com sucesso, deve levar a predições mais próximas possível da realidade (modelagem), de uma forma relativamente rápida e eficiente (simulação). Em relação à etapa de modelagem, o ponto chave é a seleção de uma equação constitutiva que represente bem as características reológicas do fluido, dentre as diversas opções existentes. Para a etapa de simulação, ou seja, a resolução numérica das equações do modelo, existem diversas metodologias encontradas na literatura, cada qual com suas vantagens e desvantagens. Neste tópico se enquadra o trabalho em questão, que propõe uma nova metodologia para a resolução das equações governantes do escoamento de fluidos viscoelásticos. Esta se baseia no método dos volumes finitos, usando o arranjo co-localizado para as variáveis do problema, e na utilização de aproximações de alta ordem para os fluxos médios lineares e não-lineares e para outros termos não lineares que surgem da discretização das equações constitutivas. Nesta metodologia, trabalha-se com os valores médios das variáveis nos volumes durante todo o processo de resolução, sendo que os valores pontuais são obtidos ao final do procedimento via deconvolução. A solução do sistema de equações não lineares, resultante da discretização das equações, é feita de forma simultânea, usando o método de Newton São mostrados então, resultados da aplicação da metodologia proposta em problemas envolvendo escoamentos de fluidos newtonianos e fluidos viscoelásticos. Para descrever o comportamento reológico destes últimos, são usadas duas equações constitutivas, que são o modelo de Oldroyd-B e o modelo de Phan-Thien-Tanner Simplificado. Por estes resultados pode-se ver que a metodologia é muito promissora, apresentando algumas vantagens frente às metodologias convencionais em volumes finitos. A implementação atual da metodologia desenvolvida está restrita a malhas uniformes e, consequentemente, soluções para problemas com geometrias complexas, que necessitam de refinamento localizado da malha, foram obtidas somente para baixos números de Weissenberg, devido a limitação do custo computacional. Esta restrição pode ser contornada, tornando o seu uso competitivo.
Resumo:
A Descoberta de Conhecimento em Banco de Dados (DCBD) é uma nova área de pesquisa que envolve o processo de extração de conhecimento útil implícito em grandes bases de dados. Existem várias metodologias para a realização de um processo de DCBD cuja essência consiste basicamente nas fases de entendimento do domínio do problema, pré-processamento, mineração de dados e pós-processamento. Na literatura sobre o assunto existem muitos trabalhos a respeito de mineração de dados, porém pouco se encontra sobre o processo de pré-processamento. Assim, o objetivo deste trabalho consiste no estudo do pré-processamento, já que é a fase que consome a maior parte do tempo e esforço de todo o processo de DCBD pois envolve operações de entendimento, seleção, limpeza e transformação de dados. Muitas vezes, essas operações precisam ser repetidas de modo a aprimorar a qualidade dos dados e, conseqüentemente, melhorar também a acurácia e eficiência do processo de mineração. A estrutura do trabalho abrange cinco capítulos. Inicialmente, apresenta-se a introdução e motivação para trabalho, juntamente com os objetivos e a metodologia utilizada. No segundo capítulo são abordadas metodologias para o processo de DCBD destacando-se CRISP-DM e a proposta por Fayyad, Piatetsky-Shapiro e Smyth. No terceiro capítulo são apresentadas as sub-fases da fase de pré-processamento contemplando-se entendimento, seleção, limpeza e transformação de dados, bem como os principais métodos e técnicas relacionados às mesmas. Já no quarto capítulo são descritos os experimentos realizados sobre uma base de dados real. Finalmente, no quinto capítulo são apresentadas as considerações finais sobre pré-processamento no processo de DCBD, apontando as dificuldades encontradas na prática, contribuições do presente trabalho e pretensões da continuidade do mesmo. Considera-se como principais contribuições deste trabalho a apresentação de métodos e técnicas de pré-processamento existentes, a comprovação da importância da interatividade com o especialista do domínio ao longo de todo o processo de DCBD, mas principalmente nas tomadas de decisões da fase de pré-processamento, bem como as sugestões de como realizar um pré-processamento sobre uma base de dados real.
Resumo:
O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.
Resumo:
Este estudo consiste na formação de indicadores de apropriação ou qualidade dos espaços livres abertos, as praças, relacionando características de âmbito local e global na composição dos mesmos. A busca destes indicadores tem como objetivo, agregar facilidades no trabalho de decisores além de auxiliar o entedimento das praças no processo urbano. São investigadas questões relativas à densidade, centralidade, integração, homogeneidade social e política, características físicas, ambientais e equipagem. Para este estudo foram utilizados metodologias e trabalhos disponíveis, como o estudo da centralidade para a cidade de Porto Alegre, além da análise da configuração sócio-espacial com auxílio da análise sintática, entre outras fontes. O resultado do estudo aparece em forma de uma expressão, a “Sinergia Complexa”, que é o somatório dos indicadores isolados, e aplicados a três estudos de casos exploratórios, todas praças da cidade de Porto Alegre.
Resumo:
Atualmente, a necessidade de reabilitação estrutural tem se tornado cada vez mais freqüente. Desde o advento do concreto, diversas metodologias de reabilitação estrutural vêm sendo desenvolvidas e aplicadas; e têm tornado-se cada vez mais sofisticadas. A aplicação de compósitos de fibra de carbono no reforço de estruturas de concreto armado, representa o que há de mais moderno neste importante segmento da engenharia estrutural. Apesar das inúmeras vantagens de sua aplicação, a incorporação de um material, até então estranho ao meio da engenharia estrutural convencional, tem merecido especial atenção por parte dos pesquisadores envolvidos neste segmento. Este estudo tem por objetivo, portanto, explorar as principais implicações estruturais da aplicação dos compósitos de fibra de carbono no reforço externo de vigas de concreto armado. Para tanto, tornou-se necessária a implementação de um amplo programa de investigação, fundamentalmente experimental, baseada na realização de ensaios de flexão em vigas de concreto armado, reforçadas à flexão e ao cisalhamento, com dois tipos de sistemas de reforço. De modo a permitir uma análise ampla das evidências experimentais alcançadas através da condução do programa experimental, realizou-se uma profunda revisão da literatura disponível acerca do assunto. O programa experimental foi dividido em dois grupos O primeiro, composto por 14 vigas, reforçadas à flexão e o segundo, composto por 30 vigas, reforçadas ao cisalhamento. Em ambos os grupos, empregaram-se dois tipos de sistema de reforço (laminados pré-fabricados e mantas flexíveis pré-impregnadas). O procedimento de ensaio, idealizado e implementado especialmente para a condução do programa experimental da presente tese, foi totalmente controlado por computador, conferindo, assim, maior confiabilidade aos ensaios. Em cada um dos grupos, analisaram-se, além dos modos e cargas de ruptura, deformações específicas, deslocamentos e distribuição de tensões. Finalmente, estes resultados são discutidos e avaliam-se modelos analíticos que permitam simular o comportamento destas estruturas.
Resumo:
Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.
Resumo:
Este trabalho apresenta simulações físicas de correntes de densidade não conservativas em canal bidimensional e tridimensional. Primeiramente, foram desenvolvidas a seleção e caracterização de materiais granulares, bem como a classificação de tamanhos de grãos adequados capazes de simular tais correntes. Foram desenvolvidas também, metodologias de ensaios, abordando os detalhes como a preparação de materiais, equipamentos e instalações. Como resultados foram selecionados cinco materiais para as simulações, a areia (0,125mm a 0,063mm); os calcários B e C (0,125mm a 0,063mm) e os carvões 205 e carvão 207 (0,354mm a 0,063mm). Através de ensaios por fluxo contínuo de material, caracterizado por uma injeção de mistura durante um período de tempo, foram estudados as características geométricas, dinâmicas e os padrões de deposição destas correntes. Nestes ensaios foram variados o material granular e seu tamanho de grão utilizado na mistura e a concentração da mistura. Observou-se que: a velocidade da corrente aumenta à medida que a massa específica/concentração da mistura aumenta; que à medida que o tamanho do grão diminui, para um mesmo material com a mesma massa específica na mistura, a velocidade aumenta; a altura da cabeça da corrente aumenta à medida que a massa específica/concentração da mistura diminui; a distribuição dos volumes de depósitos apresentou uma tendência geral, com acúmulo de material, da ordem de 90%, nas regiões mais proximais do canal (0-75cm) e acúmulo de material, da ordem de 5%, canal nas regiões mais distais do canal (150-250cm). A distribuição dos grãos indica que o tamanho dos grãos vai diminuindo com a distância, estando as frações maiores (correspondentes a areia fina) presentes nas zonas mais proximais do canal (até 50cm) e com os grãos mais finos chegando até as regiões mais distais do canal (250cm). Foi avaliada, também, a influência da vazão inicial e do volume total de material sobre o desenvolvimento e depósitos das correntes de densidade não conservativas. As características medidas foram a evolução e as velocidades da corrente, além da espessura, granulometria e formas de fundo dos depósitos gerados. Como resultados foi verificado que a velocidade de avanço, espessuras, formas de fundo e distribuição granulométricas do material estão intimamente mais ligada à vazão de entrada do que ao volume total. Nota-se que, a vazão condiciona a tendência geral da evolução da corrente (padrão de variação da velocidade e da deposição) e as formas de fundo, enquanto que o volume de material injetado é responsável apenas pela magnitude dessas variações.
Resumo:
A permanente busca pela qualidade como diferencial nas instituições de ensino, bem como a necessidade de atender aos critérios estabelecidos pela legislação para a revalidação da autorização de funcionamento dos Centros Universitários no Brasil, foram os elementos que determinaram a abrangência desta pesquisa. Devido à complexidade e ao amplo espectro de itens que compõem o que podemos determinar como sendo qualidade, a pesquisa limitou-se a identificar os fatores pedagógicos e administrativos relevantes para a avaliação da qualidade no ensino. Para limitar o campo da pesquisa, esta foi feita utilizando o método de estudo de caso, que é uma estratégia de pesquisa que examina um fenômeno contemporâneo dentro do seu contexto real, e para tanto, foi pesquisado o curso de Bacharelado em Informática do Centro Universitário Positivo - UnicenP, em Curitiba. Dentre as metodologias que poderiam ser utilizadas, foi escolhida a metodologia denominada Soft System Methodology, ou simplesmente SSM. Esta metodologia, proposta por Peter Checkland em 1985 na Universidade de Lancaster no Reino Unido, é uma resposta às dificuldades de aplicação de metodologias que tendem a enfatizar que os objetivos dos sistemas são mensuráveis e que estes podem ser decompostos em sub-sistemas, através da técnica top-down, quando essas metodologias são aplicadas a problemas empresariais. A SSM permite a ordenação e a estruturação de situações problemáticas complexas e que se apresentam, aparentemente inconsistentes e com múltiplas visões pelos envolvidos no processo.
Resumo:
Uma definição confiável dos requisitos de um software depende diretamente da completa e correta compreensão sobre as necessidades do sistema e sua conseqüente representação de forma adequada ao processo de desenvolvimento. Uma proposta de modelagem de requisitos deve apresentar qualidades que colaborem para a compreensão mútua das necessidades entre os envolvidos no processo e que organizem os requisitos de forma a permitir o acompanhamento no desenvolvimento do software. O presente trabalho apresenta um modelo de estruturação de requisitos fundamentado em metodologias orientadas a objetivos com utilização de cenários e preceitos da Teoria da Atividade. O modelo tem sua argumentação nas premissas que cliente e usuários normalmente expressam suas necessidades através de objetivos almejados e que a ação humana deve ser analisada dentro de um contexto para que possa fazer sentido e ser compreendida. Inserido no contexto do Projeto FILM1, cujo objetivo é expandir o Método Fusion, agregando uma etapa de modelagem de requisitos, o trabalho estabeleceu a qualidade de usabilidade como motivadora da definição de um modelo de estruturação de requisitos. A usabilidade é uma qualidade que visa facilitar a utilização do modelo como uma ferramenta de representação dos requisitos de forma inteligível, atuando tanto na especificação dos requisitos como na validação dos mesmos entre os envolvidos. Os requisitos são estruturados segundo uma abordagem voltada aos clientes e usuários do sistema. O modelo definido tem por objetivo prover a construção gradual e incremental do entendimento compartilhado entre os envolvidos sobre os domínios do problema e da solução, na concepção e no desenvolvimento do software. Metodologias orientadas a objetivos, operacionalizadas através de cenários, conjugadas a princípios da atividade oferecem um suporte adequado a estruturação de requisitos provendo usabilidade ao modelo. A avaliação da aplicabilidade do modelo é realizada com a modelagem de requisitos em três estudos de casos. Em cada caso são aplicadas técnicas de elicitação no sentido da afinar a sintonia com a estrutura do modelo de requisitos. A concepção do modelo, embasada em conceitos da Teoria da Atividade, é bastante adequado às atividades de elicitação em uma abordagem voltada aos clientes e usuários.
Resumo:
A gestão assistencial, cada vez mais, assume a responsabilidade integral do desempenho dos serviços e/ou unidades hospitalares, passando a responder não somente pelo desempenho assistencial como também pelo econômico. Em conseqüência, há maior compreensão do processo e dos recursos consumidos. Assim, os indicadores assistenciais (tempo médio de permanência, taxas de infecção, taxas de óbito) passam a ser as causas mais óbvias e verdadeiramente afins para explicar e revestir os valores econômicos. Todavia, ela necessita de um modelo administrativo que a norteie, possibilitando assim, um gerenciamento sistematizado, científico e qualificado, que atinja as metas traçadas, refletidas nos indicadores de resultado da qualidade assistencial e econômica. Este trabalho teve como objetivo desenvolver um modelo integrado ao Activity-Based Management (ABM) para melhor analisar a eficácia em Serviços de Emergência, buscando através do mapeamento dos processos e custeio das principais atividades, propor o gerenciamento dos Protocolos Clínicos e das Intervenções Terapêuticas - Therapeutic lntervention Scoring System (TISS) pelo método ABM. O desenvolvimento do modelo deu-se em duas etapas: I°) Identificação dos principais serviços prestados e mapeamento dos processos e principais atividades do Plantão Médico do Hospital Mãe de Deus, Porto Alegre -RS; 2°) Desdobramento da análise de Eficiência e Eficácia através de um sistema de informações, onde as entradas consideradas foram os processos, subprocessos e atividades mapeadas e custeadas pelo método Activity- Based Costing (ABe); os processadores foram os protocolos clínicos (ABM estratégico), as rotinas, o TISS e a estatística descritiva (ABM operacional); resultando na saída do sistema a análise da Eficácia (qualidade, tempo e custo) gerando relatórios da Eficácia Assistencial. Considerando-se que na saúde, mesmo contando com a utilização dos melhores recursos e tempos hábeis, existe a probabilidade de desfechos insatisfatórios, o modelo assumiu que para análise da qualidade, a avaliação está embasada num todo, onde se somam basicamente o tempo ideal preconizado para cada situação e a expectativa da utilização otimizada dos recursos (mão-de-obra, materiais, medicamentos, exames e equipamentos). Para análise dos tempos, considerou-se as evidências da obtenção de melhores resultados clínicos. Assim sendo, toda vez que os tempos forem além do preconizado pelos protocolos e rotinas, haverá ineficácia no processo, pois os objetivos assistenciais dos desfechos clínicos serão perturbados. E por fim, na análise dos custos, foram considerados ao mesmo tempo o meio e o fim da quantificação de ociosidade ou desperdício e da qualidade assistencial respectivamente. Fazer as coisas que devem ser feitas, com qualidade a custo menor, proporciona perspectivas de eficácia ao encontro dos objetivos da organização. Como resultados, pode-se constatar que os protocolos clínicos e as intervenções pelo TISS integrados ao ABM e com o uso da estatística descritiva, muito embora não sejam fórmulas rígidas a serem seguidas, mostraram indiscutivelmente a eficácia e a eficiência do processos assistencial, respeitadas as variabilidades de condutas e utilização de recursos explicáveis pela diversidade das doenças.