1000 resultados para Complexidade computacional
Resumo:
o estudo da relação entre a complexidade do conhecimento e sua construção no ambiente escolar apóia-se na Epistemologia Genética e no paradigma da complexidade. A investigação se delineou como um estudo qualitativo, inspirado na metodologia de Estudo de Caso. O problema de pesquisa procurou indagar a repercussão da fragmentação dos conteúdos programáticos em disciplinas nos anos finais do Ensino Fundamental. Os dados foram coletados através de múltiplas fontes de evidência. Realizaram-se entrevistas, inspiradas na abordagem clínica piagetiana, com alunos e professores; - observações diretas do tipo participante como observador e análise documental. Os dados coletados indicam que as práticas escolares apresentam pressupostos epistemológicos e paradigmáticos que se apóiam no senso comum e estendem-se em métodos empiristas/aprioristas e reducionistas. O pensamento do aluno é manipulado de forma a se enquadrar ao modelo escolar. A fala é reduzida a uma mera ação prática, pois, embora exercida, o professor desconsidera a importância do diálogo. Por sua vez, os exercícios apresentam-se como dois lados de uma mesma moeda. Podem manifestar-se como promotores de técnicas empiristas, quando colocados sob a forma de repetição para a memorização. Todavia, podem se revelar como um recurso extremamente valioso quando colocam um problema, apresentam desafios e permitem a testagem de hipóteses do sujeito. Já os conteúdos programáticos visam a uma eterna diferenciação do objeto de estudo, a qual se configura como uma simples fragmentação capaz de eliminar qualquer dimensão do conhecimento enquanto totalidade. O tempo da aprendizagem acaba por se igualar com aquele que o professor gasta para expor a informação ao aluno. Isso o relega a uma posição passiva que retira o caráter de equilíbrio dinâmico do conhecimento, pois esse sempre se apresenta como um produto pronto e acabado. A escola, então, tem um desconhecimento do próprio conhecimento e o senso comum, que é empirista/apriorista no campo epistemológico, é reducionista em sua dimensão paradigmática.
Resumo:
Nas últimas décadas, sistemas de suprimento de energia que utilizam recursos renováveis têm sido estudados e empregados como opção para o fornecimento de energia elétrica em comunidades isoladas em áreas remotas. Devido aos avanços da tecnologia fotovoltaica associada à diminuição de custos e maior conhecimento de seu desempenho, os sistemas fotovoltaicos apresentam-se como uma opção promissora. Neste trabalho apresenta-se o desenvolvimento de um programa computacional de dimensionamento e simulação de sistemas fotovoltaicos autônomos na linguagem de programação Visual Basic 5.0, chamado PVSize, capaz de propor, para uma certa configuração de sistema, o número de baterias e módulos com seu risco de déficit de energia. Este programa tem como finalidade facilitar a interação com o usuário, e poderá ser utilizado como uma ferramenta auxiliar no processo de escolha dos elementos do sistema e estabelecer a melhor configuração através de um acompanhamento anual com base horária dos parâmetros envolvidos. Estes elementos são caracterizados através da implementação de modelos matemáticos propostos por diferentes autores que descrevem o seu desempenho individual. A integração destes modelos através de uma metodologia apropriada levou ao desenvolvimento de um programa completo de dimensionamento e simulação de sistemas fotovoltaicos autônomos. O potencial energético solar é obtido a partir de informações das características climatológicas locais, utilizadas para gerar séries de dados de radiação a partir de modelos estatísticos O programa permite projetar sistemas de suprimento de energia elétrica que atenderão cargas comunitárias (iluminação pública e de escolas, bombeamento de água, refrigeração em centros de saúde, irrigação, telecomunicações, e mais) e cargas residenciais (iluminação, refrigeração, lazer, etc.) tornando-se uma ferramenta importante para o projeto de sistemas fotovoltaicos autônomos. A comparação dos valores obtidos através de PVSize e outros programas computacionais desenvolvidos por estabelecimentos conceituados na área apresentou uma ótima concordância. Desta forma fica demonstrada a adequação do PVSize para o dimensionamento e simulação de sistemas fotovoltaicos autônomos.
Resumo:
A melhoria da qualidade da prestação de serviços em virtude do aumento da competitividade nas empresas vem se tornando uma realidade evidente para aquelas que desejam continuar atuantes no mercado de serviços. Esta melhoria deve ter como objetivo a satisfação das necessidades de seus clientes e para isto, abordagens de Qualidade como Lean Seis Sigma encontram as condições propícias para sua utilização. Lean Seis Sigma é uma metodologia de melhoria de qualidade que apresenta foco na variabilidade dos processos e objetiva a redução de falhas ou defeitos por meio do arcabouço de técnicas e ferramentas estatísticas da qualidade. Este trabalho tem como proposta a apresentação de um roteiro de referência para a aplicação de Lean Seis Sigma em Serviços utilizando-se, ainda, de Simulação Computacional de processos, uma poderosa ferramenta que possibilita maior agilidade e precisão à aplicação do roteiro. Inicialmente foi realizada uma revisão bibliográfica para apresentar um referencial teórico de conceitos sobre Lean Seis Sigma, Simulação Computacional e Casos de Implementação para que, a partir desta base, fosse desenvolvida o roteiro de aplicação de Lean Seis Sigma em Serviços. Para validação da proposição, realizou-se um estudo de caso em um processo de serviço de uma grande instituição financeira, aplicando-se o roteiro proposto e analisando os resultados obtidos.
Resumo:
Objetivo: métodos antropométricos que quantifiquem as curvas da coluna vertebral e a avaliação postural a fim de realizar investigações epidemiológicas sobre o papel da postura na ocorrência das dores lombares. O propósito do estudo foi avaliar acurácia e reprodutibilidade do Sistema de Avaliação Postural Digitalizado (SAPD) para medir lordose lombar comparando com raio-x. Delineamento: transversal, com amostra consecutiva. Participantes: para medida da acurácia no grupo 1 ( T12,L3,L5) n = 16 e grupo 2 (L1,L3,L5) n= 17. Na reprodutibilidade intra e inter-avaliador n= 80. Principais Medidas: marcadores externos nos processos espinhosos das vértebras T12, L1, L3 e L5. Raio-x de perfil da coluna lombar e foto digital em perfil direito. Medida da lordose lombar no raio-x com métodos de Cobb,Centróide (CLL) e Processos Espinhosos (PE) e com o SAPD. Resultados: grupo 1, correlação entre SAPD e Cobb foi 0,803 (p<0,001), entre SAPD e CLL foi 0,642 (p=0,024), entre SAPD e a medida dos PE a correlação foi 0,917, com R2 = 0,842. No grupo 2, correlação entre SAPD e Cobb foi 0,559 (p=0,020), entre SAPD e CLL de 0,325 (p=0,302), com correlação significativa somente entre SAPD e Cobb. Entre SAPD e PE a correlação foi 0,763, com R2 = 0,583. Para reprodutibilidade interavaliador a correlação foi 0,981 (p < 0,001) e para reprodutibilidade intra-avaliador de 0.978 (p < 0,001) referente às mesmas fotografias. Reprodutibilidade intraavaliador de 0.872 (p < 0.001) e 0.956 (p<0,001) para inter-avaliador referente à fotos diferentes de um mesmo indivíduo com recolocação dos marcadores sobre a pele . Considerações Finais: O SAPD mostrou-se acurado e reprodutível para a medida da lordose lombar.
Resumo:
Este trabalho pretendeu minimizar a incerteza na tomada de decisões para projetos mais sustentáveis de intervenção em assentamentos precários. Para sua realização foi utilizada a estratégia de estudo de caso, optando-se pela escolha de um único estudo, na ilha Grande dos Marinheiros, aliada ao uso do método baseado em dados (Grounded Theory), como método para organização das informações coletadas. O estudo utilizou esta metodologia de análise sistêmica, que permitiu verificar as interinfluências entre os diversos aspectos apresentados pelo sítio (aspectos ecológicos do meio ambiente, aliados ao processo antrópico de alteração do habitat). Isto resulta na definição de categorias e subcategorias e seus cruzamentos, através de um sistema de matrizes, levou a constatação da categoria central. Assim, o abastecimento de água foi considerado como o tópico que deveria ser priorizado no processo de tomada de decisões. O sistema de cruzamento sistêmico também permitiu a criação de uma linha mestra (eixo principal) a ser utilizada na definição de futuros projetos de intervenção urbanohabitacional, que mostrou as dificuldades no abastecimento de água e as conseqüências advindas de sua estruturação. Ao final do trabalho, constataram-se as seguintes contribuições: não se recomenda a estruturação do transporte viário, o uso de energia eólica, hidroelétrica ou biomassa e estruturação de redes de distribuição de água entre continente e ilhas. Por outro lado, o estudo salienta as seguintes oportunidades: o saneamento deficitário possibilita a introdução de alternativas diferenciadas, como a utilização de banheiros secos e geração de biogás. As facilidades de obtenção das águas de chuva e a possibilidade real de melhora das águas superficiais devem ser opções preferenciais no abastecimento de água e a estruturação de um sistema de transporte fluvial (coletivo e individual) entre ilhas e continente.
Resumo:
Esta pesquisa assenta-se num campo emergente dos estudos organizacionais e de estratégia: Cognição Gerencial & Organizacional (Managerial e Organizational Cognition, daqui em diante, MOC). Avanços teóricos e metodológicos no campo da Ciência Cognitiva têm viabilizado o acesso, mapeamento e análise de como indivíduos produzem sentido e agem de modo inteligente. A aplicação desse ferramental tem permitido a mensuração do que se convencionou chamar “complexidade cognitiva situacional”, ou seja, o grau de diferenciação e integração com que uma pessoa percebe determinada situação, problema, objeto ou fenômeno. Tem havido, no entanto, controvérsias sobre a relação entre essa variável e, em ultima análise, o desempenho do indivíduo na realização de uma atividade e no alcance de resultados. Enquanto alguns estudos têm encontrado apenas relações residuais, grande parte das pesquisas têm encontrado relações positivas, na forma de “U invertido” ou, até mesmo, negativas entre complexidade cognitiva e desempenho. Nosso objetivo principal aqui é identificar como se deu essa relação na indústria siderúrgica no Brasil no período de 2001 a 2003. Para atingir esse objetivo estruturamos esta pesquisa como segue: no primeiro capítulo identificamos as principais bases teóricas e conceituais do campo. Advinda predominantemente da Filosofia, Sociologia e Ciência Cognitiva, essa base fornece os alicerces sobre os quais a Teoria de MOC, de um modo geral e esta pesquisa, em particular, se fundamentam. No capítulo seguinte apresentamos o campo de MOC em si, com especial ênfase sobre suas origens, processos cognitivos estudados, métodos de pesquisa e as principais relações causais exploradas. Em seguida apresentamos um estudo empírico realizado com dois experts e com os CFOs de três das principais companhias siderúrgicas no Brasil. Buscamos, primordialmente, identificar dois tipos de fenômenos nos dados obtidos: diferenças de complexidade cognitiva entre os experts e os executivos, e o tipo de relação existente entre a complexidade cognitiva dos executivos e o desempenho organizacional. Nesse capítulo apresentamos o problema de pesquisa, os objetivos da investigação, as hipóteses, a metodologia utilizada, os resultados e as análises. Finalmente, concluímos com alguns apontamentos em relação ao campo de MOC e à pesquisa empírica, avaliando algumas forças e fraquezas deste trabalho e sugerindo direções futuras de pesquisa nesse campo.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Neste trabalho, analisam-se os processos de formação de ligações de hidrogênio entre as bases Adenina. Timina, Guanina e Citosina usando o método Monte Carlo probabilístico. A possibilidade de formação de pares é inicialmente verificada considerando critério geométrico (distância e orientação das molécutlas) seguida pela análise da probabilidade energética, que é proporcional ao fator de Boltzmann. Os resultados mostram que a probabilidade de concorrência, para alguns modelos, não segue a estrutura mais provável segundo o fator de Boltzmann. Isto sugere que existe uma forte influência geométrica na formação dos pares (ligações simples e múltiplas). Tal análise fornece para a construção de modelos mais complexos bem como para o entendimento de alguns mecanismos que ocorrem em processos relacionados à mutações, visando compreender este tipo de fenômeno biológico
Resumo:
O presente estudo visa, a partir de uma noção dos componentes da sustentabilidade, aliada ao paradigma moriniano da complexidade e dos pressupostos da teoria neoinstitucional, analisar o papel do Programa Pró-Guaíba na estruturação de um campo organizacional sustentável. Para isso, buscou-se na análise do conteúdo de evidências empíricas, obtidas em fontes de dados primárias (entrevistas em profundidade) e secundárias (pesquisa documental), elementos que propiciassem uma melhor compreensão dos principais aspectos subjacentes a essa questão. Assim, o conceito de sustentabilidade proposto pelo Programa pôde ser melhor evidenciado possibilitando a sua avaliação, tanto no âmbito dos Subprogramas, como na análise do Programa como um todo. Da mesma forma, o arcabouço teórico adequado à compreensão do papel do Programa Pró-Guaíba na estruturação do campo organizacional foi desenvolvido propiciando, uma perspectiva complexificada dos processos institucionais, assim como, uma solução alternativa aos paradoxos da abordagem neoinstitucionalista. Assim, os aspectos que confirmam a estruturação do campo organizacional em decorrência das ações do Programa são evidenciados, contudo, não como um “fato dado como certo” como pressupõe alguns autores da análise neoinstitucional, mas como elementos que compõem um “campo organizacional ativo”, concebido dialogicamente a partir de interações que integram a unidade complexa Programa/campo/sustentabilidade a qual, por sua vez, institucionaliza/desinstitucionaliza recursiva e retroativamente os componentes do sistema por intermédio de processos complexos e dialógicos de adaptação e seleção, de forma a aumentar suas perspectivas de permanência e sobrevivência na ecoorganização mais ampla da qual faz parte.
Resumo:
A elaboração de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas desenvolvendo, simultaneamente, suas opções e decisões com relação ao mesmo. É necessário considerar a qualidade do processo de elaboração do projeto dependente de uma efetiva comunicação entre os membros da equipe. A indústria da construção civil está sendo beneficiada pelos recursos oferecidos pela tecnologia da informação como, por exemplo, os sistemas colaborativos (extranets de projeto). Estes sistemas corroboram na integração e comunicação entre os membros de um projeto. O objetivo da presente pesquisa foi a apresentação do desenvolvimento de modelo validado de ferramenta computacional projetada para complementar um sistema colaborativo pré-existente. Esta ferramenta foi denominada Sistema de Programação e Controle do Processo de Projeto (SIPROCON/PP). A finalidade do SIPROCON/PP é auxiliar no processo de tomada de decisão dos coordenadores através do monitoramento do cronograma e do fluxo do intercâmbio de informações das atividades geradoras de informações neste processo. O processo de desenvolvimento da ferramenta foi delineado em harmonia com a organização da pesquisa. Neste sentido, é assinalado o uso da prototipação e da simulação como estratégias de pesquisa, utilizados respectivamente na construção e validação do modelo da ferramenta. Ante a necessidade do experimento, foi criada uma atividade lúdica através da qual foi reproduzido o intercâmbio de informações de um processo de projeto denominada Sistemática de Simulação do Processo de Projeto (SS/PP) para validação do modelo da ferramenta. Logo, por meio do uso das simulações foram obtidos os dados correspondentes a validação da modelagem e aplicação do SIPROCON/PP e, ao mesmo tempo, necessários à conclusão da pesquisa. Diante disso, a partir da análise dos dados coletados é apontada a melhoria na qualidade do processo de elaboração do projeto considerando a formação de uma equipe equilibrada de projeto. Isso, fruto do conhecimento mais acurado do coordenador sobre o desempenho de cada projetista.
Resumo:
Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.
Resumo:
A exigência pelo mercado de empresas competitivas vem se tornando cada vez maior, em vista das constantes mudanças que acontecem a cada instante no mundo globalizado. Gerenciar uma empresa é uma tarefa complexa, e essa tarefa torna-se ainda mais delicada quando trata-se de uma empresa familiar. Administrar uma empresa onde os funcionários participam do dia-a-dia da família, por pertencerem a ela, pode muitas das vezes confundir a constituição desses espaços, gerando no ambiente empresarial crises que possam ter origem a partir da incapacidade do gestor em separar os dois ambientes, ou mesmo da dificuldade em separar seu lado emotivo de cunho familiar das atividades profissionais da empresa. Aliado à essas dificuldades surge um dos maiores problemas do empreendimento familiar, a questão da sucessão, momento que é crucial para muitas empresas e reflete na sua permanência no mercado ou mesmo na sua dissolução e falência. Nasce daí a preocupação com o planejamento sucessório, ainda não tratado com a devida importância que lhe é devida por algumas empresas. Apresenta-se aqui um Estudo de Caso, de uma empresa que vem se desenvolvendo de maneira eficiente, porém poderia está bem melhor se não estivesse passando por uma crise na sucessão, resultado da ausência de um planejamento pelos seus fundadores. Busca-se aqui retratar o problema da sucessão, e assim demonstrar que esse processo deve ser pensado e analisado, se possível desde os primeiros anos de vida da empresa, visto que período suficiente há para essa elaboração.
Resumo:
O trabalho buscou identificar e avaliar a escolha do Imip à luz da teoria neoinstitucional, mediante os mecanismos isomórficos que caracterizam o campo das organizações de saúde. Trata-se de um estudo de caso, tendo o Imip como objeto de análise, voltado especificamente para dois modelos de informatização da operação e da gestão, a fim de verificar qual o mais adequado para as especificidades da instituição, incluindo o aspecto financeiro, custo/benefício. O primeiro modelo se refere a um sistema próprio de informatização; o segundo a um modelo de sistema de gestão já existente, comercializado por empresa especializada nesta tecnologia. A metodologia abrangeu pesquisas bibliográficas, documentais e de campo. O referencial teórico foi a teoria neoinstitucional e o trabalho de campo constou de uma pesquisa incluindo observação simples, visando compor variáveis dos dois modelos avaliados, e coleta de dados realizada por meio da aplicação de dois questionários: um questionário aberto, com os dirigentes do Imip, e um questionário misto, com cem colaboradores, utilizadores do sistema, escolhidos aleatoriamente, por sorteio. Entre os achados se identificou claras referências ao isomorfismo, principalmente o mimético, nas percepções dos indivíduos respondentes. Ao final da pesquisa, foi possível concluir que a contratação de um sistema de gestão hospitalar, já existente no mercado, concebido e comercializado por empresa de tecnologia especializada no segmento da saúde, justificou-se como a melhor escolha para a organização, pois, as semelhanças existentes entre os processos do Instituto e aqueles contidos no sistema eram muito mais relevantes que suas particularidades. Outro fator relevante levou em consideração os elevados custos para uma única instituição desenvolver e manter sozinha um sistema atualizado segundo as exigências normativas e técnicas necessárias às organizações de saúde e os padrões de qualidade da informação estabelecidos pelo SUS.
Resumo:
Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.